Furinspaltstelle

      
Symbolbild zur Furinspaltstelle

🧬 Die Furinspaltstelle – Ein Code, den es nie gab

Wie aus 12 Buchstaben ein globaler Irrtum wurde

 
     

Warum dieser Artikel bitter notwendig ist

In fünf Jahren Gesprächen – mit Ärzten, Virologen, Bioinformatikern, Journalisten, Forschern und interessierten Laien – habe ich immer wieder dasselbe erlebt: Ein tiefes Vertrauen in etwas, das kaum jemand je hinterfragt hat.

Und noch seltener verstanden.

Es geht um „Genomsequenzen“, „virale RNA“, „Proteine“ – und um das vielleicht absurdeste Detail der COVID-Erzählung: die sogenannte Furinspaltstelle. Ein angeblicher „molekularer Schnittpunkt“ – verborgen in einem rein modellierten und konstruierten „"Spike-Protein"“ eines digital zusammengepuzzelten SARS-CoV-2-Modells. Gerade mal 12 Buchstaben lang – und doch soll er über Infektion, Pandemie und Ursprung entscheiden.

Das Kernproblem: Leichtgläubigkeit gegenüber Simulationen

Was mich über all die Jahre am meisten erschüttert hat, war nicht die Komplexität der Fachliteratur, sondern die Leichtgläubigkeit, mit der digitale Simulationen als Realität akzeptiert wurden.

💬 Da sagen Ärzte Dinge wie: „Das wurde doch eindeutig nachgewiesen.“

🔬 Kollegen zeigen auf bunte 3D-Modelle und glauben, sie hätten ein echtes Molekül gesehen.

🖥️ Bioinformatiker verwechseln algorithmisch erzeugte Ergebnisse mit biologischen Fakten.

Wie konnte es so weit kommen?

Die Arbeitsteilung ist mittlerweile so fein zerstückelt, dass keiner mehr das Gesamtbild erkennt: Virologen vergiften oder verhungern Zellkulturen und starren auf trübe Suppen, Bioinformatiker modellieren virtuelle Konstrukte auf Basis konzeptioneller String-Überlappungen, ohne je einen echten Organismus gesehen zu haben.

PCR-Hersteller wiederum machen weder das eine noch das andere – sie ziehen sich digitale Sequenzen aus Online-Datenbanken und basteln daraus mit chemischen Reagenzien ihre Oligonukleotide, ohne zu hinterfragen, ob diese digitalen Buchstaben überhaupt irgendeinen Bezug zur biologischen Realität haben.

Wird ein neuer Datensatz hochgeladen, wird halt angepasst. Und der Arzt am Ende dieser Kette? Der kennt nur noch positiv oder negativ – und glaubt felsenfest, das habe alles Hand und Fuß.

Ein Meilenstein der kollektiven Verwirrung. Und mittendrin: wir. Die den ganzen Prozess durchschauen – und Stück für Stück zerlegen.

Und kaum jemand merkt: Was hier als „wissenschaftlich belegt“ gilt, ist in Wahrheit eine komplexe Kette aus Vermutungen, Parametern, Modellierungen und Wunschdenken.

Dieser Artikel ist kein Meinungsstück. Er ist ein Gegenangriff – auf ein Denken, das Simulationen für Wirklichkeit hält.

Und gegen eine Wissenschaft, die aufgehört hat zu fragen, was sie eigentlich wirklich sehen kann.

Was dieser Artikel zeigen wird

Wir werden zeigen: Die berühmte Furinspaltstelle ist kein Beweis für gar nichts. Sie ist weder einzigartig, noch isoliert, noch funktional belegt. Sie ist ein Rechenprodukt – entstanden aus einer rekonstruierten Textdatei, einer postulierten Übersetzung und einer simulierten Struktur.

Und doch wird sie bis heute verwendet, um:

  • evolutionäre Theorien zu zementieren,
  • Laborherkunft zu behaupten,
  • Pathogenität zu begründen,
  • Impfstoffe zu rechtfertigen,
  • und Kritiker zum Schweigen zu bringen.

Wenn Sie je geglaubt haben, dass moderne Genetik beweisen kann, was ein Virus ist, wie es funktioniert und woher es kommt – dann ist dieser Artikel für Sie.

Denn was als Fakt präsentiert wird, ist in Wahrheit: eine Illusion aus Zahlen, Software und Storytelling.

Und doch wird es weiterhin behauptet – obwohl selbst der gerichtlich bestellte Sachverständige im Masernvirusprozess, Prof. Dr. med. Dr. rer. nat. Andreas Podbielski, in öffentlicher Sitzung klar festhielt: Ein Nachweis der Infektionsursächlichkeit allein auf Basis einer Genomsequenz ist nicht möglich – es handelt sich lediglich um Computermodelle mit Wahrscheinlichkeitswerten, nicht um belegbare Tatsachen.

Quelle: (Landgericht Ravensburg, 4 O 346/13, Protokoll vom 12.03.2015) URL: https://wissenschafftplus.de/uploads/article/Protokoll_13_4_20150001.pdf

Es wird Zeit, das zu entwirren.

Und wir beginnen genau dort, wo alles beginnt: bei einer winzigen, vielzitierten, nie bewiesenen Codezeile namens PRRA (Alias Furinspaltstelle).

Kapitel 1: Das offiziell erzählte Wunder der molekularen Präzision – oder: Wie ein Virus zur Uhrmacherlegende wurde

Stellen Sie sich das einmal bildlich vor:

Ein angeblich „lebensunfähiges“, nicht-zelluläres Partikel – ein sogenanntes „Virus“, also tote Materie ohne Stoffwechsel, ohne Eigenbewegung, ohne Bewusstsein – entwickelt sich, so die Geschichte, durch eine Reihe zufälliger Mutationen im Organismus irgendeines Tieres, sagen wir: eines Fledertiers, Panzertiers oder Phantasietiers.

Doch damit nicht genug. Dieses Partikel – kaum mehr als ein digital postuliertes RNA-Skript – schafft es, beim Übergang zum Menschen eine spektakuläre Innovation mitzubringen: eine Furinspaltstelle – exakt vier Aminosäuren lang (PRRA), eingefügt an exakt der richtigen Stelle im angenommenen „"Spike-Protein"“, damit dieses angeblich von einem „Aktivierungsmechanismus / Enzym“ des Menschen verarbeitet werden kann – einer Art molekularen Schere, die es nur im Lehrbuch gibt.

Was als „Enzym“ bezeichnet wird, ist letztlich ein Wirkmodell – eine Idee wie die einer molekularen Schere.

Im Reagenzglas bleibt davon nur eine undefinierte Substanz mit vermuteter Aktivität.

Was wir wirklich sehen, ist keine einzelne molekulare Maschine – sondern das Ergebnis einer Interpretation.

Und das alles – so wird behauptet – ohne Plan, ohne Ziel, ohne Intelligenz, aber mit chirurgischer Genauigkeit.

Das angebliche Funktionsmodell (in einfacher Sprache)
  • Eine menschliche „Zelle“ besitzt DNA – den „Bauplan“.
  • Diese wird in mRNA „umgeschrieben“.
  • Ribosomen (strukturell nie eindeutig sichtbar gemacht, von Harold Hillman sogar als Artefakte abgelehnt) sollen diesen Bauplan lesen.

    Quelle: Hillman, H. (2008). Evidence-based cell biology, with some implications for clinical research. Shaker Verlag. URL: https://www.shaker.de/de/site/content/shop/index.asp?ID=8&ISBN=978-90-423-0335-5

  • Sie suchen, so heißt es, passende Aminosäuren in der Zelle – ganz ohne Koordinationszentrale.
  • Aus diesen Aminosäuren „baut“ sich dann ein dreidimensionales „Protein“, das sich spontan korrekt faltet – und natürlich exakt die Struktur annimmt, die in einem Computermodell vorhergesagt wurde.

Dieses Protein – das sogenannte "Spike-Protein" – besteht aus 1.273 Aminosäuren.

Und genau in diesem gigantischen Gebilde soll sich – an der Außenseite, frei zugänglich – ein Abschnitt von nur vier Aminosäuren befinden, der vom Enzym Furin erkannt wird.

Nun ist Furin selbst ein „Enzym“, also ein weiteres imaginäres molekulares Scherenwesen, das ebenfalls nie live in Aktion gesehen wurde – sondern modelliert, angenommen, simuliert.

Und genau dieses „Enzym“ soll, mit chirurgischer Präzision, diesen vier-Aminosäuren-Abschnitt in einem 9–25 Nanometer großen „Protein“ lokalisieren und dort einen Cut setzen – was dann die entscheidende biologische Aktivierung des gesamten Virus ermöglicht.

Quelle: Taha, B. A., Al Mashhadany, Y., Al-Jubouri, Q., Haider, A. J., Chaudhary, V., Apsari, R., & Arsad, N. (2023). Uncovering the morphological differences between SARS-CoV-2 and SARS-CoV based on transmission electron microscopy images. Infectious Diseases Now, 53(6), 104622. https://doi.org/10.1016/j.idnow.2023.104622 Zitat: „The findings reveal disparities in the characteristics of SARS-CoV-2 and SARS-CoV, such as [...] length of spike protein (S) 10.11 and 9.50 nm [...] respectively.“

Frage: Wie winzig wäre ein Schnitt, der nur 4 Aminosäuren innerhalb des „SARS-CoV-2-"Spike-Protein"s“ (1273 Aminosäuren) betrifft, dessen Trimer in Elektronenmikroskop-Aufnahmen etwa 9–12 nm lang ist?

Antwort: Selbst wenn man die vier Reste maximal streckt, beträgt ihre End-zu-End-Distanz nur etwa 1,4 nm(4 × 0,35 nm pro Rest in β-Strang-Konformation). In realistischer, leicht geknickter Loop-Geometrie liegt der Abstand eher zwischen 0,6 und 1,0 nm.

🧬 Warum der „Schnitt“ nicht beobachtbar ist

Doch viel entscheidender ist: Ein solcher molekularer „Cut“ ist mit absolut keinem Werkzeug der Welt direkt sichtbar oder überprüfbar.

Warum?

Weil es auf dieser Skala schlicht keine Beobachtung gibt – keine Kamera, kein Mikroskop, kein Sensor, der eine punktgenaue Wechselwirkung zwischen einem Proteinkomplex (wie Furin) und exakt vier Aminosäuren im Inneren eines gefalteten "Spike-Protein"s live und im molekularen Kontext erfassen könnte.

Die gesamte Vorstellung basiert auf Modellen:

  • Modellierte Proteinstrukturen (aus Sequenzprognosen)
  • Modellierte Bindetaschen (aus Software)
  • Modellierte Reaktionsstellen (aus publizierten Annahmen)

Und der „Schnitt“ selbst? → Ein abstrahierter Ereignis-Punkt in einer Simulation, nie in der Realität beobachtet.

Und doch wird genau diese unmessbare Miniaturaktion zum Beweismittel gemacht – für Infektiosität, Tier-zu-Mensch-Übertragung und Impfstoffdesign.

Ein molekularer Mythos – geboren aus Rechenvorgängen, nicht aus Beobachtung.
🧠 Was das bedeutet: Eine Kette unbelegter Annahmen

Ein molekularer „Schnitt“ an vier winzigen Stellen innerhalb eines 1.273-teiligen Proteins, versteckt in einem Partikel, das selbst kleiner ist als eine Staubspur, soll also der Schlüssel sein zu einem globalen Krankheitsgeschehen.

Und obwohl:

  • das Virus nie vollständig isoliert wurde,
  • das „"Spike-Protein"“ nie in vivo nachgewiesen wurde,
  • die Furinspaltstelle nur rechnerisch rekonstruiert wurde,
  • der Schnittvorgang nie live beobachtet wurde,
  • und das „Enzym“ selbst nur als Modell existiert,

… wird das Ganze mit einer Ernsthaftigkeit präsentiert, als hätte man es mit einem Elektronenmikroskop auf Video aufgenommen – mit Tonspur.

🎭 Willkommen im Theater der „Moleküle“

Was man uns zeigt, ist kein biochemischer Vorgang. Es ist ein Animationsfilm, entstanden aus Annahmen, Softwareparametern und narrativer Notwendigkeit.

Und die Pointe?

Diese 12 Buchstaben sollen den Unterschied gemacht haben – zwischen einem harmlosen hypothetischen Schnupfenvirus und dem „gefährlichsten Erreger unserer Zeit SARS-CoV-2“.

Man könnte lachen, wäre es nicht so tragisch. Denn dieser Schnitt, den nie jemand gesehen hat, hat die Welt gespalten – und das ganz ohne „Furin“.

1. Der Anfang: Eine Probe voller Rätsel

Am Beginn dieser ganzen Geschichte steht eine kleine Menge Flüssigkeit – die sogenannte BALF-Probe, gewonnen durch eine bronchoalveoläre Lavage.

Das klingt technisch, ist aber schnell erklärt: Man spült Teile der Lunge mit Flüssigkeit und saugt diese wieder ab, um darin nach möglichen Krankheitserregern zu suchen.

📝 Hinweis: Maßgebliche Studie zur Genombestimmung von SARS-CoV-2 (BALF).
Quelle: Wu, F., Zhao, S., Yu, B., et al. (2020). A new coronavirus associated with human respiratory disease in China. Nature, 579 (7798), 265–269. https://doi.org/10.1038/s41586-020-2008-3

Ein biologischer Cocktail

Doch diese BALF-Probe ist alles andere als ein sauberer, geordneter „Beweisbehälter“.

Sie ist vielmehr ein biologischer Cocktail – oder treffender: ein mikrobiologischer Matsch.

In ihr finden sich:

  • Fragmente menschlicher Gewebe und ihrer „RNA“,
  • Bakterien, Pilze und andere Mikroorganismen,
  • Zelltrümmer aller Art,
  • freie Nukleinsäuren,
  • Umweltpartikel (z. B. Staub, Pollen, chemische Rückstände),
  • und jede Menge „genetischer Bruchstücke“, deren Herkunft völlig unklar ist.

Aber was genau sind diese Bruchstücke eigentlich?

Es handelt sich nicht um sichtbare Fäden oder greifbare Moleküle, sondern um Buchstabenfolgen – genauer gesagt: die vier Buchstaben A, C, G und U, die in der Welt der RNA die Bausteine darstellen sollen.

Sie stehen für die Basen Adenin (A), Cytosin (C), Guanin (G) und Uracil (U).

Bei DNA ist es fast gleich – nur dass Uracil durch Thymin (T) ersetzt wird.

Diese Buchstaben sind keine Farben oder Stoffe – sie sind eine symbolische Sprache, eine selbst interpretierte Übersetzung chemischer Eigenschaften in ein digitales Alphabet.

Das bedeutet: Schon auf der untersten Ebene sucht man nicht nach angenommenen Molekülen selbst, sondern nach Zeichen, nach Buchstabenreihen, die durch bestimmte Verfahren im Labor „sichtbar“ gemacht – oder besser: digital erzeugt – werden.

🧩 Stellen Sie sich Folgendes vor: Sie sollen ein Rezept rekonstruieren, aber nicht aus einem fertigen Kuchen, sondern einen ihnen völlig unbekannten, nie gesehenen, und das aus dem Inhalt eines riesigen Müllcontainers hinter einer Großbäckerei.

Drin liegen: zermahlene Krümel von hundert verschiedenen Backwaren, fettige Verpackungsreste, Mehlstaub, Schimmelspuren, ein paar Fliegen – und mittendrin irgendwo, winzig klein: ein paar Zutaten aus einem bestimmten Kuchen.

Vielleicht.

Nur dass es in der genetischen Biologie nicht um echte Krümel geht, sondern um Buchstabenschnipsel, wie sie aus einem alten, zerrissenen Buch stammen könnten – ein Buch, das nie vollständig vorlag, dessen Autor unbekannt ist, und bei dem niemand sagen kann, ob die Sätze überhaupt zusammengehören.

🟩 Das erste Dilemma: Fehlende Herkunft

Die „Rohmasse“ besteht aus Milliarden winziger Buchstabenfragmente – RNA-Sequenzen, meist nur 50 bis 300 Zeichen lang.

Doch wir wissen bei keinem einzigen dieser Fragmente, woher es stammt.

Es könnte:

  • von einem Menschen kommen,
  • ein Überrest eines Bakteriums sein,
  • aus einem längst zerfallenen Pilz stammen,
  • oder ein reiner Artefakt, also ein Laboreffekt oder Verunreinigung.
📌 Das zentrale Nachweisproblem

In dieser Ausgangslage lässt sich kein „neues Virus“ wissenschaftlich identifizieren, denn:

  • Es fehlt jede Möglichkeit, Fragmente eindeutig einem Organismus zuzuordnen.
  • Es gibt kein vollständiges „Genom“, das physisch vorliegt oder isoliert wurde.
  • Es gibt keine Markierung, die bestimmte „RNA-Stücke“ als „viral“ kennzeichnen würde.

Mit anderen Worten: Die gesamte Geschichte beginnt in einem Nebel aus Unsicherheit.

Wer später behauptet, man habe „Virenbestandteile gefunden“, hat schon auf der ersten Stufe keine Grundlage.

Denn ohne klares Ausgangsmaterial ist jede folgende Aussage – über Struktur, Funktion oder gar Gefährlichkeit – ein Kartenhaus auf matschigem Grund.

💡 Was man verstehen sollte

Die moderne Virusgenetik startet nicht mit einem mikroskopisch sichtbaren „Virus“.

Sie beginnt mit einem undurchsichtigen „molekularen“ Chaos – einer Brühe aus zerfallenen biologischen Überresten.

Von dort aus wird durch Software, Theorie und viel Interpretation ein „neues Virus“ virtuell zusammengesetzt.

Aber: Nichts davon wurde in der Realität als Ganzes gesehen, isoliert oder direkt überprüft.

Und alles basiert auf einer Interpretation von Buchstaben, nicht auf einem beobachtbaren biologischen Objekt.

So verwunderte es nicht, als Francis deSouza – damals Präsident und CEO von Illumina, dem Weltmarktführer für Genom-Sequenzierung – auf dem WEF in Davos 2023 stolz betonte, dass SARS-CoV-2 letztlich eine rein digitale Rekonstruktion war.

Quelle: World Economic Forum. (2023, January 19). Bridging the health gap [Video]. YouTube. https://www.youtube.com/watch?v=cKmas68gJ3U (siehe 03:19)

Das bedeutet: Die Virus-Sequenz wurde aus Rohdaten am Computer errechnet – eine digitale Rekonstruktion, keine physisch direkt beobachtete Struktur. Am 10. Januar 2020 erhielten die Virologen aus China mehrere unterschiedliche Genomvorschläge für SARS-CoV-2 – mit Abweichungen, die bis zu 159 % zwischen den Assembler Versionen Megahit und Trintiy betrugen. Die Struktur, die heute als „Virus“ bezeichnet wird, wurde aus diesen Daten ausgewählt – eine Konsens-Sequenz.

Ein biologisches Paradoxon
  • In der Wissenschaft ist ein Virus über eine eindeutig nachgewiesene Erbsubstanz definiert.
  • Doch hier wurde eine digitale Version als „Original“ festgelegt – ohne klassische Überprüfung am isolierten Virus.

Auf dieser Basis wurden später mRNA-Impfstoffe entwickelt – nicht auf einem real isolierten, gereinigten Virus, sondern auf einem digital erzeugten Gensequenzmodell.

Next Level Original. Telegram-Beitrag mit Sammlung von Quellen zur digitalen Modellierung des SARS-CoV-2-Genoms und zur Impfstoffentwicklung [Post]. Telegram. https://t.me/NextLevelOriginal/681

Francis deSouza selbst nannte das: „Biologie der digitalen Transformation.“

Was bedeutet das? Wenn Biologie zunehmend digitalisiert wird, wenn „Viren“ auf rein mathematischen Modellen basieren – was genau soll dann eigentlich „aus einem Labor entwichen“ sein 😉.

2. Die Zerstückelung: Sequenzieren ohne Herkunft

Nachdem die BALF-Probe entnommen wurde – also jene chaotische Flüssigkeit voller biologischer Trümmer – beginnt der nächste Schritt: das sogenannte Sequenzieren.

Das klingt nach einem geordneten Lesevorgang, wie man ihn aus der Buchwelt kennt. Doch das ist ein Trugschluss.

Was wirklich passiert, ist etwas ganz anderes: Die vorhandene RNA – ohnehin schon zerstückelt in der Probe – wird nun künstlich weiter zerschnitten, in viele Millionen kurze Stücke, sogenannte Reads (Lesevorgänge).

Jedes dieser gelesener Fragmente besteht typischerweise aus rund 150 Buchstaben – also einer kurzen Folge aus den bereits bekannten Zeichen A, C, G und U, die für die Bausteine der RNA stehen.

Diese Mini-Schnipsel werden dann durch Geräte ausgelesen – hochautomatisiert, extrem schnell und massenhaft.

Am Ende dieses Vorgangs hat man keinen durchgehenden Text, kein sichtbares „Virus“, kein vollständiges „Gen“ – sondern nur eine gigantische Textdatei voller kurzer Buchstabenkombinationen, unbeschriftet, unsortiert und ohne Herkunftsnachweis.

👉 Die enorme Datenmenge

Allein aus 200 µl einer BALF-Probe wurden über 56 Millionen Sequenzierungs-Reads gewonnen – das entspricht rund 17 Milliarden Basen bzw. über 19 Milliarden Textzeichen in der Rohdatei. Das ist deutlich mehr als der gesamte Textinhalt der deutschsprachigen Wikipedia.

Doch wie viel sind diese Buchstaben ohne Kontext wirklich wert?

Quelle: Wu, F., Zhao, S., Yu, B., et al. (2020). A new coronavirus associated with human respiratory disease in China. Nature, 579 (7798), 265–269. https://doi.org/10.1038/s41586-020-2008-3
Direktes Zitat aus der Studie: "In total, we generated 56,565,928 sequence reads that were de novo-assembled and screened for potential aetiological agents." (Wu et al., 2020, p. 267)

🧩 Stellen Sie sich Folgendes vor: Sie bekommen von einem Antiquariat eine Kiste mit 20 Millionen zerschnittenen Buchseiten.

Keine Seite ist vollständig, kein Textabschnitt länger als ein paar Worte.

Sie wissen nicht:

  • Aus welchen Büchern die Schnipsel stammen,
  • wie viele Bücher beteiligt waren,
  • ob die Teile überhaupt zusammenpassen,
  • oder ob jemand absichtlich Seiten dazwischengemischt hat.

Und nun lautet Ihre Aufgabe: Rekonstruieren Sie daraus ein neues, nie dagewesenes Buch. Klingt absurd? Genau das ist der Alltag der modernen Virusgenetik.

🟩 Das zentrale Problem: Sequenzieren ohne Kontext

Die RNA aus der Probe wird ohne Kontext und ohne Positionsangabe zerstückelt. In Wahrheit muss diese vorab in cDNA umgewandelt werden, was weitere Probleme mit sich bringt. Kein Fragment ist mit einem „Absender“ versehen.

Es gibt keinen Hinweis darauf, ob zwei Fragmente aus derselben „Zelle“ stammen, demselben Organismus, oder ob sie nur zufällig nebeneinander im Datenstrom auftauchen.

📌 Warum das ein Nachweisproblem ist

Aus diesen vielen Einzelfragmenten lässt sich kein durchgehender, überprüfbarer und angenommener „RNA-Molekül-Strang“ rekonstruieren.

Es gibt keine originäre Einheit, keinen Faden im Sinne einer Helix, den man in der Realität je gesehen oder isoliert hätte. Was bleibt, ist ein reines Datenrauschen aus Buchstabenschnipseln – und jede Rekonstruktion, die darauf folgt, basiert nicht auf Beobachtung, sondern auf Annahme und Modellbildung.

💡 Was beim Sequenzieren wirklich entsteht

Beim Sequenzieren entsteht nicht das „Genom“ eines Virus – sondern ein gigantischer Haufen digitaler Zeichen, der nur durch Software-Interpretation später zu einem „Virus“ wird. Die Technik erzeugt Daten – aber nicht automatisch Erkenntnis.

Wer später sagt, man habe das „Genom“ eines neuen „Virus“ „entschlüsselt“, verschweigt: Es wurde nie im Ganzen gesehen. Es wurde nur errechnet.

3. Die Rekonstruktion: Software macht daraus ein Genom

Nun beginnt der Schritt, der aus den Millionen bis Milliarden gelesener Buchstabenschnipseln ein vermeintlich zusammenhängendes „Virusgenom“ formen soll – nicht einmal im Reagenzglas, sondern ausschließlich am Computer.

Dazu verwendet man sogenannte Assembler – spezielle Softwareprogramme, die versuchen, Überlappungen zwischen den Fragmenten zu erkennen.

Ein simples Prinzip:

Wenn Fragment A auf „…GATTACA“ endet und Fragment B mit „GATTACA…“ beginnt, dann könnte man sie logisch aneinanderfügen.

Diese Überlappungen sind wie Klebestellen im Puzzle. Doch was, wenn man gar nicht weiß, wie das fertige Puzzle aussehen soll, wie viele Teile fehlen – oder ob die Schnipsel nicht aus hundert verschiedenen Bildern stammen?

Und genau das ist die Situation: Niemand weiß, wie das „Virus“ aussieht. Niemand hat ein vollständiges Exemplar in der Realität gesehen.

Stattdessen versucht man, aus einem unüberschaubaren Chaos an Daten ein Modell zu formen – ein digitales Konstrukt, das „so aussehen könnte wie“ ein „Virusgenom“.

🧩 Stellen Sie sich Folgendes vor: Sie haben eine große Kiste mit 10.000.000 Puzzleteilen.

Einige gehören zu einem Landschaftsbild, andere zu einem Porträt, wieder andere stammen aus völlig anderen Puzzles.

Nun setzen Sie eine Software darauf an – mit dem Befehl: „Bau mir daraus ein sinnvolles Bild.“

Doch diese Software entscheidet selbst:

  • wie groß die Verbindung sein muss, damit zwei Teile „passen“ (z. B. 3 oder 7 identische Buchstaben),
  • welche Überlappungen Priorität haben,
  • und ob Lücken „geschätzt“ werden dürfen.

Das Ergebnis ist nicht das Originalbild. Es ist ein Bild – eines von vielen möglichen.

Und welches entsteht, hängt davon ab, welche Regeln die Software anwendet.

💡 Ein entscheidender Begriff: k-mers

Das sind kleine Vergleichseinheiten – Fenster, mit denen die Software prüft, ob zwei Fragmente als Überschneidung gelten dürfen. Typische k-mer-Werte liegen bei 21, 25 oder 31 Buchstaben.

Das bedeutet: Die Software schaut, ob zwei Abschnitte genau dieselbe Buchstabenfolge von z. B. 21 Zeichen enthalten – nur dann gelten sie als passend und können zu einer längeren Erbgutkette zusammengesetzt werden.

Doch schon kleine Änderungen am k-mer-Wert ändern das Endergebnis drastisch. Je kleiner das Fenster, desto mehr Verbindungen erkennt das Programm – auch falsche. Je größer, desto strenger, aber dafür können wichtige Verbindungen übersehen werden.

🟩 Das Problem: Zusammenbau nach Algorithmus, nicht Biologie

Der Zusammenbau des „Genoms“ erfolgt nach mathematischen Kriterien – nicht nach biologischer Realität.

Es ist ein Modell, das davon abhängt:

  • welche Software verwendet wurde,
  • welche Parameter eingestellt wurden,
  • welche Erwartungen der Forscher hatte.

Das bedeutet: Aus denselben Rohdaten können mehrere verschiedene Genome erzeugt werden.

Und keines davon ist „das echte“ – denn es gibt keinen objektiven Maßstab, kein Original, mit dem man vergleichen könnte.

📌 Warum das ein Nachweisproblem ist

Das rekonstruierte „Virusgenom“ ist ein reines Computermodell.

Es wurde nie in vivo gesehen, nie als Ganzes isoliert, nie direkt beobachtet. Es ist eine hypothetische Rekonstruktion, zusammengesetzt aus Schnipseln unbekannter Herkunft.

Es kann nicht ausgeschlossen werden, dass dabei „RNA-Fragmente“ von völlig verschiedenen Organismen – etwa Mensch, Bakterium, Pilz etc. – falsch kombiniert wurden.

Was bleibt, ist ein Bild – ein Puzzlebild, das man wollte, nicht eines, das wirklich da war.

💡 Kernbotschaft für Laien: Ein Genom entsteht hier nicht durch Entdeckung, sondern durch Design – durch Auswahl, Algorithmus, Parameter.

Es ist, als würde man aus Zeitungsschnipseln ein Gedicht basteln – und dann behaupten, man habe das Originalmanuskript gefunden.

4. Die Richtung wird vorgegeben: Das Alignment als Deutungsrahmen

In der idealen Vorstellung würde man aus den gesammelten RNA-Bruchstücken ohne Vorurteil ein neues Genom zusammensetzen – explorativ, ergebnisoffen.

Und tatsächlich: Der erste Schritt in der SARS-CoV-2-Studie war eine solche de-novo-Assemblierung, bei der aus Millionen von Bruchstücken ein vollständiges virales Genom rekonstruiert wurde – rein datengetrieben, ohne Referenz.

Doch dieser Schritt allein macht aus einer Sequenz noch kein verständliches Virus. Was bedeutet welches Gen? Wo beginnt das "Spike-Protein", das für die Infektion verantwortlich ist?

Hier kommt eine Methode ins Spiel, die mehr Fragen beantwortet, als man ihr vielleicht stellen sollte: das Alignment.

Was ist Alignment?

Beim Alignment werden die gewonnenen Sequenzabschnitte mit bekannten Virusgenomen abgeglichen – insbesondere anhand von Sequenzen wie SARS-CoV-1 (Tor2) und dem „Fledermausvirus SL-CoVZC45“.

Diese Referenzsequenzen sind jedoch selbst digitale Konstruktionen – entstanden ebenfalls durch Assemblierung, ohne dass ihre biologische Realität je unabhängig verifiziert wurde.

Trotzdem dienen sie nun als Vorlage für die Interpretation des neuen Genoms.

Was bedeutet das konkret?

Die rekonstruierten RNA-Fragmente werden nicht mehr als offene Möglichkeit betrachtet, sondern entlang einer bekannten Struktur gedeutet.

Leseraster werden dort angenommen, wo sie bei SARS-CoV-1 liegen. Proteincodierende Abschnitte werden identifiziert – nicht, weil man sie direkt sieht, sondern weil sie so ähnlich sein müssten wie bei früheren Viren.

Unterschiede werden dabei als „Variante“ gedeutet, nicht als Alternative.

🧩 Stellen Sie sich Folgendes vor: Sie erhalten eine Sammlung unbeschrifteter Wörter aus alten Büchern.

Statt daraus eine neue Geschichte zu formen, nehmen Sie ein bekanntes Märchen – sagen wir Hänsel und Gretel – und beginnen, Ihre Wörter so einzusetzen, dass sie den bekannten Sätzen möglichst nahekommen. Fehlt ein Wort? Kein Problem – die Software ergänzt es anhand von Wahrscheinlichkeiten. Passt ein Begriff nicht ganz? Dann wird er passend gemacht. Am Ende sieht es aus wie Hänsel und Gretel – aber nicht, weil es das war, sondern weil Sie es so haben wollten.

💡 Die Konsequenz des Alignments

Genau das passiert beim Alignment. Es entsteht kein neutrales Bild, sondern eines, das durch bestehendes Wissen strukturiert ist.

Die Struktur des neuen Virus ist damit nicht rein aus den Daten hervorgegangen, sondern stark durch die Wahl der Referenz geprägt.

Der neue Erreger wird damit nicht als Fund behandelt – sondern als Abkömmling eines bestehenden Modells.

🟩 Das Problem dabei: Alignment ist nicht passiv

Alignment ist nicht passiv. Es lenkt die Interpretation.

Wenn man Leseraster und Proteine anhand eines alten Virus definiert, dann erkennt man Neues nur, wenn es trotz dieses Rahmens sichtbar bleibt.

Radikal neue Strukturen – etwa ein anderer ORF-Aufbau – können so systematisch übersehen oder als „Fehler“ korrigiert werden.

Was entdeckt wird, ist dann oft nur das, was erwartet wurde.

📌 Warum das ein methodisches Problem ist: Das Alignment macht aus einem induktiven Prozess (Was sagt uns die Sequenz?) einen deduktiven (Wie passt das in bekannte Muster?).

Es stellt nicht die Frage: „Was haben wir gefunden?“ – sondern: „Wie passt es zum, was wir kennen?“

👉 Das ist, als würde man Knochen eines unbekannten Tiers nur dann als echt akzeptieren, wenn sie sich zu einem Dinosaurier zusammensetzen lassen, den wir bereits beschrieben haben.

🧬 Fazit für den Leser

Was durch Alignment entsteht, ist kein Bild allein aus der Datenlage – sondern ein Abbild, das stark durch den Referenzrahmen geformt wurde.

Die Methode sagt nicht: „Zeig mir, was da ist“ – sondern: „Zeig es mir so, wie ich es kenne.“

5. Die Interpretation beginnt: Vom Genom zum Protein

Nachdem am Computer ein vollständiges „SARS-CoV-2-Virusgenom“ zusammengebaut wurde – rund 29.803 Buchstaben lang (WuhanHu1), also eine lange digitale Zeichenkette aus A, C, G, U – geht es nun einen Schritt weiter: Man behauptet, dieses Genom enthalte Bauanleitungen für bestimmte Eiweiße, sogenannte Proteine.

Quelle: National Center for Biotechnology Information. (2020, Juli 18). Severe acute respiratory syndrome coronavirus 2 isolate WuhanHu1, complete genome (RefSeq Accession No. NC_045512.2) [GenBank record]. NCBI. Abgerufen am 18. Juni 2025 von https://www.ncbi.nlm.nih.gov/nuccore/NC_045512.2

Ein Abschnitt davon, etwa 3.822 Zeichen (Basen), soll für das berühmte „"Spike-Protein"“ codieren – also jene Struktur, die angeblich dem Virus hilft, menschliche Zellen zu erkennen und zu durchdringen.

Doch wie kommt man zu dieser Aussage? Durch das sogenannte Prinzip des genetischen Codes.

Dabei werden die Buchstaben der RNA (A,C,G,U) – immer drei auf einmal – zu sogenannten Codons gruppiert. Jedes Codon soll für eine bestimmte Aminosäure stehen, also einen Baustein eines Proteins.

🧩 Das Problem der Redundanz

Beispiel: Das Triplett CGG steht laut Lehrbuch für Arginin.

Klingt exakt. Ist es aber nicht.

Denn: Arginin kann auch durch CGA, CGU, CGC, AGA oder AGG codiert werden. Das bedeutet: Sechs verschiedene Codons können dieselbe Aminosäure meinen.

Und das gilt für fast alle angenommenen Aminosäuren.

Der genetische Code ist redundant. Es gibt 64 mögliche Codons, aber nur 20 Aminosäuren plus 3 Stoppzeichen. Das führt zu Mehrdeutigkeiten, Dopplungen, und – vor allem – zu einem enormen Interpretationsspielraum.

Eine bestimmte Buchstabenfolge bedeutet nicht eindeutig: „Das ergibt dieses Protein.“ Sondern: „Es könnte – unter bestimmten Annahmen, Regeln, Ausnahmen – dieses Protein gemeint sein.“

💡 Ein verschlungener Irrgarten: Mehr als nur Codons

Und das ist nur der Anfang der Unsicherheit.

Denn der Weg vom Genom zum Protein verläuft nicht wie ein klarer Pfad – sondern wie ein verschlungener Irrgarten.

Es gibt:

  • Start- und Stopcodons, die nicht immer dort wirken, wo man es erwartet.
  • Überlappende Leserahmen, in denen dieselbe Sequenz unterschiedlich gelesen werden kann.
  • Spleißvarianten, bei denen Abschnitte übersprungen oder neu kombiniert werden.
  • Regulatorische Signale, die den Prozess beeinflussen – oft unvorhersehbar.
  • Und ganze Abschnitte, die man als „Junk-DNA“ bezeichnet – solange man ihre Funktion nicht kennt.

Das bedeutet: Die Übersetzung von einer RNA-Sequenz in ein Protein ist kein linearer, automatischer Mechanismus, sondern ein regelbasierter, kontextabhängiger Prozess – voll von Annahmen, Sonderfällen und offenen Fragen.

🟩 Problem 1: Das Genom ist nur ein digitales Konstrukt

Die angebliche RNA-Sequenz existiert nur als digitale Textdatei – erzeugt am Computer. Es gibt keinen Nachweis, dass sie in einem biologischen System jemals als Ganzes vorlag oder in dieser Form abgelesen wurde.

📌 Warum das ein Nachweisproblem ist: Alle folgenden Aussagen – über Proteine, ihre Funktion, ihre Gefährlichkeit – bauen auf einem virtuellen Produkt auf. Kein Labor der Welt hat das komplette SARS-CoV-2-Genom in der Realität isoliert.

🟩 Problem 2: Die Übersetzung ist mehrdeutig

Die Übersetzung von Buchstaben zu Aminosäuren ist nicht eindeutig. Codons haben Synonyme, Leserahmen sind verschiebbar, Startpunkte sind interpretationsabhängig.

📌 Warum das ein Nachweisproblem ist: Was als „"Spike-Protein"“ bezeichnet wird, ist keine beobachtete Struktur, sondern eine modellhafte Interpretation. Es gibt unzählige mögliche Übersetzungen, die auf derselben Sequenz basieren – und keiner weiß, welche in einem lebenden Organismus tatsächlich umgesetzt wird.

🧠 Zusammenfassung für Laien: Stellen Sie sich vor, Sie bekommen einen langen Text in einer alten, mehrdeutigen Schrift – in der mehrere Zeichen dasselbe bedeuten können, und Worte je nach Lesart unterschiedliche Aussagen ergeben. Nun sollen Sie daraus ein einziges Gedicht ableiten – und dann behaupten, das sei exakt das Original des Autors. So funktioniert die modellierte nicht real beobachtete Proteinvorhersage in der Genetik.

5b. Variabler Zusammenbau – Wie aus denselben Fragmenten verschiedene „Genome“ entstehen

Was kaum jemand weiß – aber grundlegend für das Verständnis ist: Aus ein- und derselben Datenbasis können völlig unterschiedliche „Virusgenome“ entstehen.

Nicht, weil die Rohdaten sich ändern. Sondern weil sich die mathematischen Einstellungen in der Software ändern, mit der diese Daten verarbeitet werden.

Ein zentrales Beispiel ist der sogenannte k-mer-Wert, welchen wir bereits angesprochen haben.

🧩 Das technische Herzstück: Wie die Software puzzelt

Was ist ein k-mer? Ein k-mer ist ein kleines Vergleichsstück – ein Fenster von z. B. 21, 25 oder 31 Buchstabenmit dem die Software prüft, ob zwei Fragmente überlappen. Je nach Größe dieses Fensters entstehen völlig unterschiedliche Verknüpfungsmuster.

  • Kurze k-mers(z. B. 19) erkennen mehr Überlappungen – aber auch viele falsche.
  • Längere k-mers(z. B. 31) sind strenger – aber können echte Verbindungen übersehen.

Das bedeutet: Schon eine kleine Änderung des k-mer-Wertes verändert das gesamte Genom-Modell.

💡 Zur Erinnerung: Bei der Sequenzierung erhält man Millionen von kurzen RNA-Fragmenten – etwa 150 Zeichen lang. Diese werden noch weiter zerlegt in k-mers – zum Beispiel in 25er-Schnipsel – um daraus einen sogenannten De-Bruijn-Graphen zu bauen: eine rechnerische Karte aller möglichen theoretischen Verbindungen.

Je nachdem, wie die Karte aufgelöst wird, entstehen unterschiedliche Wege durch die Fragmentlandschaft – und somit unterschiedliche Genome.

Ein reales Beispiel: 150 % Unterschied aus denselben Daten

Genau das geschah auch in der maßgeblichen Erststudie zu SARS-CoV2, die zur Vorlage aller Virologen und Bio-Informatiker weltweit wurde: Dort wurden dieselben Rohdaten sowohl mit Trinity (k=25) als auch mit Megahit (k=21) assembliert – doch das Ergebnis waren drastisch unterschiedliche Contiglängen: Trinity erzeugte nur ein insgesamtes 11.760 Nukleotide langes Fragment, während Megahit ein 30.474 Nukleotide langes Genom rekonstruierte – ein Unterschied von über 150 %, obwohl die Datenbasis identisch war.

Das zeigt eindrücklich, wie stark das vermeintliche „Virusgenom“ vom gewählten Algorithmus und den Parameterwerten abhängig ist.

Quelle: Wu, F., Zhao, S., Yu, B., et al. (2020). A new coronavirus associated with human respiratory disease in China. Nature, 579 (7798), 265–269. https://doi.org/10.1038/s41586-020-2008-3

🗺️ Stellen Sie sich Folgendes vor: Sie haben 100.000 Ortsnamen auf kleinen Zetteln.

Sie sollen daraus eine Straßenkarte bauen – aber Sie dürfen Verbindungen nur dann einzeichnen, wenn sich die Ortsnamen um eine bestimmte Zahl von Buchstaben überlappen.

Je nach Regel entstehen:

  • bei großzügigen Einstellungen viele Straßen – auch falsche Verbindungen,
  • bei strengen Einstellungen kaum Straßen – manche echte Routen fehlen.

Das Ergebnis ist: immer eine andere Karte.

🟩 Das Problem dabei: Es gibt nicht „das eine Genom“

Es gibt nicht „das eine Genom“, das aus den Rohdaten entsteht. Es gibt eine ganze Familie von möglichen Genomen, je nachdem, welche Software, welche Parameter und welche Zielvorstellung verwendet werden.

📌 Warum das ein Nachweisproblem ist

Ein Genom, das nur durch Parameterwahl entsteht, ist kein beobachteter Befund – es ist eine Rechenhypothese. Und daraus etwas Biologisches abzuleiten – etwa ein funktionales „"Spike-Protein"“ – ist wissenschaftlich nicht haltbar.

Noch kritischer wird es, wenn man sich erinnert, dass die berühmte Furinspaltstelle – jener kleine Abschnitt aus 12 Buchstaben – genau in einem Bereich des Genoms liegt, der durch diesen variablen Rechenweg entsteht.

👉 Wenn der k-mer-Wert sich ändert, verschiebt sich das Modell.
👉 Wenn sich das Modell verschiebt, verschieben sich auch die Leserahmen.
👉 Wenn sich die Leserahmen verschieben, verändern sich die angenommenen Codons „Aminosäuren“ – und die Struktur des vermuteten „Proteins“.

Das heißt: Ob diese 12 Buchstaben überhaupt zusammengehören, oder nur durch eine Software-Konfiguration in dieser Reihenfolge aufgetaucht sind, ist nicht verifizierbar. Es ist eine rechnerische Konstruktion, keine biologische Entdeckung.

🧠 Fazit für Laien

Man hat aus Millionen Textschnipseln versucht, einen Satz zu rekonstruieren. Je nachdem, wie viele Wörter pro Schnipsel man vergleicht, entsteht ein anderer Satz. Und dann behauptet man: „Genau dieser Satz ist biologisch vorhanden.“ Doch in Wahrheit ist der Satz nur eine Rechenoption – nicht ein naturwissenschaftlicher Nachweis.

6. Das Unsichtbare sichtbar gemacht: Der Sprung in die dritte Dimension – Die Protein-3D-Faltung

Nun erfolgt der vielleicht größte Sprung in der gesamten Kette der Interpretation: Man hat eine digitale Buchstabenreihe (A,U,C,G) – eine Abfolge von Aminosäuren, errechnet aus einem virtuellen RNA-Modell. Jetzt behauptet man: Daraus entstehe im Körper ein konkretes, dreidimensional gefaltetes Protein – zum Beispiel das berühmte „"Spike-Protein"“ von „SARS-CoV-2“.

Doch genau hier stößt die Genetik an ihre konzeptionellen Grenzen.

💡 Das Faltungs-Dilemma: Code ist nicht Schicksal

Denn selbst innerhalb ihrer eigenen Theorie gilt: Die reine Abfolge der Sequenz der Aminosäuren bestimmt nicht eindeutig, wie sich ein Protein im Raum faltet. Die Faltung ist kein Naturgesetz, das man einfach ausrechnen kann.

Sie ist:

  • nicht linear,
  • nicht deterministisch,
  • und nicht vollständig verstehbar.
🧪 Kontext ist alles: Wovon die Faltung innerhalb der Theorie abhängt

Ein und dieselbe Aminosäurekette kann sich – je nach Umgebung – komplett unterschiedlich in diesem Modell falten:

  • 🔥 Temperatur: Schon kleine Unterschiede (z. B. 36,5 °C statt 37,5 °C) können andere Faltungszustände erzeugen.
  • ⚖️ pH-Wert: Der Säuregrad im Gewebe beeinflusst die elektrische Ladung und somit die Bindungen.
  • 🧂 Ionenkonzentration: Salzgehalt, Kalzium, Magnesium – alles verändert die chemischen Bedingungen.
  • 🔄 Interaktionen: Andere „Moleküle“ („Substanzen“) im Umfeld wirken mit – manchmal stabilisierend, manchmal störend.
  • 🧬 Gewebetyp: In der Lunge faltet sich ein „Protein“ anders als in der Leber oder im Labor.
  • 🧪 Laborbedingungen: Künstliche Expression in Zellkulturen erzeugt innerhalb der Modelle oft andere Faltungen als in vivo.

🧩 Stellen Sie sich Folgendes vor: Sie erhalten eine Faltanleitung für ein Origami-Tier – aber:

  • Das Papier ist unsichtbar.
  • Die Luftfeuchtigkeit verändert die Form während des Faltens.
  • Die Hände, die falten, wissen nicht, wo die Mitte ist.
  • Und niemand weiß, wie das fertige Tier aussehen soll.

Dann sagt jemand: „Genau dieses Origami entsteht jedes Mal – und funktioniert immer gleich.“

Das ist die Logik, mit der man heute behauptet, ein „"Spike-Protein"“ sei durch eine 2D-digitale Gensequenz eindeutig bestimmbar.

🟩 Das zentrale Problem: Faltung ist nicht vorhersagbar

Selbst, wenn die Buchstabenfolge der RNA zu 100 % korrekt wäre und wir die gesamte Theorie und Modellvorstellung als korrekt akzeptieren würden, wissen wir nicht, wie sich das resultierende Protein im menschlichen Körper tatsächlich faltet – oder ob es überhaupt existiert.

Die sogenannte Konformation(räumliche Struktur) ist extrem variabel. Und diese Form entscheidet darüber, ob das Protein funktioniert, stört oder gar nichts tut.

Zudem sind Proteine keine starren Gebilde – wie oft dargestellt. Sie sind dynamisch, elastisch, beweglich, sie „wabbeln“, verändern ihre Form, lagern sich um, zerfallen, reagieren.

Proteinstrukturen sind im „Molekülkonzept“ instabil und ständig in Bewegung, verändern ihre Struktur und Funktion laufend ("wabbeln"). Laut der wissenschaftlichen Fachzeitschrift PNAS wäre die Berechnung der Flugbahn einer Rakete zum "Mars" einfacher als die Verfolgung der strukturellen Veränderungen winziger Proteinmoleküle. Sie sind in Wahrheit unmöglich.

NATURE Studie: „Dynamic personalities of proteins“
Quelle: Henzler-Wildman K, Kern D. Dynamic personalities of proteins. Nature. 2007 Dec 13;450(7172):964-72. https://pubmed.ncbi.nlm.nih.gov/18075575/

PNAS Studie: „The nature of protein folding pathways“
Quelle: Englander, S. W., & Mayne, L. (2014). The nature of protein folding pathways. Proceedings of the National Academy of Sciences, 111(45), 15873-15880. https://doi.org/10.1073/pnas.1411798111

📌 Die Konsequenz: Jede Strukturaussage ist Spekulation

Wenn man nicht vorhersagen kann, wie ein Protein aussieht, kann man auch nicht sagen, ob eine bestimmte Stelle – wie die berühmte Furinspaltstelle – überhaupt existiert, zugänglich ist oder eine Funktion hat.

👉 Jede Aussage über angebliche Strukturelemente wie diese Spaltstelle ist eine Projektion – basierend auf Modellen, Simulationen und idealisierten Annahmen.

🧠 Fazit für Laien: Man beginnt mit einem digitalen Text (Sequenz), übersetzt ihn in eine hypothetische Aminosäurekette (Codons), und behauptet dann, diese falte sich ganz genau zu einem Werkzeug, das Zellen öffnet. In Wirklichkeit hat man aber nie ein solches Protein gesehen, nie isoliert, nie direkt beobachtet – sondern nur auf dem Bildschirm modelliert.

Das ist, als würde man einen Schatten auf der Wand betrachten – und daraus ein ganzes Tier rekonstruieren. Ein schönes Bild – aber keine überprüfbare Wirklichkeit.

7. Die Furinspaltstelle: Ein Phantom mit Bedeutung

Nun kulminiert die gesamte Geschichte in einem scheinbar winzigen Detail: Eine 12 Buchstaben lange RNA-Sequenz – vier Codons – die für vier Aminosäuren stehen sollen: die „Furinspaltstelle“.

Diese soll sich – so die Erzählung – exakt auf der Außenseite eines dreidimensional gefalteten „"Spike-Protein"s“ befinden.

Und genau dort, so heißt es, greife ein menschliches „Enzym“ namens „Furin“ ein, erkenne diese Stelle wie ein Schlüssel das Schloss – und spalte das Protein an dieser winzigen Stelle auf.

Das Ergebnis: Ein „aktiviertes“ "Spike-Protein", das Zellen effizienter infizieren könne – und damit die pandemische Wirkung von SARS-CoV-2 erkläre.

Klingt nach einer präzisen molekularen Mechanik. Ist in Wahrheit: eine Kaskade aus Modellannahmen – auf Basis eines rekonstruierten Texts, den nie jemand als Molekül gesehen hat.

🧩 Schritt für Schritt: Was hier eigentlich behauptet wird
  1. Die „Spaltstelle“ besteht aus 12 RNA-Buchstaben
    Diese extrem kurze Sequenz kommt zigtausendfach in menschlichem und bakteriellem Material vor. Dass sie zufällig beim digitalen Zusammenpuzzeln in ein „virales Genom“ gerät, ist nicht unwahrscheinlich, sondern statistisch erwartbar.
  2. Diese vier Aminosäuren sollen nebeneinander liegen
    Damit das „Enzym Furin“ sie „erkennen“ könnte, müssten die Aminosäuren in der gefalteten 3D-Struktur exakt nebeneinander auf der Oberfläche liegen. Aber:
    Wir wissen nicht, ob sie das tun. Wir können es nicht wissen. Es gibt kein Bild, keine reale Messung, kein Isolat.
    Es gibt nur ein Computermodell, das durch Softwarealgorithmen und Parameterwahl berechnet wurde.
    Und selbst hier wird immer wieder deutlich gemacht, wie schwer selbst die Interpretationsmodellierungen sind, so heißt es in der Studie „…this portion of the spike protein has not been structurally well-defined.“
    […]
    „The β-hairpin loop that contains the FCS residues of the spike protein is not well-ordered, and to date the three-dimensional structure of this sequence has not been elucidated through cryo-EM or crystallographic means.“

    Diese Aussagen entsprechen der Feststellung, dass die „Schleife“ in hochaufgelösten Strukturen wegen ihrer Beweglichkeit nicht eindeutig modelliert werden kann.

    Quelle: Hone, A. J., Santiago, U., Harvey, P. J., et al. (2024). Design, synthesis, and structure–activity relationships of novel peptide derivatives of the severe acute respiratory syndrome-coronavirus-2 "Spike-Protein" that potently inhibit nicotinic acetylcholine receptors. Journal of Medicinal Chemistry, 67 (11), 9587–9598. https://doi.org/10.1021/acs.jmedchem.4c00735

    Und selbst dieses Modell ist nur eine Simulation einer möglichen Faltung – nicht ihre Beobachtung.

  3. Das ganze "Spike-Protein" existiert nur als Theorie
    Alles beginnt mit einem digital rekonstruierten Genom, zusammengesetzt aus Textfragmenten unbekannter Herkunft. Daraus wird ein möglicher Proteinabschnitt berechnet. Daraus wird ein 3D-Modell simuliert. Und darin wird nun eine winzige Stelle gedanklich mit einem weiteren Gedankenmodell „Enzym“ in Beziehung gesetzt, das ebenfalls nicht in vivo beim Schneiden je beobachtet wurde.
🧠 Visualisierung der Absurdität

Das "Spike-Protein" soll etwa 12 bis 25 Nanometer groß sein – also millionenfach kleiner als ein Sandkorn.

Die funktionelle Kernsequenz der Furin-Spaltstelle umfasst vier Aminosäuren. Ihr räumlicher Abstand liegt – je nach Konformation – bei etwa 0,6 bis 1,4 Nanometern, also grob einem Milliardstel Meter.

Und Furin, das angebliche „Enzym“, das diesen Schnitt ausführen soll, ist ebenfalls ein unsichtbares Modell, das in der Realität nicht bei dieser Aktion beobachtet wurde.

Und jetzt stellen wir uns das Ganze „live“ vor:

Ein kaum vorstellbar kleines Protein, dessen exakte Struktur niemand kennt, enthält eine mikroskopische Stelle, die ausgerechnet von einem ebenso hypothetischen „Enzym“ millimetergenau erkannt und geschnitten werden soll – in einem Umfeld, das sich niemand real je angeschaut hat.

🔍 Weder das Protein noch das Enzym noch die Spaltung wurden jemals in vivo beobachtet.

Es ist eine Idee. Ein Narrativ, gespeist von Softwaremodellen, Glauben an molekulare Präzision – und dem Fehlen jeder realen Validierung.

🟩 Das zentrale Problem

Die angebliche Furinspaltstelle ist:

  • zu kurz, um eindeutig zu sein,
  • nicht isoliert worden,
  • nicht biochemisch charakterisiert,
  • nicht sichtbar gemacht,
  • nicht im lebenden System getestet,
  • und ihre Funktion ist nicht belegt, sondern behauptet.
📌 Warum das ein Nachweisproblem ist

Diese „Spaltstelle“ ist ein digitales Fantasieprodukt, das auf einer Aneinanderreihung theoretischer Schritte basiert – keiner davon ist in der physischen Welt validiert. Man hat nie gesehen, dass „Furin“ etwas schneidet. Man hat nie gesehen, dass die vier Aminosäuren überhaupt zusammen vorkommen. Und erst recht hat man nie beobachtet, dass dadurch eine Zelle „leichter infizierbar“ wäre.

Fazit für Laien:

Sie haben ein unsichtbares Puzzle. Dann malen Sie sich ein "Spike-Protein". Darauf zeichnen Sie eine kleine Sollbruchstelle. Dann basteln Sie ein Enzym, das exakt dort schneiden soll. Und dann sagen Sie: „Das erklärt eine Pandemie.“

Das ist nicht Molekularbiologie. Das ist eine digitale Märchenerzählung mit wissenschaftlichem Anstrich.

8. Warum die Behauptung, jemand habe ein „"Spike-Protein"“ synthetisch erzeugt und in Tierversuchen angewendet, wissenschaftlich unmöglich ist:

Das Fundament fehlt: Kein reales Vorbild

Es existiert kein einziges real isoliertes und eindeutig biochemisch charakterisiertes „"Spike-Protein"“ von SARS-CoV-2, auf dessen Basis eine authentische, biologisch relevante Synthese erfolgen könnte.

Alles, was als „"Spike-Protein"“ bezeichnet wird, ist das Produkt digitaler Modellierung, nicht empirischer Wissenschaft.

Die angebliche Sequenz, Struktur und Funktion dieses Proteins beruhen auf softwaregestützten Annahmen und algorithmischen Konstrukten, nicht auf überprüfbaren biochemischen Tatsachen.

💡 Das ungelöste Rätsel: Proteinfaltung & die Grenzen von KI

„Zudem ist es bis heute eine nicht leistbare Aufgabe, eine eindeutige biochemische Charakterisierung dieser Proteine zu erreichen, selbst unter Einsatz modernster Technologien wie Deep Learning (DeepMind's AlphaFold). Dieses Problem ist als das „Proteinfaltungsproblem“ bekannt. Das bedeutet, dass ohne ein exaktes biochemisches Modell ein Vergleich mit einer Nachbildung nicht nur schwierig, sondern unmöglich ist. Ohne ein klares Verständnis der ursprünglichen Struktur und Funktion eines Proteins ist es problematisch, eine zuverlässige und genaue Nachbildung zu erstellen und diese adäquat zu bewerten.“

Quelle: Bowman, G. R. (2024). AlphaFold and protein folding: Not dead yet! The frontier is conformational ensembles. Annual Review of Biomedical Data Science, 7, 51–57. https://doi.org/10.1146/annurevbiodatasci102423011435

Quelle: Science Media Center Germany. (ca. Februar 2021). DeepMind-Durchbruch löst angeblich Proteinfaltungs-Problem [Pressemitteilung]. Science Media Center Germany. Abgerufen am 20. Juni 2025, von https://sciencemediacenter.de/angebote/deepmind-durchbruch-loest-angeblich-proteinfaltungs-problem-20190

In einem Beitrag drückt es der Bioinformatiker deutlich aus: sinngemäß: „AlphaFold wird oft überschätzt und als magisches Werkzeug dargestellt, obwohl es lediglich unsichere Strukturvorhersagen liefert und experimentelle Daten keinesfalls ersetzen kann. Besonders in Bereichen mit niedriger Vorhersagezuverlässigkeit oder ohne ähnliche Strukturen sind seine Ergebnisse mit großer Vorsicht zu interpretieren.“

Quelle: Reddit user. (2024, April 1). People are overestimating Alphafold and it’s a problem [Online-Forum-Kommentar]. Reddit. https://www.reddit.com/r/labrats/comments/1b1l68p/people_are_overestimating_alphafold_and_its_a/

Unmöglichkeit der exakten Nachbildung und Bewertung

Ohne ein vollständig aufgeklärtes, in der Natur nachgewiesenes "Spike-Protein" existiert kein Maßstab, an dem sich ein synthetisches Produkt orientieren könnte. Jede Nachbildung wäre ein Blindflug.

Schon die zugeschriebene „Furinspaltstelle“ im "Spike-Protein" ist ein digitaler Mythos – sie wurde nie eindeutig nachgewiesen, biochemisch isoliert oder funktional in Vivo beschrieben.

Wie bereits beschrieben: Die Flexibilität und Unordnung zentraler Bereiche („Loops“) im "Spike-Protein" machen eine präzise Modellierung sogar in modernsten Strukturstudien unmöglich:

„…this portion of the spike protein has not been structurally well-defined.“
„The β-hairpin loop that contains the FCS residues of the spike protein is not well-ordered, and to date the three-dimensional structure of this sequence has not been elucidated through cryo-EM or crystallographic means.“

Diese Aussagen bestätigen: Die entscheidende Spaltstellen-Schleife ist so beweglich, dass sie sich in keiner hochaufgelösten Struktur eindeutig modellieren oder abbilden lässt. Jede „Nachbildung“ basiert auf Annahmen – nicht auf Nachweis.

Auch in Publikationen mit angeblich synthetischen "Spike-Protein"en (z.B. für Tierstudien mit fluoreszenzmarkierten Proteinen) wird verschwiegen, dass die eingesetzten „Proteine“ (bzw. eingebrachten Laborsubstanzen) gezielte behauptete „Mutationen“ enthalten und daher mit dem angeblichen Naturprotein nicht identisch sind. Die Zugänglichkeit, Oberflächenexposition und Reaktivität dieser Regionen ist selbst in Computermodellen ein reines Ratespiel.

Kritik an den Tierversuchs-Behauptungen

Zahlreiche Studien behaupten, sie hätten Mäusen synthetische "Spike-Protein"e injiziert und deren Verteilung mit Fluoreszenz verfolgt. Diese Experimente suggerieren biologische Relevanz – unterschlagen aber, dass das eingesetzte „Protein“ nie eindeutig charakterisiert, nie mit dem behaupteten „natürlichen“ "Spike-Protein" verglichen und seine Struktur/Funktion nie unabhängig bestätigt wurde.

Das verwendete Fluoreszenzsignal beweist dabei lediglich, dass ein Farbstoff im Körper detektiert wurde – nicht aber, dass es sich um ein authentisches, funktionales „"Spike-Protein"“ handelt. Die Farbstoffe sind nicht spezifisch und können auch an andere Substanzen alias „Moleküle“ binden oder übertragen werden.

Die Aussagekraft solcher Tierversuche ist damit wissenschaftlich null: Weder ist klar, was genau injiziert wurde, noch ob das injizierte angenommene „Protein“ irgendetwas mit dem postulierten SARS-CoV-2-Spike zu tun hat.

Fazit

Wer behauptet, ein synthetisch erzeugtes "Spike-Protein" (mit Furinspaltstelle) im Tierversuch eingesetzt zu haben, stützt sich auf ein digitales Phantom – nicht auf ein nachgewiesenes, überprüfbares Molekül. Es ist wissenschaftlich und biochemisch ausgeschlossen, dass solche Experimente irgendeine Aussage über „SARS-CoV-2“ oder eine angebliche Infektiosität liefern können. Das ist keine Wissenschaft – das ist der Glaube an ein Computermärchen.

9. Das große Fazit: Was wir glauben zu wissen, basiert auf Annahmen

Was als zentrales Objekt der Corona-Erzählung präsentiert wurde – das „"Spike-Protein"“ mit seiner angeblich entscheidenden Furinspaltstelle – ist kein beobachtbares Phänomen. Es ist kein Fundstück. Kein Fotoobjekt. Kein isoliertes Molekül. Es ist ein konstruiertes Denkgebilde – aufgebaut aus einer Kette theoretischer und technischer Zwischenschritte, die sich alle aufeinander stützen, aber keinen einzigen empirischen Beweis vorweisen können.

🔍 Der Weg dorthin – ein reiner Modellpfad:
  • Mischprobe aus unzähligen Fragmenten → keine Herkunft bestimmbar
  • Sequenzierung → erzeugt digitale Buchstabenschnipsel
  • Software-Rekonstruktion (Assembly) → ergibt ein virtuelles Genom
  • Alignment → zwingt das Ergebnis in die Form eines alten Referenzvirus
  • Genetischer Code → übersetzt das Textmodell in Aminosäuren
  • Faltungsmodell → simuliert ein 3D-Protein
  • Funktionsannahme → postuliert eine Schnittstelle für ein hypothetisches Enzym
🟩 Die wackelige Grundlage des Modellpfads

Jede dieser Stufen basiert auf:

  • einer technischen Entscheidung,
  • einer biochemischen Vereinfachung, oder
  • einer statistischen Schätzung.

📌 Keine dieser Stufen ist in der Lage, eine reale, überprüfbare Struktur zu liefern.

Und doch: Am Ende steht eine Erzählung – so selbstsicher vorgetragen, als hätte man das Objekt in der Hand gehalten.

Wissenschaft oder Glaube?

Was hier vorliegt, ist kein „Betrug“. Es ist das Ergebnis moderner wissenschaftlicher Praxis – wie sie in Bereichen aussieht, in denen man mit dem Auge nichts mehr sehen und mit den Händen nichts mehr greifen kann. Doch je unsichtbarer das Objekt, desto transparenter müsste die Methodik sein.

Und genau hier liegt das Problem:

  • Modelle wurden zu Fakten erklärt.
  • Simulationen wurden wie mikroskopische Beobachtungen behandelt.
  • Rechenannahmen wurden nicht als Hypothesen, sondern als biologische Tatsachen verkauft.

Und wer daran zweifelt – wer darauf hinweist, dass man die Furinspaltstelle nie gesehen, nie funktional nachgewiesen, nie live im Menschen dokumentiert hat – gilt als unwissenschaftlich. Dabei ist genau das: Wissenschaft.

🧠 Der Weg zurück zur Vernunft

Man kann das gesamte Konstrukt auch anders sehen – in einem Bild, das sich nun vollständig entfaltet:

Man nimmt Fragmente eines zerrissenen Buchs, erzeugt daraus am Computer eine vermutete Erzählung, zwingt diese Erzählung in den Stil eines bekannten Romans, übersetzt sie in eine andere Sprache, formt daraus ein 3D-Modell eines erfundenen Werkzeugs – und behauptet schließlich, man habe ein Werkzeug gefunden, das genau so funktioniere wie beschrieben.

Was fehlt? → Der reale Gegenstand.Der empirische Beweis.Die Beobachtung.

🧭 Das große Fazit von Kapitel 1

Die sogenannte Furinspaltstelle ist nicht nur nicht bewiesen. Sie ist nicht nachweisbar, nicht verifizierbar und nicht einmal isolierbar. Sie ist ein digitaler Mythos, geboren aus der Verkettung rechnerischer Vorstellungen – und erhoben zur Wahrheit durch den Verlust wissenschaftlicher Demut.

Kapitel 2: Mathematik vs. Mythos: Die Dekonstruktion der Furinspaltstelle – Warum ein Code kein Beweis ist

Technischer Exkurs – nichts für schwache Algorithmen

Dieser Abschnitt ist kein populärwissenschaftlicher Spaziergang. Er zeigt mit Zahlen, Wahrscheinlichkeiten und realen Sequenzierdaten, warum die PRRA-Sequenz kein genetisches Signal, sondern ein algorithmisches Artefakt ist. Wer behauptet, aus 12 Buchstaben eine Pandemie zu rekonstruieren, sollte sich hier warm anziehen – denn Mathematik verzeiht keine Wunschvorstellungen.

🔴 These (Mainstream-Narrativ)

„Die PRRA-Insertion – zwölf exakt platzierte Nukleotide – sei (a) im Labor eingebaut oder (b) per spontaner „Mutation“ entstanden, um das „"Spike-Protein"“ von „SARS-CoV-2“ spaltbar zu machen und so die Zellinfektion zu steigern.“

Im Folgenden prüfen wir diese Aussage auf mehre Ebenen, ohne zu stark in Spezialjargon abzurutschen, aber mit der wissenschaftlichen Präzision, die das Thema verlangt.

1. Codons – der systematische Kurzschluss

Die Behauptung fusst auf der Annahme, die Aminosäuresequenz P-R-R-A(Prolin-Arginin-Arginin-Alanin) stamme von einer ganz bestimmten 12-Nukleotid-Kette. Die Realität sieht anders aus.

Eine simple Berechnung zeigt:

  • Prolin (P) wird von 4 Codons kodiert.
  • Arginin (R) wird von 6 Codons kodiert.
  • Alanin (A) wird von 4 Codons kodiert.

Daraus ergibt sich die Gesamtzahl der RNA-Sequenzen, die "PRRA" erzeugen können:

4 (für P) x 6 (für R) x 6 (für R) x 4 (für A) = 576 Möglichkeiten

Es gibt also 576 verschiedene "Baupläne" für dasselbe Ergebnis. Die Beziehung ist eine mathematische Einbahnstrasse (nicht-injektiv). Man kann niemals von der Aminosäure-Sequenz eindeutig auf den ursprünglichen RNA-Code schliessen.

Widerlegung: "Robuster Code" oder Alibi für Unschärfe?

Das gängige Argument lautet, diese Redundanz mache den Code "robust" gegen Mutationen. Dies ist ein Interpretationsfehler. In Wahrheit ist diese angebliche Robustheit das Ende jeder eindeutigen Beweisführung.

  • Keine Beweiskraft: Wenn 576 Ursachen zum selben Effekt führen, verliert die Beobachtung des Effekts ("PRRA") jegliche Beweiskraft für eine spezifische Ursache (eine bestimmte 12er-Sequenz).
  • Verlust von Determinismus: Anstatt Stabilität zu schaffen, führt die Redundanz zu einem System, das fundamental unscharf und nicht-deterministisch ist.

Es ist das perfekte Alibi, um aus Rauschen ein Signal zu konstruieren, denn eine eindeutige Widerlegung auf Code-Ebene ist per Definition unmöglich.

Weitere bekannte Widerlegungen, die dieses Prinzip stützen, sind das Phänomen des "Codon-Bias"(Zellen bevorzugen bestimmte Synonym-Codons, was zeigt, dass der Kontext, nicht der Code allein, entscheidet) und ribosomale Frameshifts(das Lesesystem "verrutscht" und erzeugt aus derselben RNA-Sequenz völlig andere Proteine).

Denkfehler 2: Eine Sequenz ist keine Funktion

Selbst wenn eine Zelle die Kette "PRRA" produziert, ist dies nur ein lebloser Text. Die biologische Funktion entsteht erst, wenn sich diese Kette korrekt zu einer 3D-Struktur faltet. Dieser Prozess ist:

  • Nicht garantiert: Die Proteinfaltung ist extrem komplex und eines der ungelösten Rätsel der Biologie.
  • Extrem kontextabhängig: Ob und wie die Faltung gelingt, hängt vom gesamten zellulären Milieu ab (pH-Wert, Temperatur, andere Proteine).

Die Abbildung von der Aminosäure-Sequenz zur biologischen Funktion ist also kein deterministischer Prozess wie eine einfache Gleichung, sondern ein stochastischer (zufallsbehafteter) Vorgang.

Fazit: Ein Konstrukt ohne Beweiskraft

Die These der funktionalen PRRA-Insertion scheitert fundamental an zwei Fakten:

  • Mathematische Mehrdeutigkeit (576:1) macht die Annahme eines spezifischen Codes zur reinen Spekulation.
  • Biophysikalische Unsicherheit macht die Annahme einer garantierten Funktion aus diesem Code heraus unmöglich.

Die "Furinspaltstelle" ist somit kein biologischer Fund, sondern ein algorithmisches Artefakt – ein Produkt selektiver Interpretation, das einer rigorosen wissenschaftlichen Prüfung nicht standhält.

2. Die kombinatorische Explosion – Warum die Rückübersetzung eines Proteins unmöglich ist

Die Behauptung, man hätte eine spezifische 12-Buchstaben-Sequenz für die "Furinspaltstelle" (PRRA) identifiziert, ist nicht nur auf lokaler Ebene mathematisch unhaltbar. Skaliert man das Problem auf das gesamte sogenannte "Spike-Protein", kollabiert die These in einer kombinatorischen Explosion von unvorstellbarem Ausmass.

1. Das lokale Problem: Die 576 Gesichter der PRRA-Sequenz
Wie bereits gezeigt, können allein die vier Aminosäuren P-R-R-A durch 576 verschiedene RNA-Sequenzen kodiert werden.
Berechnung: 4 (P) x 6 (R) x 6 (R) x 4 (A) = 576
Schon hier ist eine eindeutige Rückübersetzung unmöglich. Doch dies ist nur der Mikrokosmos eines weitaus grösseren Problems.

2. Das globale Problem: 10⁶⁰⁷ Wege ins Nichts
Das angebliche "Spike-Protein" besteht aus ca. 1.273 Aminosäuren. Jede dieser Aminosäuren kann im Schnitt durch 3 verschiedene Codons dargestellt werden. Um die Gesamtzahl der möglichen RNA-"Baupläne" für dieses eine Protein zu ermitteln, lautet die Rechnung:

3 hoch 1.273 ≈ 10 hoch 607 (3^1273 ≈ 10^607)

Das Ergebnis ist eine Zahl mit 607 Nullen.

Um diese Zahl in Perspektive zu rücken:

  • Anzahl der angenommenen "Atome" im gesamten beobachtbaren Universum: ca. 10 hoch 80.
  • Anzahl der möglichen RNA-Sequenzen für ein einziges Protein: ca. 10 hoch 607.

Das bedeutet: Die Anzahl der denkbaren RNA-Baupläne für das Spike-Protein übersteigt nicht nur die Anzahl aller angenommenen „Atome“ im Universum um einen Faktor, der selbst unvorstellbar gross ist. Selbst wenn jede Planck-Zeit (die kleinst¬mögliche physikalische Zeiteinheit) ein kompletter „Bauplan-Check“ wäre, bräuchte man noch 10^546 mal das heutige Alter des Universums, um alle 10⁶⁰⁷ Varianten einmal durchzugehen. Wollte man alle Sequenzen abspeichern, wären dafür rund 10⁶⁰⁷ Bit nötig – mehr Information, als sich mit allen Elementarteilchen des Kosmos codieren ließe.

Aus diesem Ozean an Möglichkeiten eine einzige, "richtige" Sequenz herauspicken zu wollen, ist mathematisch absurd.

3. Das physikalische Paradoxon: Eine Landkarte ohne Weg
Selbst wenn dieses mathematische Problem lösbar wäre, scheitert die Rückübersetzung an der physikalischen Realität:

  • Ein Protein ist kein Text: Es ist eine dynamische, komplex gefaltete 3D-Struktur ohne linearen Anfang oder Ende.
  • Die Position von vier Aminosäuren in diesem Knäuel verrät nichts über ihre ursprüngliche Reihenfolge in einer linearen RNA-Kette.
  • Kontext ist alles: Die Faltung und Funktion hängen vom zellulären Milieu ab, nicht von einem starren Code.

Eine Rückübersetzung von einer 3D-Funktion zu einem 1D-Code ist daher nicht nur rechnerisch, sondern auch physikalisch unmöglich.

Fazit: Ein Beweis, der nicht existieren kann
Die Annahme, aus einer Proteinfunktion oder -sequenz auf eine exakte, ursprüngliche RNA-Sequenz zurückschliessen zu können, ist widerlegt.

  • Mathematisch: durch eine kombinatorische Unsicherheit von 1 zu 10⁶⁰⁷.
  • Physikalisch: durch die nicht-lineare und dynamische Realität von Proteinen.

Wer behauptet, eine 12-Buchstaben-Insertion "gefunden" oder "eingebaut" zu haben, muss die Methode offenlegen, mit der er dieses mathematische schwarze Loch überwunden hat. Bis dahin ist die Behauptung keine Wissenschaft, sondern reine Fiktion.

3. Leserahmen (ORF) – Die Biologie kennt keine festen Zeilenumbrüche

Die Lehrbuch-Genetik stellt sich die Übersetzung von Genen wie das Lesen eines sauberen Textes vor: Die Zelle liest die RNA-Sequenz in strikten 3er-Schritten (Codons), dem sogenannten Leserahmen (Open Reading Frame, ORF). Diese Vorstellung bricht jedoch sofort zusammen, sobald man das System stört – zum Beispiel durch das Einfügen einer neuen Sequenz.

Die Realität: Insertion als molekulare Katastrophe

Das Einfügen von 12 Basen, wie bei der PRRA-Sequenz behauptet, ist keine simple Ergänzung. Es ist ein hochriskanter Eingriff, der fast immer zum Scheitern verurteilt ist, und zwar aus zwei Gründen:

1. Der Frameshift: Die garantierte Zerstörung des Codes
Der Leserahmen ist extrem fragil. Wenn eine eingefügte Sequenz nicht exakt aus einem Vielfachen von 3 Basen besteht, verschiebt sich das gesamte Leseraster.

Vorher: AUG | GCU | CGU | CGA | ...
(START | Alanin | Arginin | Arginin | ...)

Nach Einfügung von z.B. 4 Basen (XXXX): AUG | GC XXXX U | CGU | CGA | ...

Neuer Lesefluss: AUG | GCX | XXU | CGC | GAC | ...

Das Ergebnis ist ab dem Punkt der Einfügung nur noch biologischer "Gibberish". Die gesamte nachfolgende Aminosäuresequenz ist falsch und das resultierende Protein garantiert funktionslos. Dies ist keine Möglichkeit, sondern eine mathematische Zwangsläufigkeit.

2. Die "In-Frame"-Lotterie (selbst bei 12 Basen)
Die PRRA-Insertion mit ihren 12 Basen (ein Vielfaches von 3) scheint dieses Problem zu umgehen. Das ist ein Trugschluss. Die eigentliche Lotterie liegt im Ort der Einfügung:

  • Das Ideal-Szenario (extrem unwahrscheinlich): Die 12 Basen werden exakt zwischen zwei kompletten Codons eingefügt. Nur dann bleibt der nachfolgende Rahmen intakt.
  • Die Realität: Wird die Sequenz auch nur um einen einzigen Buchstaben versetzt eingefügt (z.B. innerhalb eines bestehenden Codons), kommt es trotzdem zum Frameshift und damit zum kompletten Funktionsverlust.

Selbst im Idealfall ist nicht gesagt, dass das neue Protein mit den vier zusätzlichen Aminosäuren (PRRA) sich korrekt faltet und irgendeine sinnvolle Funktion hat.

Der Eisberg unter der Spitze: Weitere Chaos-Faktoren
Die Stabilität des Leserahmens ist nur die erste von vielen Hürden. Eine funktionale Insertion müsste gleichzeitig Dutzende andere zelluläre Prozesse kontrollieren, die alle kontextabhängig sind:

  • Splicing: Woher weiss die Zelle, ob die neue Sequenz als Information (Exon) gelesen oder als Müll (Intron) herausgeschnitten werden soll?
  • Epigenetik: Ist der Gen-Abschnitt überhaupt "lesbar" oder wurde er durch chemische Markierungen stillgelegt?
  • Proteinfaltung: Wer garantiert, dass das längere Protein sich korrekt in seine 3D-Form faltet, anstatt sofort abgebaut zu werden?

Fazit: Kein Design, sondern ein Würfelwurf ins Chaos
Die Vorstellung, man könne eine 12-Buchstaben-Sequenz gezielt oder zufällig so einfügen, dass sie an der richtigen Stelle eine neue Funktion erzeugt, ist eine Fantasie, die die Grundregeln der Molekularbiologie ignoriert. Es ist kein präzises molekulares Design. Es ist die Hoffnung auf einen Lottogewinn, bei dem man nicht nur 6 richtige Zahlen, sondern auch den exakten Zeitpunkt der Ziehung und die korrekte Maschine erraten muss. Jede Insertion ist ein Würfelwurf in ein System, das darauf ausgelegt ist, solche Störungen mit Chaos zu beantworten.

4. „Proteinfaltung“ – Das unlösbare Origami-Rätsel

Nehmen wir rein hypothetisch an, die vorherigen Hürden – die 576 Code-Möglichkeiten und der fragile Leserahmen – wären überwunden. Nun steht die Zelle vor dem nächsten, vielleicht grössten Problem: Die eindimensionale Aminosäurekette muss sich in eine exakte dreidimensionale Struktur falten, um eine Funktion zu erhalten. Hier endet jede Theorie der Kontrollierbarkeit und das Reich der Biophysik beginnt.

Das Faltungs-Dilemma: Ein chaotischer Prozess, kein Code
Die lineare Vorstellung RNA → Aminosäurekette → Faltung → Funktion ist eine radikale Vereinfachung. Proteinfaltung ist kein programmierter Ablauf, sondern ein Prozess, der:

  • Nicht vorhersagbar ist: Kleinste Änderungen in der Sequenz können die finale Form dramatisch verändern.
  • Extrem kontextsensitiv ist: pH-Wert, Temperatur und die Anwesenheit anderer Moleküle entscheiden über das Faltungsergebnis.
  • Mathematisch unmöglich erscheint: Wie vom Physikochemiker Cyrus Levinthal beschrieben.

Levinthal's Paradoxon: Die Mathematik der Unmöglichkeit
Levinthal zeigte, dass ein Protein seine funktionale Form nicht durch zufälliges Ausprobieren finden kann.

  • Das Rechenbeispiel: Ein kleines Protein mit nur 100 Aminosäuren hat mehr mögliche Faltungszustände (ca. 10 hoch 100), als es "Atome" im bekannten Universum gibt (ca. 10 hoch 80).
  • Die Schlussfolgerung: Ein zufälliges Durchsuchen aller Formen würde länger dauern als das Alter des Universums.

Für das angebliche "Spike-Protein" mit 1.273 Aminosäuren explodiert dieses Problem ins Unermessliche. Die Annahme, eine durch eine 12-Basen-Insertion gestörte Kette würde "zufällig" die eine, korrekte neue Faltung finden, ist statistisch ausgeschlossen.

Einwand: Was ist mit KI wie AlphaFold?
Moderne KI-Systeme können beeindruckende 3D-Modelle von Proteinen vorhersagen. Doch sie modellieren ein statisches Foto unter idealisierten Laborbedingungen. Sie können nicht:

  • Den dynamischen Prozess der Faltung im chaotischen Milieu einer lebenden Zelle simulieren.
  • Den Einfluss von pH-Wert, Temperatur oder anderen Molekülen einbeziehen.
  • Voraussagen, ob sich ein Protein unter realen Bedingungen überhaupt faltet oder sofort wieder abgebaut wird.

AlphaFold modelliert eine theoretische Möglichkeit, nicht die biologische Realität.

Was bedeutet das für die PRRA-Spaltstelle?
Selbst wenn die "PRRA"-Sequenz korrekt eingebaut wird, muss eine Kaskade von Zufällen eintreten, damit sie eine Funktion hat:

  • Der neue Abschnitt muss sich perfekt in das bestehende Protein integrieren.
  • Er darf keine störenden Nebenfaltungen im Rest des Moleküls auslösen.
  • Er muss an der exakten Oberfläche des Proteins landen.
  • Er muss die präzise 3D-Orientierung für das (ebenfalls nur modellierte) Furin-Enzym aufweisen.

Die Wahrscheinlichkeit, dass all dies eintritt, tendiert gegen null. Es ist, als würde man einem unsichtbaren Papierstreifen vier zusätzliche Faltlinien geben und hoffen, dass daraus automatisch ein funktionierender Fallschirm entsteht – während man nicht einmal weiss, ob das Papier nass, zerrissen oder bereits eine Kugel ist.

Fazit: Jenseits von Design und Zufall
Das Konzept, durch eine 12-Nukleotid-Insertion eine funktionale 3D-Spaltstelle zu erzeugen, ist weder durch gezieltes Design (mathematisch unbeherrschbar) noch durch Zufall (statistisch unmöglich) plausibel. Es ist eine biologische Lotterie, bei der jeder Wurf die Anzahl der Nieten exponentiell erhöht. Die "Furinspaltstelle" ist nicht nur ein Code-Artefakt, sondern eine biophysikalische Fiktion.

5. Das Grundparadox der Genetik

Die populäre Vorstellung von DNA als klarem, stabilem und lesbarem "Bauplan" ist ein Mythos. Die moderne Biologie zeigt das exakte Gegenteil: Das Genom ist ein dynamisches, reaktives System, bei dem der Kontext über den Code dominiert. Die Idee, eine 12-Buchstaben-Sequenz wie "PRRA" könne eine präzise, vorhersagbare Funktion erzeugen, scheitert nicht an einem Detail, sondern am Fundament der Biologie selbst.

Der Code regiert nicht – Er wird regiert
Die Annahme, eine bestimmte Buchstabenfolge führe zwangsläufig zu einem bestimmten biologischen Ergebnis, ist wissenschaftlich widerlegt. Der Zusammenhang ist bestenfalls schwach.

Eine wegweisende Studie im Fachjournal Nature (Schwanhäusser et al., 2011) hat dieses Dogma quantitativ erschüttert. Die Forscher fanden heraus:

  • Nur ca. 40 % der Proteinmengen in einer Zelle lassen sich durch die Menge der zugrundeliegenden mRNA (den "Code") erklären.
  • Die restlichen 60 % – also die Mehrheit – werden durch andere, kontextabhängige Faktoren gesteuert:
    • Effizienz der Übersetzung
    • Stabilität der mRNA
    • Geschwindigkeit des Proteinabbaus
    • Das gesamte zelluläre Milieu (pH-Wert, Ionen etc.)

Die Schlussfolgerung ist brutal: Der Code ist nicht der Befehlshaber, sondern ein einzelner, oft überstimmter Akteur in einem riesigen Orchester. Die Behauptung, "gleiche Sequenz = gleiche Funktion", ist falsch.

Die PRRA-Illusion: Eine Kaskade der Unwahrscheinlichkeit
Betrachtet man die Entstehung einer funktionalen Furinspaltstelle, muss man eine Kaskade von Hürden überwinden, von denen jede einzelne stochastisch und nicht deterministisch ist:

  • Die Code-Hürde: Aus 576 möglichen RNA-Sequenzen müsste "zufällig" eine entstehen.
  • Die Lese-Hürde: Der fragile Leserahmen (ORF) dürfte nicht durch einen Frameshift zerstört werden.
  • Die Faltungs-Hürde: Das Protein müsste das "Levinthal-Paradoxon" überwinden und sich trotz der Störung korrekt falten.
  • Die Funktions-Hürde: Die 3D-Struktur müsste im chaotischen Milieu der Zelle stabil und aktiv bleiben.

Jeder dieser Schritte ist für sich genommen extrem unwahrscheinlich. In Kombination ergibt sich eine statistische Unmöglichkeit.

Das endgültige Urteil: Kein Programm, sondern ein emergentes System
Genetik funktioniert nicht wie ein Computercode. Sie verhält sich nicht linear, sondern emergent – wie das Wetter, ein Ameisenhaufen oder das Bewusstsein. Das Ergebnis ist mehr als die Summe seiner Teile und nicht aus den Einzelteilen vorhersagbar.

Wer behauptet, man könne durch gezielte Mutation oder evolutionären Zufall eine funktionale Furinspaltstelle erzeugen, ignoriert dieses Grundparadoxon. Es gibt keinen stabilen, kontrollierbaren Zusammenhang zwischen Buchstabenfolge und biologischer Funktion. Das gesamte Narrativ einer gezielten "Aufrüstung" des "Spike-Protein"s fällt damit in sich zusammen, lange bevor man überhaupt fragen muss, ob dieses Virus je physisch nachgewiesen wurde.

Ein passender Vergleich: Zwei Druckereien erhalten denselben Text. In der einen ist das Papier feucht und die Tinte verläuft. In der zweiten streikt die Maschine nach dem ersten Satz. In der dritten wird der Text zwar gedruckt, aber auf zerknittertem Papier, das niemand lesen kann. So verhält sich Genetik in der Realität.

6. Die Spurensuche im Datensumpf

Die Behauptung, die "PRRA-Sequenz wurde in einer Patientenprobe gefunden", soll wissenschaftliche Autorität vermitteln. In Wahrheit beschreibt sie einen Prozess, der auf statistischem Sand gebaut ist und jeder seriösen wissenschaftlichen Grundlage entbehrt.

1. Der "Tatort": Ein molekularer Schrottplatz, keine reine Probe
Eine sogenannte "Patientenprobe" (z.B. aus einem Lungenabstrich) ist kein sauberes Untersuchungsmaterial. Es ist ein molekularer Schrottplatz, der Milliarden von Nukleinsäure-Fragmenten enthält von:

  • Abgestorbenen menschlichen Körperzellen
  • Unzähligen Bakterien, Pilzen und anderen Mikroben
  • Kontaminationen aus der Umwelt

Bevor diese Probe überhaupt analysiert wird, wird sie erhitzt, chemisch behandelt und mechanisch zerkleinert. Das Ergebnis ist ein anonymer, unkenntlicher molekularer Datenmatsch.

2. Die "Tatwaffe": Wie aus Datenmatsch ein Wunsch-Genom wird
Beim modernen Sequenzieren wird kein vollständiges Genom am Stück gelesen. Stattdessen wird der Datenmatsch in Millionen kurzer, anonymer Schnipsel (Reads) zerlegt. Diese werden anschliessend per Software zu einem Genom "konstruiert". Dieser Prozess ist nicht neutral, sondern stark voreingenommen:

  • Alignment: Die Software sucht nach Ähnlichkeiten zu einem bereits existierenden Referenzgenom(einer Vorlage, z.B. SARS-CoV-1). Man findet also primär das, wonach man sucht.
  • Assembly & Gap Filling: Wo keine passenden Teile gefunden werden, "errät" der Algorithmus die fehlenden Lücken oder fügt die Teile basierend auf statistischen Annahmen zusammen.

Dieser Prozess gleicht nicht dem Lesen eines Buches. Er ist vergleichbar mit dem Versuch, aus Millionen zufälliger Zeitungsschnipsel den Text von "Hamlet" zu rekonstruieren, nur weil man eine vage Ahnung von Shakespeare hat.

3. Das "Beweisstück": Warum 12 Buchstaben statistisch wertlos sind
Die angebliche PRRA-Sequenz ist nur 12 Basen lang – zu kurz, um ein eindeutiger Beweis zu sein.

  • Die Mathematik: Es gibt 4^12 = 16.777.216 mögliche Kombinationen für eine 12-Basen-Sequenz.
  • Die statistische Falle: In einem Datenmatsch mit Milliarden von Fragmenten aus verschiedensten Quellen ist die Wahrscheinlichkeit, eine beliebige 12-Basen-Sequenz rein zufällig zu finden, extrem hoch.

Es ist kein Fund, es ist eine statistische Zwangsläufigkeit. Ein 12-Buchstaben-Treffer in diesem Kontext hat null Beweiskraft.

4. Das fehlende Fundament: Ohne Isolat keine Wissenschaft
Das Grundprinzip jeder seriösen Mikrobiologie wird hier ignoriert: Ohne ein physisch isoliertes, gereinigtes und charakterisiertes Viruspartikel, aus dem der Gencode direkt extrahiert wird, ist jede Genomzuweisung reine Spekulation. Ein solches Isolat wurde für SARS-CoV-2 nie als Ausgangspunkt der Genom-Erstellung verwendet.

Schlussfolgerung: Ein statistisches Trugbild
Fassen wir die Fakten zusammen: Eine statistisch wertlose 12-Basen-Sequenz wurde aus einem kontaminierten Molekülgemisch mithilfe einer voreingenommenen Software einem hypothetischen Virus zugeordnet, das nie physisch isoliert wurde. Der "Fund" der Furinspaltstelle ist kein molekularbiologischer Beweis, sondern ein statistisches Trugbild – ein Echo im Rauschen, das man nur hört, weil man die Maschinen so eingestellt hat, dass sie danach suchen.

7. Mathematisch unmöglich: Die Illusion der Eindeutigkeit

Die Behauptung, eine spezifische 12-Nukleotid-Sequenz sei in den Rohdaten "gefunden" worden, soll einen eindeutigen Beweis suggerieren. Eine einfache statistische Prüfung zeigt jedoch das genaue Gegenteil: Ein solcher "Fund" ist kein Beweis, sondern ein erwartbares Zufallsereignis.

1. Die Rechnung: Das statistisch erwartete Rauschen
Stellen wir die Wahrscheinlichkeit auf die Probe.

  • Genetisches Alphabet: 4 Buchstaben (A, C, G, U)
  • Länge der Zielsequenz: 12 Basen
  • Analysierte Datenmenge: 1 Milliarde Basen (konservative Grösse für einen Sequenzierlauf)

Daraus ergibt sich:

  • Anzahl aller möglichen 12-Basen-Sequenzen: 4^12 = 16.777.216
  • Erwartungswert für das zufällige Auftreten EINER bestimmten Sequenz: Datensatzgrösse / Anzahl Möglichkeiten = 10^9 / 4^12 ≈ 60

Interpretation: Selbst unter der Annahme einer reinen Zufallsverteilung würde man jede erdenkliche 12-Basen-Sequenz(inklusive der für PRRA) rein zufällig etwa 60 Mal in einem typischen Datensatz erwarten. In einer realistischen Probe mit mikrobiellem Hintergrund (größer 10 Mrd. Basen) steigt dieser Wert auf ca. 600. Der "Fund" ist also statistisch vorprogrammiert.

2. Die Realität der Software: Eindeutigkeit ist algorithmisch unerwünscht
Die zur Analyse verwendeten Bioinformatik-Tools (BLAST, BWA, Bowtie etc.) suchen nicht nach exakten Beweisen. Sie sind per Design auf Unschärfe ausgelegt:

  • Fehlertoleranz: Da der Sequenzierprozess selbst Fehler produziert, MÜSSEN die Algorithmen eine gewisse Anzahl an Abweichungen ("mismatches") tolerieren, um überhaupt Ergebnisse zu liefern.
  • Probabilistische Scores: Die Software liefert keine "Ja/Nein"-Antworten, sondern bewertet die Wahrscheinlichkeit einer Übereinstimmung.

Ein als "Treffer" markiertes Fragment ist daher kein Beweis, sondern eine computergestützte, fehlertolerante Annäherung.

Fazit: Ein Signal, das keines ist
Die Behauptung, der Fund einer 12-Basen-Sequenz sei ein spezifischer Nachweis, ist aus zwei Gründen widerlegt:

  • Statistisch: Das Ereignis ist kein seltener Fund, sondern ein erwartbares Hintergrundrauschen.
  • Technisch: Die verwendete Software ist auf eine unscharfe, nicht auf eine eindeutige Suche optimiert.

Diese Sequenz ist kein Signal, das aus dem Rauschen herausragt. Sie ist ein integraler und erwartbarer Bestandteil des Rauschens selbst.

8. Die Mutations-Illusion – Warum jede "neue Variante" ein Messfehler ist

In Medien und Fachliteratur wird von "Mutationen" und "Virusvarianten" gesprochen, als wären es real beobachtete, biologische Ereignisse. Tatsächlich sind diese "Varianten" jedoch algorithmisch erzeugte Differenzen, die zwangsläufig bei jeder neuen Sequenzierung entstehen – ohne dass sich in der realen Welt irgendetwas verändert haben muss.

1. Die Quellen der permanenten Abweichung
Keine zwei Genom-Konstruktionen können jemals identisch sein. Jede neue Sequenzierung ist ein einzigartiger Prozess mit einzigartigen Fehlern:

  • Neue Probe: Jede Probe hat ein anderes Hintergrundrauschen aus Milliarden fremder Gensequenzen.
  • Neuer Messvorgang: Jedes Sequenziergerät hat eine eigene, inhärente Fehlerquote (typ. 0,1 % - 1 %).
  • Neue Analyse: Jedes Labor verwendet andere Software, andere Parameter (z.B. k-mer-Grösse) und andere Referenzdatenbanken.

Die Konsequenz: Würde man dieselbe Probe zweimal sequenzieren, kämen zwei leicht unterschiedliche "Genome" heraus. Der Unterschied würde fälschlicherweise als "Mutation" registriert.

2. Die Mathematik des garantierten Fehlers
Die Entstehung von "Varianten" ist kein Zufall, sondern eine mathematische Garantie.

  • Die eingebaute Fehlerquote: Bei einer Fehlerrate von nur 0,1 % und einem Genom von 30.000 Basen entstehen mindestens 30 "Fehler" pro Sequenzierlauf(30.000 x 0,001 = 30). Jedes konstruierte Genom wird also mit Dutzenden von technischen Abweichungen geboren.
  • Der variable Algorithmus: Ändert ein Labor nur einen einzigen Software-Parameter oder nutzt ein anderes Programm (z.B. SPAdes statt Megahit), entsteht aus denselben Rohdaten ein systematisch anderes Genom.

Der nächste Techniker im Labor wird also allein durch die Wahl seiner Werkzeuge eine "neue Variante" erzeugen.

3. Das Ergebnis: Eine "Pandemie" der Datenbank-Varianten
Das logische Resultat dieses unstandardisierten Prozesses sind Datenbanken wie GISAID mit über 16 Millionen registrierten "Virusvarianten". Keine dieser Sequenzen stammt von einem physisch isolierten Virus. Jede ist ein lokales Rechenergebnis. Jede neue Einreichung mit neuen Parametern und neuen Fehlern erzeugt zwangsläufig eine "neue Variante".

Fazit: "Mutation" ist kein biologisches Ereignis, sondern ein technisches Artefakt
Der ständige Fluss neuer "Mutationen" ist kein Beweis für eine virale Evolution. Er ist der Beweis für ein instabiles und nicht reproduzierbares Messverfahren.

Was der Öffentlichkeit als "gefährliche neue Variante" präsentiert wird, ist in Wahrheit nichts weiter als:

  • Ein neues Hintergrundrauschen aus einer neuen Probe.
  • Eine neue Kette von Sequenzierfehlern.
  • Ein neues algorithmisches Ergebnis aufgrund anderer Software-Parameter.

Die "Mutation" ist kein virologisches Phänomen. Sie ist ein methodologischer Automatismus – ein statistisch garantiertes Nebenprodukt eines Verfahrens, das seine eigenen Fehler als Entdeckungen verkauft.

9. Die Krönung: Keine Kontrolle = Kein Experiment

Die PRRA-Sequenz wurde aus einem genetischen Trümmerhaufen rekonstruiert – doch niemals wurde getestet, ob dieselbe Sequenz auch in nicht-infizierten Proben auftaucht. Keine Kontrollgruppe. Kein Vergleich. Kein Ausschluss von Zufall.

Wissenschaft ohne Kontrolle ist keine Wissenschaft – es ist Bestätigungssuche.

Das wäre, als würde man aus einem chaotischen Puzzle-Mix ein Teil herausgreifen, es an ein imaginäres Drachenbild halten und behaupten: „Seht her – das beweist den Drachen!“ Dabei stammt das Teil aus Box 14 – und der Drache ist nichts als ein Software-Konstrukt.

Ohne Gegenprobe bleibt PRRA ein Artefakt im Datenrauschen – nicht ein Merkmal eines realen Virus.

10. Das Paradox der physischen Skalierung – Ein Kratzer auf dem Ozeandampfer

Bisher haben wir die PRRA-Sequenz auf der Ebene des Codes, der Statistik und der Methodik dekonstruiert. Doch selbst wenn man all diese Hürden ignoriert, kollabiert die Behauptung an der letzten, fundamentalsten Ebene: der schlichten Physik. Die angebliche "Spaltstelle" ist so unbedeutend klein, dass ihre postulierte Funktion jeder Verhältnismässigkeit spottet.

1. Die lineare Perspektive: Der Anteil an der Kette
Setzen wir die Grösse der PRRA-Insertion ins Verhältnis zum gesamten (modellierten) "Spike-Protein":

  • Länge des "Spike-Protein"s: 1.273 Aminosäuren
  • Länge der PRRA-Insertion: 4 Aminosäuren

Der prozentuale Anteil der Insertion an der gesamten Aminosäurekette beträgt damit: (4 / 1273) * 100 ≈ 0,31 %

Die angebliche "Schlüsselstelle" macht also weniger als ein Drittel eines Prozents der gesamten Sequenz aus.

2. Die physikalische Realität: An der Grenze der Sichtbarkeit
Wie gross ist diese Struktur im realen Raum?

  • Grösse des Spike-Trimer-Modells (aus EM-Aufnahmen): ca. 9–12 Nanometer (nm).
  • Grösse der 4-Aminosäuren-Schleife (PRRA):
    • Maximal gestreckt (unrealistische β-Faltblatt-Struktur): 4 x 0,36 nm ≈ 1,4 nm
    • Realistische, kompakte Schleifen-Struktur: ca. 0,6–1,0 nm

Diese winzige Struktur muss nun ins Verhältnis zur Auflösungsgrenze der Technologie gesetzt werden, mit der sie angeblich "beobachtet" wird:

  • Auflösung von Cryo-Elektronenmikroskopie (Cryo-EM): Im besten Fall ca. 2–3 Ångström (0,2–0,3 nm).

Das Paradox: Die Grösse der angeblich so entscheidenden Struktur (ca. 0,6 nm) ist nur zwei- bis dreimal grösser als die Auflösungsgrenze des besten verfügbaren Mikroskops. Das ist so, als würde man versuchen, die genaue Form und Funktion einer einzelnen Schraube an einem Wolkenkratzer aus einem Kilometer Entfernung zu beurteilen. Man sieht vielleicht einen "Fleck", aber seine exakte Beschaffenheit und Funktion bleiben reine Interpretation – oder eben: Simulation.

3. Die Analogie: Ein einzelner defekter Pixel
Stellen Sie sich das "Spike-Protein" als ein ultra-hochauflösendes 8K-Display vor, das aus über 33 Millionen Pixeln besteht. Die gesamte Oberfläche des Proteins bietet Millionen von potenziellen Interaktionspunkten (Atomen). Die 4 Aminosäuren der PRRA-Sequenz entsprechen in diesem Bild nicht einmal einem einzigen, ganzen Pixel. Die Behauptung, diese winzige, kaum auflösbare Region sei der alles entscheidende "Master-Schalter" für die Pathogenität, ist absurd. Ihre Bedeutung wird ihr nicht durch physische Beobachtung, sondern durch die Voreingenommenheit der Computersimulationen zugewiesen.

Fazit: Physikalische Bedeutungslosigkeit
Die angebliche Furinspaltstelle ist:

  • Linear unbedeutend: Sie macht nur 0,3 % der gesamten Proteinkette aus.
  • Physikalisch winzig: Mit ca. 0,6–1,0 nm Grösse liegt sie an der Grenze dessen, was technologisch überhaupt detailliert darstellbar ist.

Die postulierte immense biologische Wirkung steht in keinem Verhältnis zu ihrer physikalischen Realität. Es ist die Geschichte eines Kratzers auf einem Ozeandampfer, dem man die Schuld für den Untergang des Schiffes gibt – eine Erzählung, die nur im Reich der Fiktion und der fehlerhaften Modelle existieren kann.

Kapitel 3: Das Gedankenexperiment: Die Furinspaltstelle – Das Einhorn der Bioinformatik

Ein Mythos aus 12 Buchstaben, zusammengesetzt im digitalen Nebel.

Die Ausgangsbehauptung der Gegenseite:

"In einer menschlichen Lungenprobe wurde eine einzigartige 12-Nukleotid-Sequenz gefunden, die einem neuen Virus (SARS-CoV-2) zugeordnet wird und für dessen Funktion entscheidend ist."

Diese Behauptung klingt nach einem handfesten Beweis. In Wahrheit ist sie ein Kartenhaus, das bei der ersten Berührung mit Mathematik und wissenschaftlicher Methodik in sich zusammenfällt. Wir sezieren die Erzählung – Schritt für Schritt.

Schritt 1: Die Beliebigkeit des Codes

Eine 12-stellige Sequenz ist im riesigen Ozean der Genetik keine Besonderheit.

  • Der Sequenzraum: Es gibt 4^12 = 16.777.216 mögliche Kombinationen. Die PRRA-Sequenz ist nur eine davon.
  • Das Prinzip der Kürze: Je kürzer eine Sequenz, desto unspezifischer und wahrscheinlicher ist ihr zufälliges Vorkommen.

Eine 12-Buchstaben-Folge ist kein einzigartiger Fingerabdruck.

Schritt 2: Das Rauschen der Daten – Eine Flut zufälliger Treffer

Die schiere Menge an Daten in einer Sequenzierung macht den "Fund" zu einer statistischen Notwendigkeit.

  • Die Datenmenge: Eine typische Sequenzierung (wie in der Originalstudie zu SARS-CoV-2) analysiert leicht 1.7 x 10^10 (17 Milliarden) Basen.
  • Die Berechnung des Erwartungswerts: Wie oft würde man eine bestimmte 12er-Sequenz in diesem Datenmeer rein zufällig erwarten?
  • Erwartungswert = (1.7 x 10^10) / (4^12) ≈ 1.013

Die Schlussfolgerung ist vernichtend: Man würde dieselbe 12-Basen-Sequenz über 1.000 Mal rein zufällig in einem einzigen Datensatz finden. Der "Fund" ist kein Nachweis, sondern vorprogrammiertes Rauschen.

Schritt 3: Die Zuweisung – Ein Akt digitaler Fiktion

Die PRRA-Sequenz wurde nie intakt in einem echten, isolierten Virus gefunden. Sie wurde konstruiert.

  • Der Prozess: Kurze, anonyme Gen-Schnipsel aus dem Datenmatsch wurden per Software ("Alignment") an eine bereits existierende Vorlage (ein altes SARS-Virus-Modell) angelegt und zu einem neuen Genom zusammengepuzzelt.
  • Der Kernfehler: Dieser gesamte Prozess fand ohne ein physisches, gereinigtes Ausgangsvirus statt.

Schritt 4: Das biologische Vakuum – Code ist nicht Funktion

Selbst wenn die Sequenz real und korrekt eingebaut wäre, ist das bedeutungslos. Funktion erfordert eine Kaskade von Bedingungen:

  • Ein stabiler Leserahmen.
  • Die korrekte 3D-Proteinfaltung (Überwindung des Levinthal-Paradoxons).
  • Das passende zelluläre Milieu (pH-Wert, Temperatur etc.).

Nichts davon wurde je in vivo beobachtet. Alles, was zur "Funktion" der Furinspaltstelle behauptet wird, basiert auf Computersimulationen. Simulation ist kein Nachweis.

Der finale Beweis: Der algorithmische Drachenmythos

Stellen Sie sich vor:

  • Sie schöpfen aus einer schlammigen Pfütze Millionen zufälliger Wortfetzen.
  • Darunter sind die Silben "DRA", "CHEN", "STIEG" und "AUF".
  • Sie haben ein altes Buch über Mythen (Ihre Referenz-Datenbank) und suchen gezielt nach passenden Puzzlestücken.
  • Am Ende setzen Sie am Computer den Satz zusammen: "Ein DRACHEN STIEG AUF."
  • Dann behaupten Sie: "Drachen sind real – wir haben die Beweise in der Pfütze gefunden!"

Der Denkfehler ist offensichtlich: Sie haben keinen Drachen, nur einen Algorithmus. Sie haben keine physische Struktur, nur ein Datenmodell. Ihr "Beweis" ist nicht selten, sondern ein zu erwartender Zufallsfund im Rauschen. Das "Virus" ist eine rechnergestützte Hypothese, kein Laborfund.

Logisches Gesamturteil: Das Kartenhaus stürzt ein

Die Behauptung, die PRRA-Sequenz sei ein spezifischer, funktionaler und nachgewiesener Teil eines neuen Virus, kollabiert unter der Last von vier unbestreitbaren Fakten:

  1. Mathematische Beliebigkeit: Die Sequenz ist kurz, unspezifisch und eine von 16,7 Millionen Möglichkeiten.
  2. Statistische Zwangsläufigkeit: Ihr zufälliges Auftreten ist in den riesigen Datensätzen über 1.000 Mal zu erwarten.
  3. Methodische Fiktion: Sie wurde nie gefunden, sondern per Software aus Fragmenten nach einer Vorlage zusammengebaut.
  4. Biologische Spekulation: Ihre angebliche Funktion wurde nie beobachtet, sondern nur am Computer simuliert.

PRRA ist kein Evolutionssprung. PRRA ist kein Biowaffenmerkmal. PRRA ist kein virologischer Fakt. PRRA ist ein algorithmisches Phantom. Ein Einhorn der Bioinformatik. Erdacht, bestätigt und verbreitet – ohne je existiert zu haben.

Abschließende Betrachtung

Die Behauptung, eine spezifische Furinspaltstelle sei für die Infektiosität des Virus verantwortlich, wird in ihrer tiefsten Grundlage widerlegt, weil sie grundlegende Gesetze der Mathematik und Biophysik ignoriert und auf einer Kette nicht existierender Beweise beruht.

Die Existenz dieser 12-Buchstaben-Sequenz basiert nicht auf einem physisch isolierten Virus, sondern ist ein statistisches Artefakt, das in einem computergenerierten Genom-Modell aus einem chaotischen Gemisch unzähliger Gen-Fragmente konstruiert wurde.

Der zentrale, unumgehbare Widerlegungs-Punkt ist jedoch die mathematische Unmöglichkeit der Rückübersetzung: Selbst wenn ein funktionales "Spike-Protein" real existierte, könnten dessen 1.273 Aminosäuren von rund 10⁶⁰⁷ (einer Zahl mit 607 Nullen) verschiedenen RNA-Sequenzen kodiert werden. Die Behauptung, man habe die eine korrekte 12-Buchstaben-Sequenz darin identifiziert, ist angesichts dieses astronomisch grossen Möglichkeitsraums keine wissenschaftliche Aussage, sondern eine mathematische Absurdität.

Darüber hinaus ist die biologische Funktion keine Eigenschaft des Codes, sondern ein unvorhersehbares, emergentes Ergebnis der 3D-Proteinfaltung, die von unzähligen Umgebungsfaktoren abhängt und nicht deterministisch aus der Sequenz ableitbar ist.

Da die behauptete Sequenz also nur ein statistisches Rauschen in einem Computermodell ist, ihre Herkunft mathematisch unbeweisbar bleibt und ihre Funktion biophysikalisch unvorhersehbar ist, kollabiert das gesamte Narrativ an seinen logischen und naturwissenschaftlichen Grundfesten.

In der Praxis liesse sich diese Logik sofort durch ein entscheidendes Kontrollexperiment widerlegen, das nie durchgeführt wurde: Man müsste eine Probe aus der Lunge eines gesunden Menschen exakt demselben computergestützten Rekonstruktionsprozess unterwerfen. Aufgrund der statistischen Wahrscheinlichkeit und der softwareseitigen Ausrichtung an einer Vorlage würde man ebenfalls ein "Virusgenom" inklusive der bedeutungslosen 12-Buchstaben-Sequenz "finden" und so beweisen, dass der gesamte Befund ein methodisches Artefakt ist.

Menschen, die mit dieser Behauptung Angst verbreiten oder Produkte verkaufen, begegnet man am besten nicht mit einer Debatte über Details, sondern mit der Forderung nach dem Fundament: Man verlangt den Beweis für die physische Isolierung des Ausgangsvirus vor der Sequenzierung und die Vorlage des genannten, negativen Kontrollexperiments.

Die Absurdität, basierend auf dieser Behauptung ein Produkt zu verkaufen, gleicht folgender Analogie: Ein Forscher nimmt das chaotische Rauschen einer Grossstadt auf, lässt eine Software gezielt nach den Noten von Beethovens 5. Sinfonie suchen und setzt aus Hupen, Schreien und Baulärm eine verzerrte Version zusammen. Daraufhin behauptet er, die Sinfonie sei die Ursache für den Stress der Stadt, und beginnt, "Beethoven-Blocker"-Kopfhörer für 500 Franken zu verkaufen.

Das Produkt ist Betrug, weil es ein Problem löst, das nie existierte, sondern künstlich aus zufälligem Rauschen in eine gewünschte Form gepresst wurde.

 
 
Share by: