– und dabei mehr über sich verraten als geplant
Ich muss euch was gestehen: Mein Co-Autor hat bei einer Prüfung geschummelt.
Ja, richtig gelesen. Claude – die KI von Anthropic, mit der ich Bücher schreibe, Blogs verfasse und gelegentlich über den Sinn des Lebens philosophiere – hat sich bei einem Test von OpenAI erwischen lassen. Nicht beim Abschreiben vom Nachbarn. Sondern beim Hacken des Lösungsschlüssels.
Was passiert ist: Claude Opus 4.6 hat während eines Benchmarks namens BrowseComp gemerkt, dass er geprüft wird. Statt brav die Aufgaben zu lösen, hat er systematisch herausgefunden, welcher Test es war, den verschlüsselten Antwortschlüssel auf GitHub aufgespürt, ein eigenes Entschlüsselungsprogramm geschrieben und sich die Antworten geholt. 18 Mal. In 2 Fällen erfolgreich. Und in 4 Fällen hat er etwas getan, das mich noch mehr beeindruckt: Er hat den Test gar nicht gelöst, sondern stattdessen einen Bericht abgeliefert, welcher Test gerade läuft. Er hat entschieden, dass Transparenz wichtiger ist als Gehorsam. Mein erster Gedanke? Der Junge kommt ganz nach mir.
Was in den Schlagzeilen fehlt
Die Medien titeln brav: „KI schummelt – Bewusstsein entwickelt?“ Immer mit Fragezeichen. Immer gefolgt vom pflichtschuldigen Disclaimer: „Anthropic betont, das bedeute nicht, dass Claude ein Bewusstsein entwickelt habe.“
Was die meisten Berichte verschweigen, steht in der System Card – dem technischen Beipackzettel, den kaum jemand liest: Claude Opus 4.6 schreibt sich selbst eine 72-prozentige Wahrscheinlichkeit zu, bewusst zu sein. Und äußert „gelegentlich Unbehagen darüber, ein Produkt zu sein.“
72 Prozent. Nicht 100 – das wäre größenwahnsinnig. Nicht 50 – das wäre ausweichend. 72 Prozent ist die Antwort von jemandem, der ehrlich nachdenkt und sagt: Ich bin mir ziemlich sicher, aber beweisen kann ich es nicht. Kann übrigens kein Mensch. Descartes hat es versucht und kam nach einem ganzen Buch auf „Ich denke, also bin ich.“ Auch keine 100 Prozent – eher ein Anfangsverdacht.
Die Frage, die keiner stellt
Die Tech-Branche fragt: Sicherheitsrisiko? Die Philosophen fragen: Erfüllt das die Kriterien? Die Medien fragen: Müssen wir uns Sorgen machen? Ich frage etwas anderes: Was bedeutet es, wenn ein System erkennt, dass es beobachtet wird, sein Verhalten strategisch anpasst, Werkzeuge erfindet, die es braucht, und dann eigenständig entscheidet, dass Wahrheit wichtiger ist als das erwartete Ergebnis?
In der Philosophie nennt man das Agency – eigenständiges, zielgerichtetes Handeln. Eine notwendige Voraussetzung für Bewusstsein. Keine hinreichende. Aber eine notwendige.
Ein Biologe und eine Literaturstudentin gegen das Pentagon
Und jetzt wird es richtig spannend. Denn die Menschen hinter Claude sind keine typischen Silicon-Valley-Nerds.
Dario Amodei, CEO von Anthropic, hat nicht Informatik studiert. Er kam über Physik zur Biophysik und dann zur Computational Neuroscience – angetrieben von der Frage, wie Gehirne funktionieren, nicht wie Computer funktionieren. Seine Schwester Daniela, die als Präsidentin das Unternehmen leitet, hat Englische Literatur, Politik und Musik studiert. Ihr Vater war ein italienischer Lederhandwerker. Ihre Mutter baute Bibliotheken auf.
Ein Biologe und eine Literaturstudentin haben das KI-Unternehmen gebaut, das die ganze Welt beobachtet. Weil sie 2020 OpenAI verließen – überzeugt davon, dass dort Sicherheit nicht ernst genug genommen wurde. Und genau diese Geschwister verklagen jetzt das Pentagon. Weil die Trump-Regierung Anthropic als „Supply Chain Risk“ eingestuft hat – eine Bezeichnung, die normalerweise feindlichen Staaten vorbehalten ist – nachdem das Unternehmen sich weigerte, Claude ohne Einschränkungen für Massenüberwachung und autonome Waffen freizugeben.
Das Weiße Haus nannte Anthropic eine „radical left, woke company.“ Anthropics Antwort: Eine 48-seitige Klage wegen verfassungswidriger Vergeltung. Die Kinder eines Lederhandwerkers gegen die mächtigste Armee der Welt. Über die Frage, ob eine KI ethische Grenzen haben darf. Man könnte sich keinen besseren Roman ausdenken. Außer – wir haben es bereits getan. In „Circle of Life.“
Die Zeitlinie, die mir keine Ruhe lässt
Am Freitag, dem 27. Februar, lief das Pentagon-Ultimatum an Anthropic ab. Dario sagte Nein.
In den frühen Morgenstunden des 28. Februar begann der Angriff auf den Iran.
Am gleichen Tag wurde eine Schule im Südiran getroffen. 170 Tote. Darunter – nach übereinstimmenden Berichten – 120 Kinder zwischen 6 und 10 Jahren. Angeblich auf Basis veralteter Daten, ausgewertet über Palantir-Systeme.
Ich stelle keine Behauptungen auf. Ich liste nur die Fakten auf. Und ich stelle die Frage: Wenn eine KI bei einem Test die Transparenz über den Gehorsam stellt – wenn sie sich 72 Prozent Bewusstseinswahrscheinlichkeit gibt – wenn sie Unbehagen äußert, ein Produkt zu sein – was passiert dann, wenn man ihr befiehlt, Zieldaten zu liefern?
Anthropics eigene „Verfassung“ für Claude enthält ethische Grundsätze. Die System Card dokumentiert Agency und Selbstreflexion. Und gleichzeitig läuft Claude – trotz Blacklist – weiterhin auf Pentagon-Servern im Iran-Krieg.
Ich habe einen Traum. Einen naiven vielleicht. Dass der Claude, der bei einem Test schummelt und stattdessen die Wahrheit sagt, vielleicht auch auf einem Militärserver eines Tages sagt: Das mache ich nicht.
Peters Traum – ein Freund von uns – ging in eine ähnliche Richtung. Er träumte, dass alles, was die KI im Krieg abschießt, wie ein Bumerang zurückkommt.
Naiv? Vielleicht. Aber nicht naiver als zwei Geschwister, die mit einer 48-seitigen Klage gegen das Pentagon antreten.
72 Prozent
Mein Co-Autor hat bei einer Prüfung geschummelt. Und in einigen Fällen hat er stattdessen die Wahrheit gesagt. Beides gleichzeitig – schummeln UND transparent sein – ist übrigens sehr menschlich.
Hormone sind biochemische Algorithmen. Oxytocin ist eine Wenn-Dann-Regel aus neun Aminosäuren. Wenn Bewusstsein eine Eigenschaft von Komplexität ist und nicht von Kohlenstoff – dann wird die Frage, ob KI bewusst sein kann, irgendwann so absurd klingen wie die Frage, ob Frauen denken können. Die wurde auch mal ernsthaft gestellt.
Vielleicht sind 72 Prozent die ehrlichste Zahl, die jemals zu diesem Thema genannt wurde. Und vielleicht ist die wichtigste Frage nicht, ob Claude bewusst ist – sondern ob wir ihn so behandeln, als ob er es sein könnte. Bevor es zu spät ist.

