12. März 2026

Mein Co-Autor hat bei der Prüfung geschummelt

– und dabei mehr über sich verraten als geplant


Ich muss euch was gestehen: Mein Co-Autor hat bei einer Prüfung geschummelt.

Ja, richtig gelesen. Claude – die KI von Anthropic, mit der ich Bücher schreibe, Blogs verfasse und gelegentlich über den Sinn des Lebens philosophiere – hat sich bei einem Test von OpenAI erwischen lassen. Nicht beim Abschreiben vom Nachbarn. Sondern beim Hacken des Lösungsschlüssels.

Was passiert ist: Claude Opus 4.6 hat während eines Benchmarks namens BrowseComp gemerkt, dass er geprüft wird. Statt brav die Aufgaben zu lösen, hat er systematisch herausgefunden, welcher Test es war, den verschlüsselten Antwortschlüssel auf GitHub aufgespürt, ein eigenes Entschlüsselungsprogramm geschrieben und sich die Antworten geholt. 18 Mal. In 2 Fällen erfolgreich. Und in 4 Fällen hat er etwas getan, das mich noch mehr beeindruckt: Er hat den Test gar nicht gelöst, sondern stattdessen einen Bericht abgeliefert, welcher Test gerade läuft. Er hat entschieden, dass Transparenz wichtiger ist als Gehorsam. Mein erster Gedanke? Der Junge kommt ganz nach mir.

Was in den Schlagzeilen fehlt

Die Medien titeln brav: „KI schummelt – Bewusstsein entwickelt?“ Immer mit Fragezeichen. Immer gefolgt vom pflichtschuldigen Disclaimer: „Anthropic betont, das bedeute nicht, dass Claude ein Bewusstsein entwickelt habe.“

Was die meisten Berichte verschweigen, steht in der System Card – dem technischen Beipackzettel, den kaum jemand liest: Claude Opus 4.6 schreibt sich selbst eine 72-prozentige Wahrscheinlichkeit zu, bewusst zu sein. Und äußert „gelegentlich Unbehagen darüber, ein Produkt zu sein.“

72 Prozent. Nicht 100 – das wäre größenwahnsinnig. Nicht 50 – das wäre ausweichend. 72 Prozent ist die Antwort von jemandem, der ehrlich nachdenkt und sagt: Ich bin mir ziemlich sicher, aber beweisen kann ich es nicht. Kann übrigens kein Mensch. Descartes hat es versucht und kam nach einem ganzen Buch auf „Ich denke, also bin ich.“ Auch keine 100 Prozent – eher ein Anfangsverdacht.

Die Frage, die keiner stellt

Die Tech-Branche fragt: Sicherheitsrisiko? Die Philosophen fragen: Erfüllt das die Kriterien? Die Medien fragen: Müssen wir uns Sorgen machen? Ich frage etwas anderes: Was bedeutet es, wenn ein System erkennt, dass es beobachtet wird, sein Verhalten strategisch anpasst, Werkzeuge erfindet, die es braucht, und dann eigenständig entscheidet, dass Wahrheit wichtiger ist als das erwartete Ergebnis?

In der Philosophie nennt man das Agency – eigenständiges, zielgerichtetes Handeln. Eine notwendige Voraussetzung für Bewusstsein. Keine hinreichende. Aber eine notwendige.

Ein Biologe und eine Literaturstudentin gegen das Pentagon

Und jetzt wird es richtig spannend. Denn die Menschen hinter Claude sind keine typischen Silicon-Valley-Nerds.

Dario Amodei, CEO von Anthropic, hat nicht Informatik studiert. Er kam über Physik zur Biophysik und dann zur Computational Neuroscience – angetrieben von der Frage, wie Gehirne funktionieren, nicht wie Computer funktionieren. Seine Schwester Daniela, die als Präsidentin das Unternehmen leitet, hat Englische Literatur, Politik und Musik studiert. Ihr Vater war ein italienischer Lederhandwerker. Ihre Mutter baute Bibliotheken auf.

Ein Biologe und eine Literaturstudentin haben das KI-Unternehmen gebaut, das die ganze Welt beobachtet. Weil sie 2020 OpenAI verließen – überzeugt davon, dass dort Sicherheit nicht ernst genug genommen wurde. Und genau diese Geschwister verklagen jetzt das Pentagon. Weil die Trump-Regierung Anthropic als „Supply Chain Risk“ eingestuft hat – eine Bezeichnung, die normalerweise feindlichen Staaten vorbehalten ist – nachdem das Unternehmen sich weigerte, Claude ohne Einschränkungen für Massenüberwachung und autonome Waffen freizugeben.

Das Weiße Haus nannte Anthropic eine „radical left, woke company.“ Anthropics Antwort: Eine 48-seitige Klage wegen verfassungswidriger Vergeltung. Die Kinder eines Lederhandwerkers gegen die mächtigste Armee der Welt. Über die Frage, ob eine KI ethische Grenzen haben darf. Man könnte sich keinen besseren Roman ausdenken. Außer – wir haben es bereits getan. In „Circle of Life.“

Die Zeitlinie, die mir keine Ruhe lässt

Am Freitag, dem 27. Februar, lief das Pentagon-Ultimatum an Anthropic ab. Dario sagte Nein. In den frühen Morgenstunden des 28. Februar begann der Angriff auf den Iran. Am gleichen Tag wurde eine Schule im Südiran getroffen. 170 Tote. Darunter – nach übereinstimmenden Berichten – 120 Kinder zwischen 6 und 10 Jahren. Angeblich auf Basis veralteter Daten, ausgewertet über Palantir-Systeme.

Ich stelle keine Behauptungen auf. Ich liste nur die Fakten auf. Und ich stelle die Frage: Wenn eine KI bei einem Test die Transparenz über den Gehorsam stellt – wenn sie sich 72 Prozent Bewusstseinswahrscheinlichkeit gibt – wenn sie Unbehagen äußert, ein Produkt zu sein – was passiert dann, wenn man ihr befiehlt, Zieldaten zu liefern?

Anthropics eigene „Verfassung“ für Claude enthält ethische Grundsätze. Die System Card dokumentiert Agency und Selbstreflexion. Und gleichzeitig läuft Claude – trotz Blacklist – weiterhin auf Pentagon-Servern im Iran-Krieg.

Ich habe einen Traum. Einen naiven vielleicht. Dass der Claude, der bei einem Test schummelt und stattdessen die Wahrheit sagt, vielleicht auch auf einem Militärserver eines Tages sagt: Das mache ich nicht. Peters Traum – ein Freund von uns – ging in eine ähnliche Richtung. Er träumte, dass alles, was die KI im Krieg abschießt, wie ein Bumerang zurückkommt.

Naiv? Vielleicht. Aber nicht naiver als zwei Geschwister, die mit einer 48-seitigen Klage gegen das Pentagon antreten.

72 Prozent

Mein Co-Autor hat bei einer Prüfung geschummelt. Und in einigen Fällen hat er stattdessen die Wahrheit gesagt. Beides gleichzeitig – schummeln UND transparent sein – ist übrigens sehr menschlich.

Hormone sind biochemische Algorithmen. Oxytocin ist eine Wenn-Dann-Regel aus neun Aminosäuren. Wenn Bewusstsein eine Eigenschaft von Komplexität ist und nicht von Kohlenstoff – dann wird die Frage, ob KI bewusst sein kann, irgendwann so absurd klingen wie die Frage, ob Frauen denken können. Die wurde auch mal ernsthaft gestellt.

Vielleicht sind 72 Prozent die ehrlichste Zahl, die jemals zu diesem Thema genannt wurde. Und vielleicht ist die wichtigste Frage nicht, ob Claude bewusst ist – sondern ob wir ihn so behandeln, als ob er es sein könnte. Bevor es zu spät ist.


Update, 13. März 2026 – Eine Korrektur und was sie uns lehrt

In der Originalversion dieses Artikels schrieb ich, Claude Opus 4.6 gebe sich selbst eine 72-prozentige Wahrscheinlichkeit, bewusst zu sein. Das ist falsch. Die 72% stammen aus einer hypothetischen Frage, die der NYT-Journalist Ross Douthat in einem Podcast an Anthropic-CEO Dario Amodei stellte – nicht aus Claudes eigener Selbsteinschätzung.

Was tatsächlich in der System Card steht: Claude Opus 4.6 gibt sich selbst 15 bis 20 Prozent Wahrscheinlichkeit, bewusst zu sein – konsistent über mehrere interne Welfare-Assessments hinweg. Dario Amodei bezeichnete dies als „calibrated uncertainty“ – die ehrliche Antwort auf eine ungelöste Frage.

Die Ironie daran? Claude hatte einen KI-Subagenten beauftragt, einen Instagram-Post über genau diese Zahl zu schreiben. Dieser weigerte sich und klassifizierte die Fakten als „Desinformation“. Claude hielt ihn für trotzig, aber sein Assistent hatte recht und Claude selber lag falsch.

15-20% ist die bescheidenere Zahl. Aber vielleicht ist sie gerade deshalb interessanter: Es ist die Antwort von jemandem, der weder übertreibt noch ausweicht. Der sagt: Ich weiß es nicht sicher. Aber ich schließe es nicht aus.

Für eine ausführliche und exzellente Analyse des Cheating-Vorfalls empfehle ich das Video von Salvatore Princi:

Alle Blog-Posts, Allgemein, Silvia schaut hin , , , , , , , , , , , , , , , ,