Anthropic räumt Fehler ein: Drei Ursachen für Claude-Probleme im Sommer

21.09.2025Aktuell, KI (Künstliche Intelligenz)

Anthropic veröffentlichte Mitte September einen technischen Bericht, in dem das Unternehmen drei schwerwiegende Fehler in seiner Infrastruktur einräumte [1]. Sie hatten dazu geführt, dass die Claude-Modelle über mehrere Wochen hinweg deutlich an Qualität verloren.

Nutzer berichteten im August und Anfang September, dass Claude unvollständige Antworten gab, fremdsprachige Zeichen einfügte oder fehlerhaften Code produzierte [2]. Schnell entstand der Verdacht, Anthropic habe die Qualität bewusst gedrosselt. Das Unternehmen widersprach dieser Darstellung und erklärte, die Probleme seien ausschließlich auf technische Ursachen zurückzuführen [1].

Drei Auslöser zur gleichen Zeit

In seinem Bericht beschrieb Anthropic drei voneinander unabhängige Fehler [1]. Da sie zeitlich zusammenfielen, entstand bei vielen Anwendern der Eindruck, das gesamte System sei instabil.

Der erste Fehler betraf die Routing-Logik. Ab dem 5. August wurden Anfragen fälschlich an Server weitergeleitet, die für interne Experimente vorgesehen waren. Eine Änderung im Lastenausgleich Ende des Monats verschärfte das Problem und führte dazu, dass zeitweise bis zu 16 Prozent der Sonnet-4-Anfragen betroffen waren [1].

Der zweite Fehler trat ab dem 25. August auf TPU-Systemen auf. Eine fehlerhafte Konfiguration verursachte, dass Claude unpassende Tokens auswählte. Dadurch erschienen asiatische Schriftzeichen in englischen Texten oder kaputter Code. Am stärksten betroffen waren Opus 4, Opus 4.1 und Sonnet 4. Erst am 2. September gelang die Korrektur [1].

Der dritte Fehler hing mit einem alten Bug im XLA:TPU-Compiler zusammen. Durch eine Änderung im Sampling-Code verschwand in manchen Fällen das wahrscheinlichste Token, sodass Antworten abgebrochen oder unvollständig wirkten. Betroffen waren Claude Haiku 3.5 sowie Teile von Opus 3 und Sonnet 4. Am 4. und 12. September rollte Anthropic die Änderungen zurück [1].

Folgen und öffentliche Reaktionen

Die Ausfälle hatten unmittelbare Auswirkungen. Entwickler mussten Code mehrfach überarbeiten, Unternehmen meldeten Verzögerungen in Projekten, und in Foren forderten Nutzer teils eine Entschädigung [2].

Das Fachportal The Decoder sprach von einer „seltenen Transparenz“ [3]. Auch Implicator.ai und Security Online Info griffen den Bericht auf und stellten die technischen Hintergründe dar [4][5]. Auf Reddit schilderten Anwender ihre Erfahrungen [2], während auf YouTube detaillierte Analysen erschienen [6]. Viele begrüßten die Offenheit von Anthropic, kritisierten jedoch die späte Reaktion.

Maßnahmen nach dem Bericht

Anthropic reagierte unmittelbar mit Korrekturen. Die Entwickler rollten fehlerhafte Deployments zurück, vor allem bei Tokenisierung und Kontextweiterleitungen auf TPU-Systemen [1][2]. Außerdem integrierten sie neue Tests, die ungewöhnliche Ausgaben wie fremde Zeichenketten frühzeitig erkennen [1].

Beim Sampling setzten die Ingenieure künftig auf eine präzisere Variante, die numerische Ungenauigkeiten vermeidet. Parallel arbeitet das Unternehmen eng mit dem TPU-Team zusammen, um den Compiler-Bug dauerhaft zu beseitigen [4].

Auch die Rückmeldungen der Nutzer werden stärker berücksichtigt. Feedback aus Foren, Bug-Reports und Social Media fließt systematischer in die Entwicklung ein. Neue Feedback-Buttons und /bug-Kommandos erleichtern die Meldung von Problemen [2].

Im Changelog von Claude Code finden sich zudem neue Diagnosefunktionen. Ein /context-Befehl hilft, Kontextprobleme zu analysieren, und die Abbruchlogik im SDK wurde verbessert [7]. Ergänzend traten neue Sicherheits- und Richtlinien-Updates in Kraft, die Missbrauch schneller erkennen sollen [8].

Einordnung

Anthropic ist nicht das erste Unternehmen, das mit Ausfällen in dieser Größenordnung konfrontiert war. OpenAI, Google und Microsoft hatten in den vergangenen Jahren ähnliche Probleme [3][4]. Der Fall zeigt, dass nicht nur die Leistungsfähigkeit der Modelle entscheidend ist, sondern auch die Stabilität der technischen Infrastruktur.

Mit dem Postmortem und den anschließenden Maßnahmen will Anthropic Vertrauen zurückgewinnen [1]. Für die Nutzer ist vor allem wichtig, dass die Fehler inzwischen behoben sind. Für die Branche insgesamt bleibt der Vorfall ein Lehrstück über die Bedeutung robuster Systeme und einer offenen Kommunikation.


Quellen

[1] Anthropic Engineering Blog – A postmortem of three recent issues (17.09.2025)
[2] Reddit – Diskussionen in r/ClaudeCode
[3] The Decoder – Anthropic erklärt Claude-Probleme mit drei Infrastrukturfehlern
[4] Implicator.ai – Three Bugs Pushed Claude Degradation to 16% at Peak
[5] Security Online Info – Three Bugs Degraded Claude’s Response Quality
[6] YouTube – Analyse-Video vom 18. September 2025
[7] Claude Code Changelog (September 2025)
[8] Anthropic News – Usage Policy Update (September 2025)

Das könnte Sie auch interessen.