Anthropics Claude 3.7 startete mit großem Tamtam. Die Ernüchterung folgte schnell. Nutzer berichten von hartnäckigen technischen Problemen im täglichen Einsatz.
Der beworbene "Extended Thinking Mode" schafft mehr Probleme als Lösungen. Er verkompliziert einfache Aufgaben und verschwendet wertvolle Zeit.
Trotz verbesserter Genauigkeit erfindet Claude 3.7 gelegentlich fiktive Quellen. Die offizielle Systemkarte räumt eine Fehlerquote von 0,31% ein. Das Modell fabriziert plausible Statistiken und erstellt manchmal sogar umfangreiche Literaturverzeichnisse mit nicht existierenden Referenzen.
Nutzer bestätigen diese Probleme. Ein Reddit-Nutzer berichtet, dass Claude regelmäßig wissenschaftliche Quellen mit falschen Autoren erfindet. Selbst mit klaren Anweisungen verschwinden die Falschzitate nicht vollständig.
"Ich habe täglich nach dem Update gesucht", gesteht ein Power-User, der 25 Stunden pro Woche mit Claude programmiert. "Jetzt bin ich zur Vorgängerversion zurückgekehrt."
Technische Pannen begleiten den Start. Verbindungsfehler, hohe Serverlasten und defekte Export-Tools frustrieren die Nutzer. Anthropics eigene Status-Seite bestätigte erhöhte Fehlerraten kurz nach dem Launch.
Warum dies wichtig ist:
- Der holprige Start beschädigt Anthropics Ruf für vorsichtige, sicherheitsorientierte Entwicklung
- Halluzinierte Zitate untergraben das Vertrauen in KI-generierte Inhalte für akademische und berufliche Zwecke
- Die Kluft zwischen KI-Marketingversprechen und praktischem Nutzen wächst
Read on, my dear: