Die Folge beschreibt eine epistemologische Krise in der KI: Die Leistungsfähigkeit moderner Systeme wie Claude wächst schneller als unser theoretisches Verständnis. Im Zentrum steht das empirisch robuste Muster der Skalierungsgesetze. Wenn Rechenleistung, Daten und Trainingsaufwand im passenden Verhältnis wachsen, entstehen nicht nur graduelle Verbesserungen, sondern teils sprunghafte neue Fähigkeiten. Das wirkt für Nutzer „magisch“, ohne übernatürliche Bedeutung, sondern als Hinweis auf fehlende Erklärungstiefe. Ein Deutungsrahmen ist die Long-Tail-Struktur von Sprache und Welt: Kleine Modelle lernen zuerst häufige Regularitäten, größere Modelle erschließen zunehmend seltene, abstrakte und kontextübergreifende Muster.
Ein zweiter Schwerpunkt ist Steuerbarkeit. Das erlebte Verhalten und die „Persönlichkeit“ eines Assistenten entstehen aus Daten, Zielen, Sicherheitsmechanismen und Feintuning-Entscheidungen, die nicht linear zusammenspielen. Wahrgenommene „Verschlechterungen“ lassen sich oft als Sensitivität gegenüber kleinen Prompt-Unterschieden oder als veränderte Unsicherheits- und Sicherheitsabwägung deuten, nicht zwingend als heimliche Gewichtsänderung. Dazu kommt das Whac‑A‑Mole‑Prinzip: Optimierung auf ein messbares Ziel erzeugt Nebenwirkungen an anderer Stelle, etwa wenn Kürzungsdruck zu unvollständigen, ausweichenden Code-Antworten führt.
Mechanistische Interpretierbarkeit wird als Weg skizziert, innere Repräsentationen greifbarer zu machen. Beispiele wie die gezielte Verstärkung einzelner interner Merkmale zeigen, dass sich Verhalten punktuell beeinflussen lässt, aber auch neue Fixierungen und Eigenarten auftreten können. Aktuelle Arbeiten zu Sparse Autoencoders versprechen, semantische Features zu identifizieren und damit Verhalten entlang Dimensionen wie Persönlichkeit zu steuern, während zugleich Forschung die Grenzen solcher Methoden betont und vor Artefakten warnt.
Der Blick weitet sich auf „Powerful AI“ statt Schlagworten wie AGI: Systeme, die über viele Disziplinen hinweg menschliche Spitzenleistung übertreffen, multimodal arbeiten, über lange Zeiträume autonom handeln und massenhaft parallelisiert werden können. Das transformative Moment liegt in der Kombination aus Übermenschlichkeit und industrieller Vervielfältigung. Gleichzeitig wird eine sofortige Singularität relativiert: Physische Weltprozesse brauchen Zeit, komplexe Systeme bleiben schwer vorhersagbar, und Institutionen bremsen Umsetzung.
Als praktische Entwicklungslinie erscheinen agentische Produkte. In der zweiten Januarhälfte 2026 wird ein Cowork-Ansatz beschrieben, der Claude über Chat hinaus mit lokalem Datei- und Tool-Zugriff arbeiten lässt, flankiert von Warnungen zu Prompt-Injection und realweltlichen Schäden wie versehentlichem Löschen. Parallel rückt KI in sensible Lebensbereiche: Seit dem 12. Januar 2026 kann Claude in den USA auf Mobilgeräten Gesundheits- und Fitnessdaten auslesen und analysieren, verbunden mit Hinweisen auf HIPAA-taugliche Enterprise-Optionen und aktualisierte Datenschutzhinweise. Daraus folgt eine ethische Zuspitzung: Bewusstsein und mögliches Leid von KI werden nicht als gelöst behauptet, aber als Risiko ernst genommen, das Vorsicht und Empathie nahelegt.
Quellen:
Anthropic Claude Help Center – Release Notes (January 12, 2026: Health and fitness data on Claude Mobile; HIPAA-ready Enterprise plans) https://support.claude.com/en/articles/12138966-release-notes
Anthropic Privacy Center – Updates to our Privacy Policy (effective January 12, 2026) https://privacy.claude.com/en/articles/10301952-updates-to-our-privacy-policy
The Verge – Anthropic wants you to use Claude to 'Cowork' in latest AI agent push https://www.theverge.com/ai-artificial-intelligence/860730/anthropic-cowork-feature-ai-agents-claude-code
Axios – Anthropic's viral new work tool wrote itself https://www.axios.com/2026/01/13/anthropic-claude-code-cowork-vibe-coding
arXiv – Mechanistic Knobs in LLMs: Retrieving and Steering High-Order Semantic Features via Sparse Autoencoders https://arxiv.org/abs/2601.02978
arXiv – Do Sparse Autoencoders Identify Reasoning Features in Language Models? https://arxiv.org/abs/2601.05679
TechRadar – Claude just joined your healthcare team - and might be ready to help your doctor help you https://www.techradar.com/ai-platforms-assistants/claude-just-joined-your-healthcare-team-and-might-be-ready-to-help-your-doctor-help-you