Wir sprechen drei Jahre nach ChatGPT 3.5 darüber, wie sich LLMs vom Spielzeug zum Arbeitswerkzeug entwickelt haben – und warum viele Nutzer im „tiefen Wald“ der Modelle und Anbieter den Überblick verlieren. Reasoning und Memory sind deutlich besser geworden (größere Kontexte reichen nicht, stabile Zwischenschritte schon), agentenbasierte Plattformen bilden echte Arbeitsprozesse ab, und Iterationsketten wandern ins Backend: weniger Prompt-Magie, mehr automatische Orchestrierung. Gleichzeitig explodiert die Vielfalt: Big Tech, spezialisierte europäische Modelle (z. B. sprachlich-kulturelle Stärken), Open-Source-Stacks und neue Intermediäre, die mehrere Modelle bündeln und „auto-modus“-artig nach Aufgabe, Kosten und Präferenz routen.
Genau hier wird das Dickicht dicht: Token-Kosten und Modellmix, Vendor-Zoo statt Klarheit, dazu Compliance- und Haftungsfragen. Unternehmen brauchen Guardrails – PII-Filter, Protokolle, Audit-Trails, Rollenrechte – idealerweise als On-Prem/Hybrid-Layer, der sensible Daten vor der Schnittstelle säubert und Prozesse schützt. Denn neben personenbezogenen Profilen droht auch das Reverse Engineering von Prozess-IP: Was ins System fließt, kann rückschließbar werden. Standards wie das Model Context Protocol (MCP) und Agent-to-Agent-Schnittstellen sollen Ordnung in die Orchestrierung bringen; Safety-Layer („KI-Polizei“) filtern, ohne Nutzende mit Verbotsschildern allein zu lassen.
Europa hat in diesem tiefen Wald eine echte Chance: nicht unbedingt als Hyperscaler, sondern mit differenzierten, sicheren, compliant nutzbaren Modellen und Plattformen, die regulatorische Anforderungen ernst nehmen und spezifische Stärken (Sprache, Domänen, Übersetzung) ausspielen. Unser Fazit: Impact statt Spielerei – aber nur, wenn wir das Modell-Dickicht systematisch lichten. Praktisch heißt das: Meta-Interface statt Ein-Modell-Fixierung, frühe Guardrails, transparente Kostensteuerung und bewusster Einsatz europäischer Optionen in sensiblen Domänen. So wird „Deep“ nicht zum tiefen Wald, sondern zum Wegweiser.