Wir besprechen ein aktuelles Paper, in dem abgeschätzt wird, zu welchem Zeitpunkt der Bedarf an Trainingsdaten von Large Language Models nicht mehr durch öffentlich verfügbare und digitalisierte Texte abgedeckt werden kann. Doch ist das "Immer höher, schneller, weiter"-Mantra eigentlich der richtige Weg in der Weiterentwicklung generativer KI?