Maschinelle Übersetzung gibt es schon sehr lange, erste Pionierversuche gab es bereits in den 1930ern. Sehr große Verbesserungen brachte der Einsatz von Deep Learning und künstlichen neuronalen Netzen. Sie ermöglichen Computersystemen, kontextbezogene Verbindungen zwischen Wörtern und Phrasen herzustellen. Das "GPT" bei GPT-3 steht für Generative Pre-trained Transformer. Und den gibt es jetzt schon in der dritten Ausbaustufe. Der Transformer bekommt einen Input, wertet ihn mit Hilfe von Deep Learning aus und generiert neuen Output. GPT, egal ob 2 oder 3, gehört damit zum großen Feld der künstlichen Intelligenz.
Wir sprechen mit Carsten über seine Erfahrungen und Erlebnisse mit GPT-2 und GPT-3.
Link zum Fundstück der Woche
Artikel OpenAIs GPT-3
GPT-2 ausprobieren
KI heute ist zurück!
Wir beleuchten praxisnah Strategien, Best Practices sowie Chancen und Herausforderungen der KI-Transformation in Unternehmen.