Listen

Description

 In dieser Folge der KI Kantine erklärt Buschi, wie große Sprachmodelle wie GPT unter der Haube funktionieren. Es geht um die Transformer-Architektur, um Tokenisierung, Embeddings und hochdimensionale Vektorräume. Was nach reinem Rechnen klingt, wirkt oft verblüffend menschlich – warum das so ist, erfährst du in dieser Folge.