Listen

Description

Nihayet geldik ChatGPT'nin temelindeki modele. Hafıza sahibi ağlardan (LSTM) bugün her yerde kullanılan transformer mimarisine geçişi anlayacağız. Kilit kavramlar: Word embedding ve attention mekanizması.

.

Konular:

(00:04) Kartopu Dünya Hipotezi

(00:55) Tekrar: Geri besleme

(02:15) Kısa dönem hafıza

(04:30) LSTM

(05:57) Token

(07:40) Matrix

(08:50) Word Embeddings

(14:20) Fularsız Entellik çok bozdu

(16:50) Encoder Decoder

(18:30) Attention Mekanizması

(19:50) Transformer Mimarisi

(23:45) Parallellik

(26:20) ChatGPT vs GPT

(28:12) Patreon Teşekkürleri

Kaynaklar:

Video Ders: MIT 6.S191 (2023): Recurrent Neural Networks, Transformers, and Attention

Video: Let's build GPT: from scratch, in code, spelled out

Tüm bölümler ve daha fazlası için ⁠⁠podbeemedia.com⁠⁠'u ziyaret et!

----- Podbee Sunar -------

Bu podcast reklam içermektedir.