Czy Twoja praca wygląda dziś tak samo jak 3 lata temu? A może już teraz sam robisz tyle, co kiedyś cały zespół? Jeśli korzystasz z AI w kodowaniu, ale masz wrażenie, że przepalasz tokeny bez większego efektu, a agenci „odpływają" i robią co chcą - ten odcinek pomoże Ci zrozumieć dlaczego i co z tym zrobić.
Tomasz Ducin wraca do DevTalk, tym razem z kontynuacją tematu LLM-ów, ale o poziom głębiej. To już nie tylko nauka z AI - to praktyka kodowania, gdzie LLM-y mogą być Twoim zespołem juniorów… jeśli wiesz, jak nimi zarządzać. Tomek jako architekt, developer i konsultant, intensywnie pracuje z systemami agentowymi i zna ich możliwości, ale też ograniczenia - bo rozumie, jak to działa od środka.
Z tego odcinka dowiesz się:
Linki:
Rozdziały:
00:00 Wstęp i powitanie Tomka
00:35 Tomasz Ducin - od programisty do eksperta LLM
02:44 AI jako osobisty zespół juniorów
07:02 Problem jest prosty = łatwo go naklepać maszynowo
10:10 Programowanie z AI
13:25 execute() - największy błąd w pracy z AI
19:01 Kontekst to budżet, więc przestań go przepalać!
26:40 AI nie jest ekspertem od Reacta
30:10 Jak LLM naprawdę działa: macierze, wagi i matematyka
41:54 Vertical Slices Architecture - dlaczego LLM kocha tę architekturę
48:44 Pair programming z AI
53:01 Deep Research vs Coding Agent
55:04 Prawo Amdahla i przyszłość okien kontekstowych
01:01:50 High effort vs low effort - kwantyzacja w praktyce
01:04:10 Dlaczego warto zrozumieć AI od środka