Listen

Description

Czy Twoja praca wygląda dziś tak samo jak 3 lata temu? A może już teraz sam robisz tyle, co kiedyś cały zespół? Jeśli korzystasz z AI w kodowaniu, ale masz wrażenie, że przepalasz tokeny bez większego efektu, a agenci „odpływają" i robią co chcą - ten odcinek pomoże Ci zrozumieć dlaczego i co z tym zrobić.

Tomasz Ducin wraca do DevTalk, tym razem z kontynuacją tematu LLM-ów, ale o poziom głębiej. To już nie tylko nauka z AI - to praktyka kodowania, gdzie LLM-y mogą być Twoim zespołem juniorów… jeśli wiesz, jak nimi zarządzać. Tomek jako architekt, developer i konsultant, intensywnie pracuje z systemami agentowymi i zna ich możliwości, ale też ograniczenia - bo rozumie, jak to działa od środka.

Z tego odcinka dowiesz się:

 

Linki:

 

Rozdziały:

00:00 Wstęp i powitanie Tomka

00:35 Tomasz Ducin - od programisty do eksperta LLM

02:44 AI jako osobisty zespół juniorów

07:02 Problem jest prosty = łatwo go naklepać maszynowo

10:10 Programowanie z AI

13:25 execute() - największy błąd w pracy z AI

19:01 Kontekst to budżet, więc przestań go przepalać!

26:40 AI nie jest ekspertem od Reacta

30:10 Jak LLM naprawdę działa: macierze, wagi i matematyka

41:54 Vertical Slices Architecture - dlaczego LLM kocha tę architekturę

48:44 Pair programming z AI

53:01 Deep Research vs Coding Agent

55:04 Prawo Amdahla i przyszłość okien kontekstowych

01:01:50 High effort vs low effort - kwantyzacja w praktyce

01:04:10 Dlaczego warto zrozumieć AI od środka