Czy Twoja praca wygląda dziś tak samo jak 3 lata temu? A może już teraz sam robisz tyle, co kiedyś cały zespół? jeżeli korzystasz z AI w kodowaniu, ale masz wrażenie, iż przepalasz tokeny bez większego efektu, a agenci „odpływają” i robią co chcą – ten odcinek pomoże Ci zrozumieć dlaczego i co z tym zrobić.
Tomasz Ducin wraca do DevTalk, tym razem z kontynuacją tematu LLM-ów, ale o poziom głębiej. To już nie tylko nauka z AI – to praktyka kodowania, gdzie LLM-y mogą być Twoim zespołem juniorów… jeżeli wiesz, jak nimi zarządzać. Tomek jako architekt, developer i konsultant, intensywnie pracuje z systemami agentowymi i zna ich możliwości, ale też ograniczenia – bo rozumie, jak to działa od środka.
Z tego odcinka dowiesz się:
- Czy AI to faktycznie „osobisty zespół juniorów” i w jakich taskach naprawdę może przypieszyć Twoją pracę;
- Dlaczego „jesteś ekspertem od Reacta” to nienajlepszy początek prompta;
- Co to jest „higiena kontekstu” i dlaczego większość ludzi przepala niepotrzebnie swoje tokeny;
- Dlaczego execute() bez myślenia to przepis na katastrofę;
- Czym jest Vertical Slices Architecture i dlaczego LLM-y pracują z nią o wiele efektywniej;
- Jak naprawdę działają modele, czyli macierze, wagi, kwantyzacja i co to oznacza dla Twojej pracy;
- Dlaczego przyszłość to zarządzanie kontekstem, a nie większe okna;
- Kiedy AI działa jako pair-programmer, a kiedy to tylko iluzja współpracy?
A teraz… PLAY!
Zasubskrybuj podcast (Spotify, Apple podcasts) lub ściągnij ten odcinek w mp3.
Linki:
- DevTalk #124 – O Nauce z Pomocą LLM-ów z Tomaszem Ducinem
- DevTalk #09 – O programowaniu w parach z Krzysztofem Szabelskim
- i najważniejsze! W ramach projektu Developer Jutra zapraszamy Cię na [LIVE] DeepDive do serca LLMów w programowaniu • 20 października (poniedziałek), 20:00;
Koniecznie zostaw komentarz: jak Ci się podoba odcinek?
Muzyka wykorzystana w intro:
“Misuse” Kevin MacLeod (incompetech.com)
Licensed under Creative Commons: By Attribution 3.0
http://creativecommons.org/licenses/by/3.0/









