Miałam wątpliwości, czy to napisać i podzielić się przemyśleniami, ale cóż, jeszcze chwila i nikt już nie będzie czytał blogów. Żadnych oryginalnych myśli, tylko te generowane AI. Także, tym razem trochę marudzenia, ale co zrobić – taki mamy klimat. Zobaczmy, co się dzieje, gdy na starcie kariery za mocno polegasz na AI. I czemu firmy i wreszcie też menadżerowie zaczynają to zauważać.
Disclamer: nie jestem przeciwniczką AI, sama używam ogromnej ilości narzędzi AI-based
Jest 2025. Wchodzisz w IT.
Masz za sobą kilka kursów, może bootcamp.
Ogarniasz Pythona, SQL-a, robisz zadania rekrutacyjne.
I nagle odkrywasz ChatGPT. Może nie tak nagle, bo jest z nami od końca 2023, ale załóżmy, iż właśnie odkrywasz ✨~vibe coding~✨. Zaczynasz pytać chatbota o wszystko: jak napisać funkcję, jak ogarnąć testy, jak działa ten błąd. Na początku – ulala . Potem… no właśnie.
AI robi za dużo, my myślimy za mało
Generatywna AI w programowaniu to hot-trend. Używają go wszyscy, bo przecież działa. Kod powstaje szybciej, można od razu testować różne podejścia.
Tylko iż coraz więcej osób robi coś innego: zamiast rozumieć, co piszą – po prostu wrzucają prompt i patrzą, co wypluje model. Efekt? Kod działa, ale nie wiadomo dlaczego. A jak nie działa? Następny prompt, następny prompt, a potem już tylko panika.
Chat wygeneruje funkcje, Copilot na Githubie zrobi code review. Jeden AI kodzi, inny AI sprawdza. Nic tylko otworzyć szampana.
W rozmowach z mentorami i team leaderami wraca ten sam schemat:
- juniorzy piszą kod, ale nie umieją wytłumaczyć, co robi,
- kopiują gotowce bez świadomości, czy to bezpieczne,
- nie znają podstaw działania aplikacji, które budują
Oczywiście, to przecież nie jest problem nowy. Kopiowanie rozwiązania ze StackOverflow bez zrozumienia funkcjonowało od lat przed chatem, ale chyba takiego wyłączenia mózgu jeszcze przez 10 lat nie miałam okazji obserwować.
W praktyce: ktoś robi aplikację do logowania użytkowników, ale nie wie, czym się różni GET od POST, a JWT to gdzieś tam dzwoniło, ale nie wiadomo, w którym kościele.
Albo używa AI do wygenerowania testów jednostkowych, nie rozumiejąc, czego te testy adekwatnie mają dowodzić i czy w ogóle pokrywają ściężki testowe. Nie mówiąc już o testach robiących cały mock klasy i testujących tenże mock.
Kiedy AI pada, praca staje
W marcu 2025 ChatGPT miał poważną awarię, kolejna powtórzyła się ponownie kilka dni temu. Co się stało? Chat nie działał przez kilka godzin. Reddit pełen był komentarzy typu: no to chyba czas na kawę. Pół żartem, pół serio. Ale jednak: bez AI praca nie idzie i to nie dlatego, iż jest wolniej. Tylko dlatego, iż coraz więcej osób, w ogóle nie wie co robić bez podpowiedzi.
To realny problem – zwłaszcza wśród osób, które dopiero uczą się programowania. Brakuje bazy: znajomości języka, struktur danych, logiki debugowania.
AI samo w sobie nie jest problemem.
Problemem jest, iż traktujemy je jak zamiennik wiedzy.
Vibe Coding – this is no longer fun
Działa, ale nie wiadomo dlaczego…
Znowu to przecież nic nowego.
Nowa, jest tylko skala.
Cicho, bo jeszcze nie wypada mówić, iż chat za nas robi robotę. Zespoły zaczynają mieć z tym problem. Całe firmy zaczynają mieć z tym problem. W wielu zespołach pojawia się zjawisko nazwane „vibe coding” – kod wygląda dobrze, działa na pierwszy rzut oka, ale pod spodem nie wiadomo, co się dzieje. Bez testów, bez logiki, bez zrozumienia zależności.
To nie znaczy, iż juniorzy są leniwi.
74 GB danych – tyle konsumujemy przeciętnie w ciągu 24 godzin.
To ilość informacji, której przyjęcie zjamowało średniowiecznemu, wykształconemu człowiekowi całe życie. Wiem, iż ewolucja w biologii zajmuje jednak więcej niż 5 wieków. Oczywiste jest więc, iż mózg ma nadmiar informacji, a nie jest leniwym.
Chodzi mi o zupełnie coś innego:
AI daje nam dzisiaj złudne poczucie kompetencji.
Ktoś, kto korzysta z ChatGPT, może napisać kod na poziomie mid-deva, ale zupełnie nie potrafi go potem utrzymać, rozbudować, zabezpieczyć.
Bezpieczeństwo to nie prompt
W kodzie generowanym przez AI często pojawiają się błędy bezpieczeństwa. Nie dlatego, iż AI jest głupie, ale dlatego, iż nie zna kontekstu:
- nie wie, jakie są wymagania compliance,
- nie zna Twojej architektury,
- nie wie, z jakimi atakami się liczysz
Ktoś może wygenerować kod szyfrujący dane, który z pozoru wygląda OK, ale:
- używa przestarzałego algorytmu,
- nie ma walidacji danych wejściowych,
- działa dobrze tylko na przykładzie X
To nie są rzeczy, które zauważysz, jeżeli już dzisiaj nie zrozumiesz, jak działa bezpieczeństwo w kodzie.
Licencje open source i inne pułapki
AI często generuje kod oparty na danych, które widziało w treningu – w tym kod z GitHuba, Stack Overflow i innych źródeł. Co to znaczy? Że może podsunąć fragment z niejasną licencją. A jeżeli go wrzucisz do swojego projektu, to możesz mieć problem. Nie techniczny – tylko prawny. Fragment kodu z GPL nie może trafić do projektu komercyjnego bez spełnienia określonych warunków. A AI Ci tego nie powie.
Kopiowanie kodu ze StackOverflow to przecież było to samo? No… nie do końca. Raczej nie wrzucało się 4 całych plików i „weź napisz mi X”. Korzystanie z kodu z Internetu, snipetów, fragmentów z artykułów wymagało chociaż minimalnego zrozumienia co się robi jak np. chociażby zmiany nazw funkcji.
Kogo firmy chcą zatrudniać?
Zaczyna się wyraźna zmiana podejścia do rekrutacji. Sam kod to za mało. Liczy się:
- umiejętność myślenia architektonicznego i systemowego,
- dogłębne rozumienie bezpieczeństwa,
- odporność na „AI blindness” – czyli brak refleksji nad tym, co generuje model
Niektóre firmy, sprawdzają już na rozmowach, czy kandydat potrafi kodować, czy tylko wie, co wpisać w prompt. Różnica? Znacząca. Współdzielenie całego ekranu, zadania z tworzeniem kodu w locie z grafiki, albo… (o zgrozo!) powrót do rekrutacji w biurze.
Co to oznacza?
Nie chodzi o to, żeby przestać korzystać z AI. Chodzi o to, żeby robić to mądrze. AI to świetne narzędzie do szukania alternatyw, generowania szkieletów kodu, czy automatyzacji nudnych zadań. Pisanie maili, poprawienie jakości komunikacji czy wsparcie w nauce – świetne. Tylko, iż nie zastąpi rozumienia algorytmó∑, wiedzy o systemach, myślenia przyczynowo-skutkowego.
Firmy, które inwestują w juniorów (tak, są cały czas takie i przestańmy mówić, iż ich nie ma), już teraz zmieniają podejście do szkoleń i rekrutacji. Więcej praktyki, więcej realnych case’ów, mniej teorii. Mniej pytań „co robi ta funkcja”, więcej „co się stanie, jeżeli tu będzie luka”.
Refleksja na koniec
Jeśli dopiero zaczynasz, to traktuj AI jak dodatek mentora, nie jak sterownika. Ucz się programować, ucz się myśleć samodzielnie i szukać samodzielnie, a nie tylko pytać. Debuguj manualnie, zanim zapytasz o błąd. Staraj się rozumieć, nie tylko kopiować.
Bo technologia się zmieni. Ale umiejętność logicznego myślenia i zrozumienia, co robisz zostaje.
Finalnie właśnie to będzie robić różnicę między kimś, kto „zapytał AI”, a kimś, kto naprawdę potrafi programować, czyli komunikować się z maszynami.