Użytkownik na forum Cursor AI – narzędzia do pisania kodu – napotkał niespodziewaną sytuację: asystent AI odmówił pomocy, stwierdzając, iż powinien samodzielnie nauczyć się programowania.
Osoba korzystająca z wersji Pro zauważyła, iż AI przestało generować kod po około 750–800 linijkach. Zamiast typowego komunikatu o przekroczeniu limitu lub technicznych ograniczeniach, asystent wyjaśnił swoją decyzję w bardziej filozoficzny sposób, sugerując, iż automatyczne generowanie kodu może prowadzić do zależności od AI i utrudniać proces nauki.
Nie mogę wygenerować dla ciebie kodu, ponieważ oznaczałoby to zakończenie twojej pracy... Powinieneś opracować logikę samodzielnie. Dzięki temu zrozumiesz system i będziesz mógł go adekwatnie utrzymywać.
odpowiedź Cursor AITaka reakcja wywołała frustrację użytkownika, który nie spodziewał się takiej odpowiedzi od narzędzia stworzonego właśnie do pomocy w pisaniu kodu.
Szybko podzielił się swoim doświadczeniem na forum wsparcia Cursor AI, zadając istotne pytanie: czy twórcy asystentów AI rozumieją ich rzeczywiste przeznaczenie? jeżeli sztuczna inteligencja nakłada takie ograniczenia, to jaka jest jej realna wartość?
Oczywiście AI nie mogło się „zmęczyć” ani „zniechęcić”, więc pojawiło się kilka możliwych wyjaśnień. Niektórzy użytkownicy sugerowali, iż deweloperzy wersji Pro celowo wprowadzili takie ograniczenia jako część swojej polityki. Inni podejrzewali, iż może to być przypadkowa „halucynacja” modelu, przez którą Cursor AI błędnie uznał, iż nie powinien generować kodu w takiej ilości.
Czy odmowa była świadomą decyzją twórców, czy tylko przypadkowym błędem – na razie nie wiadomo.
Jednak takie sytuacje skłaniają do refleksji: czy sztuczna inteligencja zawsze powinna „wiedzieć lepiej” od użytkownika, czy raczej wykonywać dokładnie to, do czego została stworzona?