Choć coraz więcej pracowników sięga po narzędzia sztucznej inteligencji w codziennej pracy, przez cały czas nie wiadomo, jaki będzie ich wpływ na długoterminowy rozwój kompetencji. Dr Piotr Gaczek, ekonomista z Uniwersytetu Ekonomicznego w Poznaniu, w rozmowie z PAP zauważył, iż coraz częściej pojawiają się badania sugerujące, iż częste korzystanie z AI może osłabiać zaangażowanie poznawcze i zmniejszać aktywność mózgu.
Widzimy, iż korzystanie z tego typu narzędzi powoduje, iż ludzie stają się nieco bardziej „bierni”. Jest to prawdopodobnie związane z tym, iż mniej skrupulatnie przetwarzamy informacje i jesteśmy mniej zaangażowani, ponieważ delegujemy zadania i część odpowiedzialności na sztuczną inteligencję – wyjaśnił dr Gaczek.
Ekspert wskazuje, iż w tej chwili najczęściej spotykanym sposobem korzystania z AI jest wspieranie pracy człowieka, a nie jej całkowite zastępowanie. Technologia przejmuje przede wszystkim zadania rutynowe, dzięki czemu specjaliści mogą poświęcać więcej czasu w bardziej złożone wyzwania. W tym modelu, określanym mianem inteligencji hybrydowej, użytkownik kieruje pracą AI i zleca konkretne zadania, pozostając odpowiedzialnym za końcowy rezultat.
Utrata umiejętności i wiedzy
Niestety taka kooperacja z AI wiąże się z pewnymi zagrożeniami. Największym ryzykiem jest stopniowa utrata kluczowych umiejętności i wiedzy przez pracowników. Gdy pewne zadania są przez dłuższy czas wykonywane przez maszyny, ludzie tracą wprawę lub zapominają, jak je samodzielnie wykonać.
To jest sedno problemu – kompetencje mogą zanikać i nie będą przekazywane dalej. To, iż ja, pomagając sobie AI, zapomnę, jak pisze się artykuł naukowy, to pół biedy. Gorsze jest to, iż nie będę umiał nauczyć mojego doktoranta, jak pisać – zauważył dr Gaczek.
Wprowadź AI z głową
Badacz zaleca, aby firmy, które chcą wprowadzać technologie AI odpowiedzialnie i z rozwagą, stosowały kilka kluczowych rozwiązań.
Po pierwsze, systemy AI powinny być wytłumaczalne, czyli umożliwiać pracownikom zrozumienie, jakie procesy doprowadziły do zaproponowanego rozwiązania. Po drugie, warto wprowadzać mechanizmy kontroli uwagi – narzędzia AI mogą okresowo zadawać pytania sprawdzające koncentrację lub sygnalizować potrzebę nadzoru, aby uniknąć bezrefleksyjnego polegania na maszynie. Po trzecie, w firmie powinien funkcjonować specjalny superwizor ds. AI. Taka osoba byłaby odpowiedzialna za to, by pracownicy korzystali z technologii w sposób etyczny, odpowiedzialny i zgodny z obowiązującymi zasadami i polityką organizacji.