Generacyjna sztuczna inteligencja (GenAI) osiągnęła już swój szczyt w cyklu szumu Gartnera, ale nie spełniła oczekiwań – ostrzegali analitycy na europejskiej konferencji firmy w Barcelonie.
W przemówieniu otwierającym Europejskie Sympozjum Gartnera Alicia Mullery, wiceprezes ds. badań w firmie analitycznej, omówiła dwa wyścigi sztucznej inteligencji: pierwszy to wyścig dostawców technologii; drugim jest bezpieczne dostarczanie wyników sztucznej inteligencji. „To jest wasza rasa” – powiedziała publiczności składającej się z dyrektorów IT.
Jednym z wniosków z sesji otwierającej jest to, iż tak łatwo zmarnować pieniądze z GenAI. „Musisz zrozumieć ustawę i stale ją monitorować” – ostrzegł Mullery i współprowadzący Daryl Plummer, główny analityk ds. badań w firmie Gartner.
Plummer zauważył, iż większość organizacji, z którymi rozmawiał Gartner, nie jest gotowa na sztuczną inteligencję. „Nie są na to gotowi pod względem emocjonalnym, technologicznym, organizacyjnym i zarządczym” – stwierdził.
Aby zminimalizować awarie. Gartner zalecił dwa podejścia: jedno dla organizacji, które chcą przede wszystkim wykorzystać sztuczną inteligencję do poprawy produktywności; drugi skupiał się na wykorzystaniu sztucznej inteligencji do napędzania zmian transformacyjnych.
Dane Gartnera pokazują, iż prowadzenie a projekt sprawdzający koncepcję może kosztować od 300 000 dolarów do znacznie ponad 2 milionów dolarów. Choć liderzy IT i biznesowi mogą docenić duże koszty związane ze szkoleniem modeli sztucznej inteligencji na drogim sprzęcie z procesorem graficznym (GPU), Plummer stwierdził, iż koszty związane z Wnioskowanie AI może gwałtownie wymknąć się spod kontroli.
„Przetwarzanie jest bardzo kosztowne, ponieważ modele sztucznej inteligencji muszą korzystać z tak zwanego mnożenia macierzy, aby przetworzyć wszystkie parametry, których używają, aby uzyskać prognozę. Wymaga to procesorów graficznych, które albo kupujesz i instalujesz we własnym centrum danych, albo dzierżawisz od dostawcy chmury. Jedno i drugie jest bardzo drogie” – stwierdził.
Plummer ostrzegł, iż dostawcy technologii byli zbyt skupieni na patrzeniu na rozwój sztucznej inteligencji ze swojej perspektywy, bez zabierania klientów w podróż prowadzącą do osiągnięcia celów tych zaawansowanych systemów sztucznej inteligencji. „Microsoft, Google, Amazon, Oracle, Meta i OpenAI popełniliśmy jeden poważny błąd – pokazują nam, co możemy zrobić [but] nie pokazują nam, co powinniśmy zrobić” – stwierdził.
Ponieważ wiele organizacji nie jest gotowych na przyjęcie zaawansowanej sztucznej inteligencji dostępnej od głównych dostawców, Plummer stwierdził, iż wiele z nich stwierdza, iż 75% ich budżetu jest wydawane na doradztwo IT, aby zrozumieć, jakie korzyści nowa technologia może przynieść ich organizacji.
„Dotarcie do etapu weryfikacji koncepcji wymaga większego budżetu” – powiedział, dodając, iż koszty będą przez cały czas rosły, dopóki liderzy IT nie zaczną wprowadzać systemów sztucznej inteligencji dla przedsiębiorstw do produkcji, kiedy to powinni być w stanie lepiej zrozumieć, w jaki sposób zarządzać bieżącymi kosztami.
Analitycy wyjaśnili, iż liderzy IT muszą rozważyć wyniki, które chcą osiągnąć. Ci, którzy chcą wdrożyć sztuczną inteligencję w celu poprawy efektywności biznesowej – określane przez Gartnera jako organizacje „stabilne na sztuczną inteligencję” – prawdopodobnie będą prowadzić 10 lub mniej projektów pilotażowych lub inicjatyw związanych z sztuczną inteligencją. W tym scenariuszu można powierzyć ludziom zadanie monitorowania i sprawdzania, czy systemy sztucznej inteligencji działają prawidłowo.
Organizacje, w których GenAI jest postrzegana jako technologia zmieniająca branżę, prawdopodobnie przeprowadzą znacznie więcej projektów pilotażowych. Gartner klasyfikuje te organizacje jako „akcelerowane sztuczną inteligencją”. Firma analityczna nie wierzy, iż zarządzanie systemami sztucznej inteligencji, które organizacje wykorzystujące sztuczną inteligencję chcą wdrożyć, nie jest w ogóle możliwe.
W związku z tym przewidział rozwój technologii dubbingowanej TRiSM (zarządzanie zaufaniem, ryzykiem i bezpieczeństwem)co według niej odegra znaczącą rolę w zapewnieniu zgodności systemów sztucznej inteligencji.