Noblista mówi, dlaczego AI może wysadzić ludzkość z siodła. „Liczą się tylko zyski”

konto.spidersweb.pl 16 godzin temu

Geoffrey Hinton twierdzi, iż najwięksi gracze technologiczni kierują się rachunkiem zysków, a nie bezpieczeństwem użytkowników i długofalową wizją przyszłości ludzkości.

Geoffrey Hinton, jeden z pionierów badań nad sztuczną inteligencją i laureat Nagrody Nobla, ponownie zabrał głos w debacie o kierunku rozwoju AI. Naukowiec, znany w mediach jako „ojciec chrzestny sztucznej inteligencji”, ostrzega, iż najwięksi gracze w branży nie myślą o długofalowych konsekwencjach technologii, koncentrując się głównie na krótkoterminowych celach biznesowych.

Zdaniem ojca chrzestnego AI, Dolina Krzemowa ignoruje przyszłość ludzkości

Według Hintona właściciele firm technologicznych kierują się przede wszystkim rachunkiem zysków, a nie pytaniem o to, jak AI wpłynie na ludzkość w perspektywie dziesięcioleci. Z kolei sami badacze – jak podkreśla uczony – skupiają się na rozwiązywaniu bieżących problemów, które ich ciekawią, zamiast patrzeć na szerszy obraz.

W rozmowie z magazynem Fortune Hinton wyjaśnił, iż twórców AI zajmują dziś praktyczne zadania, takie jak trenowanie modeli do rozpoznawania obrazów czy generowania wiarygodnych filmów. Jego zdaniem właśnie te krótkoterminowe ambicje napędzają w tej chwili rozwój sztucznej inteligencji, zamiast refleksji nad tym, jak w przyszłości może ona wpłynąć na społeczeństwo.

Dla właścicieli firm motorem badań są krótkoterminowe zyski. […] Mamy raczej mniejsze cele, takie jak: jak to osiągnąć? Albo: jak sprawić, by komputer potrafił rozpoznawać obiekty na obrazach? Jak sprawić, by komputer potrafił generować przekonujące filmy? […] Naukowcy są zainteresowani rozwiązywaniem problemów, które wzbudzają ich ciekawość. Nie zaczynamy od tego samego celu, jakim jest odpowiedź na pytanie: jaka będzie przyszłość ludzkości?

– mówił Hinton, krytykując podejście firm technologicznych

Hinton od lat ostrzega, iż AI rozwijana bez odpowiednich zabezpieczeń może wymknąć się spod kontroli. W jego ocenie istnieje od 10 do 20 proc. szans, iż w ciągu kilku dekad ludzkość zginie w wyniku pojawienia się superinteligentnych systemów. To ryzyko – jak mówi – stale rośnie, bo rozwój technologii jest szybszy, niż sam przewidywał jeszcze kilka lat temu.

Naukowiec wskazuje na dwa podstawowe zagrożenia. Pierwsze to nadużycia ze strony „złych aktorów”, już dziś widoczne w rosnącej liczbie deepfejków czy cyberataków. Drugie jest znacznie poważniejsze – to możliwość, iż sama sztuczna inteligencja stanie się niezależnym podmiotem, dążącym do przetrwania i kontroli.

Hinton uważa, iż aby uniknąć katastrofy, firmy muszą zmienić podejście i traktować AI nie jako narzędzie całkowicie podległe człowiekowi, ale jako byt, który może potrzebować innych mechanizmów kontroli. W wywiadach posługiwał się obrazowym porównaniem: superinteligentne AI mogłoby przejąć rolę „matki”, a ludzie – „dzieci”, które wymagają ochrony.

Przypomnijmy, iż w grudniu ubiegłego roku Hinton w rozmowie z BBC podnosił już kwestię ryzyka „apokalipsy AI”. Wówczas podkreślał, iż tempo rozwoju technologii jest znacznie szybsze, niż zakładały wcześniejsze prognozy, a powierzenie jej całkowicie w ręce wielkich koncernów może okazać się dla ludzkości śmiertelnie groźne.

Więcej na temat sztucznej inteligencji:

Idź do oryginalnego materiału