Sam Altman twierdzi, iż AGI będzie „znaczyło znacznie mniej”, niż ludzie się spodziewają

cyberfeed.pl 3 tygodni temu


Prawie dwa lata temu OpenAI powiedział to sztuczna inteligencja ogólna — rzecz, do której zbudowania została stworzona firma — może „wynieść ludzkość na wyższy poziom” i „dać każdemu niesamowite nowe możliwości”.

Teraz dyrektor generalny Sam Altman próbuje obniżyć oczekiwania.

„Przypuszczam, iż osiągniemy AGI wcześniej, niż większość ludzi na świecie myśli, a to ma znacznie mniejsze znaczenie” – powiedział podczas wywiadu z Andrew Rossem Sorkinem w New York Timesa Szczyt DealBook w środę. „Wiele obaw dotyczących bezpieczeństwa, które wyrażaliśmy my i inni, tak naprawdę nie pojawia się w momencie AGI. AGI można zbudować, świat w większości toczy się w ten sam sposób, wszystko rozwija się szybciej, ale potem następuje długa kontynuacja od tego, co nazywamy AGI, do tego, co nazywamy super inteligencją.

To nie pierwszy raz, kiedy Altman bagatelizuje pozornie nieuchronne pojawienie się AGI, będącego statutem OpenAI kiedyś powiedziane będą w stanie „zautomatyzować zdecydowaną większość pracy intelektualnej”. On ma ostatnio dokuczał iż może pojawić się już w 2025 r. i będzie osiągalne na istniejącym sprzęcie. My o Krawędź słyszałem OpenAI zamierza spleść swoje duże modele językowe i zadeklarować, iż jest to AGI.

Podczas szczytu DealBook Altman dał do zrozumienia, iż ​​definicja AGI w OpenAI jest teraz mniej imponująca niż kiedyś. „Spodziewam się, iż zakłócenia gospodarcze potrwają nieco dłużej, niż się ludziom wydaje, ponieważ w społeczeństwie panuje duża inercja” – powiedział. „Tak więc w ciągu pierwszych kilku lat może nie będzie aż tak wielu zmian. A potem być może wiele się zmieni.”

Wycofanie się z umowy o podziale zysków z Microsoftem byłoby wielką sprawą dla OpenAI i jej partnerów ambicje być kolejną ogromną firmą technologiczną nastawioną na zysk. Jednak według samego Altmana AGI nie będzie dla nas tak wielkim problemem.

Poniżej możesz obejrzeć jego całą rozmowę z Andrew Rossem Sorkinem:



Source link

Idź do oryginalnego materiału