Ilya Sutskever zakłada nową firmę, obiecuje bezpieczną superinteligencję

homodigital.pl 5 miesięcy temu

Ilya Sutskever, współzałożyciel OpenAI, który opuścił ją w maju, postanowił założyć nową firmę o wiele mówiącej nazwie Safe Superintelligence (SSI) – Bezpieczna Superinteligencja. Ale wygląda na to, iż nie tak gwałtownie usłyszymy o jej nowych produktach. Sutskever obiecuje, iż nie będzie się rozpraszać i jego firma skupi się wyłącznie na podstawowym celu. Tyum celem ma być zbudowaniu bezpiecznej superinteligencji, a więc inteligencji sprawniejszej od ludzkiej.

„Superinteligencja jest w zasięgu ręki” – ogłosili Sutskever oraz dwóch innych współzałożycieli firmy, Daniel Gross i Daniel Levy. Wychodząc z tego założenia, postanowili skupić się na jej zbudowaniu bez rozpraszania się na poboczne projekty. To w jakimś sensie stało się z poprzednią firmą Sutskevera, OpenAI, która pod presją kosztów budowy kolejnych modeli AI najpierw związała się z Microsoftem a następnie zaczęła wypuszczać produkty, które niekoniecznie były szczeblami na drodze do superinteligencji, ale za to pozwalały firmie zarobić.

Pomny tych doświadczeń, Sutskever chce się skupić na jednym celu – budowie bezpiecznej sztucznej inteligencji. I to takiej, w której bezpieczeństwo jest inherentną cechą modelu, a nie dodatkiem do modelu, jakim są dodawane do dużych modeli językowych tzw. guardrails. Czyli – zewnętrzne ograniczenia narzucane na system, tak by zachowywał się on w sposób pożądany. Jak powiedział Sutskever w wywiadzie dla Bloomberga, gdy mówi 'bezpieczny’, to ma na myśli bezpieczeństwo w stylu bezpieczeństwa nuklearnego.

O tym, iż nie wszyscy są równie jak Sutskever skoncentrowani na zapewnieniu bezpieczeństwa sztucznej inteligencji pisałem niedawno w tym artykule.

Bezpieczna superinteligencja – za co i kiedy?

Pomysł Sutskevera oczywiście rodzi istotne pytania. Po pierwsze, jak SSI chce uniknąć pułapki, w którą wpadło OpenAI, czyli jak zamierza sfinansować budowanie nowego modelu? Przypomnijmy, w przypadku OpenAI były to miliardy dolarów.

Na pytanie o finansowanie Sutskever nie chciał odpowiedzieć, a jego partner Daniel Gross, który sam inwestuje w startupy zajmujące się sztuczną inteligencją, odpowiedział tylko: „Z wszystkich problemów, jakie przed nami stoją, pozyskanie kapitału nie będzie jednym z nich.” Ale nie wiemy, na jak długo inwestorom starczy cierpliwości, jeżeli firmie osiągnięcie bezpiecznej superinteligencji zajmie lata.

Drugie pytanie to, czy Sutskever nie włącza się do wyścigu o osiągnięcie superinteligencji trochę za późno. Prace nad tym zagadnieniem realizowane są już w innych firmach z większymi zasobami finansowymi i ludzkimi. Sutskever i jego były współpracownik z OpenAI Levy wnoszą spore doświadczenie w budowaniu modeli sztucznej inteligencji, ale przecież nie wnoszą technologii. Ta pozostała własnością OpenAI. Więc, w jakimś sensie, SSI będzie musiała gonić peleton.

No i wreszcie trzecie pytanie: czy starając się wbudować bezpieczeństwo w sztuczną inteligencję Sutskever nie ryzykuje, iż ktoś inny, mniej skoncentrowany na bezpieczeństwie AI, wyprzedzi go w wyścigu do superinteligencji.

Osobiście życzę Ilyi powodzenia. jeżeli uda się nam- ludzkości – stworzyć superinteligencję – a wcale nie jest pewne, iż nastąpi to szybko, to oczywiście lepiej by było, żeby była ona bezpieczna. Więc – trzymajmy kciuki za SSI.

Źródło zdjęcia: Amanda Dalbjörn/Unsplash

Idź do oryginalnego materiału