Co ciekawe, bezpieczeństwo jest problemem, którym zajmuje się tylko kilka pionierskich laboratoriów zajmujących się sztuczną inteligencją. W najnowszej historii zespół ds. bezpieczeństwa OpenAI znalazł się w centrum uwagi z powodu zaniedbania, a kierownik ds. bezpieczeństwa w firmie, Jan Leike, publicznie skrytykował praktyki bezpieczeństwa przed przejściem do Anthhopic. Anthropic koncentruje się na dostarczaniu bezpiecznych modeli sztucznej inteligencji, a Claude Opus jest w tej chwili jednym z wiodących modeli sztucznej inteligencji. Co ma wyjść z SSI? przez cały czas nie wiemy. Biorąc jednak pod uwagę zespół Ilyi Sutskevera, Daniela Grossa i Daniela Levy’ego, zakładamy, iż przyciągnął on najlepsze w swojej klasie talenty do opracowywania modeli sztucznej inteligencji nowej generacji, koncentrując się na bezpieczeństwie. Dzięki biurom w Palo Alto i Tel Awiwie SSI może wykorzystać rozległą sieć badaczy i decydentów zajmujących się sztuczną inteligencją w celu stworzenia bezpiecznego ASI, wolnego od krótkoterminowej presji komercyjnej i skupionego na badaniach i rozwoju. „Nasz zespół, inwestorzy i model biznesowy są przystosowani do osiągnięcia SSI” – czytamy na stronie internetowej SSI.