OpenAI i Anthropic zgodziły się udostępnić rządowi USA dostęp do nowych modeli sztucznej inteligencji przed ich udostępnieniem, aby poprawić ich bezpieczeństwo.
Firmy podpisały protokoły ustaleń z amerykańskim Instytutem Bezpieczeństwa AI, aby zapewnić dostęp do modeli zarówno przed ich publicznym udostępnieniem, jak i po nim, agencja ogłosiła Czwartek. Rząd twierdzi, iż ten krok pomoże im współpracować w celu oceny ryzyka bezpieczeństwa i złagodzenia potencjalnych problemów. Agencja USA stwierdziła, iż przekaże informacje zwrotne na temat usprawnień bezpieczeństwa we współpracy ze swoją odpowiedniczką w Wielkiej Brytanii.
Udostępnianie dostępu do modeli AI to znaczący krok w czasie, gdy federalne i stanowe ustawodawcy rozważają, jakie rodzaje zabezpieczeń umieścić na technologii, aby nie tłumić innowacji. W środę kalifornijscy ustawodawcy przyjęli Ustawa o bezpiecznej i pewnej innowacji dla modeli sztucznej inteligencji w fazie pionierskiej (SB 1047), wymagające od firm AI w Kalifornii podjęcia określonych środków bezpieczeństwa przed szkoleniem zaawansowanych modeli fundamentów. Spotkało się to z oporem firm AI, w tym OpenAI i Anthropic, które ostrzegają, iż może zaszkodzić mniejszym deweloperom systemu open source, chociaż od tego czasu przeszło pewne zmiany i przez cały czas czeka na podpis gubernatora Gavina Newsoma.
Dyrektor amerykańskiego Instytutu Bezpieczeństwa Sztucznej Inteligencji Elizabeth Kelly powiedziała w oświadczeniu, iż nowe umowy to „dopiero początek, ale stanowią istotny kamień milowy w naszych działaniach mających na celu odpowiedzialne zarządzanie przyszłością sztucznej inteligencji”.