OpenAI uruchamia „niezależną” radę ds. bezpieczeństwa, która może wstrzymać publikację jej modeli

cyberfeed.pl 2 tygodni temu


OpenAI przekształca swój Komitet ds. Bezpieczeństwa i Ochrony w niezależny „Komitet nadzoru zarządu”, który ma prawo opóźniać wprowadzanie modeli na rynek z powodu obaw o bezpieczeństwo, zgodnie z wpisem na blogu OpenAI. Komisja zaleciła utworzenie niezależnej rady po niedawnym 90-dniowym przeglądzie „procesów i zabezpieczeń związanych z bezpieczeństwem i ochroną” OpenAI.

Komitet, któremu przewodniczy Zico Kolter i obejmuje Adama D’Angelo, Paweł NakasoneI Nicole Seligman„będzie informowany przez kierownictwo firmy o ocenach bezpieczeństwa dla głównych wydań modeli i będzie, wraz z pełną radą, sprawować nadzór nad wprowadzaniem modeli na rynek, w tym mieć prawo do opóźnienia wydania do czasu rozwiązania problemów związanych z bezpieczeństwem”, mówi OpenAI. Pełna rada dyrektorów OpenAI będzie również otrzymywać „okresowe odprawy” na temat „kwestii bezpieczeństwa”.

Członkowie komitetu bezpieczeństwa OpenAI są również członkami szerszej rady dyrektorów firmy, więc nie jest jasne, jak niezależna jest komisja ani jak ta niezależność jest zorganizowana. Poprosiliśmy OpenAI o komentarz.

Ustanawiając niezależną radę ds. bezpieczeństwa, OpenAI wydaje się przyjmować podejście podobne do Rady Nadzorczej Meta, która dokonuje przeglądu niektórych decyzji dotyczących polityki treści Meta i może wydawać orzeczenia, których Meta musi przestrzegać. Żadne z Członkowie Rady Nadzorczej są włączone Zarząd Meta.

Przegląd przeprowadzony przez Komitet ds. Bezpieczeństwa i Ochrony OpenAI pomógł również w „dodatkowych możliwościach współpracy branżowej i dzielenia się informacjami w celu zwiększenia bezpieczeństwa branży AI”. Firma twierdzi również, iż będzie szukać „więcej sposobów na dzielenie się i wyjaśnianie naszej pracy nad bezpieczeństwem” oraz „więcej możliwości niezależnego testowania naszych systemów”.



Source link

Idź do oryginalnego materiału