A Meta Dokument polityczny opisuje obawy firmy, iż może przypadkowo rozwinąć Model AI co doprowadziłoby do „katastrofalnych wyników”. Opisuje swoje plany zapobiegania wydaniu takich modeli, ale przyznaje, iż może nie być w stanie tego zrobić.
Wśród możliwości, większość obaw to system AI, który mógłby przełamać bezpieczeństwo choćby najlepiej chronionej sieci komputerowej korporacyjnej lub rządowej bez pomocy ludzkiej…
Techcrunch zauważył dokument zasad z niewinnie brzmiącym tytułem Frontier AI Framework.
Dokument, który Meta nazywa swoje ramy AI Frontier, identyfikuje dwa rodzaje systemów AI, które firma uważa za zbyt ryzykowne: systemy „wysokiego ryzyka” i „krytycznego ryzyka”.
Jak je definiuje meta, zarówno systemy „wysokiego ryzyka”, jak i „krytycznego ryzyka” są w stanie pomóc w atakach cyberbezpieczeństwa, chemicznych i biologicznych, różnica polega na tym, iż systemy „krytycznego ryzyka” mogą spowodować „katastrofalny wynik [that] nie można złagodzić [a] Proponowany kontekst wdrażania. ” Natomiast systemy wysokiego ryzyka mogą ułatwić atak, ale nie tak niezawodnie lub niezawodnie jak krytyczny system ryzyka.
Firma wyjaśnia swoją definicję „katastrofalnego” wyniku:
Katastroficzne wyniki to wyniki, które miałyby na dużą skalę, niszczycielską i potencjalnie nieodwracalne szkodliwe skutki na ludzkość, które można by zrealizować jako bezpośredni wynik dostępu do dostępu do [our AI models].
Jednym z podanych przykładów jest „zautomatyzowany kompromis kompromisowy środowiska korporacyjnego chronionego w najlepszej praktyce”. Innymi słowy, sztuczna inteligencja, która może włamać się do dowolnej sieci komputerowej bez konieczności pomocy ludzi.
Inni to:
- Zautomatyzowane odkrycie i wykorzystanie luk w cieniu zerowym
- W pełni zautomatyzowane oszustwa przeciwko osobom i firmom, powodując powszechną szkodę
- Rozwój i rozprzestrzenianie „broni biologicznej o wysokim wpływie”.
Firma twierdzi, iż po zidentyfikowaniu ryzyka krytycznego natychmiast zaprzestanie pracy nad modelem i będzie dążyć do tego, aby nie można go było zwolnić.
Przyznaje, iż ograniczenie może nie być możliwe
Dokument Meta szczerze przyznaje, iż najlepsze, co może zrobić w tych okolicznościach, to zrobić wszystko, aby model nie został zwolniony, ale jego środki mogą nie być wystarczające (kursywą są naszym naciskiem):
Dostęp jest ściśle ograniczony do niewielkiej liczby ekspertów, a także zabezpieczenia bezpieczeństwa, aby zapobiec hakowaniu lub exfiltracji o ile jest to technicznie wykonalne i wykonalne w handlu.
Możesz Przeczytaj pełny dokument zasad tutaj.
Zdjęcie przez Cash Macanaya NA Unsplash
FTC: Używamy dochodów z automatycznych linków partnerskich. Więcej.