Microsoft publikuje inauguracyjny raport dotyczący przejrzystości sztucznej inteligencji

cyberfeed.pl 2 tygodni temu


W swoim Odpowiedzialny raport dotyczący przejrzystości sztucznej inteligencji, która obejmuje głównie rok 2023, Microsoft zachwala swoje osiągnięcia w zakresie bezpiecznego wdrażania produktów AI. Coroczny raport przejrzystości AI to jedno z zobowiązań, jakie podjęła firma po podpisaniu dobrowolnego porozumienia z Białym Domem w lipcu ubiegłego roku. Microsoft i inne firmy obiecały ustanowienie odpowiedzialnych systemów sztucznej inteligencji i zaangażowanie się w bezpieczeństwo.

Microsoft twierdzi w raporcie, iż w zeszłym roku stworzył 30 odpowiedzialnych narzędzi AI, powiększył swój odpowiedzialny zespół AI i wymagał od zespołów tworzących generatywne aplikacje AI pomiaru i mapowania ryzyka w całym cyklu rozwoju. Firma zauważa, iż ​​tak dodano dane uwierzytelniające dotyczące treści do swoich platform generowania obrazów, które umieszczają znak wodny na zdjęciu, oznaczając je jako wykonane przez model AI.

Firma twierdzi, iż zapewniła klientom platformy Azure AI dostęp do narzędzi wykrywających problematyczne treści, takie jak mowa nienawiści, treści o charakterze seksualnym i samookaleczenia, a także narzędzia do oceny zagrożeń bezpieczeństwa. Obejmuje to nowe metody wykrywania jailbreak, które były rozszerzony w marcu w tym roku obejmować pośrednie wstrzykiwanie monitów, w przypadku których złośliwe instrukcje stanowią część danych przetwarzanych przez model sztucznej inteligencji.

Rozbudowuje także swoją drużyna czerwonych wysiłki, obejmujące zarówno wewnętrzne zespoły Red Team, które celowo próbują ominąć funkcje bezpieczeństwa w swoich modelach AI, jak i aplikacje Red Team, aby umożliwić testowanie przez strony trzecie przed wypuszczeniem nowych modeli.

Jednakże jednostki zrzeszone w czerwonych drużynach mają przed sobą mnóstwo pracy. Wdrożenia sztucznej inteligencji firmy nie były wolne od kontrowersji.

Natasha Crampton, dyrektor odpowiedzialna za sztuczną inteligencję w Microsoft, mówi w e-mailu wysłanym na adres Krawędź iż firma rozumie, iż sztuczna inteligencja wciąż jest w toku, podobnie jak odpowiedzialna sztuczna inteligencja.

„Odpowiedzialna sztuczna inteligencja nie ma linii mety, więc nigdy nie będziemy rozważać naszej pracy w ramach wykonanych dobrowolnych zobowiązań w zakresie sztucznej inteligencji. Jednak od czasu ich podpisania poczyniliśmy znaczny postęp i nie możemy się doczekać, aby w tym roku wykorzystać naszą dynamikę” – mówi Crampton.



Source link

Idź do oryginalnego materiału