Microsoft twierdzi, iż jego narzędzie bezpieczeństwa AI nie tylko znajduje błędy, ale także je naprawia

cyberfeed.pl 1 miesiąc temu


Microsoft wprowadza nową funkcję o nazwie „korekta”, która opiera się na wysiłkach firmy mających na celu zwalczanie niedokładności AI. Klienci korzystający z Microsoft Azure do zasilania swoich systemów AI mogą teraz korzystać z możliwości automatycznego wykrywania i przepisywania nieprawidłowej zawartości w wynikach AI.

Funkcja korekty jest dostępna w wersji zapoznawczej jako część Azure AI Studio — zestaw narzędzi bezpieczeństwa zaprojektowanych w celu wykrywania luk, znajdowania „halucynacji” i blokowania złośliwych komunikatów. Po włączeniu system korekcyjny będzie skanował i identyfikował nieścisłości w wynikach AI, porównując je z materiałem źródłowym klienta.

Następnie podświetli błąd, poda informacje o tym, dlaczego jest niepoprawny i przepisze kwestionowaną treść — wszystko „zanim użytkownik będzie w stanie zobaczyć” nieścisłość. Chociaż wydaje się to pomocnym sposobem rozwiązania problemu bzdury często powtarzane przez modele sztucznej inteligencjimoże to nie być w pełni niezawodne rozwiązanie.

Vertex AI, platforma chmurowa Google dla firm opracowujących systemy AI, ma funkcja, która „uziemia” modele AI poprzez sprawdzanie wyników w oparciu o wyniki wyszukiwania Google, dane własne firmy i (wkrótce) zestawy danych stron trzecich.

W oświadczeniu dla TechCrunchrzecznik Microsoftu powiedział, iż system „korekty” używa „małych modeli językowych i dużych modeli językowych do dopasowywania wyników do dokumentów uziemiających”, co oznacza, iż ​​nie jest on również odporny na popełnianie błędów. „Ważne jest, aby zauważyć, iż wykrywanie uziemienia nie rozwiązuje problemu „dokładności”, ale pomaga dopasowywać wyniki generatywnej AI do dokumentów uziemiających” — powiedział Microsoft TechCrunch.



Source link

Idź do oryginalnego materiału