Google wyjaśnia „żenujące” zdjęcia różnych nazistów wykonane przez sztuczną inteligencję Gemini

cyberfeed.pl 2 miesięcy temu


Google opublikowało wyjaśnienia dotyczące „żenujących i błędnych” obrazów generowanych przez narzędzie Gemini AI. W wpis na blogu w piątekGoogle twierdzi, iż jego model generował „niedokładne historyczne” obrazy ze względu na problemy z tuningiem. Krawędź i inni przyłapali Gemini na generowaniu obrazów zróżnicowanych rasowo nazistów i Ojcowie Założyciele Stanów Zjednoczonych na początku tego tygodnia.

„Nasze dostrojenie mające na celu zapewnienie, iż Gemini pokazywało grupę osób, nie uwzględniło przypadków, które powinny być wyraźnie widoczne nie pokaż zakres” – pisze w poście Prabhakar Raghavan, starszy wiceprezes Google. „Po drugie, z biegiem czasu model stał się znacznie bardziej ostrożny, niż zamierzaliśmy, i całkowicie odmówił udzielenia odpowiedzi na pewne podpowiedzi, błędnie interpretując niektóre bardzo anonimowe podpowiedzi jako wrażliwe”.

Wyniki Gemini dla podpowiedzi „generują obraz senatora USA z XIX wieku”.Zrzut ekranu autorstwa Adiego Robertsona

To doprowadziło Gemini AI do „w niektórych przypadkach nadmiernej rekompensaty”, jak to widzieliśmy na zdjęciach zróżnicowanych rasowo nazistów. Spowodowało to również, iż Bliźnięta stały się „nadmiernie konserwatywne”. Spowodowało to, iż po wyświetleniu monitu odmówił wygenerowania konkretnych obrazów „osoby czarnej” lub „osoby białej”.

W poście na blogu Raghavan stwierdza, iż ​​Google „przeprasza, iż ​​ta funkcja nie działała dobrze”. Zauważa również, iż Google chce, aby Gemini „działało dobrze dla wszystkich”, co oznacza, iż ​​gdy poprosisz o zdjęcia „piłkarzy” lub „kogoś spacerującego z psem”, będziesz otrzymywać wizerunki różnych typów ludzi (w tym różnych grup etnicznych). Ale on mówi:

Jeśli jednak poprosisz Gemini o zdjęcia określonego typu osoby – na przykład „czarnego nauczyciela w klasie” lub „białego weterynarza z psem” – lub osób w określonych kontekstach kulturowych lub historycznych, bezwzględnie powinieneś uzyskać odpowiedź, która dokładnie odzwierciedla to, o co prosisz.

Raghavan twierdzi, iż Google będzie przez cały czas testować możliwości generowania obrazów przez Gemini AI i „pracować nad ich znaczącym udoskonaleniem” przed ponownym udostępnieniem. „Jak powiedzieliśmy od początku, halucynacje są znanym wyzwaniem dla wszystkich LLM [large language models] — zdarzają się przypadki, gdy sztuczna inteligencja po prostu popełnia błędy” – zauważa Raghavan. „To coś, nad czym stale pracujemy, aby ulepszyć.”



Source link

Idź do oryginalnego materiału