Google prezentuje VaultGemma: AI, która nie zapamiętuje Twoich danych

itreseller.com.pl 3 dni temu

Google wypuściło nowy rodzaj sztucznej inteligencji o nazwie VaultGemma. Jest wyjątkowa, ponieważ od samego początku uczono ją tak, by chroniła prywatność danych. To duży krok w stronę bezpieczniejszej AI, dostępnej dla wszystkich.

Google właśnie pokazało światu VaultGemma, swój najnowszy model sztucznej inteligencji. To pierwszy tak zaawansowany i publicznie dostępny model, który posiada wbudowaną, matematyczną gwarancję ochrony prywatności. Oznacza to, iż od samego początku był on “uczony” w taki sposób, aby nie “zapamiętywał” na stałe żadnych konkretnych informacji, które mu podano.

Wyobraź sobie, iż sztuczna inteligencja uczy się jak uczeń. zwykle “wkuwa na blachę” wszystko, co przeczyta. VaultGemma działa inaczej – zamiast zapamiętywać całe strony z książek, uczy się ogólnych zasad, np. jak budować zdania czy rozwiązywać zadania. Dzięki temu potrafi tworzyć nowe rzeczy, ale nie powtórzy przypadkiem zdania z podręcznika, z którego się uczył. Ten specjalny sposób nauki nazywa się prywatnością różnicową (differential privacy). Polega on na dodawaniu do danych drobnego, kontrolowanego “szumu”, który zaciera szczegóły, ale pozwala zachować ogólny sens.

Dzięki temu nowemu podejściu VaultGemma, mimo iż stawia prywatność na pierwszym miejscu, jest całkiem sprawny. Jego wydajność można porównać do nieco starszych modeli AI, które nie miały takich zabezpieczeń. Co więcej, testy potwierdziły, iż VaultGemma nie odtwarza fragmentów danych, na których był trenowany. To dowód, iż mechanizm ochrony prywatności naprawdę działa.

Google udostępniło VaultGemma jako otwarte oprogramowanie (open source), co oznacza, iż programiści i naukowcy z całego świata mogą z niego korzystać i go ulepszać. To szczególnie ważne dla branż, gdzie poufność danych jest kluczowa, jak medycyna czy finanse. Dzięki VaultGemma będą mogły one bezpieczniej korzystać z dobrodziejstw sztucznej inteligencji.

Idź do oryginalnego materiału