Google odpowiada na obawy firm. Nowy dokument obiecuje bezpieczne wdrożenia AI w przedsiębiorstwach

itreseller.com.pl 1 tydzień temu

Google Cloud opublikowało dokument “Delivering Trusted and Secure AI”, w którym przedstawia swoją strategię budowania zaufanej sztucznej inteligencji. To odpowiedź na rosnące obawy przedsiębiorstw dotyczące bezpieczeństwa AI.

Google Cloud wydało kompleksowy dokument zatytułowany jako “Delivering Trusted and Secure AI“, w którym szczegółowo opisuje swoje podejście do budowania bezpiecznej sztucznej inteligencji dla przedsiębiorstw. Publikacja jest odpowiedzią na najważniejsze wyzwanie, przed którym stoją liderzy biznesowi: jak wdrożyć AI w produkcji, zapewniając jednocześnie dokładność, bezpieczeństwo i ochronę danych. Dokument podkreśla, iż podejście Google Cloud do generatywnej AI priorytetowo traktuje gotowość dla przedsiębiorstw z wbudowanymi mechanizmami zarządzania danymi, kontroli prywatności i odpowiedzialnych praktyk AI.

Strategia opiera się na trzech fundamentalnych filarach zaufania w AI. Pierwszy to bezpieczeństwo – Google zapewnia, iż implementacje AI są chronione kompleksowymi kontrolami bezpieczeństwa i najlepszymi praktykami stosowanymi w Google Cloud. Drugi filar to zarządzanie danymi, gdzie firma gwarantuje klientom kontrolę nad tym, jak i gdzie ich dane są wykorzystywane, z jasną obietnicą, iż Google Cloud nigdy nie użyje danych klientów do trenowania własnych modeli. Trzeci element to zgodność z przepisami, gdzie Google wspiera klientów w nawigowaniu przez złożony krajobraz regulacyjny, niezależnie od tego, gdzie prowadzą działalność.

W dokumencie szczególny nacisk położono na bezpieczeństwo przez projektowanie (security-by-design). Google opisuje swoje podejście “obrony w głąb”, które polega na wielowarstwowych zabezpieczeniach obejmujących zarządzanie tożsamością i dostępem, szyfrowanie, networking, wykrywanie, logowanie i monitorowanie. Firma przedstawia również swoje rozwiązanie AI Protection, które ma pomagać zespołom w kompleksowym zarządzaniu ryzykiem AI poprzez odkrywanie zasobów AI w środowisku, ocenę potencjalnych luk w zabezpieczeniach oraz zarządzanie zagrożeniami z możliwością wykrywania, badania i reagowania.

Publikacja dokumentu jest kolejnym krokiem w rozwoju bezpiecznej AI przez Google, zapoczątkowanym w 2023 roku w ramach Secure AI Framework (SAIF). Google jako pierwsza firma zyskała status „Valid-AI-ted” przyznany przez Cloud Security Alliance, co potwierdza jej rolę w tworzeniu przejrzystych i godnych zaufania usług chmurowych. Celem dokumentu jest pokazanie przedsiębiorstwom, iż mogą bez obaw wdrażać duże modele AI, korzystając z narzędzi i usług dostępnych na platformie Vertex AI.

Idź do oryginalnego materiału