Podcast: Jaki jest wpływ sztucznej inteligencji na przechowywanie i zgodność?

cyberfeed.pl 2 miesięcy temu


W tym podcaście przyglądamy się wpływowi rozwoju sztucznej inteligencji (AI) na przechowywanie i zgodność z Mathieu Gorge, dyrektorem generalnym firmy Wigitrust.

Rozmawiamy o stanie rzeczy ramy zgodności dla sztucznej inteligencjioraz jak sobie poradzić z brakiem dojrzałości zarządzania w tej dziedzinie.

Gorge opowiada także o tym, jak organizacje mogą rozpoznać ograniczenia obecnego krajobrazu, ale jednocześnie przejąć kontrolę nad wciąż rozwijającą się sytuacją.

Antony Adshead: Jakie są najważniejsze skutki sztucznej inteligencji w zakresie prawa i regulacji w IT?

Wąwóz Mathieu: Myślę, iż ważne jest, aby zrozumieć, iż sztuczna inteligencja nie jest niczym nowym. To rozwiązanie istnieje już od jakiegoś czasu i nie powinniśmy mylić uczenia maszynowego, czyli inteligentnego uczenia maszynowego, z odpowiednią sztuczną inteligencją.

Rzeczywistość jest taka, iż ​​wiele o niej słyszeliśmy CzatGPT i tym podobne, ale sztuczna inteligencja to znacznie więcej.

Obecnie jest ich, w zależności od tego, jak na to spojrzeć, od 35 do 40 regulacje i standardy dotyczące zarządzania sztuczną inteligencją. Co jest dość interesujące, ponieważ przypomina mi bezpieczeństwo cybernetyczne około 25 lat temu, kiedy branża próbowała dokonać samoregulacji, a większość dużych dostawców opracowywała własne ramy bezpieczeństwa cybernetycznego.



To samo widzimy w przypadku sztucznej inteligencji. Wiemy na przykład, iż Cloud Security Alliance wystąpiło z własną inicjatywą IAPP [International Association of Privacy Professionals] opracowali własne opracowanie dotyczące sztucznej inteligencji, które jest całkiem dobre, ponieważ dokumentuje 60 kluczowych tematów, na które należy zwrócić uwagę w związku ze sztuczną inteligencją, wykraczających daleko poza potencjalny wpływ ChatGPT i tak dalej.

Widzimy także, iż UE wprowadza ustawę o ochronie prywatności w zakresie sztucznej inteligencji, a niektóre stany w USA próbują to zrobić, więc jakby historia się powtarzała. A jeżeli chodzi o cyberbezpieczeństwo, to w ciągu najbliższych pięciu do dziesięciu lat prawdopodobnie wyłoni się cztery do pięciu głównych ram, które staną się de facto ramami, a wszystko inne będzie z tym powiązane .

Rzeczywistość jest taka, iż ​​w przypadku sztucznej inteligencji masz zestaw napływających danych i zestaw danych, którymi sztuczna inteligencja w zasadzie manipuluje i wypluwa inny zestaw. Zestaw ten może być dokładny, może nie być dokładny, może być użyteczny lub użyteczny, lub nie.

“Jeśli [AI regulation follows the example of] cyberbezpieczeństwa, w ciągu najbliższych pięciu do dziesięciu lat prawdopodobnie wyłonią się cztery do pięciu głównych ram, które staną się de facto ramami, a wszystko inne będzie z tym powiązane”.

Wąwóz Mathieu, Vigitrust

Jednym z problemów jest to, iż w tej chwili nie mamy odpowiedniego zarządzania, dlatego w branży ogłaszanych jest także wiele nowych kursów z zakresu zarządzania sztuczną inteligencją. I choć jest to godne pochwały, musimy zgodzić się co do dobrego zarządzania sztuczną inteligencją, szczególnie w odniesieniu do tworzonych przez nią danych, miejsca ich przechowywania, wpływu na zgodność z przepisami i bezpieczeństwo.

Adshead: Jaki będzie to miało wpływ na pamięć masową, kopie zapasowe i ochronę danych w przedsiębiorstwie?

Wąwóz: W tej chwili, patrząc na tradycyjną pamięć masową, ogólnie rzecz biorąc, patrzysz na swoje środowisko, ekosystem, dane, klasyfikując je i nadając im wartość. W zależności od tej wartości i potencjalnego wpływu wprowadzasz odpowiednie zabezpieczenia i wyznaczasz czas przechowywania danych oraz sposób ich przechowywania i usuwania.

Ale jeżeli spojrzysz na CRM [customer relationship management service], jeżeli umieścisz nieprawidłowe dane, wyjdą błędne dane i będzie to jeden zestaw danych. Mówiąc wprost: śmieci wpadają, śmieci wychodzą.

W przypadku sztucznej inteligencji jest to znacznie bardziej złożone, więc możesz mieć śmieci, ale zamiast jednego zbioru danych, który może być śmieciem, może istnieć wiele różnych zbiorów danych i mogą one być dokładne lub nie.

Jeśli spojrzysz na ChatGPT, to trochę jak narcyz. To nigdy się nie myli, a jeżeli podasz mu jakieś informacje, a następnie wyplunie błędne informacje, a następnie powiesz: „Nie, to nie jest dokładne”, powie ci, iż dzieje się tak, ponieważ nie podałeś odpowiedniego zbioru danych. A potem w pewnym momencie przestanie z tobą rozmawiać, ponieważ, iż tak powiem, wykorzystał całą swoją zdolność do kłótni z tobą.

Z punktu widzenia zgodności, jeżeli używasz sztucznej inteligencji – skomplikowanej sztucznej inteligencji lub prostej sztucznej inteligencji, takiej jak ChatGPT – do tworzenia dokumentu marketingowego, jest to w porządku. Ale jeżeli używasz tego do załatwiania spraw finansowych lub prawnych, to zdecydowanie nie jest to w porządku. Musimy mieć odpowiednie zarządzanie i odpowiednie kontrole, aby ocenić wpływ danych opartych na sztucznej inteligencji.

To dopiero początek i dlatego pojawia się tak wiele ram zarządzania. Niektóre z nich idą we adekwatnym kierunku, niektóre są zbyt proste, inne są zbyt skomplikowane do wdrożenia. Musimy zobaczyć, co się wydarzy, ale decyzje musimy podjąć dość szybko.

Dla każdej organizacji potrzebujemy przynajmniej zestawu wskaźników KPI [key performance indicators]. Kiedy więc patrzę na dane pochodzące ze sztucznej inteligencji, czy jestem szczęśliwy, iż są dokładne, czy jestem szczęśliwy, iż nie spowoduje to utraty zgodności, czy jestem szczęśliwy, iż mogę je przechowywać we adekwatny sposób? Czy jestem szczęśliwy, iż nie będzie przechowywać fragmentów danych i nie wiem, dokąd to zmierza i co musimy z tym zrobić?

To kwestia znalezienia odpowiedniego zarządzania i adekwatnego wykorzystania sztucznej inteligencji.

To dopiero początek, ale zachęcam każdą firmę, aby już teraz zaczęła przyglądać się ramom zarządzania sztuczną inteligencją, aby nie stworzyć, iż tak powiem, potwora, gdy jest już za późno i jest zbyt dużo danych, których nie mogą kontrolować.



Source link

Idź do oryginalnego materiału