Open source’owy charakter DeepSeek sprawia, iż jest on dostępny zarówno dla entuzjastów sztucznej inteligencji, jak i cybeprzestępców, przestrzega ekspert Sophos

itreseller.com.pl 1 tydzień temu

Open source’owy charakter DeepSeek sprawia, iż jest on dostępny zarówno dla entuzjastów sztucznej inteligencji, jak i osób, które chcą ją wykorzystać do niecnych celów. Dotychczasowe przypadki nadużyć modeli AI miały ograniczony charakter, jednak podobnie jak w przypadku modelu Llama, DeepSeek można modyfikować i dostosowywać do swoich celów, a także w znacznym stopniu obejść, a choćby wyłączyć wbudowane zabezpieczenia. Istnieje ryzyko, iż technologia ta może zostać wykorzystana przez cyberprzestępców do tworzenia bardziej zaawansowanych ataków. Warto jednak podkreślić, iż uruchomienie DeepSeek wciąż wymaga zasobów przekraczających możliwości przeciętnego hakera, zaznacza Chester Wisniewski, dyrektor ds. technologii w firmie Sophos.

Z drugiej strony daje to też pasjonatom możliwość testowania modeli w całkiem nowym środowisku. Im lepiej rozumiemy potencjał i ograniczenia tego typu technologii, tym skuteczniej możemy je wykorzystywać oraz przewidywać potencjalne zagrożenia.

– Swobodny dostęp badaczy i entuzjastów do eksperymentowania z narzędziami open source pozwala osiągnąć te cele szybciej i dokładniej niż w przypadku zamkniętych modeli. – podkreśla Chester Wisniewski, dyrektor ds. technologii w firmie Sophos.

Obawy firm wobec błędów AI

Przedsiębiorstwa stoją przed istotnym wyzwaniem. Ze względu na jego opłacalność wiele firm prawdopodobnie wdroży DeepSeek, co może wiązać się z poważnym zagrożeniem dla prywatności. Jak w przypadku każdego modelu AI, najważniejsze będzie przeprowadzenie szczegółowej analizy ryzyka związanego z przetwarzaniem danych, uwzględniającej wszystkie produkty i dostawców mogących wykorzystywać DeepSeek lub kolejne modele LLM. Przedsiębiorstwa muszą także mieć pewność, iż dysponują odpowiednią wiedzą, aby podjąć świadomą decyzję.

– Chociaż według najnowszego badania Sophos dotyczącego AI 99% firm deklaruje, iż dokonuje oceny procesów i kontroli zabezpieczeń wykorzystywanych w rozwoju narzędzi GenAI, nie jest pewne, czy faktycznie posiadają odpowiednią wiedzę do rzetelnego oszacowania dopuszczalnego poziomu ryzyka. Aż 89% specjalistów IT i cyberbezpieczeństwa obawia się potencjalnych luk w zabezpieczeniach narzędzi GenAI, które mogą negatywnie wpłynąć na ich firmy – 43% wyraża poważne zaniepokojenie, a 46% umiarkowane obawy. – zaznacza Chester Wisniewski.

Implikacje dla bezpieczeństwa danych

Użytkownicy aplikacji DeepSeek, która łączy się z wersją modelu hostowaną w Chinach, powinni mieć świadomość, iż gromadzi ona dane osobowe (imię, nazwisko, datę urodzenia), informacje o urządzeniu (model, adres IP, lokalizację, stan baterii i inne parametry techniczne) oraz wszystkie wprowadzane zapytania, które są następnie wykorzystywane do trenowania systemu. Ponieważ dane te trafiają na serwery AI w Chinach, zgodnie z tamtejszym prawem mogą być udostępniane władzom na żądanie. W związku z tym zaleca się całkowicie unikać korzystania z tej usługi lub przynajmniej ograniczyć ilość przekazywanych wrażliwych danych osobowych.

– Firmy zainteresowane wykorzystaniem tej technologii do optymalizacji procesów biznesowych i automatyzacji mają szerszy wachlarz możliwości. Choć korzystanie z chińskich serwerów DeepSeek w chmurze wiąże się z podobnym ryzykiem jak w przypadku konsumentów, model AI jest dostępny w wersji open source, co umożliwia jego samodzielne wdrożenie lub korzystanie z usług dostawców hostujących go w UE, USA lub innych jurysdykcjach. Ogranicza to zagrożenia związane z prywatnością, ale nie eliminuje potencjalnej stronniczości wbudowanej w sam model AI. – zwraca uwagę dyrektor ds. technologii w firmie Sophos, i dodaje: Model ten prawdopodobnie wykazuje stronniczość podobną do OpenAI, Claude czy Gemini, choć o potencjalnie innym charakterze, co dopiero zaczynamy badać. Zrozumienie zasad działania i mechanizmów decyzyjnych modelu jest złożone i niesie ze sobą pewne ryzyko. Decyzja USA o zablokowaniu TikToka wynikała nie tylko z kwestii przekazywania danych do firmy macierzystej, ale także z obaw o sposób, w jaki algorytm rekomendacji może kierować użytkowników do określonych treści. Podobne wątpliwości dotyczą modeli AI. Proces podejmowania przez nie decyzji nie jest przejrzysty, co utrudnia odtworzenie procesu generowania odpowiedzi. Firma może na przykład wykorzystywać AI jako asystenta programowania, by później odkryć, iż model ma tendencję do tworzenia kodu podatnego na ataki.

Ograniczona skuteczność regulacji

Powszechna dostępność tak zaawansowanego i wydajnego modelu podważa koncepcję kontrolowania lub ograniczania tej technologii. Gdy znajdowała się ona w rękach kilku gigantów technologicznych istniała realna szansa na jej regulację. Jednak w sytuacji, gdy każdy może uruchomić modele AI na własnym komputerze, skuteczność jakichkolwiek przepisów będzie znacząco ograniczona. Choć główni dostawcy prawdopodobnie przez cały czas będą przestrzegać regulacji, osoby zamierzające wykorzystać model w nielegalnych celach mogą to zrobić bez konieczności inwestowania milionów dolarów w ekspertów i chipy obliczeniowe, potrzebne do stworzenia własnego modelu.

– Konkurencja między modelami AI może przynieść korzyści wszystkim użytkownikom. Powinna prowadzić do rozszerzania wyboru rozwiązań dostosowanych do konkretnych zadań, utrzymywać koszty na rozsądnym poziomie i zmniejsza ryzyko powielania tych samych luk w zabezpieczeniach. najważniejszy pozostaje jednak staranny wybór dostawcy oraz miejsca przetwarzania danych. Dotyczy to nie tylko własnych modeli GenAI, ale też produktów i usługodawców, którym powierzamy poufne informacje. Bardziej niż kiedykolwiek istotne staje się przemyślenie kwestii suwerenności i ochrony danych. – dodaje Chester Wisniewski, dyrektor ds. technologii w firmie Sophos.

Idź do oryginalnego materiału