Po tym, jak Samsung Semiconductor pozwolił swoim inżynierom na korzystanie z ChatGPT, zaczęli oni używać go do szybkiego naprawiania błędów w kodzie źródłowym tworzonych aplikacji, ujawniając przy tym poufne informacje. Mowa tu o notatkach z wewnętrznych spotkań oraz danych związane z wydajnością i uzyskiem dobrych układów produkowanych w fabach. Teraz firma planuje opracowanie własnej usługi AI, do użytku wewnętrznego, podobnej do ChatGPT. Jak informuje Economist, na razie ograniczono długość pytań 1024 bajtów.
Dotychczas Samsung Semiconductor odnotował trzy przypadki użycia AI, które doprowadziły do wycieku danych. Choć może się to wydawać niedużą ilością, to wszystkie miały miejsce na przestrzeni 20 dni, więc sytuacja jest dość niepokojąca.
W jednym przypadku pracownik przesłał kod źródłowy zastrzeżonego programu do ChatGPT w celu naprawienia błędów, co było jednoznaczne z wyciekiem kodu ściśle tajnej aplikacji Smasunga. Drugi przypadek choćby bardziej niepokojący, bo inny pracownik wprowadził w zapytaniu wzorce testowe przeznaczone do identyfikacji wadliwych chipów i poprosił o ich optymalizację – sekwencje testowe mające na celu identyfikację defektów są ściśle tajne, a ich optymalizacja i ewentualne zmniejszenie liczby uszkodzonych układów może przyspieszyć procedury testowania i weryfikacji krzemu, co znacznie obniża koszty. Jeszcze inny pracownik użył aplikacji Clova do przekształcenia nagrania ze spotkania w dokument, a następnie przesłał go do AI w celu przygotowania prezentacji.
Samsung może choćby zablokować dostęp do ChatGPT w sieci firmy
Działania te w oczywisty sposób narażały bezpieczeństwo poufnych informacji, co skłoniło Samsunga do ostrzeżenia swoich pracowników o niebezpieczeństwach związanych z korzystaniem z ChatGPT. Samsung Electronics poinformował swoje kierownictwo i pracowników, iż dane wprowadzone do AI są przesyłane i przechowywane na zewnętrznych serwerach, co uniemożliwia firmie ich odzyskanie i zwiększa ryzyko wycieku poufnych informacji – to niedopuszczalne w wysoce konkurencyjnej branży półprzewodników.
Koreański gigant przygotowuje w tej chwili środki zaradcze, aby zapobiec podobnym wypadkom w przyszłości. jeżeli dojdzie do kolejnego incydentu, choćby po wdrożeniu awaryjnych środków ochrony informacji, dostęp do ChatGPT w sieci firmowej może zostać zablokowany.
Źródło: Economist