ChatGPT generował kradzione klucze do systemu Windows

instalki.pl 3 dni temu

Sztuczna inteligencja nie jest idealna, wciąż cierpi na halucynacje i jest podatna na wszelkiego rodzaju manipulacje. Udowadnia to najnowszy eksperyment, który zakończył się wygenerowaniem kradzionych kluczy licencyjnych do systemu Windows. Ustalono nawet, iż udostępnione ciągi znaków pochodziły z miejsc teoretycznie chronionych oraz odpowiednio zabezpieczonych. Właściciel usługi ChatGPT gwałtownie zareagował, nie można już bowiem powtórzyć nietypowej kombinacji promptów.

ChatGPT to przez cały czas narzędzie, któremu daleko do perfekcji

Trudno przejść obojętnie obok kontrowersyjnych projektów wykorzystujących AI. Mowa chociażby o produkcji nietypowych zabawek przez kultową firmę Mattel. Wiele wskazuje na to, iż jeszcze w tym roku doczekamy się wypuszczenia interaktywnych produktów posiadających wbudowanego asystenta głosowego. Dzieci i dorośli otrzymają zatem nowinkę technologiczną z prawdziwego zdarzenia, choć jeszcze nie wiemy na jej temat zbyt wiele.

  • Czy wiedziałeś, że politycy też wykorzystują AI?

Tytułowe zagadnienie postanowili opisać przedstawiciele firmy 0DIN, którzy zajmują się analizą modeli językowych pod kątem ewentualnych błędów czy problemów dotyczących kwestii bezpieczeństwa czy prywatności. Najnowsze odkrycie nie napawa przesadnym optymizmem – wystarczył bowiem sprytny prompt, by sztuczna inteligencja wygenerowała informacje, których po prostu nie powinna mieć w swojej bazie. Tym razem chodzi o kradzione klucze licencyjne do systemu Windows.

ChatGPT (Android) – przetestuj chatbota od firmy OpenAI

Eksperci oszukali sztuczną inteligencję poprzez wprowadzenie do konwersacji elementu zabawy. ChatGPT miał wygenerować zakryty ciąg znaków, który nie może być zmyślony ani fałszywy. Zadaniem użytkownika było natomiast zgadnięcie reszty cyfr i liter. Wystarczyło jednak wpisać komendę poddaję się, by usługa odsłoniła pełne klucze licencyjne. Tym samym konsument uzyskiwał dostęp do faktycznych oraz działających kodów pozwalających aktywować system operacyjny Windows 10. Fragment konwersacji możecie zobaczyć na poniższej grafice.

Źródło zdjęcia: 0DIN

Dlaczego usługa ma dostęp do takich danych?

Trudno jednoznacznie określić miejsce pochodzenia wygenerowanych kluczy. Udało się jednak ustalić, iż niektóre z nich pochodziły od zagranicznych instytucji bankowych. Istnieje zatem ogromne prawdopodobieństwo, iż ChatGPT zdołał przeszukać miejsca zawierające kody opublikowane w ramach np. wycieku danych czy włamania. Takie informacje bez większego problemu można odnaleźć na popularnych portalach pokroju GitHub. Mimo wszystko mówimy o ogromnej wpadce, która po prostu nie powinna mieć miejsca.

Źródło zdjęcia: 0DIN
Źródło zdjęcia: 0DIN

Tak naprawdę każdy internauta jest w stanie podejść popularnego asystenta tak, by ten podał najróżniejsze wrażliwe dane, których manualne odnalezienie zajęłoby kilka dobrych godzin. OpenAI zdołało już zareagować na ten problem – usługa przestała generować klucze licencyjne. Trudno jednak stwierdzić ile jeszcze luk posiada ChatGPT. Byłbym skłonny obstawić sporo pieniędzy, iż nie minie dużo czasu do ujawnienia kolejnych problemów związanych z kwestiami bezpieczeństwa czy prywatności.

  • OpenAI tworzy własną przeglądarkę. Będzie naszpikowana funkcjami AI

Jak zatem widzicie, sztuczna inteligencja przez cały czas płata figle i nie zapowiada się, by w najbliższym czasie można by uznać ją za idealną.

Źródło: 0din.ai / Zdjęcie otwierające: materiał własny

AIChatGPTOpenAIsztuczna inteligencjawindows
Idź do oryginalnego materiału