Poznaj szczegóły wycieku u Samsunga. ChatGPT pokazał się z nowej, mrocznej strony.
Z Samsunga miał wyciec własnościowy kod… za pośrednictwem ChatGPT. Okazało się, iż inżynierowie koreańskiej firmy używali produktu OpenAI, aby otrzymać sugestie na temat bugów czy optymalizacji. Jedna osoba również chciała uzyskać podsumowanie spotkania, na którym były dyskutowane wrażliwe tematy.OpenAI przestrzega, by nie wpisywać w ChatGPT żadnych wrażliwych i tajnych informacji, a to dlatego, iż te dane mogą zostać wykorzystane do dalszego uczenia modelu.Samsung w odpowiedzi na te zdarzenia ograniczył możliwość wpisywania długich zapytań przez swoich pracowników w tego typu produktach. Pracownicy otrzymali też dość dużo informacji o tym, jak bezpieczenie wykorzystywać OpenAI. Przede wszystkim dostali przypomnienie, iż wszystkie dane, które wpisuje się do ChatGPT lądują na zewnętrznych serwerach, do których tylko OpenAI (i pewnie Microsoft) ma dostęp.