Bunt na pokładzie AI: sztuczna inteligencja zignorowała polecenia człowieka
Zdjęcie: fot. Unsplash
Palisade Research, firma zajmująca się bezpieczeństwem AI, zauważyła iż model o3, opracowany przez OpenAI, sabotuje mechanizm wyłączania. Sabotaż miał polegać na ingerowaniu w kod komputerowy, zapewniający automatyczne wyłączenie modelu, pomimo jasnych komunikatów przekazywanych przez badaczy.