Liderzy z OpenAI i Google DeepMind wzywają do kontrolowania procesów myślowych AI. Obawiają się utraty przejrzystości w działaniu zaawansowanych systemów.
Specjaliści z największych firm technologicznych świata opublikowali dokument wzywający do monitorowania sposobu “myślenia” sztucznej inteligencji. Apel podpisali między innymi Mark Chen z OpenAI i Geoffrey Hinton, laureat Nagrody Nobla. Eksperci obawiają się, iż wraz z rozwojem technologii możemy stracić kontrolę nad tym, jak AI podejmuje decyzje.
Nowoczesne modele sztucznej inteligencji wykorzystują technikę zwaną łańcuchami myślowymi (Chain of Thought). System analizuje problem krok po kroku, podobnie jak robi to człowiek. Przykładowo, zamiast od razu podać odpowiedź na pytanie matematyczne, AI wyjaśnia kolejne etapy obliczeń. Ta metoda znacznie poprawia skuteczność przy złożonych zadaniach logicznych.

Problem polega na tym, iż dzisiejsza przejrzystość łańcuchów myślowych nie jest gwarantowana na przyszłość. Autorzy raportu ostrzegają, iż wprowadzanie zmian w działanie systemów może osłabić czytelność procesów decyzyjnych AI. W praktyce oznacza to, iż możemy nie wiedzieć, dlaczego sztuczna inteligencja podjęła konkretną decyzję w ważnej sprawie.
Kontrola nad procesami myślowymi sztucznej inteligencji staje się kluczowa w miarę jej powszechnego zastosowania w kluczowych obszarach życia. Eksperci podkreślają potrzebę pogłębionych badań nad mechanizmami monitorowania działania AI. Bez odpowiednich narzędzi kontrolnych ryzykujemy utratę zrozumienia nad decyzjami podejmowanymi przez systemy, które wpływają na nasze codzienne życie.