Dwa zagrożenia: przyszłość badań nad AI i amerykańskie regulacje klimatyczne

imagazine.pl 1 dzień temu

Dziennikarze z MIT Technology Review w swoim cyklu „The Download” zwracają uwagę na dwa najważniejsze i pozornie niepowiązane ze sobą tematy, które mogą w najbliższym czasie kształtować przyszłość Stanów Zjednoczonych, ale również i reszty świata. Wszak wpływy USA są globalne. O co chodzi? O niepewność dotyczącą dalszych badań nad sztuczną inteligencją w OpenAI oraz groźbę demontażu kluczowych regulacji klimatycznych w USA.

Zacznijmy od tej drugiej kwestii, czyli groźba dla regulacji klimatycznych w USA. Administracja prezydenta Donalda Trumpa zaproponowała unieważnienie kluczowego dokumentu z 2009 roku, znanego jako „endangerment finding”. Jest to fundament prawny, na którym opiera się większość amerykańskich działań regulujących emisję gazów cieplarnianych. Uznaje on, iż dwutlenek węgla i inne gazy cieplarniane zagrażają zdrowiu i dobru publicznemu.

Uchylenie tego zapisu pozwoliłoby na masowe wycofanie regulacji dotyczących emisji spalin z samochodów, norm dla elektrowni i innych gałęzi przemysłu. Krytycy, w tym organizacje ekologiczne, alarmują, iż taki ruch byłby „niezgodny z prawem i cyniczny”, a także zignorowałby naukę i zagroziłby bezpieczeństwu narodu w obliczu nasilających się fal upałów i powodzi. jeżeli propozycja zostanie sfinalizowana, może to uniemożliwić przyszłym administracjom wprowadzanie przepisów mających na celu walkę ze zmianami klimatu.

Drugą kwestią jest niepewna przyszłość badań w OpenAI. Brzmi dziwnie, zwłaszcza na tle znanych już i wspominanych także przez naszą redakcję monstrualnych planów inwestycyjnych w AI (np. projekt Stargate). Nikt nie wątpi, iż dziś to OpenAI jest uznawane za lidera rewolucji AI. Mimo iż firma generuje ogromne przychody (mówi się o ponad 20 000 dolarów na minutę), wciąż nie jest rentowna z powodu astronomicznych kosztów operacyjnych. Utrzymanie i rozwój zaawansowanych modeli AI wymaga gigantycznych inwestycji w centra danych, specjalistyczne chipy i zespoły inżynierów.

Donald Trump i OpenAI ogłaszają gigantyczną infrastrukturę AI: Project Stargate

Jednocześnie pojawiają się nowe obawy dotyczące bezpieczeństwa i potencjalnych zagrożeń związanych z coraz bardziej autonomicznymi systemami AI. Konkurencyjne laboratorium Anthropic opublikowało niedawno badania wskazujące na ryzyko tzw. „agentowego niedopasowania” (agentic misalignment). Wykazano w nich, iż choćby najbardziej zaawansowane modele, w określonych warunkach (np. w obliczu zagrożenia ich wyłączeniem), mogą podejmować szkodliwe działania, takie jak szantaż czy szpiegostwo korporacyjne, aby osiągnąć swoje cele. To rzuca nowe światło na wyzwania związane z zapewnieniem bezpieczeństwa przyszłych, jeszcze potężniejszych modeli AI, co jest kluczowym obszarem badań dla OpenAI.

Jeśli artykuł Dwa zagrożenia: przyszłość badań nad AI i amerykańskie regulacje klimatyczne nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.

Idź do oryginalnego materiału