Sztuczna inteligencja jest ostatnio na ustach wszystkich, od wielkich firm technologicznych po znajomych, z którymi się spotykamy. Ciągle mówimy o jej sukcesach, a także porażkach w wielu dziedzinach. Dodatkowo, wcześniej wymienione giganty technologiczne opowiadają o coraz większej implementacji w wielu dziedzinach naszego życia, co ma nam pomóc ułatwić wszystkie trudności. Nic więc dziwnego, iż wielu coraz głośniej zaczyna zastanawiać się w temacie ich pozyskiwania energii, co może się kłócić z podejściem ekonomicznym, mającym mocny wpływ na środowisko. Co ciekawe, ostatnio w tej kwestii wypowiedział się Sam Altman, czyli dyrektor generalny OpenAI.
Średnie zapytanie do ChatGPT zużywa około 0,000085 galona wody, czyli około jednej piętnastej łyżeczki do herbaty
Sam Altman, CEO OpenAI, niedawno ujawnił zaskakujące dane dotyczące zużycia wody przez przeciętne zapytanie do ChatGPT. W swoim wpisie na blogu, zatytułowanym “The Gentle Singularity”, Altman podkreślił, jak ich sztuczna inteligencja może wpłynąć na infrastrukturę i ogólny kształt świata.
Czytaj też: Apple chce zakończyć wsparcie dla komputerów Mac z procesorami Intel?
Chodzi tu o wpływ ekonomiczny, społeczny, a co najważniejsze, środowiskowy. Co ciekawe, Altman nie przedstawił szczegółowej metodologii ani czynników, które uwzględniono w jego obliczeniach, to jednak jego twierdzenie wygląda tak: „Średnie zapytanie do ChatGPT zużywa około 0,000085 galona wody, czyli około jednej piętnastej łyżeczki do herbaty”.
Czytaj też: Już niedługo MSI Afterburner zyska wsparcie dla Radeon RX serii 9000
Na szczęście nie była to jedyna, choć nieco dziwna, wartość zużycia, którą udostępnił, ponieważ przedstawił również liczby dotyczące zużycia energii.
Ludzie często są ciekawi, ile energii zużywa zapytanie do ChatGPT; średnie zapytanie zużywa około 0,34 watogodziny, czyli tyle, ile piekarnik zużyłby w nieco ponad sekundę, lub energooszczędna żarówka w ciągu kilku minut. – AltmanDyrektor generalny OpenAI zasugerował, iż w miarę postępu i wzrostu wydajności AI, koszt generowania inteligencji sprowadzi się do ceny energii elektrycznej potrzebnej do zasilenia sprzętu. Choć wierzy on, iż masowe skalowanie przyczyni się do obniżenia kosztów, krytycy i ekolodzy przez cały czas zwracają uwagę na obecne zużycie zasobów.
Czytaj też: ChatGPT pomógł wskrzesić stary sprzęt
Sami przyznacie, iż brzmi to trochę od czapy, ponieważ narzędzia AI wydają się zużywać znacznie więcej niż jedną piętnastą łyżeczki do herbaty na zapytanie, a brak odpowiedniej metodologii utrudnia im przyjęcie tego twierdzenia. Może było to w wielkim uproszczeniu, czas pokaże, a coraz głośniejsze głosy na temat wykorzystania zasobów przez sztuczną inteligencję w końcu dostaną odpowiedź.