Ostatnia aktualizacja 27 marca, 2023
Początki historii sztucznej inteligencji przypisywane są Alanowi Turingowi i pracom nad „maszynami myślącymi” prowadzonym w 1956 r. na kampusie Dartmouth College w USA. Droga do dzisiejszych chatbotów była długa, pełna spektakularnych sukcesów i porażek.
Co to jest sztuczna inteligencja?
Koncepcje Turinga były rewolucyjne. Twierdził, iż skoro ludzie potrafią używać informacji i rozumu, tak aby rozwiązywać problemy i podejmować decyzje, to dlaczego maszyny nie mogą robić tego samego? W artykule „Computing Machinery and Intelligence” w 1950 r. Opisał jak budować inteligentne maszyny i testować ich inteligencję.
Definicja sztucznej inteligencji określanej także AI (ang. artificial intelligence) zmieniała się wraz z rozwojem tej dziedziny nauki. AI to zdolność komputera lub komputerowo sterowanego robota do wykonywania zadań głównie kojarzonych z istotami rozumnymi. Termin jest często stosowany w odniesieniu do projektów rozwijających się systemów wyposażonych w procesy intelektualne charakterystyczne dla ludzi, takie jak zdolność myślenia abstrakcyjnego, odkrywania znaczeń, uogólniania lub uczenia się na podstawie przeszłych doświadczeń.
Historia sztucznej inteligencji to dziesięciolecia postępów i niepowodzeń
Prace Turinga hamowały możliwości ówczesnych komputerów i koszty ich eksploatacji. W latach pięćdziesiątych jego pomysł rozwijali Allen Newell, Cliff Shaw i Herbert Simon. Ich Logic Theorist był programem zaprojektowanym w celu naśladowania umiejętności rozwiązywania problemów człowieka. Przez wielu uważany jest za pierwszy program sztucznej inteligencji. Zaprezentowano go w 1956 r. w Dartmouth Summer Research Project on Artificial Intelligence, którego gospodarzami byli John McCarthy i Marvin Minsky.
W latach 1957-1974 temat sztucznej inteligencji rozkwitał. Komputery mogły przechowywać więcej informacji i stały się szybsze, tańsze i bardziej dostępne. Rozwinięto również algorytmy uczenia maszynowego. Wczesne demonstracje AI, takie jak General Problem Solver Newella i Simona oraz ELIZA Josepha Weizenbauma, były obiecujące pod względem rozwiązywania problemów i interpretacji języka mówionego. Te sukcesy, a także poparcie czołowych badaczy z Dartmouth skłoniły agencje rządowe USA do poniesienia nakładów finansowych na badania AI. Rząd był szczególnie zainteresowany maszyną, która mogłaby transkrybować i tłumaczyć język mówiony. W 1970 roku Marvin Minsky powiedział Life Magazine:
„Za trzy do ośmiu lat będziemy mieli maszynę o ogólnej inteligencji przeciętnego człowieka”.
Prof. Marvin Minsky dla Life Magazine w 1970 r.Dlaczego tyle czekaliśmy na AI?
Wszystkie badania lat siedemdziesiątych wskazywały, iż maszyny będą mogły reprezentować poziom średniej ludzkiej inteligencji. Jednakże droga do przetwarzania języka naturalnego i myślenia abstrakcyjnego była długa. Przeszkody rosły. Największą barierą był po prostu brak mocy obliczeniowej do ważnych procesów. Ujmując najprościej: komputery nie mogły wtedy przetwarzać wymaganej ilości danych.
Hans Moravec, doktorant McCarthy’ego, stwierdził, iż „komputery wciąż były miliony razy za słabe, by wykazywać inteligencję”. Niestety cierpliwość naukowców i inwestorów malała, podobnie jak fundusze, a badania toczyły się powoli przez dziesięć kolejnych lat.
Przełomy, które zmieniły dzisiejszy świat
Lata 80. przyniosły powrót i niesłabnące zainteresowanie AI. Historia sztucznej inteligencji odmieniła się pośrednio za sprawą poszerzenia się narzędzi algorytmicznych i wzrostu finansowania. Wiele ułatwiła popularyzacja technik deep learning.
W tym czasie japoński rząd inwestował w tzw. systemy eksperckie. Naśladowały one proces decyzyjny ludzkiego eksperta. Program pytał osobę biegłą w danej dziedzinie, jak zareagować w pewnej sytuacji i uczył się rozwiązań. Ludzie niebędący ekspertami mogli uzyskać szybkie odpowiedzi z tak opracowanego produktu.
Po wydaniu 400 mln dolarów w Japonii na przetwarzanie komputerowe, wdrożenie programowania logicznego i udoskonalenie sztucznej inteligencji, AI wypadło z centrum zainteresowań w tej części świata. Przeciwwagą były medialne sukcesy sztucznej inteligencji lat 90. i 2000. W 1997 r. IBM Deep Blue program komputerowy do gry w szachy pokonał wielkiego mistrza szachowego Gary’go Kasparowa.
Przeczytaj więcej o AI: Sztuczna inteligencja w szpitalach ratuje życie
Sztuczna inteligencja w Microsoft i Google
W tym samym roku program do rozpoznawania mowy firmy Dragon Systems, został zaimplementowany do systemu Microsoft Windows. Był to kolejny kamień milowy AI, ale w kierunku wysiłków związanych z tłumaczeniem na język mówiony.
Z czasem choćby ludzkie emocje udało się przetłumaczyć na „język komputerów”. Zaprezentował to uroczy Kismet, czyli robot opracowany przez Cynthię Breazeal, który potrafi rozpoznawać i okazywać emocje.
Lata później sztuczna inteligencja Google DeepMind AlphaGo pokonała najlepszego na świecie gracza w Go, Ke Jie. Po porażce Ke Jie powiedział dziennikarzom: „Jestem trochę smutny, trochę żałuję, ponieważ myślę, iż grałem całkiem nieźle”.
Dziś żyjemy wiadomościami o chatbotach, które mają zrewolucjonizować nasze życie. Microsoft już wprowadził opcję czatu AI do swojej wyszukiwarki Bing. Google dopracowuje autorską sztuczną inteligencję Bard, która ma służyć do pozyskiwania informacji w sposób podobny do tego, jaki przedstawił nam w ostatnich miesiącach ChatGPT. Prawdopodobnie już niedługo przekonamy się, czy technologiczne giganty napiszą „historię internetu” na nowo.