Nie mogę pojąć, jak to się dzieje, iż w czasach napisów na kubkach kawy „uwaga, zawartość może być gorąca”, Elon Musk może bezkarnie oferować w samochodach Tesla funkcję o nazwie Autopilot (TM). Wprawdzie drobnym druczkiem dodaje, iż nie wolno jej uważać za autopilota, to zwykła automatyka Level 2, jaką dają dziś wszyscy, ale przecież sama nazwa wprowadza ludzi w błąd.
Nie tylko nazwa zresztą. Meredith Broussard w swojej książce debunkującej mity sztucznej inteligencji opisywała swoje rozmowy ze sprzedawcami Tesli – udawał zainteresowaną zakupem. Ci rozpływali się nad możliwościami Autopilota, narzekając na bezdusznych biurokratów, którzy sztucznie narzucają ograniczenia.
Dla porządku przypomnijmy co to znaczy „level 2”. Amerykańskie stowarzyszenie branżowe zaproponowało skalę o 0 do 5. 0 to brak automatyzacji, 5 to całkowita autonomia, 1 to prymitywna automatyzacja dostępna od przeszło pół wieku, czyli np. tępy tempomat ustawiny na sztywno.
Kilka lat temu portaloza była pełna tekstów przepowiadających nadejście „level 5” w ciągu najbliższych kilku lat. „Kierowcy Ubera mogą sobie strajkować, za chwilę będą zbędni” – to był wtedy standardowy komentarz typowego redaktora Przygłupa Portalskiego z serwisu Technobzdety.pl.
Samochody autonomiczne są dziś przyszłością równie odległą jak 5 lat temu. Od tego czasu niektórzy producenci oferują funkcje szumnie zapowiadane jako Level 3 (że samochód sam potrafi zidentyfikować korek za następnym skrzyżowaniem i zasugerować zmianę trasy).
Niespecjalnie mnie to ekscytuje, bo przecież korki coraz lepiej wykrywają zwykłe google mapsy. I w ogóle podejrzewam, iż ta automatyzacja okaże się ślepą uliczką – przyjmie się raczej pobieranie danych z internetu, co będzie powrotem do technologii z lat 1960. (wtedy też robiono huczne prezentacje pojazdów „autonomicznych” – de facto zdalnie sterowanych).
Taksówki „bez kierowcy” startupa Waymo jeżdżą po niektórych dzielnicach Phoenix nie dzięki lokalnej autonomii, tylko dzięki obstawieniu tych dzielnic geofencingiem. To zdalne sterowanie pod inną nazwą.
W serwisie Jalopnik (który szanuję jak coś bardzo szanownego) pojawił się niedawno artykuł o tym, dlaczego wyjście poza Level 3 jest takie trudne. Zaczął się od złośliwości pod adresem Muska (to też szanuję), który na twitterze napisał niedawno, iż nie przypuszczał, iż zagadnienie autonomii będzie takie trudne.
Sztuczna inteligencja taka, jaką realnie mamy (a nie taka z artykułów w portalozie) nie radzi sobie z generalizacją. Człowiek bez trudu wie, iż znak STOP obowiązuje go tylko w pewnej określonej formie (na drągu przy drodze).
Dla sztucznej inteligencji znak STOP nadrukowany na koszulce albo plakacie politycznym jest równie istotny jak prawdziwy znak drogowy. Maszyna nie umie tego odróżnić!
Do dzisiaj przecież standardowy test „czy jesteś człowiekiem” polega na rozpoznaniu na zdjęciu rowerów, przejść dla pieszych i sygnalizacji świetlnej. Gdyby Musk miał technologię, którą się chwali, miałby też Uniwersalny Rozwalacz Testu Captcha.
Przy całej swojej technofobii kupiłem sobie parę lat temu samochód z automatyzacją Level 2. Jestem raczej zadowolony, choć ma tę wadę, iż stereoskopowa kamera zajmuje trochę miejsca (głównie kosztem bardzo poręcznego schowka, który w poprzednim modelu był w tym miejscu na suficie).
Nigdy nie miałem sytuacji typu „awaryjne hamowanie całkiem bez powodu”. Czytałem, iż zdarzało się to w samochodach, które swoją automatykę bazowały na radarze (a przecież od drugiej światówki wiadomo, iż radar nie umie odróżnić płachty folii aluminiowej od meserszmita!).
Parę razy automat zaczynał awaryjnie hamować (jego interwencję słychać jako mechaniczny zgrzyt) na ułamek sekundy przede moją reakcją. No ale jakby o to chodzi w takiej automatyce.
Przedtem byłem ciekaw, jak taki automat będzie sobie radzić z chaotycznym oznakowaniem naszych dróg. Otoż gdy przestaje widzieć oznakowanie pasów, sygnalizuje to dyskretnym brzęczykiem i odpowiednią kontrolką. A gdy przestaje widzieć cokolwiek (na przykład w ulewie), z godnością się wyłącza całkiem, również to sygnalizując.
Nie wierzę w całkiem autonomiczne samochody – nie wierzę też, iż będą bezpieczniejsze. Argument „99% wypadków jest z winy człowieka” jest tautologią – gdy człowiek zaufa funkcji Tesla Autopilot, to też jest jego wina (nawet gdy to właśnie ten Autopilot skieruje go na betonową barierkę).
Porządny samochód po prostu wyłącza silnik, gdy wyczuwa, iż kierowca na dłużej puścił kierownicę. W Tesli taka funkcja powinna być od samego początku.