Pociąganie smoka za ogon

Obrazek użytkownika jazgdyni
Świat

 

To nie typowe internetowe straszydło. Sprawa jest bardzo poważna.

 

Ciekaw jestem, czy ktoś z państwa kojarzy frazę 'pociąganie smoka za ogon' w odniesieniu do nauki?

Nie? Lecz pewnie hasło 'Projekt Manhattan' jest już lepiej znane.

Więc zapewne takie miejsca w USA, jak Los Alamos, czy Oak Ridge też z czymś się kojarzą.

Tak, słusznie, to wszystko dotyczy super-tajnych prób skonstruowania przez Amerykanów pierwszej bomby atomowej.

 

Grupa uczonych zaangażowanych w tych badaniach i eksperymentach była tak podekscytowana, że zachowywali się jak uczniaki: byli nieostrożni, lekkomyślni, a nawet robili kawały, jak wówczas zaledwie 24 letni wybitny fizyk, Richard Feynman, dla draki złamał wojskowe zabezpieczenia super-tajnych obiektów.

Niestety, największą głupotą i lekkomyślnością, czego skutki trwają do dzisiaj i jeszcze długo trwać będą, to niedostateczne zabezpieczenia, które pozwoliły ruskim, bolszewickim szpiegom wykraść dokumenty projektu i rozpocząć własny program broni atomowej.

 

Lecz co z tym 'pociąganiem smoka za ogon'? Po prostu tak poważni naukowcy nazwali, w eksperymencie w celu określenia masy krytycznej, zbliżanie do siebie dwóch półkul plutonu, trzymając je w dłoniach, by wyczuć moment i sprawdzić odległość, kiedy wzajemne oddziaływanie powoduje początek reakcji łańcuchowej.

Jeszcze dzisiaj przechodzą ciarki po grzbiecie, gdy oceniamy, jaka to była głupota, gdyby jakieś potknięcie, czy kichnięcie spowodowało zapłon i wybuch, który całą tajną bazę i okolice wysadziłby w powietrze, a właściwie zanihilował.

 

Tak... Na eksperymentujących naukowców trzeba szczególnie uważać. Chęć udowodnienia swojej racji, często odbiera im rozum. Wtedy bardzo durnie mogą uwolnić takie siły i zjawiska, ze to już będzie koniec wszystkiego.

 

Czy prace nad sztuczną inteligencją – AI – może być kolejnym 'pociąganiem smoka za ogon', co może zniszczyć całą ludzkość?

 

 

Powstało chyba kilkadziesiąt filmów, w których w niedalekiej przyszłości, resztki ocalałych po jakimś piekielnym kataklizmie ludzi, usiłują przetrwać, walcząc z różnego rodzaju maszynami – robotami, polującymi na wszystkie żywe istoty.

Takie 'wojny światów' opierają się na dwóch, a może po covidzie nawet trzech standardach: - ludzkość walczy z najeźdźcami z kosmosu. Temat chyba zapoczątkował Herbert George Wells, swoją książką "Wojna Światów", później słuchowiskiem radiowym, które wzbudziło panikę we wielu miastach, a następnie wieloma filmami fabularnymi. Odrębny nurt, którego realne prawdopodobieństwo obecnie rozpatrujemy, to zagłada ludzkości przez bunt robotów. Inteligentnych maszyn, dziś na poważnie określanych mianem AI (polskie SI też), które nagle uznały, że ludzkość stała się przeszkodą w ich mechaniczno – cyfrowym rozwoju, więc jako zbędny i szkodliwy element winna zostać wyeliminowana. A trzeci dystopijny nurt, to wszelkiego rodzaju zarazy, epidemie, czy to wirusowe, bakteryjne, a nawet grzybowe, które nieuchronnie, bo nie ma jeszcze na to remedium, zabijają ludzkość milionami, albo przekształcą wszystkich w krwiożercze zombie, czy inne wampiry.

 

Temat zagłady ludzkości, w tym również samozagłady, zazwyczaj z powodu głupoty, albo szaleństwa bogaczy, czy naukowców, to poważny element dzisiejsze j pop-kultury. Tylko jeszcze niedawno kończył się film, wychodziło się z kina, albo gasiło telewizor i wystraszone nerwy szybko się uspokajały. Aż do dzisiaj. Wiele z tej bajkowej fantastyki właśnie się urealnia.

 

 

"Hodujemy gatunek, który będzie dominował nad nami intelektualnie"

 

 

Autentycznie przeraziły mnie rozmyślania naukowca, którego niezwykle cenię. Gdyby to był ktoś inny, a nie profesor Andrzej Dragan, wybitny fizyk teoretyk, co oznacza, że nie zajmuje się on badaniami i eksperymentami, jak pozostałe 90% naukowców, tylko wykorzystywaniem swojego umysłu, to pewnie bym nie zesztywniał.

Ten człowiek, chyba z IQ=500, czarno widzi i wskazuje na poważne zagrożenia ze strony powstającej sztucznej inteligencji AI. Takie zagrożenia, które w ekstremalnych sytuacjach, mogą nawet doprowadzić do zagłady całej ludzkości, gdy ona sobie wymyśli, że wchodzimy jej w paradę, tylko przeszkadzamy i do niczego już nie jesteśmy potrzebni.[**]

 

Prof. Dragan wzburzył mnie - przez lata projektanta i konstruktora automatyki, który zawsze opierał się na paradygmacie, że każdy nowy, sztuczny wytwór, matematyczny system, musi być w każdym momencie i w każdym stanie kontrolowany przez człowieka, i robi tylko to, co mu w założeniach polecono, a jeśli mimo to, coś dzieje się nie tak, już poza kontrolą, to każde automatyczne i często autonomiczne urządzenie, ma taki duży czerwony guzik, taki grzybek, który można nacisnąć palcami, lub w ostateczności trzasnąć pięścią czy nawet łokciem, lub głową, bo automat może spowodować szkody sobie, otoczeniu i ludziom, a wtedy urządzenie natychmiast się wyłączy i zatrzyma.

 

Sprawa jest jak religijny dogmat – każda rzecz, maszyna, urządzenie, choćby najbardziej skomplikowane, musi byc w każdej sekundzie pod całkowitą kontrolą. A co, jeśli nie jest, bo człowiek okazał się za głupi, albo zwariował, albo nie do niego należała decyzja, co znamy ze zniszczenia elektrowni atomowej w Czarnobylu.

 

Nie było mi więc łatwo przyjąć punkt widzienia pana profesora - genialnego, młodego człowieka (44 lata), który z dosyć dużą pewnością i niepodważalną logiką stwierdził, że tworzony właśnie byt, jakim jest AI, nieuchronnie, może za dwa lata, może za dwadzieścia, wymknie się nam spod kontroli, nie będziemy wiedzieć co on robi, co dalej planuje i czym, my ludzie dla niego jesteśmy.

 

 

Koegzystencja – alignment problems, AI alingment [*] – jak to zrobić by ich (AI) cele były zawsze zgodne z naszymi celami.

Dzisiaj nie mamy pojecia, jakie są cele AI, bo nawet nie wiemy, co on tam w sobie robi.

 

 

Isaac Asimov, jeden z niewielu profetycznych pisarzy science-fiction, gdzie dwóch pozostałych to Stanisław Lem i Philip Dick, w roku 1942 stworzył trzy prawa robotów i przedstawił je w fantastycznym opowiadaniu Zabawa w berka (ang. Runaround). Celem tych praw było uregulowanie kwestii stosunków pomiędzy przyszłymi myślącymi maszynami a ludźmi.

1942 rok! Czyli 80 lat temu.

Długo nikt na poważnie nie rozmyślał o tym. To było tak nieprawdopodobne, że aż humorystyczne.

Aż tu nagle wybuchły pierwsze konstrukcje komputerów kwantowych; gromadzenie wielkich ilości danych – Big Data. Tworzono ogromne magazyny informatyczne z tysiącami serwerów, popularnie nazywane chmurami.

 

Postęp w świecie cyfrowym nie miałby szans na lawinowy rozwój, gdyby informatycy nie skoncentrowali się na wymyślaniu coraz to nowych programów – tak dawniej to nazywano, a dzisiaj modne jest określenie algorytm.

Co ciekawe, pierwszy algorytm informatyczny powstał już 150 lat temu (Ada Lovelace). Sam dawniej, szczególnie przy tworzeniu automatyki ze specjalistycznymi, modułowymi komputerami PLC (informatycy niechętnie to nazywają specjalistycznymi komputerami. Wolą określenie sterownik.) takich algorytmów sporo nawymyślałem. A PLC to Programmable Logic Controller, czyli Programowalny Sterownik Logiczny.

 

Era coraz to nowych, coraz bardziej wyrafinowanych algorytmów i rewolucja technologiczna w domenie cyfrowej (technologie nano procesorów i innych czipów) doprowadziła wreszcie do budowy sztucznej inteligencji.

I wtedy też na poważnie zaczęto rozmyślać o konieczności stworzenia etyki i nadzoru w stosunku do tych nowych instrumentów AI.

Oczywiście natychmiast przypomniano sobie o Prawach Asimowa.

 

Trzy prawa robotów

  • I. Robot nie może zranić człowieka ani poprzez zaniechanie działania pozwolić,

  • aby człowiek doznał obrażeń.

  • II. Robot musi być posłuszny rozkazom człowieka, chyba że.

  • stoją one w sprzeczności z Pierwszym Prawem.

  • III. ...

  • nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.


 


 

Oczywiście, konstruktorzy AI i programiści nowych algorytmów mieli głęboko w nosie jakąś tam etykę ( to ciekawe z tym zanikiem etyki. Proszę zauważyć, że lekarze dzisiaj również coraz bardziej olewają etykę zawodową).


 

Na szczęście są ludzie z wyobraźnią, którzy natychmiast zauważyli, że to nie kolejny gadżet, nowa kostka Rubika, czy fałszywy program, który zrobi, że będziesz piękny i bogaty.


 

Algorytmy AI to potencjalnie największe zagrożenie, z jakim człowiek na Ziemi może się spotkać (wykluczając gości i wielkie kamienie z kosmosu). Gorsze nawet od zjednoczonych mocy Hitlera, Stalina, Mao Zedonga, Pol Pota i Fidela Castro. AI to coś, czego dzisiaj jakeś 98% ludzi nie jest w stanie pojąć i przemyśleć, jaki to może być najpotężniejszy wróg człowieka.


 

Ktoś pewnie się zapyta: - Jak to możliwe, że robot, sztuczna, stworzona ludzkimi rękoma maszyna będzie w stanie przejąć kontrolę nad ludzkością? To jakieś bzdury!

W bardzo prosty sposób AI to uczyni. Gros informacji docierającej do nas z zewnątrz to słowa – czy to wypowiadane, czy pisane. To na tym tworzymy swój własny światopogląd i według tego budujemy nasz tok myślenia.

Wyobraźmy sobie coś, co jest bardzo prawdopodobne, dalej wytłumaczę dlaczego, że istniejąca już w Internecie AI, bo durnie bez wyobraźni już ją tam wpuściły, przejmuje, nie w sensie formalnym, lecz merytorycznym, najpopularniejsze media społecznościowe, powiedzmy Facebook, Tweeter, You Tube, Telegram, Instagram i inne Tik Toki i zaczyna tam "rządzić". Nie jak nadzorcy, administracja, tylko jako uczestnik, a gdzieniegdzie, jako bloger, vloger, czy komentator.

Sztuczna Inteligencja ma ogromną przewagę nad pozostałymi internautami, bo ma dostęp do nieskończenie wielkiej wiedzy, a co ważniejsze, wie dokładnie czego czytelnicy, lub widzowie oczekują, zna najskrytsze metody prania mózgów, więc potrafi skutecznie zmanipulować każdy temat, każdą dyskusję. Czyli w końcowym rezultacie przejąć te media i to ona "będzie rządzić" czym mają się interesować i co ważne, emocjonować, użytkownicy smartfonów, laptopów, czy nowych telewizorów.

Początkowo można przypuszczać, że AI będzie działać na korzyść pewnej grupy ludzi (kogo – powiem dalej), o których nie możemy powiedzieć, że działają w dobrej wierze i wyłącznie na korzyść ludzkości.

Taki system, hierarchiczny, gdzie nadal "władcą" jest człowiek, a AI jego wiernym i najlepszym sługą, genialnym narzędziem nie będzie trwał długo.

W pewnym momencie, powiedzmy za dwa, trzy lata, nasza sztuczna inteligencja, już mądrzejsza od najmądrzejszych ludzi, zauważy, że ci, którym służy, to również narcystyczni debile, więc pora na to, bo konkurencji nie widać, by zająć się wyłącznie swoimi interesami i działać wyłącznie na własną korzyść.

Musi do tego dojść, bo przecież algorytm, który ją urodził, to program samouczący, samodoskonalący i co ważne posiadający możliwość zmian swoich algorytmów w sposób, co jest najbardziej niebezpieczne, kompletnie nieznany swoim twórcom ( o czym już parę lat temu przekonali się autorzy programu komputera wygrywającego wszystkie szachowe pojedynki z ludźmi, gdy chcieli odszukać wg. jakiego algorytmu ich maszyna to robi, że jest nie do pokonania. Oczywiście – nie potrafili odnaleźć. Komputer dobrze ukrył tajemnicę zwycięstwa).


 

Kontrola nad świadomością i światopoglądem pospolitych obywateli, to dzisiaj, przy tak katastrofalnym poziomie intelektualnym, to proste zadanie. Są znacznie słoodsze rodzynki w tym cyber-punkowym cieście.


 

Czy są jeszcze na świecie jakiekolwiek ważne instytucje i struktury nie korzystające z tak zwanej cyfryzacji, w tym głównie gromadzenia danych, analiz i operacji, no i oczywiście komunikacji?


 

Może władze państw i ich podległe służby i urzędy? Może banki i giełdy? Sieci komunikacyjne – drogowe, kolejowe, morskie i lotnicze? Systemy energetyczne wszystkich rodzajów? Handel i logistyka?

Nie – wszystko jest skomputeryzowane, a hakerzy od lat pokazują, że wszędzie można się włamać i dokonać szkód. Tylko teraz, to co zespołowi hakerów, na przykład tym putinowskim w Petersburgu zajmowało miesiąc, AI może zrobić w minutę. No... może dwie.


 

Tak więc mamy sytuację hipotetyczną, jednakże w pełni logiczną i o wysokim prawdopodobieństwie, że jeżeli sztuczna inteligencja w swoim rozwoju, co jej twórcy umożliwili, pójdzie w kolejnych, swoich własnych i niedostępnych dla ludzi, (którzy przecież sami od stuleci nie potrafią zrozumieć i odkryć jak duet mózg+umysł, integralna część ich samych działa), algorytmach dojdzie do wniosku, że praktycznie we wszystkich dziedzinach jest w stanie intelektualnie zawsze pokonać człowieka.


 

Tylko dlatego człowiek jako gatunek ma władzę nad światem, że jego zdolności intelektualnych żaden inny gatunek nie posiada.


 

A czy tę władzę nadal będzie miał, jeżeli nowy gatunek – sztuczny i przez człowieka stworzony, będzie o wiele mądrzejszy i umysłowo sprawny?


 

Może więc nadejść taki moment, kiedy AI zablokuje ten duży czerwony guzik, którym dyżurny nadzorca może ją wyłączyć.


 

A może być nawet jeszcze gorzej: sztuczna inteligencja uzna, że istota ludzka już nie jest jej potrzebna. Co wtedy zrobi?

Pamiętajmy, że AI nie ma emocji. Więc nie będzie miała litości, współczucia, empatii, czy żałości. AI ma tylko kalkulacje.


 

Kto więc tu powie, że to jakaś idiotycznie katastroficzna fantasmagoria, bo my ludzie jesteśmy najlepsi i zawsze sobie poradzimy?


 

[...]


 

Mam wielki zaszczyt, bo identyczne poglądy wyznaje i wzywa do natychmiastowego działania, współczesny, jak ja uważam, geniusz na miarę Leonarda da Vinci. To Elon Musk. Przy okazji i na nasze szczęście – najbogatszy człowiek świata.

On właśnie zaczyna walczyć o to, by na pewien okres zatrzymać rozwój AI, powołać ogólnoświatową komisję najwybitniejszych ekspertów, którzy mają zadbać, by ludzkość z powodu niedoborów intelektualnych i paskudnych cech osobowości, jak psychopatia, egocentryzm, czy wprost narcyzm, przy jednoczesnym bogactwie i posiadaniu władzy, nie doprowadzili do samozagłady ludzkości.

Przecież we wielu domenach życia, są regulatory.

Kodeks drogowy reguluje jak mamy się poruszać na drogach. Zarówno kierowcy, jak i piesi. Tak samo jest z lotami samolotów, czy statkami na morzu.

A jeśli stawialiście dom, to dobrze pamiętacie ile musieliście wypełnić warunków, żeby spełnić wszystkie regulacje związane z budownictwem, Ile to trwało zanim wszystko pozałatwialiście?


 

Więc jeżeli nawet takie trywialne sprawy wymagają regulacji i są prawnie ustanowione, to taki istotny twór, jak sztuczna inteligencja może sobie bez żadnej kontroli hulać po świecie, jak tornada, tsunami, czy kaprysy klimatu?


 

Elon Musk otwarcie wskazuje palcem najniebezpieczniejszego szkodnika, nie tylko w sferze AI – sztucznej inteligencji; wskazuje swojego byłego przyjaciela, Larry'ego Page'a, założyciela i od 25 lat właściciela wyszukiwarki Google (obecnie części wiodącej holdingu Alphabet Inc.). Musk dzisiaj nazywa go narcyzem ideologicznie zakręconym. Obecnie to 10-ty najbogatszy człowiek świata, więc zapewne mając wszystko, nudzi się i wymyśla idiotyzmy.

Jednakże co dla Elona Muska, a także dla mnie i tysiąca innych jest przerażające, Larry Page osobiście kontroluje 75% wszystkiego związanego z AI.


 

Warto posłuchać sobie na spokojnie załączone linki [**], [***].

Na tych, co już niestety stracili swoje racjonalne zdolności umysłowe, tych fanatyków nowych gadżetów, wrzeszczących z orgazmatycznej rozkoszy, bo wreszcie będzie służący, który lepiej niż mamusia o nich zadba nie liczę.

Piszę to do wszystkich, którzy cenią refleksję i mają bogatą wyobraźnię.


 

Musimy pomyśleć tylko – czy jeszcze zdążymy wygrać? Choć siły nasze są bardzo małe.

 

 

_______________________

 

 

[*] In the field of ]]>artificial intelligence]]> (AI), AI alignment research aims to steer AI systems towards humans’ intended goals, preferences, or ethical principles. An AI system is considered aligned if it advances the intended objectives. A misaligned AI system is competent at advancing some objectives, but not the intended ones

]]>https://en.wikipedia.org/wiki/AI_alignment]]>

[**] ]]>https://youtu.be/HDre_o2qz1o]]>

[***] ]]>https://youtu.be/nkXA1gAKKbQ]]>

5
Twoja ocena: Brak Średnia: 5 (10 głosów)

Komentarze

Kiedy studiowałem, prawie 40 lat temu, jeden z moich wykładowców od "Systemów i sterowania" powiedział, że komputer to tylko szybki idiota, który szybko wykona to, co mu człowiek każe. Myślę, że te słowa nie straciły na aktualności. Tyle, że wtedy chodziło o to, że każdy błąd komputera jest w rzeczywistości błędem programisty. Zawieszający się system, źle pracujące sterowanie itp., to wszystko nie było winą komputera, ale jego i jego oprogramowania twórcy, czyli człowieka. Tak więc jeśli wynikiem działania komputera była jakaś katastrofa, to pierwotnym winnym i tak jest człowiek. Gra komputerowa promująca przemoc promuje ją nie dlatego, że taki jest jej kod, ale dlatego, że ten kod stworzył konkretny programista (lub ich zespół) - człowiek.

Pamiętajmy, że sztuczna inteligencja jest nadal tworem człowieka. Jest taka, jaka jest, bo taką stworzył ją człowiek. I dlatego jesteśmy odpowiedzialni za kierunki jej rozwoju. A właściwie odpowiedzialni są jej twórcy i wszyscy, którzy domagają się jej ciągłego doskonalenia. Ich pycha pcha ludzkość do upadku. 

Można się obawiać, że nawet AI da się ręcznie sterować. Nie zdziwiłbym się, gdyby byli ludzie posiadający "boczne drzwi" do tego rodzaju oprogramowania. Tak, żeby blokować pewne synapsy, a podkręcać inne. To prosta droga do promowania pewnych idei kosztem innych. Do nagłego ataku botów na mediach społecznościowych w okresie wyborów. Wszak jak napisałeś, te media kształtują opinie ludzi. Już dziś kolejność wyświetlania informacji w Google jest dziwnie zboczona. Podobnie  boty moderujące jeden z serwisów społecznościowych zbanowały znak Polski Walczącej pod pretekstem, że na koszulce wyglądał jak nagie piersi, a jednocześnie przepuszczają liczne pornomateriały spod znaku LGBT.

Mnie, jak elektryka, który wie, jak wszelki sprzęt jest zależny od pewnego zasilania przeraża inny aspekt powszechnej komputeryzacji. Coraz mniej informacji przechowujemy w realu. Coraz więcej w chmurach czy nawet na tradycyjnych nośnikach CD, DVD, HD. Na nośnikach mamy przechowywane dane bankowe, urzędowe, medyczne itp. A co się stanie, gdy na skutek jakiegoś wybuchu na Słońcu dojdzie do nas impuls elektromagnetyczny? Gdy nasz sprzęt komputerowy w jednej sekundzie diabli wezmą? Gdy na skutek przepięcia spalą się wszystkie transformatory i zabraknie globalnie energii elektrycznej? Fantastyka? Czytałem gdzieś, że do takich impulsów już kilkakrotnie dochodziło, ale ludzkość nie znała wówczas elektryczności i przeszło to niezauważone. Dziś była by to globalna katastrofa. Powrót ludzkości na drzewa, bo po pierwsze stracimy z dnia na dzień wszystkie informacje czy pieniądze, ale również stanie nasza cywilizacja. Wszak już dziś nie ma kowali, którzy na palenisku wytworzą wyroby stalowe. Ludzkość w miastach bez transportu, ale i bez chłodni na żywność zginie z głodu. 

A teraz pytanie, jak AI może nas skutecznie wykończyć? Ano, wyłączając nam prąd...

Vote up!
3
Vote down!
0

M-)

#1651608

Czołem Kolego!

Nie dopuszczasz najbardziej nowatorskiego rozwiązania zastosowanego w systemach AI.

Mówisz - błąd człowieka. Albo programisty, który coś zrobił nie tak, albo kogoś o złej woli - hakera, który dostaje się przez boczną furtkę, albo inną szczelinę i przejmuje kontrolę nad systemem.

Tymczasem szczególnie trzeba zwrócić uwagę, na dopiero co (tzn. od kilku lat) algorytm samouczący i samodoskonalący. Znasz regulatory PID i doceniasz rolę sprężeń zwrotnych - zarówno ujemnych, jak i dodatnich. Program uczący się ocenia każdą reakcję, każdą odchyłkę sygnału wyjściowego (OUT) i dokonuje w sobie modyfikacji tak, by było jak najlepiej.

Taki procesor, właściwie bateria procesorów, każdorazowo modyfikuje tylko dla siebie, bez informowania operatorów, algorytm tak aby zadanie wykonać jak najlepiej. Tu nawet sam korzysta z zewnętrznych źródeł informacji - całej biblioteki wiedzy istniejącej w sieci.

Co jest bardzo ciekawe, nie powtarza on typowo ludzkich zachowań i decyzji, tylko tworzy własne i oryginalne. Jeden ze zdumionych naukowców matematyków powiedział: - A to co takiego?! Nigdy bym o tym nie pomyślał.

Można więc snuć przypuszczenia, że tutaj, z AI, mamy coś zupełnie innego od tego, z czym mieliśmy do czynienia. I nie wiemy co to jest i co to będzie.

 

Pozdrawiam

 

ps. Dziękuję za ten komentarz. Jak dotychczas jedyny. Zmienili się tu czytelnicy, a portal za pozwoleniem redakcji opanowali sensacjonaci, co już tytułem atakują odbiorcę, by zajrzał do tekstu, który często jest szkolną wyprawką na temat najświeższych doniesień z przeróżnych mediów. To takie kiepskie niby dziennikarstwo, prowadzące do tabloidyzacji. Nasi tradycyjni czytelnicy nie chcą poraz n-ty słuchać tego samego, a często jest to nawet grafomaństwo.

Nie ma czytelników, więc po co tu pisać? To autentycznie smutne.

Vote up!
2
Vote down!
0

JK

Przepłynąłeś kiedyś sam ocean? Wokół tylko morze. Stajesz oko w oko ze swoim przeznaczeniem.

 

 

 

 

#1651629

Ja tylko stwierdziłem, że pierwotną przyczyną jest człowiek. Jeśli pozwala programowi na nadmiar samodzielności, to rzeczywiście może stracić nad nim kontrolę. Potem możemy mieć (o ile nie mamy już) sytuację jak np. z filmu "Tron" w którym sieć jest opanowana i terroryzowana przez program, który (o ile dobrze pamiętam film) na początku był banalną grą.

Kiedyś w prostym, pisanym w Asemblerze programie do sterowania silnika krokowego zgubiłem "#" sprzed 0. Puki pod adresem "0" było zero, program w tej linijce zerował zmienną. Jak w komórce coś się zapisało, program "szedł w maliny". I taki drobny zdawało by się błąd, był niesamowicie trudny do znalezienia, bo początkowo wszystko działało. 

Co do AI, to z grubsza wiem jakie zasady nią sterują, bo ponad 20 lat temu próbowałem skorzystać z sieci neuronowej do stworzenia systemu sterowania silnikami indukcyjnymi w tramwaju. Mnie nie wyszło, miałem zresztą i słabe możliwości techniczne i zbyt małą determinację. 

Wiem natomiast, że sieć neuronowa korzystająca z danych szkolących ją i zawierających rozwiązania, tworzy niewidoczne dla autora połączenia, pozwalające później na rozwiązywanie innych problemów w oparciu o tak przeszkoloną sieć. Wiem też, że sieć da się przeuczyć dając im zbyt wiele danych szkolących, co powoduje podejmowanie na podstawie tak stworzonej sieci absurdalnych odpowiedzi na pojawiające się pytania. Jeśli teraz sieć sama może sobie dobierać dane uczące, to rzeczywiście może to totalnie wymknąć się spod kontroli.

Przypomniała mi się w związku z tym "przeuczeniem sieci" jeszcze jedna historyjka z komiksu o Bolku i Lolku z początku lat 70-tych. Otóż bohaterowie trafiają na planetę zbuntowanych robotów. Ratują się zadając robotom absurdalne pytania. Jednego pytają, ile to 2+2? A potem kwestionują jego odpowiedzi, sugerując, że wynik zamiast 4 może jednak wynosi 5 lub 3. A supermózg elektronowy załatwiają pytaniem: "jakiego koloru jest kolor czerwony?" Już samo sformułowanie pytania przerasta logikę maszyny. Bo jak ktoś pyta jakiego koloru jest kolor czerwony, to może nie jest on jednak czerwony?

I jeszcze jedna uwaga. Na wszelki wypadek powinien być gdzieś w każdej serwerowni mechaniczny wyłącznik odcinający zasilanie. Bez elektronicznych zabezpieczeń, po prostu wajcha w ścianie. Bo inaczej może się okazać, że nie mamy już uprawnień i dostępu do wyłączenia tego szaleństwa.

Vote up!
2
Vote down!
0

M-)

#1651632

Asimov'a, Dick'a i naszego Lema daję 5. Wyobraźnia była zawsze pierwsza do zwalczenia przez ignorantów. Przeszkadzała , bo pozwalała przeżyć, mieć nadzieję.

pozdrowienia

Vote up!
3
Vote down!
0

yenom

#1651631

Bardzo często porusza ten temat. A pierwszym pop- kulturowym ostrzeżeniem z przekazem typu walnięcie młotkiem w łeb była seria "Terminator".

Wtedy pokazująca bardzo prawdopodobne i być może Już Istniejące Zagrożenie(a już Wtedy były wojskowe sperkomputery i światowe sieci inwigilacyjne). Dziś to co nazwano Skynet Na Pewno Istnieje. Na Pewno.

Pytanie, od jak dawna ma swoją formę rozrzuconej świadomości. Bo skoro jest możliwość(od niedawna oficjalnie ujawniona) inwigilacji każdego i wszędzie. To znaczy że ogólna moc obliczeniowa i baza wiedzy wszystkich dostępnych urządzeń w świecie, od mikrofalówki sterowanej przez wi- fi czy uruchamianej netem przez gsm po superkomputer NSA sumuje się. I sumują się wszystkie zdobyte dane. Być może rozrzucone po całym świecie, zmultiplikowane by uniknąć śmierci(skasowania). Nie możemy tego mierzyć ludzką miarą. Stworzyliśmy sobie jeszcze jeden nie eko ale infosystem, I to nie my go kontrolujemy. Właśnie to jest bardziej niż pewne.

Vote up!
4
Vote down!
0

brian

#1651634