W którym momencie pojawia się moralny wymóg, aby przynajmniej rozważyć rozszerzenie praw człowieka dla AI?
„Przerażające” to dzisiaj słowo często używane przez technologów i rządy podczas omawiania przyszłości sztucznej inteligencji i jej potencjalnego wpływu na ludzkość. Malują obraz przyszłości, w której AI kradnie miejsca pracy, powoduje większe nierówności i niesprawiedliwie ocenia nasze dzieci w szkole dzięki wadliwych algorytmów.„Najwyższy czas” - tak zareagowali specjaliści od polityki i etyki w dziedzinie AI na wiadomość, iż kilka miesięcy temu Biuro ds. Nauki i Technologii Białego Domu ujawniło karty praw AI (AI Bill of Rights). Dokument jest wizją prezydenta Bidena, dotyczącą tego, jak rząd USA, firmy technologiczne i obywatele powinni ze sobą współpracować, aby w przyszłości rozliczać AI i sektor AI.Wprawdzie musimy rozważyć i zaplanować potencjalne szkody, jakie może wyrządzić AI, ale niektórzy twierdzą, iż na tym dyskusja nie może się skończyć. Jako iż AI staje się coraz bardziej zaawansowana, do tego stopnia, iż może stać się świadoma, a choćby autonomiczna, w którym momencie pojawia się moralny wymóg, aby przynajmniej rozważyć rozszerzenie praw człowieka dla AI? Może jest to głupi pomysł. I rzeczywiście, pytania tego typu należą do sfery filozofii, ale w przyszłości mogą stać się pytaniami z zakresu polityki publicznej.