Jak standardy i pewność sprawiają, iż odpowiedzialna sztuczna inteligencja jest osiągalna

cyberfeed.pl 15 godzin temu


Rozmowa dookoła etyka cyfrowa osiągnął punkt krytyczny. Chociaż doświadczamy przytłoczenia ramami i wytycznymi, które mówią nam co odpowiedzialna sztuczna inteligencja (AI) powinny wyglądać, organizacje stają przed palącym pytaniem – jak adekwatnie to osiągnąć?

Odpowiedź może nie leżeć w większej liczbie zasad etycznych, ale w praktycznych narzędziach i standardach, które już pomagają organizacjom przekształcić aspiracje etyczne w rzeczywistość operacyjną.

Wielkiej Brytanii podejście do regulacji AIskupione na pięciu podstawowych zasadach — bezpieczeństwie, przejrzystości, uczciwości, odpowiedzialności i konkurencyjności — zapewnia solidną podstawę. Ale same zasady nie wystarczą.

Powstał praktyczny zestaw standardów i mechanizmów zapewniających, które organizacje mogą wykorzystać do skutecznego wdrażania tych zasad.

Standardy i pewność

Zastanów się, jak to wygląda w praktyce.

Kiedy podmiot świadczący opiekę zdrowotną wdraża sztuczną inteligencję do diagnozowania pacjentów, nie musi tylko wiedzieć, iż system powinien być sprawiedliwy – potrzebuje też konkretnych sposobów pomiaru i zapewnienia, że uczciwość.

To tu lubią standardy techniczne ISO/IEC TR 24027:2021 wchodzą w grę, zapewniając szczegółowe wytyczne dotyczące wykrywania stronniczości w systemach sztucznej inteligencji i eliminowania jej. Podobnie organizacje mogą stosować i komunikować mechanizmy zapewniania pewności, takie jak wskaźniki uczciwości i regularne audyty stronniczości, w celu monitorowania wydajności swoich systemów w różnych grupach demograficznych.

Równie kluczowa jest rola narzędzi zapewniających pewność. Na przykład karty modeli wspierają organizacje w demonstrowaniu etycznej zasady przejrzystości, zapewniając standardowe sposoby dokumentowania możliwości, ograniczeń i zamierzonych zastosowań systemów AI. Karty systemowe idą dalej, oddając szerszy kontekst, w którym działa sztuczna inteligencja. To nie są tylko ćwiczenia biurokratyczne, to praktyczne narzędzia, które pomagają organizacjom zrozumieć i komunikować, jak działają ich systemy sztucznej inteligencji.

Odpowiedzialność i zarządzanie

Obserwujemy szczególnie innowacyjne podejścia do odpowiedzialności i zarządzania. Organizacje wychodzą poza tradycyjne modele nadzoru, aby wdrożyć wyspecjalizowane rady etyczne dotyczące sztucznej inteligencji i kompleksowe ramy oceny wpływu. Struktury te zapewniają proaktywne podejście i pewność, iż względy etyczne nie są jedynie kwestią przemyśleń, ale są uwzględniane w całym cyklu rozwoju sztucznej inteligencji.

Wdrożenie mechanizmów kwestionowalności stanowi kolejny znaczący postęp. Postępowe organizacje wyznaczają jasne ścieżki, dzięki którym poszczególne osoby mogą kwestionować decyzje oparte na sztucznej inteligencji. Nie chodzi tu tylko o procedurę odwoławczą – chodzi o stworzenie systemów, które będą rzeczywiście odpowiedzialne przed osobami, których dotyczą.

Ale być może najbardziej zachęcające jest to, jak te narzędzia współpracują. Solidny Ramy zarządzania sztuczną inteligencją mogłaby łączyć standardy techniczne dotyczące bezpieczeństwa i ochrony z mechanizmami zapewniającymi przejrzystość, wspieranymi przez jasne procesy monitorowania i dochodzenia roszczeń. To kompleksowe podejście pomaga organizacjom stosować się do wielu zasad etycznych jednocześnie.

Konsekwencje dla przemysłu są znaczące. Zamiast postrzegać etyczną sztuczną inteligencję jako abstrakcyjny cel, organizacje traktują ją jako praktyczne wyzwanie inżynieryjne, dysponujące konkretnymi narzędziami i mierzalnymi wynikami. To przejście od ram teoretycznych do praktycznego wdrożenia ma najważniejsze znaczenie dla umożliwienia realizacji odpowiedzialnych innowacji dla organizacji każdej wielkości.

Trzy priorytety

Jednak wyzwania pozostają. gwałtownie rozwijający się charakter technologii sztucznej inteligencji oznacza, iż ​​standardy i mechanizmy zapewniania muszą stale się dostosowywać. Mniejsze organizacje mogą borykać się z ograniczeniami zasobów, a złożoność łańcuchów dostaw sztucznej inteligencji może utrudniać utrzymanie spójności praktyk etycznych.

w naszym najnowszy raport TechUKzbadaliśmy trzy priorytety, które pojawiają się, gdy patrzymy w przyszłość.

Po pierwsze, musimy w dalszym ciągu rozwijać i udoskonalać praktyczne narzędzia, które sprawią, iż etyczne wdrażanie sztucznej inteligencji stanie się bardziej dostępne, szczególnie dla mniejszych organizacji.

Po drugie, musimy zapewnić lepszą koordynację między różnymi standardami i mechanizmami zapewniania pewności, aby stworzyć bardziej spójne ścieżki wdrażania.

Po trzecie, musimy wspierać szerszą wymianę najlepszych praktyk między branżami, aby przyspieszyć uczenie się i wdrażanie.

W miarę ciągłego postępu technologicznego nasza zdolność do wdrażania zasad etycznych musi dotrzymać kroku. Narzędzia i standardy, które omówiliśmy, zapewniają praktyczne ramy umożliwiające właśnie to.

Wyzwanie polega w tej chwili na tym, aby narzędzia te były szerzej dostępne i łatwiejsze we wdrażaniu, tak aby odpowiedzialna sztuczna inteligencja stała się praktyczną rzeczywistością dla organizacji każdej wielkości.

Tess Buckley jest menedżerką programu ds. etyki cyfrowej i bezpieczeństwa sztucznej inteligencji w TechUK.



Source link

Idź do oryginalnego materiału