Sztuczna inteligencja monitoruje komunikację pracowników pod kątem „przestępstw myślowych” w aplikacji Slack i nie tylko

cyberfeed.pl 3 miesięcy temu


Korzysta z nich wiele dużych amerykańskich firm sztuczna inteligencja systemy monitorujące do analizy komunikacji pracowników w popularnym biznesie aplikacje tak jak Luźny, ZespołyI Powiększenie

Jeden z modeli AI twierdzi, iż jest w stanie analizować treść i nastroje zarówno tekstu, jak i obrazów zamieszczanych przez pracowników, raporty CNBC.

Niektóre z tych narzędzi są wykorzystywane w stosunkowo nieszkodliwy sposób, na przykład do oceny zbiorczych reakcji pracowników na takie rzeczy, jak nowe zasady korporacyjne

„Nie będzie zawierać nazwisk osób, aby chronić prywatność” – powiedział dyrektor generalny Aware, Jeff Schumann. Przeciwnie, powiedział, klienci zobaczą, iż „być może siła robocza powyżej 40. roku życia w tej części Stanów Zjednoczonych dostrzega zmiany w [a] politykę bardzo negatywnie ze względu na koszty, ale wszyscy inni spoza tej grupy wiekowej i lokalizacji postrzegają ją pozytywnie, ponieważ wpływa ona na nich w inny sposób”.

Ale inne narzędzia – w tym inne oferowane przez tę samą firmę – mogą oznaczać posty konkretnych osób.

Dziesiątki modeli sztucznej inteligencji Aware, stworzonych do odczytywania tekstu i przetwarzania obrazów, mogą również identyfikować znęcanie się, molestowanie, dyskryminację, nieprzestrzeganie zasad, pornografię, nagość i inne zachowania.

Chevron, Delta, Starbucks, T-Mobile i Walmart to tylko niektóre z firm, o których mówi się, iż korzystają z tych systemów. Firma Aware twierdzi, iż przeanalizowała ponad 20 miliardów interakcji pomiędzy ponad trzema milionami pracowników.

Chociaż usługi te opierają się na narzędziach monitorowania innych niż sztuczna inteligencja, używanych od lat, niektórzy obawiają się, iż przeniosły się na terytorium Orwella.

Jutta Williams, współzałożycielka organizacji non-profit Humane Intelligence odpowiedzialnej za sztuczną inteligencję, stwierdziła, iż ​​sztuczna inteligencja dodaje nowy i potencjalnie problematyczny element do tak zwanych programów ryzyka wewnętrznego, które istnieją od lat i służą do oceny takich kwestii, jak szpiegostwo korporacyjne, szczególnie w komunikacji e-mailowej.

Mówiąc ogólnie o sztucznej inteligencji do nadzoru pracowników, a nie konkretnie o technologii Aware, Williams powiedział CNBC: „Wiele z tego staje się myśloprzestępczością”. Dodała: „To jest traktowanie ludzi jak zapasów w sposób, jakiego nie widziałam” […]

Amba Kak, dyrektor wykonawcza Instytutu AI Now na Uniwersytecie Nowojorskim, obawia się wykorzystania sztucznej inteligencji do określania, które zachowania są uważane za ryzykowne.

„Wywołuje to efekt mrożący w stosunku do tego, co ludzie mówią w miejscu pracy” – stwierdziła Kak, dodając, iż Federalna Komisja Handlu, Departament Sprawiedliwości i Komisja ds. Równych Szans w Zatrudnieniu wyraziły obawy w tej sprawie, chociaż nie mówiła konkretnie o Technologia Aware. „Są to w równym stopniu kwestie praw pracowniczych, jak i inne Prywatność kwestie.”

Dodatkowym problemem jest to, iż choćby dane zagregowane można łatwo zdeanonimizować, jeżeli zostaną zgłoszone na poziomie szczegółowym, „takim jak wiek pracownika, lokalizacja, dział, staż pracy lub funkcja zawodowa”.

zdjęcie zrobione przez Andresa Siimona NA Usuń rozpryski

FTC: Korzystamy z automatycznych linków partnerskich generujących dochód. Więcej.



Source link

Idź do oryginalnego materiału