Kluczowe dania na wynos
- Zoom podobno powiedział, że użyje sztucznej inteligencji do oceny nastrojów lub poziomu zaangażowania użytkownika.
- Grupy zajmujące się prawami człowieka proszą firmę Zoom o ponowne przemyślenie swojego planu ze względu na obawy dotyczące prywatności i bezpieczeństwa danych.
- Niektóre firmy używają również oprogramowania do wykrywania emocji podczas wywiadów, aby ocenić, czy użytkownik zwraca na to uwagę.
Coraz większe wykorzystanie sztucznej inteligencji (AI) do monitorowania ludzkich emocji budzi obawy o prywatność.
Organizacje zajmujące się prawami człowieka proszą firmę Zoom o spowolnienie planu wprowadzenia sztucznej inteligencji analizującej emocje do oprogramowania do wideokonferencji. Firma podobno powiedziała, że wykorzysta sztuczną inteligencję do oceny nastrojów lub poziomu zaangażowania użytkownika.
„Eksperci przyznają, że analiza emocji nie działa”, napisało konsorcjum organizacji praw człowieka, w tym ACLU, w liście do Zooma. „Mimika twarzy jest często odłączona od emocji pod spodem, a badania wykazały, że nawet ludzie nie są w stanie przez jakiś czas dokładnie odczytać ani zmierzyć emocji innych. Opracowanie tego narzędzia uwiarygodnia pseudonaukę i stawia twoją reputację na szali.”
Zoom nie odpowiedział od razu na prośbę Lifewire o komentarz.
Trzymaj karty swoich emocji
Zgodnie z artykułem w protokole, system monitorowania Zoom o nazwie Q for Sales sprawdza współczynnik czasu rozmów użytkowników, opóźnienie czasu reakcji i częste zmiany mówców, aby śledzić zaangażowanie danej osoby. Zoom wykorzystałby te dane do przypisania wyników od zera do 100, przy czym wyższe wyniki wskazują na większe zaangażowanie lub sentyment.
Grupy zajmujące się prawami człowieka twierdzą, że oprogramowanie może dyskryminować osoby niepełnosprawne lub określone grupy etniczne, zakładając, że do komunikacji wszyscy używają tego samego wyrazu twarzy, wzorców głosu i mowy ciała. Grupy sugerują również, że oprogramowanie może stanowić zagrożenie dla bezpieczeństwa danych.
„Zbieranie głęboko osobistych danych może sprawić, że każdy podmiot, który zastosuje tę technologię, stanie się celem szpiegowania władz rządowych i złośliwych hakerów”, zgodnie z listem.
Julia Stoyanovich, profesor informatyki i inżynierii na Uniwersytecie Nowojorskim, powiedziała Lifewire w wywiadzie e-mailowym, że podchodzi sceptycznie do twierdzeń związanych z wykrywaniem emocji.
„Nie rozumiem, jak taka technologia może działać – ekspresja emocjonalna ludzi jest bardzo indywidualna, bardzo zależna od kultury i bardzo specyficzna dla kontekstu” – powiedział Stoyanovich.„Ale, co może nawet ważniejsze, nie rozumiem, dlaczego mielibyśmy chcieć, aby te narzędzia działały. Innymi słowy, mielibyśmy jeszcze większe kłopoty, gdyby działały dobrze. Ale być może nawet przed zastanowieniem się nad ryzykiem powinniśmy zapytaj, jakie są potencjalne korzyści z takiej technologii?"
Zoom nie jest jedyną firmą, która korzysta z oprogramowania do wykrywania emocji. Theo Wills, starszy dyrektor ds. prywatności w Kuma LLC, firmie zajmującej się doradztwem w zakresie prywatności i bezpieczeństwa, powiedział Lifewire w e-mailu, że oprogramowanie do wykrywania emocji jest używane podczas wywiadów, aby ocenić, czy użytkownik zwraca na to uwagę. Jest również pilotowany w branży transportowej, aby monitorować, czy kierowcy wydają się senni, na platformach wideo, aby ocenić zainteresowanie i dostosować zalecenia, oraz w samouczkach edukacyjnych, aby określić, czy dana metoda nauczania jest atrakcyjna.
Wills twierdził, że kontrowersje wokół oprogramowania do monitorowania emocji są bardziej kwestią etyki danych niż prywatności. Powiedziała, że chodzi o system podejmujący rzeczywiste decyzje oparte na przeczuciach.
Dzięki tej technologii przyjmujesz teraz powód, dla którego mam szczególny wyraz twarzy, ale impuls stojący za wyrazem twarzy jest bardzo zróżnicowany ze względu na takie rzeczy, jak wychowanie społeczne lub kulturowe, zachowania rodzinne, przeszłe doświadczenia lub nerwowość w tej chwili” – dodał Wills. „Opieranie algorytmu na założeniu jest z natury wadliwe i potencjalnie dyskryminujące. Wiele populacji nie jest reprezentowanych w populacji, na której opierają się algorytmy, a odpowiednia reprezentacja musi być priorytetem, zanim zostanie użyta.”
Rozważania praktyczne
Problemy zgłaszane przez oprogramowanie do śledzenia emocji mogą być zarówno praktyczne, jak i teoretyczne. Matt Heisie, współzałożyciel Ferret.ai, aplikacji opartej na sztucznej inteligencji, która zapewnia analizę relacji, powiedział Lifewire w e-mailu, że użytkownicy muszą zapytać, gdzie odbywa się analiza twarzy i jakie dane są przechowywane. Czy badanie odbywa się na nagraniach rozmów, przetwarzanych w chmurze czy na urządzeniu lokalnym?
Ponadto, Heisie zapytała, gdy algorytm się uczy, jakie dane zbiera na temat twarzy lub ruchów osoby, które potencjalnie mogłyby zostać wyplątane z algorytmu i wykorzystane do odtworzenia czyichś danych biometrycznych? Czy firma przechowuje migawki w celu weryfikacji lub walidacji wiedzy algorytmu i czy użytkownik jest powiadamiany o nowych danych pochodnych lub przechowywanych obrazach potencjalnie zbieranych z jego połączeń?
„To są wszystkie problemy, które rozwiązało wiele firm, ale są też firmy, które zostały wstrząśnięte skandalem, gdy okazuje się, że nie zrobiły tego prawidłowo” – powiedział Heisie. „Facebook to najważniejszy przypadek firmy, która wycofała swoją platformę rozpoznawania twarzy z powodu obaw o prywatność użytkowników. Firma macierzysta Meta obecnie pobiera funkcje AR z Instagrama w niektórych jurysdykcjach, takich jak Illinois i Teksas, w związku z przepisami dotyczącymi prywatności dotyczącymi danych biometrycznych”.