Kluczowe dania na wynos
- Oprogramowanie wykorzystujące sztuczną inteligencję do profilowania osób budzi obawy dotyczące prywatności.
- Cryfe łączy techniki analizy behawioralnej ze sztuczną inteligencją.
- Chińska firma Alibaba spotkała się ostatnio z krytyką po rzekomym stwierdzeniu, że jej oprogramowanie może wykrywać Ujgurów i inne mniejszości etniczne.
Nowe oprogramowanie oparte na sztucznej inteligencji, które jest przeznaczone dla pracodawców do profilowania swoich pracowników, budzi obawy dotyczące prywatności.
Jedna nowa platforma oprogramowania o nazwie Cryfe łączy techniki analizy behawioralnej ze sztuczną inteligencją. Deweloper twierdzi, że analizując drobne wskazówki, oprogramowanie może ujawnić intencje ludzi podczas wywiadów. Jednak niektórzy obserwatorzy twierdzą, że Cryfe i inne rodzaje oprogramowania, które analizują zachowanie, mogą naruszać prywatność.
„Firmy w coraz większym stopniu polegają na sztucznej inteligencji w profilowaniu” – powiedział ekspert ds. AI Vaclav Vincale w wywiadzie e-mailowym. „Ale nawet ludzie, którzy kodują te algorytmy, a tym bardziej osoba z działu obsługi klienta, z którą kontaktujesz się przez telefon, nie potrafią powiedzieć, dlaczego wydają jakieś zalecenia”.
Więcej niż słowa
Cryfe został opracowany przez szwajcarską firmę, której pracownicy zostali przeszkoleni przez FBI w zakresie technik profilowania. „Cryfe, we wszelkiej komunikacji interpersonalnej, nie tylko słucha słów, ale identyfikuje inne sygnały emitowane przez człowieka, takie jak emocje, mikroekspresje i wszelkie gesty” – powiedziała Caroline Matteucci, założycielka Cryfe, w e-mailowym wywiadzie.
"Podczas rekrutacji, na przykład, pozwala nam to szukać prawdziwej osobowości naszego rozmówcy."
Matteucci powiedział, że prywatność użytkowników jest chroniona, ponieważ firma jasno informuje, jak działa jej oprogramowanie. „Użytkownik, zanim będzie mógł korzystać z platformy, musi zaakceptować ogólne warunki” – powiedziała.
"W tym miejscu określono, że użytkownik w żadnym wypadku nie może przesłać wywiadu do analizy bez uzyskania pisemnej zgody rozmówcy."
Cryfe nie jest jedynym oprogramowaniem opartym na sztucznej inteligencji, które ma analizować ludzkie zachowanie. Jest też Humantic, który twierdzi, że analizuje zachowania konsumentów. Według strony internetowej firmy, „przełomowa technologia firmy Humantic przewiduje zachowanie każdego bez konieczności przeprowadzania testu osobowości”.
Firma twierdzi, że wykorzystuje sztuczną inteligencję do tworzenia profili psychologicznych kandydatów na podstawie słów, których używają w CV, listach motywacyjnych, profilach LinkedIn i innych przesłanych przez nich fragmentach tekstu.
W przeszłości oprogramowanie behawioralne napotykało na wyzwania prawne. W 2019 r. Prawo Bloomberg poinformowało, że Komisja ds. Równych Szans Zatrudnienia (EEOC) zbadała przypadki domniemanej bezprawnej dyskryminacji ze względu na decyzje dotyczące zasobów ludzkich wspomagane algorytmem.
„To wszystko trzeba będzie dopracować, ponieważ przyszłość rekrutacji to sztuczna inteligencja” – powiedział agencji Bloomberg prawnik Bradford Newman.
Niektórzy obserwatorzy mają problem z firmami używającymi oprogramowania do śledzenia zachowań, ponieważ nie jest ono wystarczająco dokładne. W wywiadzie Nigel Duffy, globalny lider sztucznej inteligencji w firmie świadczącej usługi profesjonalne EY, powiedział InformationWeek, że martwi go oprogramowanie, które wykorzystuje quizy w mediach społecznościowych i wpływa na wykrywanie.
„Myślę, że istnieje naprawdę przekonująca literatura na temat możliwości wykrywania afektów, ale rozumiem, że sposób, w jaki jest to często wdrażany, jest raczej naiwny” – powiedział.
"Ludzie wyciągają wnioski, których nauka tak naprawdę nie popiera [takich jak] decydowanie, że ktoś jest potencjalnie dobrym pracownikiem, ponieważ często się uśmiecha lub decydowanie, że ktoś lubi Twoje produkty, ponieważ często się uśmiecha”.
Chińskie firmy podobno profilują mniejszości
Śledzenie behawioralne może mieć również bardziej złowrogie cele, twierdzą niektóre grupy zajmujące się prawami człowieka. W Chinach gigant rynku internetowego Alibaba wywołał ostatnio poruszenie po tym, jak podobno twierdził, że jego oprogramowanie może wykrywać Ujgurów i inne mniejszości etniczne.
The New York Times poinformował, że firma zajmująca się przetwarzaniem w chmurze ma oprogramowanie, które skanuje obrazy i filmy.
Ale nawet ludzie, którzy kodują te algorytmy… nie potrafią powiedzieć, dlaczego wydają jakieś zalecenia.
The Washington Post niedawno poinformował, że Huawei, kolejna chińska firma technologiczna, przetestowała oprogramowanie, które może ostrzegać organy ścigania, gdy kamery monitorujące wykryją twarze Ujgurów.
Aplikacja patentowa Huawei z 2018 r. podobno twierdziła, że „identyfikacja atrybutów pieszych jest bardzo ważna” w technologii rozpoznawania twarzy.„Atrybutami obiektu docelowego mogą być płeć (mężczyzna, kobieta), wiek (np. nastolatki, w średnim wieku, stary) [lub] rasa (Han, Ujgur)” – czytamy w aplikacji.
Rzecznik Huawei powiedział CNN Business, że funkcja identyfikacji pochodzenia etnicznego „nigdy nie powinna być częścią aplikacji”.
Rozwijające się wykorzystanie sztucznej inteligencji do sortowania ogromnych ilości danych musi budzić obawy dotyczące prywatności. Możesz nigdy nie wiedzieć, kto lub co będzie Cię analizować podczas następnej rozmowy kwalifikacyjnej.