Uprzedzenie rasowe algorytmu Twittera wskazuje na większy problem techniczny

Spisu treści:

Uprzedzenie rasowe algorytmu Twittera wskazuje na większy problem techniczny
Uprzedzenie rasowe algorytmu Twittera wskazuje na większy problem techniczny
Anonim

Kluczowe dania na wynos

  • Twitter ma nadzieję naprawić to, co użytkownicy nazywają uprzedzeniami rasowymi w swoim oprogramowaniu do podglądu obrazów.
  • Wołaniem giganta technologicznego może być kulturowe przekonanie, że branża musi zająć się kwestiami różnorodności.
  • Brak różnorodności w technologii obniża skuteczność jej postępów technologicznych.
Image
Image

Twitter ma zamiar rozpocząć śledztwo w sprawie swojego algorytmu przycinania zdjęć po tym, jak stał się on popularnym tematem, który wywołał większą dyskusję na temat różnorodności w branży technologicznej.

Towarzystka mediów społecznościowych trafiła na pierwsze strony gazet po tym, jak użytkownicy odkryli widoczne uprzedzenia rasowe w jego algorytmie podglądu obrazów. Odkrycie nastąpiło po tym, jak użytkownik Twittera, Colin Madland, użył platformy, by ogłosić, że Zoom nie rozpoznał swoich czarnych kolegów, którzy korzystali z technologii zielonego ekranu, ale w wielkim pokazie ironii odkrył, że algorytm przycinania obrazu Twittera zachowywał się podobnie i degradował czarne twarze.

Oczywiście jest to ogromny problem dla każdej mniejszości, ale myślę, że jest też znacznie szerszy problem.

Inni użytkownicy włączyli się w ten trend, wywołując serię wirusowych tweetów pokazujących, że algorytm konsekwentnie priorytetowo traktuje twarze białe i jaśniejsze, od ludzi po postacie z kreskówek, a nawet psy. Ta porażka wskazuje na większy ruch kulturowy w branży technologicznej, który konsekwentnie nie uwzględniał grup mniejszościowych, co przeniosło się na stronę techniczną.

„To sprawia, że mniejszości czują się okropnie, jakby nie były ważne, i można to wykorzystać do innych rzeczy, które mogą spowodować poważniejsze szkody w dalszej kolejności”, Erik Learned-Miller, profesor informatyki na Uniwersytecie z Massachusetts, powiedział w wywiadzie telefonicznym.„Gdy już zdecydujesz, do czego można wykorzystać oprogramowanie i jakie szkody mogą wystąpić, zaczynamy rozmawiać o sposobach zminimalizowania szansy na to.”

Canary na osi czasu

Twitter wykorzystuje sieci neuronowe do automatycznego przycinania obrazów osadzonych w tweetach. Algorytm ma wykrywać twarze do podglądu, ale wydaje się, że ma zauważalne białe odchylenie. Rzeczniczka firmy Liz Kelley napisała na Twitterze odpowiedź na wszystkie obawy.

Kelley napisał na Twitterze: „dziękujemy wszystkim, którzy to podnieśli. Przed wysyłką modelu przetestowaliśmy stronniczość i nie znaleźliśmy dowodów na uprzedzenia rasowe lub płciowe w naszych testach, ale jasne jest, że mamy więcej analiz do tak. otworzymy źródło naszej pracy, aby inni mogli przeglądać i powielać."

Współautor białej księgi „Technologie rozpoznawania twarzy na wolności: wezwanie do urzędu federalnego”, Learned-Miller jest czołowym badaczem nad ekscesami oprogramowania do uczenia sztucznej inteligencji opartej na twarzach. Od lat omawia potencjalny negatywny wpływ oprogramowania do uczenia obrazowego i mówił o znaczeniu tworzenia rzeczywistości, w której te uprzedzenia są łagodzone najlepiej, jak potrafią.

Wiele algorytmów technologii rozpoznawania twarzy korzysta z zestawów referencyjnych danych, często nazywanych zestawami szkoleniowymi, które są zbiorem obrazów używanych do dostrajania zachowania oprogramowania do uczenia obrazowego. Ostatecznie pozwala sztucznej inteligencji na łatwe rozpoznanie szerokiej gamy twarzy. Jednak w tych zestawach referencyjnych może brakować zróżnicowanej puli, co prowadzi do problemów takich jak te, których doświadcza zespół Twittera.

„Oczywiście jest to ogromny problem dla każdej mniejszości, ale myślę, że jest to również znacznie szerszy problem” – powiedział Learned-Miller. „Odnosi się to do braku różnorodności w sektorze technologii i potrzeby scentralizowanej, regulacyjnej siły, aby pokazać właściwe wykorzystanie tego rodzaju potężnego oprogramowania, które jest podatne na niewłaściwe użycie i nadużycia”.

Technologia bez różnorodności

Twitter może być najnowszą firmą technologiczną w bloku do krojenia, ale nie jest to nowy problem. Dziedzina technologii pozostaje głównie białą, wiecznie zdominowaną przez mężczyzn, a naukowcy odkryli, że brak różnorodności powoduje replikację systemowych, historycznych nierównowag w opracowanym oprogramowaniu.

W raporcie z 2019 r. opracowanym przez Instytut AI Now z New York University naukowcy odkryli, że osoby czarnoskóre stanowią mniej niż 6 procent siły roboczej w czołowych firmach technologicznych w kraju. Podobnie kobiety stanowią tylko 26 procent pracowników w tej dziedzinie – statystyka niższa niż ich udział w 1960 roku.

To sprawia, że mniejszości czują się okropnie, jakby nie były ważne, i można to wykorzystać do innych rzeczy, które mogą spowodować poważniejsze szkody.

Pozornie te kwestie związane z reprezentacją mogą wydawać się przyziemne, ale w praktyce wyrządzone szkody mogą być poważne. Naukowcy z raportu AI Now Institute sugerują, że ma to związek przyczynowy z problemami z oprogramowaniem, które często nie uwzględnia populacji innych niż białe i niemęskie. Niezależnie od tego, czy chodzi o dozowniki mydła na podczerwień, które nie wykrywają ciemniejszej skóry, czy też oprogramowanie Amazon AI nie potrafi odróżnić twarzy kobiet od twarzy ich męskich odpowiedników, brak uwzględnienia różnorodności w branży technologicznej prowadzi do niepowodzenia technologii w radzeniu sobie ze zróżnicowanym światem.

„Istnieje wiele osób, które nie przemyślały problemów i tak naprawdę nie zdają sobie sprawy, w jaki sposób te rzeczy mogą powodować szkody i jak znaczące są te szkody”, zasugerował Learned-Miller o uczeniu się obrazów AI. „Mam nadzieję, że ta liczba ludzi się kurczy!”

Zalecana: