Jak błąd algorytmiczny może zranić nastolatków

Spisu treści:

Jak błąd algorytmiczny może zranić nastolatków
Jak błąd algorytmiczny może zranić nastolatków
Anonim

Kluczowe dania na wynos

  • Jak twierdzą eksperci, błąd algorytmiczny jest szkodliwy dla nastolatków, którzy spędzają dużo czasu w Internecie.
  • Użytkownicy Twittera napotkali ostatnio problem polegający na tym, że czarne twarze były wybierane na rzecz białych.
  • Rozwijające się mózgi nastolatków mogą być szczególnie podatne na szkodliwe skutki błędu algorytmicznego, twierdzą naukowcy.
Image
Image

Uprzedzenia zakorzenione w niektórych technologiach, znane jako stronniczość algorytmiczna, mogą być szkodliwe dla wielu grup, ale eksperci twierdzą, że są szczególnie szkodliwe dla nastolatków.

Narastający problem stanowi błąd algorytmiczny, gdy systemy komputerowe wykazują niekorzystne wyniki. Użytkownicy Twittera znaleźli niedawno przykład stronniczości na platformie, gdy algorytm wykrywania obrazów, który przycina zdjęcia, wycinał czarne twarze na rzecz białych. Firma przeprosiła za problem, ale nie wydała jeszcze poprawki. Eksperci twierdzą, że to przykład uprzedzeń, z jakimi spotykają się nastolatkowie, gdy korzystają z Internetu, a robią to bardziej niż jakakolwiek inna grupa wiekowa.

„Większość nastolatków nie zdaje sobie sprawy, że firmy zajmujące się mediami społecznościowymi mają je w celu promowania określonych treści, które ich zdaniem spodobają się użytkownikom, [aby] skłonić ich do pozostania na platformie tak długo, jak to możliwe”, dr Mai- Ly Nguyen Steers, adiunkt w School of Nursing na Duquesne University, która bada korzystanie z mediów społecznościowych wśród nastolatków/studentów, powiedziała w wywiadzie e-mailowym.

„Nawet jeśli istnieje pewien poziom świadomości na temat algorytmu, efekt braku wystarczającej liczby polubień i komentarzy jest nadal potężny i może wpływać na samoocenę nastolatków” – dodał Steers.

Rozwój mózgu

Uprzedzenie algorytmiczne może wpływać na nastolatków w nieprzewidziany sposób, ponieważ ich kora przedczołowa wciąż się rozwija, wyjaśnia Mikaela Pisani, główny specjalista ds. danych w Rootstrap, w wywiadzie e-mailowym.

Efekt braku wystarczającej liczby polubień i komentarzy jest nadal silny i może wpływać na samoocenę nastolatków.

„Nastolatkowie są szczególnie podatni na zjawisko „fabryki społecznej”, w której algorytmy tworzą klastry społeczne na platformach internetowych, co prowadzi do lęku i depresji, jeśli potrzeby nastolatków w zakresie aprobaty społecznej nie są zaspokojone” – powiedział Pisani. „Algorytmy upraszczają w oparciu o wcześniejsze niedoskonałe dane, co prowadzi do nadreprezentacji stereotypów kosztem bardziej zniuansowanych podejść do formowania tożsamości.

"Biorąc szerszy punkt widzenia, jako społeczeństwo pozostajemy również do zakwestionowania, czy chcemy algorytmów kształtujących podróże naszych nastolatków w dorosłość i czy ten system w ogóle wspiera, a nie hamuje indywidualny rozwój osobisty?"

Z powodu tych problemów rośnie potrzeba uwzględniania nastolatków podczas projektowania algorytmów, twierdzą eksperci.

„Na podstawie informacji uzyskanych od specjalistów ds. rozwoju, naukowców zajmujących się danymi i orędowników młodzieży, zasady XXI wieku dotyczące prywatności danych i projektowania algorytmicznego mogą być również tworzone z myślą o szczególnych potrzebach nastolatków”, Avriel Epps-Darling, doktorant student na Harvardzie, napisał niedawno. „Jeśli zamiast tego będziemy nadal bagatelizować lub ignorować sposoby, w jakie nastolatki są podatne na rasizm algorytmiczny, szkody prawdopodobnie będą odbijać się echem przez kolejne pokolenia”.

Zwalczanie uprzedzeń

Dopóki nie będzie rozwiązania, niektórzy badacze próbują znaleźć sposoby na zmniejszenie szkód wyrządzanych młodym ludziom przez stronnicze algorytmy.

„Interwencje koncentrowały się na uświadomieniu nastolatków, że ich wzorce w mediach społecznościowych mają negatywny wpływ na ich zdrowie psychiczne i próbują wymyślić strategie, aby to złagodzić (np. ograniczenie korzystania z mediów społecznościowych)” – powiedział Steers.

„Niektórzy studenci, z którymi rozmawialiśmy, stwierdzili, że czują się zmuszeni do tworzenia treści, aby pozostać „odpowiednimi”, nawet jeśli nie chcą wychodzić ani publikować” – kontynuowała. „Jednak czują, że muszą generować treści, aby utrzymać kontakty z obserwującymi lub znajomymi”.

Ostateczną odpowiedzią może być usunięcie ludzkich uprzedzeń z komputerów. Ale ponieważ programiści to tylko ludzie, jest to trudne wyzwanie, mówią eksperci.

Jednym z możliwych rozwiązań jest opracowanie komputerów, które są zdecentralizowane i zaprogramowane tak, aby zapomnieć o rzeczach, których się nauczyli, mówi John Suit, dyrektor ds. technologii w firmie KODA zajmującej się robotyką.

„Dzięki zdecentralizowanej sieci dane i ich analiza są kompilowane i analizowane z wielu punktów”, powiedział Suit w wywiadzie e-mailowym. „Dane są gromadzone i przetwarzane nie z pojedynczego przetwarzania umysłu AI w granicach jego algorytmu, ale setki, a nawet tysiące.

"Gdy te dane są gromadzone i analizowane, stare "wnioski" lub zbędne dane są zapominane. Dzięki temu systemowi algorytm, który mógł zacząć od błędu, w końcu poprawi i zastąpi ten błąd, jeśli okaże się błędny. „

Podczas gdy uprzedzenia mogą być odwiecznym problemem, mogą istnieć sposoby na jego zwalczenie, przynajmniej w Internecie. Projektowanie komputerów, które pozbywają się naszych uprzedzeń, to pierwszy krok.

Zalecana: