Kluczowe dania na wynos
- Oprogramowanie YouTube do automatycznego ograniczania wieku jest powodem do niepokoju w przypadku treści LGBTQ+ na platformie.
- Firma została naruszona przez kontrowersje dotyczące twórców treści LGBTQ+, które umacniają wątpliwości.
- Uprzedzenia w uczeniu maszynowym uwiarygodniają ideę, że niedoskonała implementacja filtrów prawdopodobnie niesłusznie ograniczy dostęp.
Dzięki historii nieuczciwego atakowania twórców treści LGBTQ+ w procesie moderacji, nowa technologia YouTube oparta na sztucznej inteligencji jest postrzegana jako niepokojący kolejny krok dla giganta technologicznego.
Na oficjalnym blogu YouTube w zeszłym tygodniu platforma do udostępniania wideo ujawniła plany wydania nowego automatycznego oprogramowania do „bardziej konsekwentnego stosowania ograniczeń wiekowych” w filmach uznanych za nieodpowiednie dla młodszych widzów.
Zmotywowany ostatnimi obawami dotyczącymi dzieci korzystających z aplikacji, nowy system opiera się na oprogramowaniu sztucznej inteligencji do uczenia maszynowego z możliwością rezygnacji z ludzkich moderatorów na rzecz bardziej automatycznego procesu. Problem? Zautomatyzowane systemy YouTube zostały oskarżone o wyróżnianie treści LGBTQ+ i twórców tylko za to, że istnieją.
Nawet jeśli nie jest to złośliwe, co nie wydaje mi się, że jest, jest to brak wkładu różnych głosów – a przynajmniej brak szacunku.
„Uczenie maszynowe jest informowane i tworzone przez ludzi, i możliwe jest, że te uprzedzenia są w nim nieodłączne lub są wyuczone przez samą maszynę” – powiedział YouTuber Rowan Ellis w wywiadzie telefonicznym dla Lifewire. „Jego stronniczość w odniesieniu do treści [LGBTQ+] była widoczna w poprzednich doświadczeniach YouTuberów [LGBTQ+] i nie widziałem dowodów na to, że zrobiono cokolwiek, aby temu zapobiec.„
Kochanie, teraz mamy złą krew
Ellis jest YouTuberką, która tworzy treści edukacyjne z zacięciem feministycznym i queerowym, a w 2017 roku opublikowała film o trybie ograniczonym firmy. Jako wstępny krok w kierunku automatycznej moderacji treści, ten tryb umożliwiał użytkownikom opcjonalne wstępne przeglądanie „potencjalnie dojrzałych treści” na podstawie sugestii wyszukiwania i rekomendacji.
Zbierając ponad 100 000 wyświetleń, uważa, że podjęto świadome wysiłki, aby zapobiec ograniczeniom na jej kanale ze względu na jej głos sprzeciwu wobec ekscesów nowego kroku YouTube w kierunku moderacji. Inni użytkownicy platformy nie mieli tyle szczęścia i powiadomili o tym YouTube.
Pozew zbiorowy przeciwko YouTube został wniesiony w sierpniu 2019 r. przez grupę ośmiu twórców LGBTQ+, którzy oskarżyli firmę z Doliny Krzemowej o ograniczanie twórców i treści filmów queer i trans. W pozwie zarzuca się, że witryna stosuje „bezprawne praktyki dotyczące regulacji treści, dystrybucji i monetyzacji, które stygmatyzują, ograniczają, blokują, demonetyzują i szkodzą finansowo Powodom LGBT i większej społeczności LGBT.„Wciąż przedziera się przez kalifornijskie sądy.
Uczenie maszynowe jest informowane i tworzone przez ludzi i możliwe jest posiadanie tych uprzedzeń nieodłącznie związanych z nim lub wyuczenie się przez samą maszynę.
W czerwcu tego samego roku platforma zwróciła na siebie uwagę mediów po odmowie szybkiej reprymendy popularnego konserwatywnego komentatora Stevena Crowdera za trwającą miesiące, homofobiczną kampanię nękania dziennikarza Vox i gospodarza Carlosa Mazy. To ugruntowało to, co powiedział Ellis, co jest wzorcem ignorowania przez platformę internetową wyjątkowych wyzwań, przed którymi stoją twórcy queer. Brak wiary twórców LGBTQ+ w zdolność YouTube do pokazywania się im nie jest pozbawiony zalet.
„Nie sądzę, aby zrozumieli potrzebę przejrzystości w kwestiach społecznych i zapewnienia równości” – powiedziała. „Nadal są dzieci na całym świecie, które dorastały w przekonaniu, że bycie gejem jest złe, a kiedy zaczynają kwestionować to przekonanie, ale odkrywają, że zostało ono zamknięte przez bezpieczne poszukiwanie lub ograniczenie, wzmocni to ideę, że jest jest zła, niestosowna, dorosła, perwersyjna i brudna.„
Błąd automatycznego uczenia
Dzięki swojej obskurnej historii związanej z twórcami treści LGBTQ+ na swojej platformie, wciąż pojawiają się obawy związane z implementacją zdolności oprogramowania do uczenia maszynowego do rozróżniania większych norm. Don Heider, dyrektor wykonawczy w Markkula Center for Applied Ethics, sugeruje, że ryzyko szaleństwa jest zbyt dużym ryzykiem, aby grać.
„Trudno uwierzyć, że sztuczna inteligencja może skutecznie zarządzać treściami z wielu krajów o różnych normach i standardach kulturowych” – napisał w e-mailowym wywiadzie. „Sztuczna inteligencja zbyt często jest postrzegana jako odpowiedź na złożone pytania. W tym momencie sztuczna inteligencja i sposób jej tworzenia zmagają się z nawet prostymi zadaniami, nie mówiąc już o moderowaniu treści o dowolnym poziomie złożoności”.
YouTube zdecydował się na wykorzystanie technologii AI ze względu na brak konsekwentnej moderacji przez moderatorów, jak podaje jego blog. Zwiększenie wykorzystania skomputeryzowanych filtrów do usuwania filmów uznanych za nieodpowiednie stało się normą, a wdrożenie tych samych procedur w zakresie polityki ograniczania wieku jest postrzegane jako logiczny kolejny krok.
Jako firma starająca się stopniowo ulepszać swoje procesy po długotrwałej krytyce dotyczącej jej relacji z dziećmi-konsumentami, ta decyzja nie jest niespodzianką.
Nie sądzę, żeby zrozumieli potrzebę przejrzystości w kwestiach społecznych i zapewnienia równości.
Dzieci stały się kluczową grupą demograficzną witryny do udostępniania filmów. W sierpniu firma Tubular zajmująca się analizą cyfrowych materiałów wideo odkryła, że poza teledyskami treści skierowane do dzieci znalazły się na szczycie listy najczęściej oglądanych filmów w YouTube na koniec miesiąca.
Zainteresowanie firmy ochroną tej lukratywnej, wschodzącej potęgi na platformie ma sens. Jednak narzędzia wykorzystywane do egzekwowania tej ochrony pozostają niewygodne dla tych, którzy już znaleźli się w fazie moderacji firmy.
"Obawiam się, że wyrządzi to wiele szkody i nie ochroni młodzieży [LGBTQ+], która potrzebuje pouczających, szczerych i uczciwych treści, które może dostarczyć wielu YouTuberów [LGBTQ+], ale zostanie oznaczona w swoim systemie jako niestosowne – powiedział Ellis.„Nawet jeśli nie jest złośliwy, a nie sądzę, że jest, jest to brak wkładu różnych głosów – lub przynajmniej brak szacunku.
„Widać to przez cały czas w technologii. Kiedy patrzymy na rozpoznawanie twarzy, które nie pozwala na rozróżnienie różnych czarnych twarzy, lub gdy patrzymy na medycynę i widzimy, że lek został przetestowany tylko na określonej płci. to większe rozmowy, a YouTube nie jest od tego zwolniony."