Dlaczego Facebook potrzebuje jaśniejszych zasad dezinformacji

Spisu treści:

Dlaczego Facebook potrzebuje jaśniejszych zasad dezinformacji
Dlaczego Facebook potrzebuje jaśniejszych zasad dezinformacji
Anonim

Kluczowe dania na wynos

  • Rada nadzorcza Facebooka poprosiła o jaśniejsze zasady dotyczące dezinformacji na stronie mediów społecznościowych.
  • Tablica obecnie unieważniła wiele decyzji podjętych przez Facebooka, aby usunąć posty, które uważała za dezinformację lub mowę nienawiści, ale w rzeczywistości nimi nie były.
  • Potrzebna jest potrzeba jaśniejszych definicji tego, co jest, a co nie jest dezinformacją lub mową nienawiści, szczególnie w przypadku międzynarodowego zasięgu Facebooka.
Image
Image

Rada nadzorcza Facebooka, która została ustanowiona w celu dalszego nadzorowania usuwania i moderowania postów na stronie, unieważniła niektóre wcześniejsze decyzje dotyczące postów, które zostały usunięte, podkreślając potrzebę jaśniejszych definicji i zasad.

Rada nadzorcza zajęła się swoimi pierwszymi pięcioma sprawami w grudniu 2020 r. Chociaż jeden z postów uwzględnionych w przeglądzie pochodził z USA, w sumie posty pochodziły z czterech różnych kontynentów, z których wszystkie mogły przeglądać oświadczenia złożone w zupełnie inne sposoby. Z tego powodu zasady, które wprowadza Facebook, muszą być zwięzłe i muszą współpracować z dowolną społecznością, na której mogą się koncentrować narzędzia moderacji.

„Działalność „niezależnego przeglądu” Facebooka musi być spójna ponad granicami międzynarodowymi”, napisał do nas Jim Isaak, były przewodniczący Instytutu Inżynierów Elektryków i Elektroników i 30-letni weteran branży technologicznej. e-mail. „Ale to, co jest »mową nienawiści« w Stanach Zjednoczonych, można określić jako patriotyczne w innych autokratycznych społeczeństwach, co zwiększa złożoność tego, co się robi”.

Linie na piasku

Ta potrzeba spójności i bardziej zwięzłych zasad już wchodzi w grę. Spośród pięciu spraw, które rada nadzorcza Facebooka podjęła w grudniu, grupa zdecydowała się unieważnić cztery sprawy, z których dwa wyraźnie wskazują na potrzebę lepszego moderowania.

W jednym z odrzuconych przypadków komisja orzekła na korzyść kobiety, której post na Instagramie o raku piersi został automatycznie usunięty ze strony za złamanie zasad dotyczących nagości dorosłych i aktywności seksualnej.

Podczas gdy Facebook już przywrócił fotografię, na tablicy pojawił się sprzeciw wobec jej usunięcia. Rada zaleciła nawet, aby Facebook ustanowił system odwoławczy, który pozwoli użytkownikom zobaczyć, kiedy post został usunięty, dlaczego został usunięty, a nawet sugerował sposoby rozmowy z człowiekiem w celu znalezienia rozwiązania.

Image
Image

Tabela stwierdziła, że chociaż kobieta udostępniła post z odsłoniętymi i widocznymi sutkami kobiecymi, zdjęcie nie naruszało Wytycznych dla społeczności Instagrama. Standard nagości dorosłych i aktywności seksualnej, który Facebook utrzymuje w swoich standardach społecznościowych, zezwala na nagość, gdy użytkownik stara się podnieść świadomość z powodów medycznych lub innych.

Kolejny post, który został udostępniony z Myanmaru, zawierał sformułowania dotyczące muzułmanów, które zdaniem zarządu mogą być uważane za obraźliwe, ale nie osiągnęły poziomu mowy nienawiści, aby uzasadnić usunięcie lub rozpatrzenie go wbrew zasadom.

W tym momencie sprawy zaczynają się robić szczególnie trudne.

Która droga jest na górze?

„Facebook działa na arenie międzynarodowej”, Isaak powiedział Lifewire w e-mailu. „Każda jurysdykcja ma swoje własne zasady, a Facebook może zostać pociągnięty do odpowiedzialności zgodnie z tymi w innych krajach.”

Facebook musi pamiętać o wszystkich zasadach terytoriów, na których działa, podczas tworzenia nowych zasad. Niejasne zasady sprawiają, że Facebook pozostawia miejsce na błędy, które mogą prowadzić do tego, że rada nadzorcza będzie musiała unieważnić więcej spraw w przyszłości.

Ponieważ rozprzestrzenianie się mowy nienawiści i dezinformacji staje się tak powszechne – zwłaszcza w mediach społecznościowych, takich jak Facebook i Twitter – ważne jest, aby te firmy oferowały jasne wytyczne, które można następnie wykorzystać do moderowania społeczności.

Co to jest „mowa nienawiści” w USA może być zdefiniowana jako patriotyczna w innych autokratycznych społeczeństwach…

Oczywiście zawsze istnieją inne opcje, które pomogą złagodzić tego rodzaju problemy. W rzeczywistości jeden ze spraw, które zarząd pierwotnie miał nadzorować w grudniu, został usunięty z listy po usunięciu posta przez użytkownika.

Moderacja generowana przez użytkowników to coś, co już odnieśliśmy sukces w witrynach takich jak Wikipedia, a ostatnio sam Twitter został wzmocniony, wypuszczając Birdwatch, system moderacji oparty na społeczności, który pomaga powstrzymać rozprzestrzenianie się dezinformacji.

Te metody mają jednak inne problemy, dlatego uzyskanie standardowego punktu odniesienia dla oczekiwań społeczności będzie kluczem do tego, aby Facebook oferował lepszą moderację swoich aplikacji i stron internetowych w przyszłości.

Zalecana: