AI może wreszcie pomóc rozprawić się z mową nienawiści

Spisu treści:

AI może wreszcie pomóc rozprawić się z mową nienawiści
AI może wreszcie pomóc rozprawić się z mową nienawiści
Anonim

Kluczowe dania na wynos

  • Nowe narzędzie programowe umożliwia sztucznej inteligencji monitorowanie komentarzy internetowych pod kątem mowy nienawiści.
  • AI jest potrzebna do moderowania treści internetowych ze względu na ogromną ilość materiałów, które przewyższają ludzkie możliwości.
  • Niektórzy eksperci twierdzą, że monitorowanie mowy przez sztuczną inteligencję budzi obawy dotyczące prywatności.
Image
Image

W miarę nasilania się mowy nienawiści w Internecie, pewna firma twierdzi, że może mieć rozwiązanie, które nie opiera się na ludzkich moderatorach.

Start-up o nazwie Spectrum Labs zapewnia dostawcom platform technologię sztucznej inteligencji w celu wykrywania i zamykania toksycznych wymian w czasie rzeczywistym. Eksperci twierdzą jednak, że monitorowanie AI powoduje również problemy z prywatnością.

„Monitorowanie sztucznej inteligencji często wymaga przyjrzenia się wzorcom w czasie, co wymaga przechowywania danych” – powiedział Lifewire David Moody, starszy współpracownik w Schellman, firmie zajmującej się oceną bezpieczeństwa i zgodności z prywatnością. „Dane te mogą obejmować dane, które zgodnie z prawem zostały oznaczone jako dane dotyczące prywatności (informacje umożliwiające identyfikację osób lub PII).”

Więcej mowy nienawiści

Spectrum Labs obiecuje zaawansowane technologicznie rozwiązanie odwiecznego problemu mowy nienawiści.

„Średnio pomagamy platformom zmniejszyć wysiłki związane z moderacją treści o 50% i zwiększyć wykrywalność toksycznych zachowań o 10x”, twierdzi firma na swojej stronie internetowej.

Spectrum twierdzi, że współpracowało z instytutami badawczymi posiadającymi wiedzę na temat określonych szkodliwych zachowań, aby zbudować ponad 40 modeli identyfikacji zachowań. Firmowa platforma do moderowania treści Guardian została stworzona przez zespół naukowców zajmujących się danymi i moderatorów, aby „wspierać ochronę społeczności przed toksycznością.„

Istnieje rosnące zapotrzebowanie na sposoby zwalczania mowy nienawiści, ponieważ człowiek nie jest w stanie monitorować każdego fragmentu ruchu internetowego, Dylan Fox, dyrektor generalny AssemblyAI, startupu, który zapewnia rozpoznawanie mowy i ma klientów zaangażowanych w monitorowanie nienawiści przemówienie, powiedział Lifewire w wywiadzie e-mailowym.

„Jest około 500 milionów tweetów dziennie na samym Twitterze” – dodał. „Nawet gdyby jedna osoba mogła sprawdzać tweeta co 10 sekund, Twitter musiałby zatrudnić do tego 60 tysięcy osób. Zamiast tego używamy inteligentnych narzędzi, takich jak sztuczna inteligencja, aby zautomatyzować proces”.

W przeciwieństwie do człowieka, sztuczna inteligencja może działać 24 godziny na dobę, 7 dni w tygodniu i być potencjalnie bardziej sprawiedliwa, ponieważ została zaprojektowana tak, aby jednolicie stosować swoje zasady wobec wszystkich użytkowników bez ingerencji osobistych przekonań, powiedział Fox. Istnieje również opłata dla osób, które muszą monitorować i moderować treści.

„Mogą być narażeni na przemoc, nienawiść i nikczemne czyny, które mogą być szkodliwe dla zdrowia psychicznego” – powiedział.

Spectrum nie jest jedyną firmą, która stara się automatycznie wykrywać mowę nienawiści w Internecie. Na przykład firma Center Malaysia uruchomiła niedawno narzędzie do śledzenia online, którego celem jest wykrywanie mowy nienawiści wśród malezyjskich internautów. Opracowane przez nich oprogramowanie o nazwie Tracker Benci wykorzystuje uczenie maszynowe do wykrywania mowy nienawiści w Internecie, zwłaszcza na Twitterze.

Wyzwanie polega na stworzeniu przestrzeni, w których ludzie będą mogli naprawdę konstruktywnie współpracować ze sobą.

Problemy dotyczące prywatności

Chociaż rozwiązania techniczne, takie jak Spectrum, mogą zwalczać mowę nienawiści w Internecie, rodzą również pytania o to, ile działania policyjne powinny wykonywać komputery.

Istnieją implikacje dotyczące wolności słowa, ale nie tylko dla prelegentów, których posty zostałyby usunięte jako mowa nienawiści, Irina Raicu, dyrektor ds. etyki internetowej w Markkula Center for Applied Ethics na Uniwersytecie Santa Clara, powiedziała Lifewire w e-mailu wywiad.

„Pozwolenie na nękanie w imię„wolności słowa” skłoniło osoby docelowe takiej wypowiedzi (zwłaszcza skierowanej do konkretnych osób) do zaprzestania mówienia – do całkowitego porzucenia różnych rozmów i platform” – powiedział Raicu.„Wyzwaniem jest stworzenie przestrzeni, w których ludzie mogą naprawdę konstruktywnie angażować się w siebie.”

Monitorowanie mowy AI nie powinno powodować problemów z prywatnością, jeśli firmy wykorzystują publicznie dostępne informacje podczas monitorowania, powiedział Fox. Jeśli jednak firma kupi szczegóły dotyczące interakcji użytkowników na innych platformach, aby wstępnie zidentyfikować problematycznych użytkowników, może to wzbudzić obawy dotyczące prywatności.

„Zdecydowanie może to być trochę szara strefa, w zależności od aplikacji”, dodał.

Image
Image

Justin Davis, dyrektor generalny Spectrum Labs, powiedział Lifewire w e-mailu, że technologia firmy może przeglądać od 2 do 5 tysięcy wierszy danych w ciągu ułamków sekundy. „Co najważniejsze, technologia może zmniejszyć ilość substancji toksycznych, na które narażeni są moderatorzy człowieka” – powiedział.

Być może jesteśmy u progu rewolucji w monitorowaniu przez sztuczną inteligencję ludzkiej mowy i tekstu w Internecie. Przyszłe postępy obejmują lepsze niezależne i autonomiczne możliwości monitorowania w celu identyfikacji wcześniej nieznanych form mowy nienawiści lub wszelkich innych cenzuralnych wzorców, które będą ewoluować, powiedział Moody.

AI będzie również wkrótce w stanie rozpoznawać wzorce w określonych wzorcach mowy i powiązać źródła oraz ich inne działania poprzez analizę wiadomości, publiczne zgłoszenia, analizę wzorców ruchu, monitorowanie fizyczne i wiele innych opcji, dodał.

Ale niektórzy eksperci twierdzą, że ludzie zawsze będą musieli pracować z komputerami, aby monitorować mowę nienawiści.

„Sama SI nie zadziała” – powiedział Raicu. "Musi być rozpoznawany jako jedno niedoskonałe narzędzie, które musi być używane w połączeniu z innymi odpowiedziami."

Korekta 1/25/2022: Dodano cytat Justina Davisa w 5. akapicie od końca, aby odzwierciedlić e-mail po publikacji.

Zalecana: