AI może być kluczem do zapobiegania rozprzestrzenianiu się fałszywych wiadomości

Spisu treści:

AI może być kluczem do zapobiegania rozprzestrzenianiu się fałszywych wiadomości
AI może być kluczem do zapobiegania rozprzestrzenianiu się fałszywych wiadomości
Anonim

Kluczowe dania na wynos

  • Naukowcy opracowali system AI przeznaczony do wykrywania i oznaczania fałszywych wiadomości.
  • Model przeszukuje publiczny zbiór fałszywych wiadomości, ostrzega użytkowników i przekierowuje ich do zweryfikowanych źródeł informacji.
  • Istnieje coraz więcej metod AI do przeciwdziałania fałszywym wiadomościom w Internecie.

Image
Image

Sztuczna inteligencja (AI) pomaga ograniczyć szybkie rozprzestrzenianie się dezinformacji w Internecie, twierdzą eksperci.

Naukowcy opracowali system AI przeznaczony do wykrywania i oznaczania fałszywych wiadomości. Model przeszukuje publiczny zbiór fałszywych wiadomości, ostrzega użytkowników i przekierowuje ich do zweryfikowanych źródeł informacji. Jest to część rosnącej liczby metod AI do przeciwdziałania fałszywym wiadomościom.

„Ilość informacji przepływających przez Internet, zwłaszcza w sieciach społecznościowych, jest ogromna i nie może być obsługiwana ręcznie, zwłaszcza z dużą dokładnością”, Wael AbdAlmageed, profesor inżynierii komputerowej na Uniwersytecie Południowej Kalifornii, który opracował Algorytmy sztucznej inteligencji do wykrywania dezinformacji wizualnej, powiedział Lifewire w rozmowie e-mailowej.

„Ważne jest monitorowanie i oznaczanie dezinformacji w czasie rzeczywistym, ponieważ gdy dezinformacja zacznie się rozprzestrzeniać, trudno jest przekonać ludzi, że informacje są fałszywe, zwłaszcza gdy dezinformacja potwierdza nasze uprzedzenia” – dodał.

Utrzymanie tego, co prawdziwe

Technika AI opracowana przez zespół z australijskiego Uniwersytetu Macquarie może pomóc w ograniczeniu rozpowszechniania fałszywych wiadomości. Model można włączyć do aplikacji lub oprogramowania internetowego i oferuje łącza do odpowiednich „prawdziwych” informacji, które są zgodne z zainteresowaniami każdego użytkownika.

„Kiedy czytasz lub oglądasz wiadomości w Internecie, często sugeruje się wiadomości dotyczące podobnych wydarzeń lub tematów przy użyciu modelu rekomendacji”, powiedział Shoujin Wang, analityk danych z Uniwersytetu Macquarie, który pracował nad badaniem. informacja prasowa.

Wang mówi, że dokładne wiadomości i fałszywe wiadomości dotyczące tego samego wydarzenia często wykorzystują różne style treści, myląc modele komputerowe i traktując je jako wiadomości dotyczące różnych wydarzeń.

Model Uniwersytetu Macquarie „rozplątuje” informacje o każdej wiadomości na dwie części: znaki wskazujące, czy wiadomość jest fałszywa, oraz informacje dotyczące konkretnego wydarzenia, pokazujące temat lub wydarzenie, którego dotyczy artykuł. Następnie model szuka wzorców w sposobie, w jaki użytkownicy przemieszczają się między różnymi wiadomościami, aby przewidzieć, które wydarzenie wiadomości użytkownik może być zainteresowany przeczytaniem w następnej kolejności.

Zespół badawczy wyszkolił model na publicznym zbiorze fałszywych wiadomości publikowanych na GitHubie, zwanym FakeNewsNet, który przechowuje fałszywe wiadomości z PolitiFact i GossipCop wraz z takimi danymi, jak treść wiadomości, kontekst społecznościowy i historie czytania użytkowników.

Rozwój fałszywych wiadomości

Fałszywe wiadomości to rosnący problem, sugerują badania. NewsGuard odkrył, że znaczna część wzrostu w mediach społecznościowych pochodzi z niewiarygodnych stron internetowych. W 2020 r. 17 procent zaangażowania wśród 100 najlepszych źródeł wiadomości pochodziło z witryn ocenianych na czerwono (ogólnie niewiarygodnych), w porównaniu z około 8 procentami w 2019 r.

Subramaniam Vincent, dyrektor ds. dziennikarstwa i etyki mediów w Markkula Center for Applied Ethics na Uniwersytecie Santa Clara, powiedział Lifewire w wywiadzie e-mailowym, że sztuczna inteligencja może pomóc w zwalczaniu dezinformacji.

Technologia ta może być wykorzystywana do „monitorowania zachowania konta w celu zorganizowanego udostępniania skorelowanego z mową nienawiści lub już obalonymi twierdzeniami lub przez weryfikujących fakty lub znane propagandowe podmioty państwowe lub rodzące się grupy z szybkim wzrostem liczby członków” – wyjaśnił Vincent. „Sztuczna inteligencja może być również używana wraz z projektowaniem do oznaczania treści określonych typów w celu zwiększenia tarcia przed ich udostępnieniem”.

Image
Image

AbdAlmageed powiedział, że sieci społecznościowe muszą zintegrować algorytmy wykrywania fałszywych wiadomości w ramach algorytmów rekomendacji. Celem, jak powiedział, jest „oznaczanie fałszywych wiadomości jako fałszywych lub nieprawdziwych, jeśli nie chcą całkowicie uniemożliwić udostępniania fałszywych wiadomości”.

To powiedziawszy, chociaż sztuczna inteligencja może być przydatna do przeciwdziałania fałszywym wiadomościom, podejście to ma swoje wady, powiedział Vincent. Problem polega na tym, że systemy sztucznej inteligencji nie potrafią zrozumieć znaczenia ludzkiej mowy i pisma, więc zawsze będą w tyle.

„Im dokładniejsza sztuczna inteligencja może uzyskać niektóre formy jawnej mowy nienawiści i dezinformacji, tym bardziej kultura ludzka przejdzie do nowszego kodu i podziemnego przekazywania znaczeń w celu uporządkowania” – powiedział Vincent.

Wasim Khaled, dyrektor generalny firmy Blackbird. AI zajmującej się monitorowaniem dezinformacji, powiedział w e-mailu do Lifewire, że dezinformacja w Internecie jest ewoluującym zagrożeniem. Nowe systemy AI muszą być w stanie przewidzieć, gdzie w następnej kolejności pojawią się fałszywe wiadomości.

„W większości przypadków nie można zbudować produktu AI i nazwać go gotowym” – powiedział Khaled. „Wzory behawioralne zmieniają się w czasie i ważne jest, aby Twoje modele AI nadążały za tymi zmianami.”

Zalecana: