Nie ufaj niczemu, co widzisz w sieci, mówią eksperci

Spisu treści:

Nie ufaj niczemu, co widzisz w sieci, mówią eksperci
Nie ufaj niczemu, co widzisz w sieci, mówią eksperci
Anonim

Kluczowe dania na wynos

  • Nowe badania pokazują, że ludzie nie mogą oddzielić obrazów generowanych przez sztuczną inteligencję od prawdziwych.
  • Uczestnicy ocenili obrazy wygenerowane przez sztuczną inteligencję jako bardziej godne zaufania.
  • Eksperci uważają, że ludzie powinni przestać ufać wszystkim, co widzą w Internecie.
Image
Image

Przysłowie „widzieć znaczy wierzyć” nie ma już znaczenia, jeśli chodzi o internet, a eksperci twierdzą, że w najbliższym czasie nie będzie lepiej.

Niedawne badania wykazały, że obrazy twarzy wygenerowane przez sztuczną inteligencję (AI) były nie tylko wysoce fotorealistyczne, ale także wyglądały bardziej cnotliwie niż prawdziwe twarze.

„Nasza ocena fotorealizmu twarzy zsyntetyzowanych przez sztuczną inteligencję wskazuje, że silniki syntezy przeszły przez niesamowitą dolinę i są w stanie tworzyć twarze, które są nie do odróżnienia i bardziej godne zaufania niż prawdziwe twarze” – zauważyli naukowcy.

Ta osoba nie istnieje

Naukowcy, dr Sophie Nightingale z Lancaster University i profesor Hany Farid z University of California w Berkeley, przeprowadzili eksperymenty po rozpoznaniu dobrze nagłośnionych zagrożeń głębokich podróbek, od wszelkiego rodzaju oszustw internetowych po ożywcze kampanie dezinformacyjne.

„Być może najbardziej zgubna jest konsekwencja tego, że w cyfrowym świecie, w którym każdy obraz lub film może zostać sfałszowany, autentyczność każdego niewygodnego lub niepożądanego nagrania może zostać zakwestionowana” – stwierdzili badacze.

Argumentowali, że chociaż poczyniono postępy w opracowywaniu automatycznych technik wykrywania treści typu deep-fake, obecne techniki nie są wystarczająco wydajne i dokładne, aby nadążyć za ciągłym strumieniem nowych treści przesyłanych online. Oznacza to, że to od konsumentów treści online zależy oddzielenie tego, co prawdziwe od fałszywych, sugeruje duet.

Jelle Wieringa, rzecznik świadomości bezpieczeństwa w KnowBe4, zgodził się. Powiedział Lifewire w e-mailu, że zwalczanie samych głębokich podróbek jest niezwykle trudne bez specjalistycznej technologii. „[Technologie łagodzące] mogą być drogie i trudne do wdrożenia w procesach czasu rzeczywistego, często wykrywając deepfake dopiero po fakcie.”

Przy tym założeniu naukowcy przeprowadzili serię eksperymentów, aby ustalić, czy ludzie potrafią odróżnić najnowocześniejsze zsyntetyzowane twarze od prawdziwych twarzy. W swoich testach odkryli, że pomimo treningu pomagającego w rozpoznawaniu podróbek, wskaźnik dokładności poprawił się tylko do 59%, w porównaniu z 48% bez szkolenia.

To skłoniło naukowców do sprawdzenia, czy postrzeganie wiarygodności może pomóc ludziom zidentyfikować sztuczne obrazy. W trzecim badaniu poprosili uczestników o ocenę wiarygodności twarzy, tylko po to, by odkryć, że średnia ocena twarzy syntetycznych wyniosła 7.7% bardziej godne zaufania niż średnia ocena prawdziwych twarzy. Ta liczba może nie brzmieć zbyt dużo, ale naukowcy twierdzą, że jest statystycznie istotna.

Głębsze podróbki

Głębokie podróbki były już poważnym problemem, a teraz badania zostały jeszcze bardziej zagmatwane, co sugeruje, że tak wysokiej jakości fałszywe obrazy mogą nadać zupełnie nowy wymiar oszustwom internetowym, na przykład pomagając tworzyć więcej przekonujące fałszywe profile online.

„Jedyną rzeczą, która napędza cyberbezpieczeństwo, jest zaufanie, jakie ludzie mają do technologii, procesów i ludzi, którzy starają się zapewnić im bezpieczeństwo”, powiedział Wieringa. „Głębokie podróbki, zwłaszcza gdy stają się fotorealistyczne, podważają to zaufanie, a tym samym przyjęcie i akceptację cyberbezpieczeństwa. Może to prowadzić do tego, że ludzie będą nieufni wobec wszystkiego, co postrzegają”.

Image
Image

Chris Hauk, obrońca prywatności konsumentów w Pixel Privacy, zgodził się. W krótkiej wymianie e-maili powiedział Lifewire, że fotorealistyczna, głęboka fałszywa może spowodować „zamęt” w Internecie, zwłaszcza w dzisiejszych czasach, gdy dostęp do wszystkich rodzajów kont można uzyskać za pomocą technologii identyfikacji fotograficznej.

Działanie naprawcze

Na szczęście Greg Kuhn, dyrektor IoT, Prosegur Security, mówi, że istnieją procesy, które pozwalają uniknąć takiego oszukańczego uwierzytelniania. Powiedział Lifewire w wiadomości e-mail, że systemy uwierzytelniania oparte na sztucznej inteligencji dopasowują zweryfikowaną osobę do listy, ale wiele z nich ma wbudowane zabezpieczenia sprawdzające „żywotność”.

"Tego typu systemy mogą wymagać i poprowadzić użytkownika do wykonania pewnych zadań, takich jak uśmiechanie się lub obracanie głowy w lewo, a potem w prawo. To są rzeczy, których nie mogą wykonać statycznie generowane twarze ", udostępnił Kuhn.

Naukowcy zaproponowali wytyczne regulujące ich tworzenie i dystrybucję w celu ochrony społeczeństwa przed obrazami syntetycznymi. Na początek sugerują włączenie głęboko zakorzenionych znaków wodnych do samych sieci syntezy obrazów i wideo, aby zapewnić niezawodną identyfikację wszystkich syntetycznych nośników.

Do tego czasu Paul Bischoff, rzecznik ochrony prywatności i redaktor działu badań nad bezpieczeństwem informacji w Comparitech, mówi, że ludzie są zdani na siebie.„Ludzie będą musieli nauczyć się nie ufać twarzom online, tak jak wszyscy (miejmy nadzieję) nauczyliśmy się nie ufać wyświetlanym nazwom w naszych e-mailach” – powiedział Bischoff Lifewire w e-mailu.

Zalecana: