Kluczowe dania na wynos
- Ponieważ robienie deepfake’ów staje się łatwiejsze, nowe i ulepszone sposoby ich wykrywania stały się priorytetem.
- Technologia wykrywania deepfake na Facebooku wykorzystuje odwrotne uczenie maszynowe, aby odkryć, czy film jest deepfake, czy nie.
- Eksperci twierdzą, że użycie technologii blockchain byłoby najlepszym sposobem sprawdzenia, czy film jest prawdziwy, czy nie, ponieważ metoda opiera się na danych kontekstowych.
Facebook jest pewny swojego modelu uczenia maszynowego do zwalczania deepfake, ale eksperci twierdzą, że samo uczenie maszynowe nie uchroni nas przed oszustwami.
Firmy takie jak Facebook, Microsoft i Google pracują nad zwalczaniem deepfake’ów rozprzestrzeniających się w Internecie i sieciach społecznościowych. Chociaż metody są różne, istnieje jedna potencjalna, niezawodna metoda wykrywania tych fałszywych filmów: łańcuchy bloków.
„[Blockchains] po prostu daje Ci duży potencjał do walidacji deepfake w sposób, który jest najlepszą formą walidacji, jaką widzę”, Stephen Wolfram, założyciel i dyrektor generalny Wolfram Research i autor A New Kind of Science, powiedział Lifewire przez telefon.
Technologia Deepfake Spotting na Facebooku
Technologia Deepfake szybko się rozwinęła w ciągu ostatnich kilku lat. Wprowadzające w błąd filmy wykorzystują metody uczenia maszynowego, takie jak nakładanie czyjejś twarzy na ciało innej osoby, zmienianie warunków tła, fałszywa synchronizacja ust i nie tylko. Obejmują one zarówno nieszkodliwe parodie, jak i zmuszanie celebrytów lub osób publicznych do powiedzenia lub zrobienia czegoś, czego nie zrobili.
Eksperci twierdzą, że technologia szybko się rozwija, a deepfake staną się bardziej przekonujące (i łatwiejsze do stworzenia), gdy technologia stanie się szerzej dostępna i bardziej innowacyjna.
Facebook niedawno dał więcej informacji na temat technologii wykrywania deepfake we współpracy z Michigan State University. Sieć społecznościowa twierdzi, że opiera się na inżynierii wstecznej od pojedynczego obrazu wygenerowanego przez sztuczną inteligencję do modelu generatywnego użytego do jego wytworzenia.
Naukowcy, którzy pracowali z Facebookiem, powiedzieli, że metoda polega na odkryciu unikalnych wzorców modelu AI używanego do generowania deepfake.
„Uogólniając atrybucję obrazu na rozpoznawanie otwartego zestawu, możemy wywnioskować więcej informacji o modelu generatywnym używanym do tworzenia deepfake, który wykracza poza rozpoznanie, że nie był wcześniej widziany. Śledząc podobieństwa między wzorcami kolekcji deepfake, możemy również stwierdzić, czy seria obrazów pochodzi z jednego źródła”- napisali naukowcy Xi Yin i Tan Hassner w poście na blogu Facebooka na temat metody wykrywania deepfake.
Wolfram twierdzi, że sensowne jest wykorzystanie uczenia maszynowego do wykrycia zaawansowanego modelu sztucznej inteligencji (deepfake). Jednak zawsze można oszukać technologię.
„Wcale nie jestem zaskoczony, że istnieje przyzwoity sposób uczenia maszynowego [wykrywania deepfake]”, powiedział Wolfram. „Jedyne pytanie brzmi: jeśli włożysz wystarczająco dużo wysiłku, czy możesz to oszukać? Jestem pewien, że możesz.”
Zwalczanie Deepfake w inny sposób
Zamiast tego Wolfram powiedział, że wierzy, że użycie blockchain byłoby najlepszą opcją do dokładnego wykrywania niektórych rodzajów deepfake. Jego opinia na temat wykorzystania blockchain zamiast uczenia maszynowego sięga 2019 r. i powiedział, że ostatecznie podejście blockchain może zapewnić dokładniejsze rozwiązanie naszego problemu z deepfake.
„Spodziewałem się, że widzowie obrazów i wideo mogą rutynowo sprawdzać łańcuchy bloków (i„obliczenia triangulacji danych”), podobnie jak przeglądarki internetowe sprawdzają teraz certyfikaty bezpieczeństwa”, napisał Wolfram w artykule opublikowanym w Scientific American.
Ponieważ łańcuchy bloków przechowują dane w blokach, które są następnie łączone w łańcuch w porządku chronologicznym, a ponieważ zdecentralizowane łańcuchy bloków są niezmienne, wprowadzone dane są nieodwracalne.
Jedyne pytanie brzmi: jeśli włożysz wystarczająco dużo wysiłku, czy możesz to oszukać? Jestem pewien, że możesz.
Wolfram wyjaśnił, że umieszczając film w łańcuchu bloków, będziesz mógł zobaczyć czas, w którym zostało nagrane, lokalizację i inne informacje kontekstowe, które pozwolą Ci stwierdzić, czy zostało w jakikolwiek sposób zmienione.
„Ogólnie rzecz biorąc, im więcej metadanych kontekstualizuje obraz lub wideo, tym większe prawdopodobieństwo, że będziesz w stanie powiedzieć” – powiedział. „Nie możesz udawać czasu na blockchainie.”
Jednak Wolfram powiedział, że zastosowana metoda – czy jest to uczenie maszynowe, czy użycie blockchain – zależy od typu deepfake, przed którym próbujesz się chronić (np. film z Kim Kardashian mówiącym coś głupiego lub film z polityk składający oświadczenie lub sugestię).
„Podejście blockchain chroni przed niektórymi rodzajami głębokich fałszerstw, podobnie jak przetwarzanie obrazu w uczeniu maszynowym chroni przed niektórymi rodzajami głębokich fałszerstw” – powiedział.
Wydaje się, że najważniejsza jest czujność nas wszystkich, jeśli chodzi o walkę z nadchodzącym potopem deepfake.