Fałszowanie filmów jest łatwe, głębokie pokazy nostalgii

Spisu treści:

Fałszowanie filmów jest łatwe, głębokie pokazy nostalgii
Fałszowanie filmów jest łatwe, głębokie pokazy nostalgii
Anonim

Kluczowe dania na wynos

  • Deep Nostalgia to nowy program, który pozwala animować stare zdjęcia.
  • Technologia pokazuje, jak łatwe jest tworzenie filmów, na których ludzie robią rzeczy, których w rzeczywistości nie robili.
  • Głęboka fałszywa technologia jest już tak wyrafinowana, że trudno powiedzieć, czy film jest prawdziwy, czy wygenerowany komputerowo, mówi jeden z ekspertów.
Image
Image

Uważaj na nowe oprogramowanie, które może tworzyć tak zwane „głębokie podróbki”, w których można symulować filmy prawdziwych ludzi, ostrzegają eksperci.

Deep Nostalgia, wydana przez firmę MyHeritage, zyskuje popularność w mediach społecznościowych, a użytkownicy reanimują wszystkich, od słynnych kompozytorów po zmarłych krewnych. Oprogramowanie rysuje mieszane reakcje, niektórzy ludzie są zachwyceni kreacjami, a inni uważają je za przerażające. Technologia pokazuje, jak łatwo jest tworzyć filmy, na których ludzie robią rzeczy, których w rzeczywistości nie robili w prawdziwym życiu.

„Technologia Deepfake staje się coraz bardziej wyrafinowana i bardziej niebezpieczna” – powiedział w wywiadzie e-mailowym Aaron Lawson, zastępca dyrektora Laboratorium Technologii Mowy i Badań (STAR) SRI International. „Jest to częściowo spowodowane naturą sztucznej inteligencji. Tam, gdzie „tradycyjna” technologia wymaga ludzkiego czasu i energii, aby ulepszyć, sztuczna inteligencja może uczyć się od siebie.

„Ale zdolność AI do samorozwoju jest mieczem obosiecznym” – kontynuował Lawson. „Jeśli sztuczna inteligencja jest stworzona, aby zrobić coś życzliwego, świetnie. Ale kiedy sztuczna inteligencja jest zaprojektowana do czegoś złośliwego, takiego jak głębokie podróbki, niebezpieczeństwo jest bezprecedensowe”.

Oprogramowanie ożywia zdjęcia

Genealogiczna witryna MyHeritage wprowadziła w zeszłym miesiącu silnik animacji. Technologia, znana jako Deep Nostalgia, pozwala użytkownikom animować zdjęcia za pośrednictwem witryny MyHeritage. Firma o nazwie D-ID zaprojektowała algorytmy dla MyHeritage, które cyfrowo odtwarzają ruchy ludzkich twarzy. Oprogramowanie stosuje ruchy do zdjęć i modyfikuje mimikę, aby poruszać się tak, jak zwykle robią to ludzkie twarze, zgodnie z witryną MyHeritage.

Deep Nostalgia pokazuje, że technologia deep-fake staje się coraz bardziej dostępna, powiedział Lior Shamir, profesor informatyki na Kansas State University, w e-mailowym wywiadzie. Postępuje szybko i eliminuje nawet subtelne różnice między fałszywym a rzeczywistym obrazem i dźwiękiem.

„Poczyniono również znaczne postępy w kierunku głębokiego fałszowania w czasie rzeczywistym, co oznacza, że przekonujące głębokie fałszywe filmy są generowane w czasie komunikacji wideo” – powiedział Shamir."Na przykład, można mieć spotkanie Zoom z określoną osobą, widząc i słysząc głos zupełnie innej osoby."

Istnieje również rosnąca liczba głębokich podróbek opartych na języku, powiedział Jason Corso, dyrektor Stevens Institute for Artificial Intelligence w Stevens Institute of Technology, powiedział w e-mailowym wywiadzie. „Generowanie całych akapitów głębokiego fałszywego tekstu w kierunku określonego programu jest dość trudne, ale współczesne postępy w głębokim przetwarzaniu języka naturalnego umożliwiają to” – dodał.

Jak wykryć głęboką podróbkę

Chociaż technologia wykrywania fałszerstw jest wciąż w początkowej fazie, istnieje kilka sposobów, aby ją wykryć, powiedział Corso, zaczynając od ust.

„Zmienność w wyglądzie wnętrza ust, gdy ktoś mówi, jest bardzo duża, co utrudnia przekonującą animację” – wyjaśnił Corso. „Można to zrobić, ale jest to trudniejsze niż reszta głowy. Zwróć uwagę, że filmy Deep Nostalgia nie pokazują zdolności zdjęcia do powiedzenia „kocham cię” lub innego wyrażenia podczas głębokiego fałszywego tworzenia. Takie postępowanie wymagałoby otwierania i zamykania ust, co jest bardzo trudne w przypadku głębokiego fałszywego generowania."

Ghosting to kolejna gratka, dodał Corso. Jeśli zauważysz rozmycie wokół krawędzi głowy, jest to wynik „szybkiego ruchu lub ograniczonej liczby pikseli dostępnych w obrazie źródłowym. Ucho może na chwilę zniknąć lub włosy mogą stać się rozmazane tam, gdzie się tego nie spodziewasz” powiedział.

Możesz również zwrócić uwagę na różnice kolorystyczne, gdy próbujesz dostrzec głębokie fałszywe wideo, takie jak ostra linia na twarzy, z ciemniejszymi kolorami po jednej stronie i jaśniejszymi po drugiej.

„Algorytmy komputerowe często potrafią wykryć te wzorce zniekształceń” - powiedział Shamir. „Ale algorytmy głębokiego fałszowania szybko się rozwijają. Nieuniknione jest, że surowe przepisy będą wymagane w celu ochrony przed głębokim fałszowaniem i szkodami, które mogą łatwo spowodować.”

Zalecana: