Zdolność Alexy do naśladowania zmarłych krewnych może być najbardziej przerażającą rzeczą w historii

Spisu treści:

Zdolność Alexy do naśladowania zmarłych krewnych może być najbardziej przerażającą rzeczą w historii
Zdolność Alexy do naśladowania zmarłych krewnych może być najbardziej przerażającą rzeczą w historii
Anonim

Kluczowe dania na wynos

  • Asystent głosowy Alexa firmy Amazon może kopiować głos z zaledwie jedną minutą dźwięku.
  • Możesz poprosić Alexę o przeczytanie historii głosem zmarłego rodzica.
  • To ten sam pomysł, co głębokie podróbki, używane tylko dla mocy dobra.
Image
Image

Najnowszą sztuczką Amazon Alexy jest nauczenie się naśladowania głosu zmarłej ukochanej osoby, aby mogli przemówić do ciebie zza grobu.

Alexa potrzebuje tylko minuty wypowiedzianego dźwięku, aby przekonująco naśladować głos. Amazon reklamuje to jako pocieszającą funkcję, która może nawiązać kontakt z bliskimi, ale może to być również dość przerażające doświadczenie. I pokazuje, jak łatwo jest stworzyć głęboki fałszywy dźwięk, który jest wystarczająco dobry, by nas oszukać, nawet jeśli głos jest tym, który znamy bardzo dobrze.

„Amazon zdecydowanie wkroczył na dość wyjątkowy i dziwaczny obszar, ogłaszając, że Alexa wkrótce będzie mogła uczyć się, a następnie używać głosu zmarłych krewnych”, powiedział Bill Mann, ekspert ds. prywatności w Restore Privacy. Lifewire przez e-mail. „Dla niektórych osób to wcale nie jest przerażające. W rzeczywistości może być raczej wzruszające”.

Duch w maszynie

W ramach dorocznej konferencji re:MARS Amazon prezentuje tę funkcję w krótkim filmie. W filmie dziecko pyta Alexę, czy babcia może dalej czytać mu „Czarnoksiężnika z krainy Oz”, ulubionego dzieła z domeny publicznej każdego dziecka. I to bardzo wzruszający moment. Trudno nie czuć ludzkich emocji, gdy babcia zaczyna czytać.

"Ludzie zmagają się ze śmiertelnością, szczególnie w kulturze zachodniej. Od wieków staramy się znaleźć sposoby upamiętniania zmarłych, od masek pośmiertnych, przez kosmyki włosów, stare zdjęcia, po oglądanie starych filmów" Andrzej Selepak, profesor mediów społecznościowych na University of Florida, powiedział Lifewire za pośrednictwem poczty elektronicznej. „Deepfakes używa najnowszej technologii do stworzenia nowej maski pośmiertnej zmarłej ukochanej osoby. Ale, w zależności od perspektywy, czy jest to przerażające, czy też sposób na upamiętnienie i trzymanie się kogoś, kogo kochasz po jego śmierci?”

Ale memento mori może być zarówno pocieszające, jak i przerażające. Przyjaciel członka rodziny nie żyje, ale nadal możesz go usłyszeć. Nie pomaga to, że Alexa ma historię dziwnych, a czasem przerażających zachowań. W 2018 roku, gdy felietonista NYT Farhad Manjoo kładł się do łóżka, jego Amazon Echo „zaczęło płakać, jak dziecko krzyczące we śnie z horroru”.

Wkrótce potem Amazon przyznał, że Alexa czasami śmiała się głośno, co wraz z nastolatkami i piwnicami jest horrorem 101.

Można się tylko zastanawiać, jak byś się czuł, gdyby Alexa wykonała te same sztuczki w głosie babci.

Głębokie fałszywe

Wyraźna łatwość, z jaką Alexa uczy się naśladować głos, prowadzi nas do bardziej nikczemnych zastosowań klonowania głosu: głębokich podróbek.

Image
Image

„Deepfake audio nie jest nowy, nawet jeśli jest mało rozumiany i mało znany. Technologia jest dostępna od lat, aby odtworzyć głos osoby za pomocą sztucznej inteligencji i głębokiego uczenia się przy użyciu stosunkowo niewielkiej ilości rzeczywistego dźwięku tej osoby”, mówi Selepak. „Taka technologia może być również niebezpieczna i destrukcyjna. Osoba zaburzona może odtworzyć głos zmarłego byłego chłopaka lub dziewczyny i użyć nowego dźwięku do wypowiadania nienawistnych i krzywdzących rzeczy”.

To tylko w kontekście Alexy. Głębokie fałszywe audio może wykraczać daleko poza to, na przykład przekonując ludzi, że wybitni politycy wierzą w rzeczy, w które nie wierzą. Ale z drugiej strony im bardziej przyzwyczaimy się do tych głębokich podróbek – być może w postaci głosów Alexy – tym bardziej będziemy sceptyczni wobec bardziej nikczemnych podróbek. Z drugiej strony, biorąc pod uwagę, jak łatwo jest rozpowszechniać kłamstwa na Facebooku, być może nie.

Amazon nie powiedział, czy ta funkcja pojawi się w Alexie, czy jest to tylko demonstracja technologii. Mam taką nadzieję, że tak. Technologia jest najlepsza, gdy jest używana w humanistyczny sposób, i chociaż łatwą reakcją jest nazwanie jej przerażającą, jak mówi Selepak, tak naprawdę nie różni się ona zbytnio od oglądania starych filmów lub słuchania zapisanych wiadomości głosowych, jak postać w serialu telewizyjnym napisanym leniwie.

A jeśli technologia głębokich podróbek jest łatwo dostępna, dlaczego nie wykorzystać jej, aby się pocieszyć?

Zalecana: