Kluczowe dania na wynos
- Niedawne badanie wykazało, że wiele kontaktów na LinkedIn to nie są prawdziwi ludzie.
- Jest to część narastającego problemu głębokich podróbek, w których osoba na istniejącym obrazie lub filmie jest zastępowana komputerowo zmodyfikowaną reprezentacją.
Eksperci zalecają zachowanie ostrożności podczas klikania adresów URL lub odpowiadania na wiadomości LinkedIn.
Możesz pomyśleć dwa razy, zanim połączysz się z tą przyjazną twarzą online.
Naukowcy twierdzą, że wiele kontaktów w popularnym serwisie sieciowym LinkedIn nie jest prawdziwymi ludźmi. Jest to część narastającego problemu głębokich podróbek, w których osoba na istniejącym obrazie lub filmie jest zastępowana komputerowo zmodyfikowaną reprezentacją.
„Głębokie podróbki są ważne, ponieważ skutecznie eliminują to, co tradycyjnie uważano za niezawodną metodę potwierdzania tożsamości” – powiedział w rozmowie e-mailowej dla Lifewire Tim Callan, dyrektor ds. zgodności firmy Sectigo zajmującej się cyberbezpieczeństwem. „Jeśli nie możesz uwierzyć w pocztę głosową lub wideo od zaufanego współpracownika, ochrona integralności procesu stała się o wiele trudniejsza”.
Łączenie z kim?
Dochodzenie w sprawie kontaktów na LinkedIn rozpoczęło się, gdy Renée DiResta, badaczka ze Stanford Internet Observatory, otrzymała wiadomość od profilu wymienionego jako Keenan Ramsey.
Notatka wydawała się zwyczajna, ale DiResta zauważyła kilka dziwnych rzeczy w profilu Keenana. Po pierwsze, obraz przedstawiał kobietę z tylko jednym kolczykiem, idealnie wyśrodkowanymi oczami i rozmazanymi kosmykami włosów, które zdawały się znikać i pojawiać ponownie.
Na Twitterze DiResta napisał: „To losowe konto wysłało mi wiadomość… Twarz wyglądała na generowaną przez sztuczną inteligencję, więc moją pierwszą myślą był spear phishing; wysłałem link „kliknij tutaj, aby umówić się na spotkanie”. Zastanawiałem się, czy udaje, że pracuje dla firmy, którą rzekomo reprezentuje, ponieważ LinkedIn nie mówi firmom, kiedy nowe konta twierdzą, że gdzieś pracują… Ale potem dostałem wiadomość z innej fałszywej, a następnie kolejną notatkę od oczywiście prawdziwego pracownik odwołuje się do wcześniejszej wiadomości od pierwszej fałszywej osoby i zmieniło się to w coś zupełnie innego."
DiResta i jej kolega, Josh Goldstein, rozpoczęli badanie, w którym znaleziono ponad 1000 profili LinkedIn wykorzystujących twarze, które wydają się być stworzone przez sztuczną inteligencję.
Głębokie oszustki
Głębokie podróbki to rosnący problem. Według jednego opublikowanego raportu do grudnia 2020 r. wykryto ponad 85 000 filmów typu deepfake.
Ostatnio głębokie podróbki były wykorzystywane do rozrywki i pokazania technologii, w tym jeden przykład, w którym były prezydent Barack Obama mówił o podróbkach i podróbkach.
„Chociaż było to świetne dla zabawy, przy odpowiedniej mocy komputera i aplikacjach można było stworzyć coś, czego [ani] komputery, ani ludzkie ucho nie są w stanie odróżnić”, Andy Rogers, starszy rzeczoznawca w Schellman, globalnym oceniający cyberbezpieczeństwo, powiedział w e-mailu.„Te fałszywe filmy wideo mogą być wykorzystywane w dowolnej liczbie aplikacji. Na przykład znane osoby i celebryci na platformach społecznościowych, takich jak LinkedIn i Facebook, mogą wydawać oświadczenia mające wpływ na rynek i inne niezwykle przekonujące treści postów”.
Hakerzy w szczególności zwracają się w stronę deepfake, ponieważ zarówno technologia, jak i jej potencjalne ofiary stają się coraz bardziej wyrafinowane.
„O wiele trudniej jest przeprowadzić atak socjotechniczny za pośrednictwem poczty przychodzącej, zwłaszcza że cele są coraz bardziej edukowane na temat phishingu ukierunkowanego jako zagrożenia” – powiedział Callan.
Platformy muszą rozprawić się z deepfake'ami, powiedział w rozmowie z Lifewire Joseph Carson, główny naukowiec ds. bezpieczeństwa w firmie Delinea zajmującej się cyberbezpieczeństwem. Zasugerował, aby przesyłane pliki do witryn przechodziły przez analizy w celu określenia autentyczności treści.
Jeżeli post nie ma żadnego zaufanego źródła ani kontekstu, prawidłowe oznaczenie treści powinno być jasne dla przeglądającego, że źródło treści zostało zweryfikowane, jest nadal analizowane lub że treść został znacząco zmodyfikowany” – dodał Carson.
Głębokie podróbki są ważne, ponieważ skutecznie eliminują to, co tradycyjnie uważano za niezawodną metodę potwierdzania tożsamości.
Eksperci zalecają użytkownikom zachowanie ostrożności podczas klikania adresów URL lub odpowiadania na wiadomości LinkedIn. Należy pamiętać, że głos, a nawet ruchome obrazy rzekomych kolegów mogą zostać sfałszowane, zasugerował Callan. Podchodź do tych interakcji z takim samym sceptycyzmem, jaki posiadasz w przypadku komunikacji tekstowej.
Jednak jeśli martwisz się, że twoja tożsamość zostanie wykorzystana w głębokiej fałszerstwie, Callan powiedział, że nie ma prostego rozwiązania.
„Najlepsze zabezpieczenia muszą zostać wprowadzone przez tych, którzy opracowują i obsługują platformy komunikacji cyfrowej, z których korzystasz” – dodał Callan. „System, który potwierdza [tożsamość] uczestników przy użyciu niezniszczalnych technik kryptograficznych, może bardzo skutecznie podważyć tego rodzaju ryzyko”.