"Wystarczy zaledwie kilka sekund nagranego głosu, aby stworzyć nowy podkład dźwiękowy, który może być zsynchronizowany z materiałem wideo" - wyjaśnia sposób powstawania tzw. deepfake'ów Ewelina Bartuzi-Trokielewicz z Naukowej i Akademickiej Sieci Komputerowa (NASK). Ta metoda oszustwa bardzo często bazuje na wykorzystywaniu wizerunku znanych osób - polityków, aktorów czy biznesmenów. A dotyczy nas wszystkich.
Naukowa i Akademicka Sieć Komputerowa - Państwowy Instytut Badawczy (NASK) przypomina, że nazwa deepfake pochodzi połączenia od dwóch słów: "deep learning" (technika sztucznej inteligencji określana jako głębokie uczenie) oraz "fake", czyli fałszywy.
NASK podkreśla, że w maju 2024 roku powstały deepfake'i m.in. z piłkarzem Robertem Lewandowskim, prezydentem Polski Andrzejem Dudą, ministrą zdrowia Izabelą Leszczyną, prezesem InPostu Rafałem Brzoską, czy influencerem Buddą. Przestępcy bezprawnie wykorzystali wizerunek tych osób i podrobili ich głos.
"W nagraniach umieszczonych na Facebooku oszuści wykorzystali technikę lip-sync, czyli manipulację, która polegała nie tylko na podmianie tekstu mówionego głosem osoby występującej na nagraniu, ale także na dostosowaniu ruchu ust do wypowiadanych słów - wyjaśnia NASK.
Postacie użyte w deepfake'ach namawiały do "wyjątkowo korzystnych" inwestycji finansowych. Mówiły swoim głosem, a treść fałszywego przekazu zgadzała się z ruchami ust i gestykulacją. Nagrania wyglądają coraz bardziej wiarygodnie.
Jak zaznacza NASK, "mimo szybkiej reakcji Rafała Brzoski i zgłoszeniu sprawy do administratorów Meta, stanowcze protesty polskiego biznesmena nie spowodowały reakcji serwisu przez wiele dni".
"Technologie umożliwiają obecnie przestępcom łatwe manipulacje materiałami audiowizualnymi. W przypadku technologii typu 'text-to-speech', wystarczy im zaledwie kilka sekund nagranego głosu, aby stworzyć nowy podkład dźwiękowy, który może być zsynchronizowany z materiałem wideo, na przykład z dowolnego przemówienia czy wiecu politycznego. Dla technologii 'speech-to-speech', w której intonacja, emocje zawarte w głosie są bardziej złożone, do wykonania podróbki potrzebny jest dłuższy fragment, około jednej minuty oryginalnego materiału" - wyjaśnia Ewelina Bartuzi-Trokielewicz, kierująca w NASK Zespołem Analizy, cytowana na stronie internetowej nask.pl.
Jak zaznacza Naukowa i Akademicka Sieć Komputerowa, "uważny oglądający jest w stanie wykryć błędy w nagraniu zmanipulowanym technologią deepfake, choć jest to coraz trudniejsze".
Na to należy zwrócić uwagę:
- zniekształcenia obrazu i jego rozmazanie w okolicy ust,
- problem w rekonstrukcji uzębienia,
- zmiany w geometrii twarzy,
- nienaturalne ruchy głowy i mimika,
- niezgodność mimiki i/lub ruchów ust z wypowiadaną treścią,
- błędy gramatyczne i wymowy, w szczególności dotyczące liczebników, dat, kwot, a także nazw własnych lub zapożyczeń z innych języków,
- błędy w odmianie słów, nietypowe intonacje lub styl wypowiedzi, często o charakterze maszynowym, a nawet robotycznym,
- zmiana akcentu, barwy i wysokości głosu w trakcie wypowiedzi,
- głos różniący się momentami od prawdziwego głosu osoby występującej na filmie.
Ewelina Bartuzi-Trokielewicz z NASK podkreśla, że "coraz częściej oszuści stosują też technikę dodawania szumów i różnego rodzaju plam na nagraniach, co ma na celu zakłócenie klarowności przekazu obrazu, ukrycie artefaktów generowanych przez sztuczną inteligencję oraz dezorientację algorytmów automatycznej detekcji deepfake'ów".
NASK wyjaśnia, że istotna jest również analiza przekazu w nagraniu wideo.
"Najlepszą formą obrony przed wieloma rodzajami oszustw - w tym także tymi wykorzystującymi technologię deepfake - jest zachowanie zdrowego rozsądku. Przestępcy starają się tak preparować treść, by budziła emocje u odbiorców oraz zachęcała ich do podjęcia szybkich działań" - przypomina.
Warto znać socjotechniki, które najczęściej stosują oszuści:
- autorytet i zaufanie. W deepfake'ach używane są wizerunki znanych polityków, biznesmenów, aktorów, sportowców lub celebrytów;
- wyjątkowość oferty i ograniczona w czasie dostępność. Stwierdzenia, że "miejsca na naszej platformie są ograniczone" lub "nie przegap swojej szansy" wykorzystują zasadę niedostępności;
- obietnica szybkich zysków;
- odwołanie do emocji. Przekazy w deepfake'ach mówią np. o "możliwości podróżowania, cieszenia się życiem, kupowania wszystkiego, o czym tylko marzysz bez żadnych zmartwień". To gra na emocjach;
- ponaglenie do działania. Wyrażenia: "czas działać" czy "dołącz do nas już teraz";
- adresowanie przekazu do konkretnych grup, szczególnie podatnych na manipulację;
- podkreślenie przynależności do elitarnej grupy. Użycie sformułowań typu: "spośród 100 zaproszonych osób tylko 50 najszybszych i najbardziej ambitnych dotrze do celu", tworzy poczucie przynależności do grupy wybranych jednostek.
NASK przypomina, że "tak jak w przypadku każdego innego cyberoszustwa, liczy się szybkość reakcji".
"Im szybciej poinformujemy odpowiednie instytucje, tym bardziej ograniczymy zasięg odbiorców, którzy mogą wpaść w pułapkę oszustów. W konsekwencji utrudnimy im szkodliwe działanie, ochronimy siebie i inne osoby potencjalnie narażone na kradzież pieniędzy" - podkreślają eksperci.
NASK wyjaśnia, że każdą odmianę cyberoszustwa, w tym także materiały filmowe wykorzystujące deepfake, warto zgłosić do zespołu CERT Polska: poprzez SMS (przesłanie numer 8080) lub na stronie incydent.cert.pl. Można też kontaktować się z administracją strony lub portalu społecznościowego, w których napotkaliśmy deepfake.
"Uwaga! Jeśli materiał deepfake zawiera treści przedstawiające seksualne wykorzystywanie osób małoletnich, jak najszybciej zgłoś go do zespołu Dyżurnet.pl" - dodaje NASK.
Dodatkowo w przypadku materiałów, które wykorzystują technologię deepfake, warto przesłać link na adres mailowy Zespołu Analizy Deepfake (deepfake@nask.pl). "Tworzą go naukowcy, eksperci NASK, zajmujący się analizowaniem treści deepfake i opracowywaniem automatycznych metod ich wykrywania. Pozyskane w ten sposób przykłady oszustw deepfake służą następnie jako materiały weryfikacyjne do rozwoju i ewaluacji systemu wykrywania deepfake opartego na sztucznej inteligencji" - zaznacza Naukowa i Akademicka Sieć Komputerowa - Państwowy Instytut Badawczy.