"Wystarczy zaledwie kilka sekund nagranego głosu, aby stworzyć nowy podkład dźwiękowy, który może być zsynchronizowany z materiałem wideo" - wyjaśnia sposób powstawania tzw. deepfake'ów Ewelina Bartuzi-Trokielewicz z Naukowej i Akademickiej Sieci Komputerowa (NASK). Ta metoda oszustwa bardzo często bazuje na wykorzystywaniu wizerunku znanych osób - polityków, aktorów czy biznesmenów. A dotyczy nas wszystkich.

REKLAMA

Naukowa i Akademicka Sieć Komputerowa - Państwowy Instytut Badawczy (NASK) przypomina, że nazwa deepfake pochodzi połączenia od dwóch słów: "deep learning" (technika sztucznej inteligencji określana jako głębokie uczenie) oraz "fake", czyli fałszywy.

Lewandowski, Duda, Leszczyna, Brzoska

NASK podkreśla, że w maju 2024 roku powstały deepfake'i m.in. z piłkarzem Robertem Lewandowskim, prezydentem Polski Andrzejem Dudą, ministrą zdrowia Izabelą Leszczyną, prezesem InPostu Rafałem Brzoską, czy influencerem Buddą. Przestępcy bezprawnie wykorzystali wizerunek tych osób i podrobili ich głos.

"W nagraniach umieszczonych na Facebooku oszuści wykorzystali technikę lip-sync, czyli manipulację, która polegała nie tylko na podmianie tekstu mówionego głosem osoby występującej na nagraniu, ale także na dostosowaniu ruchu ust do wypowiadanych słów - wyjaśnia NASK.

Postacie użyte w deepfake'ach namawiały do "wyjątkowo korzystnych" inwestycji finansowych. Mówiły swoim głosem, a treść fałszywego przekazu zgadzała się z ruchami ust i gestykulacją. Nagrania wyglądają coraz bardziej wiarygodnie.

Jak zaznacza NASK, "mimo szybkiej reakcji Rafała Brzoski i zgłoszeniu sprawy do administratorów Meta, stanowcze protesty polskiego biznesmena nie spowodowały reakcji serwisu przez wiele dni".

"Technologie umożliwiają obecnie przestępcom łatwe manipulacje materiałami audiowizualnymi. W przypadku technologii typu 'text-to-speech', wystarczy im zaledwie kilka sekund nagranego głosu, aby stworzyć nowy podkład dźwiękowy, który może być zsynchronizowany z materiałem wideo, na przykład z dowolnego przemówienia czy wiecu politycznego. Dla technologii 'speech-to-speech', w której intonacja, emocje zawarte w głosie są bardziej złożone, do wykonania podróbki potrzebny jest dłuższy fragment, około jednej minuty oryginalnego materiału" - wyjaśnia Ewelina Bartuzi-Trokielewicz, kierująca w NASK Zespołem Analizy, cytowana na stronie internetowej nask.pl.

Analiza techniczna. Na co zwracać uwagę?

Jak zaznacza Naukowa i Akademicka Sieć Komputerowa, "uważny oglądający jest w stanie wykryć błędy w nagraniu zmanipulowanym technologią deepfake, choć jest to coraz trudniejsze".

Na to należy zwrócić uwagę:

  • zniekształcenia obrazu i jego rozmazanie w okolicy ust,
  • problem w rekonstrukcji uzębienia,
  • zmiany w geometrii twarzy,
  • nienaturalne ruchy głowy i mimika,
  • niezgodność mimiki i/lub ruchów ust z wypowiadaną treścią,
  • błędy gramatyczne i wymowy, w szczególności dotyczące liczebników, dat, kwot, a także nazw własnych lub zapożyczeń z innych języków,
  • błędy w odmianie słów, nietypowe intonacje lub styl wypowiedzi, często o charakterze maszynowym, a nawet robotycznym,
  • zmiana akcentu, barwy i wysokości głosu w trakcie wypowiedzi,
  • głos różniący się momentami od prawdziwego głosu osoby występującej na filmie.

Ewelina Bartuzi-Trokielewicz z NASK podkreśla, że "coraz częściej oszuści stosują też technikę dodawania szumów i różnego rodzaju plam na nagraniach, co ma na celu zakłócenie klarowności przekazu obrazu, ukrycie artefaktów generowanych przez sztuczną inteligencję oraz dezorientację algorytmów automatycznej detekcji deepfake'ów".

Analiza przekazu. NASK o socjotechnikach w deepfake'ach

NASK wyjaśnia, że istotna jest również analiza przekazu w nagraniu wideo.

"Najlepszą formą obrony przed wieloma rodzajami oszustw - w tym także tymi wykorzystującymi technologię deepfake - jest zachowanie zdrowego rozsądku. Przestępcy starają się tak preparować treść, by budziła emocje u odbiorców oraz zachęcała ich do podjęcia szybkich działań" - przypomina.

Warto znać socjotechniki, które najczęściej stosują oszuści:

  • autorytet i zaufanie. W deepfake'ach używane są wizerunki znanych polityków, biznesmenów, aktorów, sportowców lub celebrytów;
  • wyjątkowość oferty i ograniczona w czasie dostępność. Stwierdzenia, że "miejsca na naszej platformie są ograniczone" lub "nie przegap swojej szansy" wykorzystują zasadę niedostępności;
  • obietnica szybkich zysków;
  • odwołanie do emocji. Przekazy w deepfake'ach mówią np. o "możliwości podróżowania, cieszenia się życiem, kupowania wszystkiego, o czym tylko marzysz bez żadnych zmartwień". To gra na emocjach;
  • ponaglenie do działania. Wyrażenia: "czas działać" czy "dołącz do nas już teraz";
  • adresowanie przekazu do konkretnych grup, szczególnie podatnych na manipulację;
  • podkreślenie przynależności do elitarnej grupy. Użycie sformułowań typu: "spośród 100 zaproszonych osób tylko 50 najszybszych i najbardziej ambitnych dotrze do celu", tworzy poczucie przynależności do grupy wybranych jednostek.

Wyświetlił mi się deepfake - co dalej?

NASK przypomina, że "tak jak w przypadku każdego innego cyberoszustwa, liczy się szybkość reakcji".

"Im szybciej poinformujemy odpowiednie instytucje, tym bardziej ograniczymy zasięg odbiorców, którzy mogą wpaść w pułapkę oszustów. W konsekwencji utrudnimy im szkodliwe działanie, ochronimy siebie i inne osoby potencjalnie narażone na kradzież pieniędzy" - podkreślają eksperci.

NASK wyjaśnia, że każdą odmianę cyberoszustwa, w tym także materiały filmowe wykorzystujące deepfake, warto zgłosić do zespołu CERT Polska: poprzez SMS (przesłanie numer 8080) lub na stronie incydent.cert.pl. Można też kontaktować się z administracją strony lub portalu społecznościowego, w których napotkaliśmy deepfake.

"Uwaga! Jeśli materiał deepfake zawiera treści przedstawiające seksualne wykorzystywanie osób małoletnich, jak najszybciej zgłoś go do zespołu Dyżurnet.pl" - dodaje NASK.

Dodatkowo w przypadku materiałów, które wykorzystują technologię deepfake, warto przesłać link na adres mailowy Zespołu Analizy Deepfake (). "Tworzą go naukowcy, eksperci NASK, zajmujący się analizowaniem treści deepfake i opracowywaniem automatycznych metod ich wykrywania. Pozyskane w ten sposób przykłady oszustw deepfake służą następnie jako materiały weryfikacyjne do rozwoju i ewaluacji systemu wykrywania deepfake opartego na sztucznej inteligencji" - zaznacza Naukowa i Akademicka Sieć Komputerowa - Państwowy Instytut Badawczy.