W ostatnim czasie media społecznościowe zapełniły się zdjęciami papieża Franciszka, zazwyczaj bardzo skromnego i prostego człowieka, który szedł w bardzo eleganckiej, markowej kurtce puchowej w kolorze białym. Zdjęcie szybko rozeszło się w sieci, mimo że nie było prawdziwe. Ktoś stworzył ten obraz za pomocą sztucznej inteligencji, która nazywa się Midjourney. Wiele osób nazwało to jednym z pierwszych przypadków dezinformacji na szeroką skalę przy użyciu wspomnianej sztucznej inteligencji. Jak ustrzec się przed fake newsami wygenerowanymi przez AI? Czy wkrótce tzw. deepfake zaleje internet? W Radiu RMF24 Marcin Jędrych rozmawiał o tym z Piotrem Mieczkowskim, ekspertem w dziedzinie nowych technologii, dyrektorem zarządzającym Digital Poland.
Twoja przeglądarka nie obsługuje standardu HTML5 dla audio
Technologia deepfake może być wykorzystywana do wielu fałszywych lub jawnych celów przestępczych, takich jak zautomatyzowane ataki dezinformacyjne, kradzież tożsamości, oszustwa finansowe, fałszywa pornografia celebrytów, a także manipulacja wyborami.
Widziałem, że to jest niejedyne zdjęcie, które może nas zakłopotać, bo są też zdjęcia wielu popularnych polityków. Ostatnio były zdjęcia byłego prezydenta Donalda Trumpa, były też polityczki kanclerz Angeli Merkel wraz z prezydentem Obamą, jako niby bawią się razem na plaży, czy ostatnio prezydenta Macrona, który brał udział, według tej zmienionej fotografii, w zamieszkach. Myślę, że ja się osobiście tutaj bardzo obawiam, dlatego że w Polsce, ani zresztą w Europie, nie ma żadnych regulacji, które by mogły wprost zakazać tego typu publikacji, zanim one się pojawią. Nie ma żadnych oznakowań, które by nas poinformowały, że to zdjęcie jest zmienione. Co więcej, posłuży to dezinformacji, która jak wiemy jest coraz popularniejsza w Polsce i na świecie - mówił Piotr Mieczkowski.
Jesteśmy w momencie, w którym jest za późno, żeby opanować rozwój sztucznej inteligencji. Nie mamy również żadnych narzędzi do weryfikacji.
Możemy próbować samemu się bronić w następujący sposób. Po pierwsze Midjourney, ale też inne rozwiązania dostępne na rynku, najczęściej w centrum uwagi pokazują tę konkretną osobę. Algorytmy są jeszcze na tyle niedopracowane, chociaż obawiam się, że niestety w wyniku ewolucji będą doskonalsze, że najczęściej sceneria, na którym ta osoba jest przedstawiana, jest niedokładna. Warto patrzeć na scenerię. Druga, warto patrzeć na twarze, dlatego, że najczęściej twarze osób postronnych są nienaturalne. Trzecia rzecz, która może zapalić światełko, to my zawsze w fundacji zalecamy poszukania informacji w największych serwisach. Jeśli sprawa jest głośna to jestem przekonany, że tak duży serwis jak np. RMF poinformował by o tym bardzo szybko. Stąd my zalecamy zawsze tego typu informacje sprawdzać u największych, najbardziej rozpoznawalnych marek medialnych - podkreślał.
Jednak przy tak szybkim życiu jakie mamy, rzeczach, które dzieją się naraz, wylewie różnego rodzaju informacji oraz zdjęć, często może nie starczyć nam czasu, żeby zweryfikować daną treść. W przypadku Internetu powielanie fałszywych informacji następuje błyskawicznie.
Brakuje nam działań systemowych. W Polsce np. do dzisiaj nie wprowadzono do szkół edukacji medialnej. Nikt nie edukuje nas jak poruszać się w sferze medialnej, jak się weryfikuje informacje, gdzie się je sprawdza. Druga rzecz jest taka, że ogromną odpowiedzialność mają te największe platformy. Dostęp do mediów społecznościowych czy platformy wideo. W związku z tym pojawiają się regulacje również na poziomie unijnym, które mają sprawić, że pewne materiały lub rzeczy będą szybciej np. weryfikowane czy sprawdzane. Takie regulacji za chwilę wejdą w życie, ponieważ część z nich była niedawno uchwalona na poziomie Unii Europejskiej. Jeśli chodzi o tą sztuczną inteligencję to na poziomie Unii Europejskiej trwają w tej chwili takie ostatnie negocjacje tzw. nowej regulacji, nazwanej AI Act, czyli akt o sztucznej inteligencji. I tam się pojawia też wątek deepfaków, bo przypomnę, że np. w Chinach deepfake jest zakazany. Deepfake to właśnie ten zmieniony obraz. Tam wymusza się, że tego typu zdjęcie zawsze musi być oznaczone. Dialog na poziomie Komisji Europejskiej, Parlamentu i Rady nie został jeszcze zamknięty, ponieważ te negocjacje trwają. Obecnie przewiduje się, że na koniec kwietnia powstanie taka prawie że końcowa wersja - mówił ekspert.
W większości przypadków weryfikacja powinna odbywać się w oparciu o zdrowy rozsądek albo przynajmniej o sprawdzenie w wielu źródłach, czy dana informacja jest prawdziwa. Na dzisiaj nie mamy technologicznego narzędzia, które by mogło sprawdzić prawdziwość treści.
Można zwiększyć prawdopodobieństwo, że to dane zdjęcie zostało wykonane aparatem lub przez osoby. Profesjonalnie zajmują się tym faktcheckerzy, czyli takie jednostki, instytucje czy organizacje, stowarzyszenia, które weryfikują zawodowo informacje, ale również robią to często dziennikarze.
Mając takie zdjęcie ściągnięte z internetu można zobaczyć we właściwościach pliku więcej informacji. Można wykonać też takie proste ćwiczenie, które najczęściej pozwalało obalić fake newsa. Wystarczy takie zdjęcie wgrać w popularną wyszukiwarkę internetową. Dodam, że nie trzeba szukać po słowie, ale można wgrać zdjęcie poprzez które wyszukujemy informacje w Internecie i przynajmniej można sprawdzić czy takie zdjęcie było wcześniej wgrane do Internetu. Faktem jest, że coraz trudniej jest zweryfikować informacje. Nie bazujmy na mediach społecznościowych. W mediach społecznościowych niestety jest bardzo dużo fałszywych kont, również zakładanych przez ludzi na bazie różnych algorytmów. Niedawno miałem przyjemność rozmawiać z takim startupem, notabene polskim, który na bazie próbki 6 minutowej głosu potrafi wygenerować praktycznie dowolne zdanie z moją barwą tonu. A jeśli otrzyma próbkę 3 godzinną, to nawet własna rodzina nie rozpozna mnie poprzez telefon czy rozmowę internetową. W związku z tym ja myślę, że takich wyłudzeń będzie coraz więcej i niestety to nie będą tylko wyłudzenia. Uważam, że dlatego leży to w głównym interesie polityków, osób publicznym, również dziennikarzy. Obawiam się, że już niedługo na bazie tych próbek, o których powiedziałem, pobranych chociażby z Internetu, z radia, czy z innych mediów, generowane będą fałszywe wypowiedzi, co też będzie rodziło inne konsekwencje. Jeśli polityk faktycznie coś powie na jakimś wiecu albo ktoś kogoś nagra, to znowu będą mogli się wyprzeć mówiąc, że to zostało zmanipulowane poprzez sztuczną inteligencję - mówił.
Treści tworzone w wirtualnej rzeczywistości, czy też przez sztuczną inteligencję będą ewoluować, a my ciągle będziemy gonić za przepisami. To będzie wyścig, który nigdy nie będzie wygrany dla tych ludzi, którzy racjonalnie myślą o tego typu rzeczach. Niezależnie od tego, jakie przepisy zostaną uchwalone, wkrótce powinno rozpocząć się budowanie świadomości społecznej na temat zagrożeń związanych z deepfake.
Prawo nigdy nie nadąża w żadnym sektorze za zmianami technologicznymi. Ten problem pewnie będzie zażegnany, przynajmniej na poziomie ogólnym około 2026 roku, ale po drodze ile się może nieszczęść wydarzyć, ile nawet potencjalnych różnych zagrożeń, to myślę, że każdy z nas potrafi sobie wyobrazić. Problem polega na tym, że niestety tego nie da się powstrzymać. Nawet jak powstrzymamy rozwój sztucznej inteligencji, tak jak teraz stało to się we Włoszech, gdzie taki odpowiednik naszego Urzędu Ochrony Danych Osobowych nakazał wstrzymanie korzystania z GPT czy innego programu, o którym to wspominaliśmy, tak w innym kraju będzie dopuszczalny. Korzystając chociażby z tak zwanych VPN-ów, czyli programów, które pozwalają nam zamaskować nasz adres IP, możemy pojawić się w innym kraju. Hakerzy czy osoby, które chcą wpłynąć na proces demokratyczny czy ukraść nasze dane, one będą właśnie przeskakiwać z innych krajów tam, gdzie to nie jest zakazane. Udajemy się więc do największych mediów, bo to one mają najwięcej dziennikarzy, najbardziej rzetelnych, najlepiej opłacanych, w związku z tym mają największą renomę, więc najwięcej mogą stracić. To one potwierdzają największe, najbardziej szokujące informacje - mówił Piotr Mieczkowski.
Opracowanie: Emilia Witkowska