Teksty przygotowane z pomocą sztucznej inteligencji mogą być opatrywane rodzajem cyfrowego znaku wodnego. Wszystko po to, by ich odbiorcy mogli łatwiej ochronić się przed oszustwem, czy dezinformacją. Takie działania mogą też pomóc samej sztucznej inteligencji, by lepiej "wiedziała", na jakich materiałach może się uczyć. Jak informuje "New Scientist", firma Google DeepMind stosuje swoją metodę oznaczania AI w odpowiedziach chatbota Gemini już od miesięcy - teraz udostępnia to narzędzie innym deweloperom.

System oznaczania sztucznej inteligencji SynthID, umożliwiający automatyczną identyfikację tekstu generowanego przez chatbota Gemini, który ułatwia odróżnienie treści generowanych przez AI od postów napisanych przez ludzi, porównuje się tu do znaku wodnego, tradycyjnej metody zabezpieczania choćby banknotów. "Chociaż SynthID nie jest cudownym rozwiązaniem do identyfikacji treści generowanych przez AI, jest ważnym krokiem w budowie bardziej niezawodnych narzędzi" - mówi Pushmeet Kohli z Google DeepMind, zespołu badawczego AI firmy, który łączy dawne laboratoria Google Brain i DeepMind. 

"Chociaż żadna znana metoda znakowania wodnego nie jest niezawodna, jestem przekonany, że może to pomóc w wychwyceniu części dezinformacji generowanej przez AI, oszustw akademickich i innych" - mówi cytowany przez "New Scientist" Scott Aaronson z Uniwersytetu Teksańskiego w Austin, który wcześniej pracował nad bezpieczeństwem w firmie OpenAI. "Mam nadzieję, że inne firmy zajmujące się dużymi modelami językowymi, w tym OpenAI i Anthropic, pójdą za przykładem DeepMind" - dodaje. 

Jak pisze na swoim portalu czasopismo "Nature", stworzenie narzędzia, które pozwala identyfikować tekst generowany przez AI, nie wpływając na doświadczenie użytkownika, jest coraz bliżej. Jednak niezawodność tej technologii pozostaje wciąż wyzwaniem. Problem w tym, że przeskok narzędzi AI ze świata badań naukowych do świadomości publicznej i niemal masowego wykorzystania dokonał się niezwykle, bezprecedensowo wręcz szybko. Zdolność dużych modeli językowych (LLM) do tworzenia tekstów i obrazów niemal nieodróżnialnych od tych stworzonych przez ludzi prowadzi do rewolucji w wielu dziedzinach ludzkiego życia. Olbrzymi jest też potencjał do nadużyć, od plagiatów szkolnych, czy akademickich, po masowe generowanie dezinformacji. 

Sumanth Dathathri wraz ze współpracownikami z DeepMind opublikowali na lamach "Nature" artykuł, w którym opisują wyniki testów systemu znakowania wodnego tekstu generowanego przez AI, przez osadzanie w nim "sygnatury statystycznej", formy cyfrowego identyfikatora, który może być użyty do potwierdzenia pochodzenia tekstu. Tak jak w przypadku znaku wodnego na papierze, który nie zaburza druku, znak wodny w cyfrowo generowanym tekście lub obrazach powinien być niewidoczny dla użytkownika, ale czytelny dla specjalistycznego oprogramowania.

Praca Dathathri i jego kolegów stanowi ważny kamień milowy dla wprowadzenia znakowania wodnego tekstu cyfrowego, choć wciąż wydaje się, że chwila, kiedy firmy i instytucje kontroli będą mogły z pewnością stwierdzić, czy dany tekst jest dziełem człowieka czy maszyny, jest jeszcze odległa. Sprawa jest jednak na tyle pilna, że w prace na ten temat powinno włączyć się jak najwięcej firm. 

Zespół DeepMind włączył technologię, którą nazywają SynthID-Text, do chatbota zasilanego przez program Gemini. W eksperymencie na żywo z udziałem niemal 20 milionów użytkowników, którzy zadawali pytania chatbotowi, nie zauważono pogorszenia jakości w odpowiedziach ze znakiem wodnym w porównaniu do odpowiedzi bez znaku wodnego. To istotne, bowiem użytkownicy prawdopodobnie nie zaakceptują treści ze znakiem wodnym, jeśli uznają je za gorsze od tekstu bez znaku wodnego. Autorzy programu przyznają jednak, że wciąż stosunkowo łatwo można znak wodny usunąć i sprawić, by tekst generowany przez AI wyglądał, jakby został napisany przez człowieka. 

Dzieje się tak, ponieważ proces znakowania wodnego używany w eksperymencie DeepMind polega na subtelnej zmianie sposobu, w jaki LLM w obliczu danego zapytania użytkownika, czerpie z ogromnego zbioru treningowego miliardów słów z artykułów, książek i innych źródeł, aby stworzyć odpowiedź brzmiącą wiarygodnie. Ta zmiana może być wykryta przez algorytm analizujący. Ale istnieją sposoby, aby usunąć ten sygnał - na przykład poprzez parafrazowanie lub tłumaczenie wyniku LLM, lub poproszenie innego LLM o jego przepisanie. A znak wodny raz usunięty nie jest już naprawdę znakiem wodnym.

Poprawne znakowanie wodne ma znaczenie, ponieważ władze przygotowują się do regulacji AI w sposób, który ogranicza szkody, jakie może wyrządzić. Znakowanie wodne jest w związku z tym postrzegane jako kluczowa technologia. Jak podkreśla "Nature", nawet jeśli techniczne przeszkody zostaną pokonane, znakowanie wodne będzie naprawdę użyteczne tylko wtedy, gdy będzie akceptowalne dla firm i użytkowników.