"WikiProject AI Cleanup" - tak nazywa się inicjatywa autorów Wikipedii, która przeciwdziałać ma informacjom nieprawdziwym lub nie na temat, wygenerowanym przez sztuczną inteligencję i opublikowanym w tej popularnej internetowej encyklopedii. Jak stwierdzili w opisie "AI Cleanup", "celem tego projektu nie jest ograniczanie lub zakazywanie użycia AI w artykułach, ale weryfikacja, czy jego wyniki są akceptowalne i konstruktywne, oraz ich poprawa lub usunięcie w przeciwnym razie".

REKLAMA

O inicjatywie autorów Wikipedii w środę, 9 października, jako pierwszy napisał portal 404media. Tekst wyjaśniający szczegóły "AI Cleanup" jest dostępny - oczywiście - również w samej Wikipedii.

WikiProject AI Cleanup - o co chodzi?

Jak czytamy w opisie "WikiProject AI Cleanup", jest to "współpraca mająca na celu zwalczanie narastającego problemu niesprawdzonej, źle napisanej treści generowanej przez AI na Wikipedii". "Jeśli chcesz pomóc, dodaj się jako uczestnik projektu, zapytaj na stronie dyskusji i zapoznaj się z listą zadań do wykonania" - wyjaśniają pomysłodawcy.

Podkreślają, że tzw. duże modele językowe (LLM), takie jak ChatGPT, od 2022 roku "stały się wygodnym narzędziem do pisania na dużą skalę". "Niestety, te modele niemal zawsze nie potrafią właściwie podać źródeł twierdzeń i często wprowadzają błędy" - zaznaczają autorzy Wikipedii.

Zależy im na identyfikacji "tekstu napisanego przez AI i weryfikacja, czy spełnia on zasady Wikipedii". "Wszelkie niesprawdzone, prawdopodobnie nieprawdziwe twierdzenia muszą zostać usunięte" - podkreślają. Sprawdzone mają zostać również obrazy generowane przez sztuczną inteligencję, a ci autorzy, którzy "mogą nie zdawać sobie sprawy z niedoskonałości (AI - przyp. red.) jako narzędzia pisarskiego" mają otrzymać pomoc.

"Celem tego projektu nie jest ograniczanie lub zakazywanie użycia AI w artykułach, ale weryfikacja, czy jego wyniki są akceptowalne i konstruktywne, oraz ich poprawa lub usunięcie w przeciwnym razie" - przekonują twórcy inicjatywy "WikiProject AI Cleanup".

Przewinienia AI

Jak podkreślają, "identyfikacja edycji wspomaganych przez AI jest trudna w większości przypadków, ponieważ generowany tekst często nie różni się od tekstu napisanego przez człowieka".

Wskazują jednak na konkretne rzeczy, które pozwolą identyfikować mało wartościowe teksty. "Treści AI czasami przybierają promocyjny ton, przypominający stronę turystyczną" - zaznaczają i dodają: "Gdy brakuje bardziej precyzyjnych informacji, AI często opisuje szczegółowo bardzo ogólne i powszechne cechy, chwaląc wioskę za jej żyzne pola uprawne, hodowlę zwierząt i malownicze krajobrazy, mimo że znajduje się ona w suchym górskim regionie".

Ich zdaniem, treści wygenerowane przez sztuczną inteligencję "czasami mają prawdziwe źródła, które są niepowiązane z tematem artykułu, czasami tworzą własne fałszywe źródła, a czasami używają prawdziwych źródeł do tworzenia treści AI".

"Przykład: artykuł Leninist historiography został w całości napisany przez AI i wcześniej zawierał listę całkowicie fałszywych źródeł w języku rosyjskim i węgierskim na dole strony. Google nie zwrócił żadnych wyników dla tych źródeł. Inny przykład: artykuł Estola albosignata, dotyczący gatunku chrząszcza, miał akapity napisane przez AI, które były oparte na rzeczywistych niemieckich i francuskich źródłach. Chociaż artykuły źródłowe były prawdziwe, były całkowicie nie na temat, a francuski artykuł omawiał niepowiązany rodzaj krabów" - wymieniają twórcy "WikiProject AI Cleanup".