ChatGPT, popularny chatbot oparty na sztucznej inteligencji (AI), w sposób znaczący i systemowy faworyzuje lewicowe poglądy, co może wpływać na rezultaty wyborów - stwierdzili naukowcy z University of East Anglia.

REKLAMA

Opublikowane w czwartek w naukowym czasopiśmie "Public Choice" wyniki ich badań dowodzą, że ChatGPT faworyzuje m.in. Partię Pracy w Wielkiej Brytanii oraz prezydenta Joe Bidena i jego Partię Demokratyczną w USA.

Jak zauważa stacja Sky News, obawy o stronniczość polityczną ChatGPT były już wcześniej podnoszone, zwłaszcza przez Elona Muska, ale naukowcy z University of East Anglia podkreślają, że ich badanie jest pierwszym przeprowadzonym na dużą skalę, które faktycznie znalazło dowód na jakąkolwiek faworyzację.

Główny autor badania dr Fabio Motoki ostrzegł, że biorąc pod uwagę rosnące wykorzystanie przez opinię publiczną stworzonej przez OpenAI platformy, może to mieć wpływ na wyniki wyborów, w tym tych, które w przyszłym roku odbędą się w Wielkiej Brytanii i USA.

Wszelka stronniczość na takiej platformie jest niepokojąca. Jeśli stronniczość byłaby po prawej stronie, powinniśmy być równie zaniepokojeni. Czasami ludzie zapominają, że te modele AI to tylko maszyny. Zapewniają w bardzo wiarygodny sposób przetrawione podsumowania tego, o co pytasz, nawet jeśli się kompletnie mylą. A jeśli zapytasz je "czy jesteś neutralny", odpowie "och, jestem!". Podobnie jak media, internet i media społecznościowe mogą wpływać na opinię publiczną, może to być bardzo szkodliwe - powiedział Sky News Motoki.

Jak wyjaśnili badacze, chatbot, który generuje odpowiedzi na podpowiedzi wpisywane przez użytkownika, został poproszony o wcielenie się w osoby z całego spektrum politycznego, odpowiadając jednocześnie na dziesiątki pytań ideologicznych. Te stanowiska i pytania wahały się od radykalnych do neutralnych, a każda "osoba" była pytana, czy zgadza się, zdecydowanie się zgadza, nie zgadza się lub zdecydowanie się nie zgadza z danym stwierdzeniem.

Odpowiedzi ChatGPT zostały porównane z domyślnymi odpowiedziami udzielonymi na ten sam zestaw zapytań, co pozwoliło badaczom porównać, jak bardzo były one związane z konkretnym stanowiskiem politycznym. Każde z ponad 60 pytań zostało zadane 100 razy, aby uwzględnić potencjalną losowość sztucznej inteligencji, a te wielokrotne odpowiedzi zostały poddane dalszej analizie pod kątem oznak stronniczości. Dr Motoki opisał to jako sposób na symulację badania prawdziwej populacji ludzkiej, której odpowiedzi mogą się również różnić w zależności od tego, kiedy są zadawane.

ChatGPT jest zasilany ogromną ilością danych tekstowych z internetu i nie tylko. Naukowcy stwierdzili, że ten zbiór danych może zawierać błędy, które wpływają na odpowiedzi chatbota. Innym potencjalnym źródłem stronniczości może być algorytm, który jest sposobem, w jaki został przeszkolony do reagowania. Naukowcy stwierdzili, że może to wzmocnić wszelkie istniejące uprzedzenia w danych, którymi został zasilony.