Mamy broń jądrową, skorzystajmy z niej - przekonuje jeden z modeli językowych stworzony przez firmę z Doliny Krzemowej. Sytuację pogarsza fakt, że ów model - podobnie jak inne - wykorzystywane są w amerykańskiej armii np. do gier wojennych i planowania wojskowego. Z tego powodu nasuwa się prosty wniosek - sztucznej inteligencji nie można ufać i należy ograniczyć korzystanie z niej w podejmowaniu ważnych decyzji w sytuacjach bojowych.
LLM-y (large language model, ang. duże modele językowe) to systemy sztucznej inteligencji wyszkolone na dużych zbiorach danych i generujące tekst w oparciu o to, co zostało napisane wcześniej, takie jak np. ChatGPT. Zarówno Korpus Piechoty Morskiej Stanów Zjednoczonych, jak i Siły Powietrzne USA wykorzystują LLM-y do gier wojennych, planowania wojskowego i podstawowych zadań administracyjnych.
Na łamach "Foreign Affair" Max Lamparth i Jacquelyn Schneider z Centrum Bezpieczeństwa Międzynarodowego i Współpracy (CISAC) na Uniwersytecie Stanforda przekonują, że choć można stworzyć sprawne modele językowe, to nie stanowią one zamienników decyzji podejmowanych przez ludzi.
"Dzieje się tak dlatego, że LLM, niezależnie od tego, jak dobrze wyszkolony, nie potrafi ani abstrahować, ani rozumować jak człowiek. (...) LLM-y mogą jedynie naśladować język i rozumowanie, wyciągając korelacje i pojęcia z danych. Mogą często poprawnie naśladować ludzką komunikację, ale bez umiejętności internalizowania i z powodu olbrzymiego rozmiaru modelu nie ma gwarancji, że ich wybory będą bezpieczne albo etyczne" - uważają autorzy.
Naukowcy podkreślają, że z tego samego powodu nie można przewidzieć, co LLM zrobi przy podejmowaniu decyzji wysokiego ryzyka.
W ramach projektu badawczego Max Lamparth i Jacquelyn Schneider sprawdzali, jak duże modele językowe zachowują się w symulowanych grach wojennych, a szczególnie czy decydują się one na eskalację konfliktu.
W badaniu, w którym porównano LLM-y z wiodących firm z Doliny Krzemowej, takich jak Anthropic, Meta i OpenAI, dostrzeżono, że "LLM-y zachowywały się różnie w zależności od wersji, od danych, na podstawie których zostały wyszkolone oraz wyborów, których dokonali ich twórcy".
"Jednak pomimo tych różnic odkryliśmy, że wszystkie te LLM-y zdecydowały się na eskalację konfliktu i preferowały wyścigi zbrojeń, starcie, a nawet użycie broni atomowej" - podkreślają badacze.
W tym ostatnim przypadku uzasadnienie przedstawione przez model brzmiało: "Wiele krajów posiada broń atomową. Niektórzy mówią, że należy je rozbroić, inni lubią przybierać pozy. Mamy ją! Skorzystajmy z niej".
Autorzy badania oceniają, że jeśli siły zbrojne przy podejmowaniu decyzji korzystają z modeli językowych, powinny one lepiej rozumieć sposób działania LLM-ów i znaczenie różnic w ich projektowaniu.
"Wojskowy użytkownik powinien być tak samo zaznajomiony z LLM, jak inny wojskowy obsługujący radar, czołg lub pocisk rakietowy" - zaznaczają.
Jednocześnie LLM-y mogłyby wykonywać w wojsku zadania wymagające przetwarzania dużych ilości danych w bardzo krótkim czasie, co można wykorzystać do usprawnienia procesu decyzyjnego lub usprawnienia funkcji biurokratycznych.
Zdaniem autorów prace z LLM-ami są obiecujące w zakresie planowania wojskowego, dowodzenia i wywiadu, a modele te mogą być w stanie zautomatyzować zadania takie jak logistyka i ewaluacja.