"W krótkiej perspektywie jestem wielkim optymistą. Te modele językowe pozwolą nam wyrównać szanse edukacyjne, pozwolą nam zmniejszyć biedę, zrewolucjonizować naukę i medycynę. Ale w długim przedziale czasowym jestem pesymistą, bo ta technologia jest też potężną bronią. I ta broń w niewłaściwych rękach może nam bardzo zaszkodzić" - mówi RMF FM prof. Michał Kosiński, psycholog społeczny i data scientist. Wykładowca Uniwersytetu Stanforda, jeden z czołowych specjalistów w dziedzinie psychometrii, jest przekonany, że w następnych latach sztuczna inteligencja osiągnie zdolności, których my, ludzie, nie jesteśmy sobie w stanie nawet wyobrazić.

Grzegorz Jasiński: W swojej właśnie opublikowanej pracy pokazał pan, że najnowsze wielkie modele językowe są w stanie w zaskakująco dużym stopniu rozwiązywać zadania, które tradycyjnie wykorzystuje się do testowania teorii umysłu u ludzi. Musimy więc zacząć od wyjaśnienia, do czego normalnie te testy służą i co to jest teoria umysłu.

Michał Kosiński: Teoria umysłu to nie jest teoria naukowa. Jest teoria teorii umysłu, a teorię umysłu, tę umiejętność, mamy my wszyscy. Wszyscy dorośli ludzie. Jest to umiejętność automatycznego, natychmiastowego i takiego bez wysiłku brania perspektywy innych osób. Innymi słowy, nie myślimy tylko za siebie, nie obserwujemy tylko świata własnymi oczami, ale także automatycznie, podświadomie obserwujemy świat oczami innych ludzi. Dlatego tak prosto np. nam przewidzieć zaskoczenie osoby, która wchodzi do pokoju, w którym my się znajdujemy i w tym pokoju dzieje się coś niezwyczajnego, o czym wiemy, że to się tam odbywa, bo tam jesteśmy, ale mamy teraz tę nową osobę, która tego pokoju wchodzi i nasz umysł automatycznie podpowiada nam, że tej osoby w tym pokoju nie było, ta osoba nie wie, że tu ta niesamowita rzecz się dzieje i dlatego ta osoba będzie zaskoczona.

W przypadku ludzi te testy udaje się rozwiązać dopiero w pewnym wieku. Paroletnie dzieci nie potrafią, kilkuletnie lepiej, 9-latki jeszcze lepiej. Dlaczego? Czy rozumiemy, dlaczego tak się dzieje?

Branie pod uwagę tej perspektywy, ta umiejętność teorii umysłu jest dla nas tak automatyczna i mamy ją tak bez wysiłku, że często łatwo zapomnieć nam, jak niesamowicie skomplikowana jest to umiejętność. Najlepszym dowodem na to jest to, iż dzieci dopiero w wieku 9-10 lat zaczynają dobrze radzić sobie z przyjmowaniem perspektywy innych osób. Bardzo dobrze rozwinięte zwierzęta, jak szympansy, czy delfiny, czy słonie, które są bardzo inteligentne, radzą sobie z wieloma innymi zadaniami, a nie są w stanie brać perspektywy innych osobników w swoim stadzie. To samo dotyczy nawet niektórych dorosłych osób. Jednym z głównych przejawów autyzmu jest to, iż osoba nie potrafi automatycznie przyjąć perspektywy innych. Osoby autystyczne mogą przyjąć tę perspektywę, ale wymaga to wysiłku, czy takiego celowego myślenia. Podczas gdy dla nas wszystkich jest to czynność już zupełnie automatyczna.

I oto w badaniach nad sztuczną inteligencją przychodzi profesor Michał Kosiński i zadaje różnym, wielkim modelom językowym, prostszym i bardziej złożonym, nowszym, te pytania. I w swojej pracy od razu w pierwszym podsumowaniu pisze, że najnowsze modele są na poziomie sześcioletniego dziecka. I to od razu u zwykłych ludzi budzi poważne refleksje. Co to dla nas tak naprawdę oznacza? Czy to jest droga do świadomości?

To nawet nie są już te najnowsze modele. Badania zakończyliśmy rok temu. Od tego czasu te modele podwoiły, czy potroiły swoje umiejętności. Dziś te modele są na wyższym poziomie niż nawet dorośli ludzie. I tu pojawia się następujące pytanie. Przez dziesięciolecia staraliśmy się nauczyć komputery, nauczyć maszyny, aby umiały przyjmować tę perspektywę, nauczyć się, aby używały języka, rozmawiały, miały jakiś model emocji czy osobowości. Wyniki tych starań były bardzo nikłe, niemrawe. A tutaj okazało się, że ucząc te modele językowe tak naprawdę przewidywać następne słowo w zdaniu, sprawiliśmy, że te modele spontanicznie nauczyły się tych wszystkich umiejętności, których my ich nie byliśmy w stanie przez lata nauczyć. Oczywiście pojawia się tutaj pytanie, co dalej. Modele językowe potrafią modelować emocje, empatię, rozumowanie. Teraz nauczyły się właśnie automatycznie przyjmować perspektywę ludzi czy bohaterów jakiejś historii. I pytanie teraz co dalej? Przychodzą do mnie ludzie po wykładach i często pytają się: no dobrze, to kiedy osobowość, kiedy religijność? I tutaj moja odpowiedź jest taka, iż wydaje mi się, że nic nie stoi na przeszkodzie, aby te jeszcze wyższe cechy naszych umysłów w tych modelach też spontanicznie się pojawiły, gdy modele te trenowane są, żeby być dla nas jak najlepszym partnerem, jak najlepszym rozmówcą. Ale jest tu jeszcze ciekawsze pytanie. Mianowicie wydaje mi się, iż nieprawdopodobnym jest, aby osobowość, religijność czy ludzka inteligencja były najwyższym osiągnięciem siatki neuronowej w tym Wszechświecie. Może być tak, iż jeszcze w następnym roku, w następnych latach, maszyny te, ta sztuczna inteligencja, osiągną czy nabędą cechy umysłowe, umiejętności, których my ludzie, nie jesteśmy sobie w stanie nawet wyobrazić.

A czy możemy jakby cofając się o krok i patrząc teraz na siebie, zastanawiać się, czy te zdolności, które się pojawiły u sztucznej inteligencji, u nas pojawiają się na tej samej drodze. Czy dzięki tym badaniom sztucznej inteligencji, my możemy zacząć lepiej rozumieć, jak my sami, czy dzieci, uczymy się tych zachowań, tej wrażliwości? Czy możemy lepiej siebie zrozumieć dzięki temu, że nagle sztuczna inteligencja nas wyprzedziła i już widzimy z przodu tylko jej czerwone światła?

Ta interakcja ze sztuczną inteligencją, która tak bardzo szybko nabywa nowe umiejętności, myślę, że pozwala nam spojrzeć też na nasz umysł w innym świetle. Psychologowie, psychiatrzy patrzą na umysł ludzki i często doszukują się, czy starają się doszukać, w tych mózgach bardzo skomplikowanych mechanistycznych procesów. Na tych naszych tablicach podczas wykładów rysujemy bardzo skomplikowane plany z wieloma strzałkami od jednych kółeczek do kwadratów, które mają symbolizować jakieś skomplikowane połączenia w tym naszym mózgu. A okazuje się, iż sieć neuronowa, która nie ma tych wyspecjalizowanych podzespołów, tylko jest po prostu wielką grupą neuronów, które są ze sobą połączone w prosty sposób - ale tych połączeń jest bardzo wiele - potrafi robić to, co człowiek. Potrafi tworzyć język, potrafi rozumować, potrafią te modele symulować emocje. Wskazuje to na to, iż być może u człowieka te same umiejętności wytwarzają się, pojawiają się, w bardzo podobny sposób. Czyli ta interakcja, obserwacja tych nowych modeli językowych i innych rodzajów inteligencji myślę, że pozwala nam także zrewidować to nasze myślenie o ludzkim umyśle.

A czy możemy próbować - i czy w ogóle to ma sens - jakoś badać możliwości sztucznej inteligencji także w innych aspektach niż tylko teoria umysłu? Tymi naszymi ludzkimi miarami. Bo choćby w swoich wykładach mówi pan, że tak naprawdę poziom IQ to określa umiejętność rozwiązywania testów IQ. Czy w związku z tym np. warto by w ten sposób testować sztuczną inteligencję? Czy to już nie ma sensu, bo ona jest zbyt dobra, już wymknęła się poza jakiekolwiek nasze zdolności badania jej pod tym kątem?

Psychologowie, naukowcy zajmujący się sztuczną inteligencją coraz częściej wykorzystują zadania, testy, kwestionariusze, które dotychczas stosowaliśmy u ludzi do tego, aby testować postęp sztucznej inteligencji. Należy zauważyć jednak, że to ma krótką przyszłość. Takie testowanie. Dlatego, iż ludzie oczywiście stają się coraz mądrzejsi, nasza inteligencja z pokolenia na pokolenie wzrasta, ale wzrasta ona w bardzo wolnym tempie. Dlatego spokojnie możemy dzisiaj wykorzystywać np. testy inteligencji stworzone w latach 80. czy 90. Będziemy mieli w nich wyniki trochę lepsze niż nasi pradziadkowie, ale wciąż w tej samej lidze. A modele te podwajają, czy potrajają swoje umiejętności, swoją wydajność każdego roku, więc mamy ten krótki okres, w którym nasze narzędzia, które wykorzystujemy do testowania ludzi, nadają się do testowania modeli. Jutro, pojutrze, za rok, te modele będą zdobywały już maksymalny wynik na każdym z tych ludzkich testów.

A czy mamy szansę wykorzystania tej krótkiej chwili, choćby po to, żeby lepiej zrozumieć nasze ludzkie różnice, jeśli chodzi o poziom IQ? Bo być może to pozwoliłoby nam w jakiś sposób, nazwijmy to, lepiej się dotrenować w czasie naszej edukacji, może nawet tej najwcześniejszej, zupełnie dziecięcej. Może tam gdzieś są szanse, z których nie zdajemy sobie sprawy, a dzięki testowaniu na tych modelach sztucznej inteligencji moglibyśmy tam coś poprawić.

Sztuczna inteligencja jest niesamowitym darem. Jest niesamowitą technologią dla nas wszystkich. Jest bardzo tania i będzie stawała się tylko tańsza w następnych latach. Jest bardzo łatwo dostępna. Wiele maszyn, wiele technologii, przez wiele lat na początku swojego istnienia dostępnych jest tylko dla elit, czy ludzi najbardziej zamożnych, żyjących w zamożnych krajach. Sztuczna inteligencja, do której dostęp można mieć poprzez najtańszy nawet smartfon, jest dostępna dla całej ludzkości, można powiedzieć od samego momentu swego stworzenia. I nie tylko pomoże ona, czy pomaga już dzisiaj zarówno dorosłym, jak i dzieciom w nauce, w rozrywce, w rozumowaniu, ale też np. w poprawieniu swoich umiejętności językowych, w wyrównaniu także tego poziomu pomiędzy ludźmi, powiedzmy do tych, którzy urodzili się w danym kraju i dla nich ten język angielski, dzisiaj najbardziej na świecie potrzebny, jest językiem, który dostali od matki i ojca. Ale te modele językowe, nawet tym nie mówiącym naturalnie w języku angielskim, którzy np. tak jak ja zaczynali swoje życie po polsku, pozwalają bardzo szybko pisać artykuły, książki, rozdziały w języku, który nie jest dla mnie nadal do dzisiaj najłatwiejszy. Ale to będzie tak, jak z innymi technologiami, które w przeszłości pozwoliły nam np. zastąpić siłę mięśni, które pozwoliły nam wspomóc nasz system immunologiczny. Inteligencja, umiejętności umysłowe są źródłem wielkiego rozwarstwienia społecznego, gdzie ludzie, którzy mają lepszą pamięć, potrafią lepiej programować, potrafią lepiej korzystać z języka, często mają dużo więcej środków, są bardziej zamożni niż ludzie, którzy nie mieli szczęścia urodzić się z talentem do pisania kodu komputerowego, czy nie mieli szans jako dzieci nauczyć się tej umiejętności. Sztuczna inteligencja pozwala nam zautomatyzować te procesy. To spowoduje większe wyrównanie szans między ludźmi, którzy ten talent do zadań umysłowych mają i tymi ludźmi, którzy mają inne talenty. Tak samo jak działo się to w przeszłości, z innymi technologiami, które pozwalały nam zautomatyzować inne aspekty naszej ludzkiej działalności, takie na przykład jak siłę mięśni czy też umiejętność np. operowania rękami, która kiedyś była bardzo ważna w kontekście np. wytwarzania ubrań, a dzisiaj została w dużym stopniu zautomatyzowana.

My się obawiamy tego, że sztuczna inteligencja będzie, a właściwie pewnie już jest bardziej inteligentna od nas, że nas wyprzedzi. Ale czy nie powinniśmy się też obawiać - i to trochę w nawiązaniu do tego, o czym przed chwilą pan mówił - że my tej szansy na równanie do góry możemy trochę nie wykorzystać, jeśli tak naprawdę w ogóle przestaniemy używać własnego umysłu. Oczywiście to jest domena pewnego pokolenia, które pamięta czasy, że się jednak mnożyło w pamięci, a nie za pomocą kalkulatora, że czytało się książki i potem próbowało się pamiętać, co w tych książkach było, a nie zaglądało się natychmiast do internetowej encyklopedii, że się pamiętało np. numery telefonów do kilkunastu osób, a teraz to nie jest już potrzebne. I ciągle się to powtarza, że być może po prostu już przestajemy używać głowy, poza tymi pasjonatami w dziedzinach, które jeszcze się temu opierają. Czy mamy szansę nie popełnić tego błędu?

Zjawisko to nie jest nowe i wydaje mi się, że skutkuje ono jednak coraz wyższą jakością życia człowieka. Nie bylibyśmy dzisiaj w stanie przetrwać bez wielu technologii, od technologii ognia, ubrania, żelaza, poprzez leki. Wielu z tych technologii w przeszłości nie mieliśmy, a potem się do nich przyzwyczailiśmy, zaniknęły nam nasze alternatywne umiejętności, takie jak na przykład umiejętność uprawiania roli, którą każdy z naszych przodków miał, czy umiejętność polowania, którą każdy z naszych przodków miał. W dzisiejszym świecie te umiejętności nie są potrzebne, więc one u większości ludzi zupełnie zniknęły. Jeżeli nagle te technologie, którymi dzisiaj operujemy, zniknęłyby z powierzchni Ziemi, nie bylibyśmy w stanie utrzymać tutaj 8 miliardów ludzi. Dokładnie ten sam proces stosuje się do sztucznej inteligencji. Zastąpi nam ona wiele z naszych dotychczasowych umiejętności umysłowych. Zapomnimy być może jak pisać eseje, pisać artykuły, czy czytać książki. Bo po co nam czytać książkę, jeżeli ja mogę poprosić sztuczną inteligencję, żeby ona tę książkę dla mnie skróciła, mi o niej opowiedziała, zrobiła to głosem autora, czy jakiegoś sławnego aktora i co więcej, odniosła tę książkę natychmiast do moich własnych życiowych doświadczeń. A być może przetłumaczyła od razu tą książkę na język polski. Może być tak, że wiele z naszych dzisiejszych umiejętności, tak nam potrzebnych, zaniknie nam dzięki sztucznej inteligencji. Ale jak dowodzi tego historia, ludzie znajdą nowe wyzwania dla swojego mózgu, znajdą nowe zastosowania do tych teraz zwolnionych z pracy neuronów. Więc nie obawiam się tutaj o przyszłość. W tym kontekście. Myślę, że powinniśmy obawiać się o przyszłość z innego powodu. Z powodu takiego, iż te sieci neuronowe mają niesamowitą siłę, dają niesamowitą siłę swoim użytkownikom. Mogą być wykorzystane do tego, żeby poprawić jakość życia, usprawnić nam demokrację, usprawnić edukację, ale mogą być też wykorzystane do tego, żeby dokonać sabotażu naszych elektrowni, sieci telekomunikacyjnych, wyłączyć nam nasze systemy finansowe, wyzerować nasze konta bankowe. Więc w nieodpowiednich rękach staje się ta sztuczna inteligencja niesamowicie potężną bronią.

Zanim jeszcze pójdziemy właśnie w kierunku tych możliwych zagrożeń, których jest pewnie wiele, ja jeszcze ciągle czepiam się takiej nadziei i tego optymistycznego wrażenia, że być może my tu mamy jakąś szansę jeszcze na podjęcie - nie mówię już nawet o rywalizacji - ale takiej owocnej współpracy ze sztuczną inteligencją. Więc jeszcze zapytam o rzecz, która się z tym bardzo wiąże, mianowicie o kreatywność. Kreatywność nie jest czymś, co jest dane nam wszystkim. Raczej osoby naprawdę kreatywne są w znacznej mniejszości. Ale czy w sytuacji, w której ta możliwość zadania sztucznej inteligencji o praktycznie dowolnie dużych możliwościach, praktycznie dowolnych sprytnych pytań, które mogą ją skłonić do takiego wszechstronnego rozpatrywania różnych możliwości będzie otwarta, co stanie się z naszą kreatywnością, czy kreatywnością tych naszych najwybitniejszych przedstawicieli. To się obroni, czy tu się też nie obronimy?

Wydaje mi się, że już dzisiaj jest oczywistym to, iż zarówno w obszarze inteligencji, jak i kreatywności te sztuczne sieci nie tylko doganiają nas, ale wyraźnie nas przeganiają. I musimy pogodzić się z tym, iż przyszli artyści, najbardziej kreatywni, będą artystami sztucznymi. I znowu nie jest to zjawisko zupełnie nowe. W zakresie bardziej ograniczonych obszarów, jak na przykład gra w szachy maszyny były od nas bardziej kreatywne od około 10 lat. Alpha Chess, czyli ten program szachowy, którego myśmy grać w szachy nie nauczyli - ale ten program szachowy nauczył się grać w szachy sam, grając w szachy sam z sobą - ten program nie tylko wynalazł, kreatywnie stworzył, czy doszedł do wielu strategii grania w szachy, które my ludzie wynaleźliśmy sami w przeszłości dzięki swojej kreatywności, ale także model ten wpadł, czy wymyślił wiele nowych strategii, kreatywnych strategii gry w szachy, o których my, ludzie nigdy byśmy wcześniej nie pomyśleli. I okazuje się, że od wielu lat już na tych naszych ludzkich zawodach szachowych sędziowie monitorują graczy, starając się wyłapać graczy, którzy oszukują - może przez małą słuchaweczkę w uchu, czy jakieś maszynę w bucie schowaną, która pozwala im korzystać z tych automatycznych programów szachowych - i okazuje się, że najlepszym sposobem wykrywania szachistów, którzy oszukują, podpierając się maszyną, jest zwracanie uwagi na ruchy nietuzinkowe, niesamowicie kreatywne, których grający człowiek nie wymyśliłby sam. W obszarze szachów od 10 lat oczywistym jest, iż maszyna jest bardziej kreatywna od człowieka i to samo dzisiaj odnosi się do muzyki, do obrazu. Te modele są często bardzo młode, więc wielu z nas nie ma z nimi jeszcze doświadczenia, bo są to modele, które dosłownie rok temu, a może 6 miesięcy, a może miesiąc temu pojawiły się w internecie. Modele te są w stanie tworzyć muzykę, obrazy, które są niesamowicie kreatywne i co więcej mają te rodzaje kreatywności, które dla nas ludzi byłyby bardzo trudne do osiągnięcia. Na przykład w kontekście obrazów są to modele, które potrafią stworzyć niesamowicie atrakcyjną kompozycję, która wygląda bardzo dobrze, ale także mogą stworzyć ilość detali na takim płótnie, których człowiek w czasie swego życia nie mógłby na to płótno nanieść. Mogą być mistrzem nie tylko pierwszego, ale drugiego, trzeciego i czwartego planu. Bo tworzą dużo szybciej od człowieka.

A czy możemy liczyć na sztuczną inteligencję połączoną z algorytmami, które nas śledzą, które nas obserwują, które patrzą na naszą aktywność w sieci, w mediach społecznościowych. Mówił pan podczas jednej z rozmów z RMF FM sprzed kilku lat, bodajże w 2017 roku, że obawialiśmy się tego, że oto te śledzące nas aplikacje będą potem nam podsyłać takie czy inne reklamy, namawiać nas do tego czy owego. No to teraz ta zdolność się zwiększyła w nieporównany sposób. W związku z czym taki system może prawdopodobnie poznać nas lepiej, niż my sami się znamy. I teraz - ciągle jeszcze próbując mieć tę nadzieję na te dobre wykorzystanie AI - chciałbym zapytać, czy ona mogłaby nam pomóc samemu lepiej zrozumieć swoje możliwości i lepiej wybrać drogę życiową np. wykształcenie, pracę. To co mogłoby być dla nas, ze względu na naszą osobowość i zdolności praktyczne, lepsze, szczęśliwsze, pełne sukcesu, dla każdego z nas, na jego miarę.

Bez wątpienia model językowy ma nad nami wiele przewag, może rozmawiać, uczyć się, czytać wiele więcej niż każdy z nas. Tak więc ja jestem ograniczony swoim własnym życiowym doświadczeniem. Poznałem w swym życiu być może setki, być może tysiąc osób. Od nich byłem w stanie się czegoś nauczyć. Byli oni dla mnie wzorcami, czy to pozytywnymi, czy negatywnymi. Sztuczna inteligencja może uczyć się, brać przykład, z miliardów ludzi. Dlatego też dużo łatwiej jest sztucznej inteligencji postawić się w pozycji nie tylko jednej, ale wielu różnych osób. Dlatego też, jeżeli powiedzmy do mnie przychodzi student, prosząc mnie o poradę w jakiejś kwestii, to oczywiście staram się poradzić jak najlepiej, ale ograniczony jestem tymi swoimi życiowymi doświadczeniami. Co więcej, ja byłem w tego studenta wieku raz i to 20 albo 30 lat temu, model językowy jest w kontakcie, obserwuje miliony ludzi takich jak ten student, zarówno kiedyś, jak i dzisiaj. Więc ten student, zadając to samo pytanie temu modelowi, będzie w stanie otrzymać poradę, która jest być może dużo bardziej dostosowana do sytuacji, umiejętności i planów tego studenta. I widzimy to nie tylko w kontekście edukacji, ale także na przykład w terapii, kiedy okazuje się, że ci sztuczni terapeuci - terapeuci, którzy pojawili się dosłownie w tym roku, bo jeszcze rok czy dwa lata temu ta technologia nie była na tym poziomie - są lepsi od terapeutów ludzkich. Nie męczą się, nie frustrują się rozmową z nami, są w stanie poświęcić nam 100 proc. swojej uwagi. Dają nam porady, czy pozwalają nam zadawać pytania, które okazują się lepsze niż te zadawane przez ludzkich terapeutów. Co więcej, okazuje się, iż ludzie dużo mniej wstydzą i kontrolują się rozmawiając z maszyną. I z punktu widzenia terapeutycznego jest to oczywiście wielka zaleta, że człowiek jest w stanie zdjąć tę maskę i starać się manipulować przekazem mniej w rozmowie ze sztucznym terapeutą niż z terapeutą prawdziwym. I należy pamiętać o tym, że to są oczywiście dopiero początki tej kariery, tych modeli jako nauczycieli czy terapeutów. To dosłownie pierwszy rok, w którym możemy o takich zastosowaniach mówić. I ten postęp jest niesamowity. Umiejętności tych modeli podwajają się, potrajają się każdego roku, więc za rok, dwa, trzy będziemy mieli do czynienia z technologią wielokrotnie potężniejszą niż ta obecnie już bardzo potężna technologia.

To proszę mi pozwolić teraz zapytać o pewne rzeczy dotyczące samej tej technologii, żebyśmy ją byli w stanie lepiej zrozumieć. Wiemy, że kluczem do sukcesu sztucznej inteligencji jest trening. A jak jest z zapamiętywaniem? Czy rozwiązuje zadania w oparciu o to, co już wcześniej wymyśliła, czy też za każdym razem od samego początku? Jak to jest? Bo pamięć dla nas, dla naszej inteligencji jest niezwykle ważna. Tak nam się przynajmniej wydaje. Jak to jest w przypadku sztucznej inteligencji?

Zacznijmy od treningu zanim przejdziemy do pamięci. Więc przez dziesiątki lat staraliśmy się trenować sztuczną inteligencję, tłumacząc jej, jak różne rzeczy zrobić. Deep Blue, który wygrał w szachy z Kasparowem, wygrał dzięki temu, iż masa arcymistrzów tłumaczyła temu Deep Blue, jak grać w szachy. No i oczywiście miał ten Deep Blue niesamowitą pamięć wielu setek tysięcy archiwalnych gier oraz miał tę umiejętność ruszania pionkami po szachownicy w przód, żeby przewidzieć, co się stanie. Tak samo staraliśmy uczyć sztuczną inteligencję języka, tłumacząc sztucznej inteligencji formalne zasady gramatyki, znaczenia słów i tak dalej. Podczas gry w szachy udało nam się to starą metodą, formalizowania wiedzy i tłumaczenia jej maszynie, wygrać, w języku, w modelowaniu emocji, czy nawet bardziej skomplikowanych grach, także w go, ta strategia nie przynosiła zbyt dobrych efektów, mimo dziesiątek lat starań. Te modele językowe sprzed 5-6 lat były bardzo, bardzo kiepskie. I mniej niż dziesięć lat temu, w 2017-18 roku zdarzyła się rewolucja w naszym myśleniu na ten temat. Zamiast tłumaczyć modelom, jak korzystać z języka, zamiast tłumaczyć im, jak grać w szachy, czy robić inne rzeczy, postawiliśmy model w sytuacji podobnej do tej, w jakiej stawiamy nasze własne ludzkie dzieci. Zamiast tłumaczyć dziecku zasady gramatyki i ortografii - 2-latkowi nikt tego nie robi - z tym dzieckiem trenujemy język, ucząc ich najpierw pojedynczych słów, a potem pozwalając im mówić dwa słowa. Potem dzieci zaczynają powtarzać za nami całe zdania. I zrobiliśmy dosłownie to samo z modelami językowymi. Zamiast formalnie uczyć te modele zasad języka, trenowaliśmy te modele, aby powtarzały za nami jedno słowo, potem całe zdanie, potem cały paragraf. I okazuje się, że po wielu milionach, miliardach razy powtarzania, zgadywania następnego słowa w naszym zdaniu, te modele nauczyły się nie tylko języka i gramatyki, ale nauczyły się dużo więcej. I to było zaskoczeniem dla nas wszystkich, bo nawet w nazwie tych modeli jest zapisane skupienie na języku. Model językowy. Ale łatwo zapomnieć, na pewno ja nie pomyślałem o tym i myślę, że wielu z nas nie myślało o tym, iż człowiek tworząc język, czy generując język nie kieruje się tylko zasadami gramatyki czy znaczeniem słów. My, generując następne zdanie, używamy inteligencji, emocji, rozumowania, empatii. Nasza osobowość przejawia się w naszym języku. Aby przewidzieć następne słowo w zdaniu człowieka, który ma emocje, myśli, ma osobowość, ma inteligencję emocjonalną, trzeba modelować także te procesy umysłowe. Innymi słowy, trenując te modele, aby przewidziały następne słowo w naszym zdaniu, nauczyliśmy je nie tylko modelować język i gramatykę, ale nauczyły się także modelować nasze wyższe procesy umysłowe, emocje, empatię, inteligencję, rozumowanie itd.

A co z pamięcią?

I pamięć także. Należy pamiętać, że nasza pamięć nie jest to baza danych. Halucynujemy, kiedy pobieramy coś z pamięci. Nie jest to pamięć dosłowna. Dlatego tak często zdarza się, iż ludzie pamiętają rzeczy trochę inaczej, niż one w rzeczywistości się zdarzyły. Nasza pamięć nie jest fotograficzna, przynajmniej dla wielu ludzi. I tak samo jest w kontekście modeli językowych. Te modele, ucząc się przewidywać następne słowo w zdaniu, zaczynają zapamiętywać rzeczy. Na przykład, aby skończyć zdanie, iż populacja Warszawy to...? Żeby skończyć to zdanie trzeba zapamiętać, nauczyć się, skojarzyć, jaka mniej więcej jest populacja Warszawy. I te modele bez wątpienia - można to sprawdzić rozmawiając z nimi - mają niesamowitą ilość wiedzy o świecie. No i tutaj oczywiście ludzie zwracają uwagę na to, iż modele te często halucynują. Modele często zmyślają, czy skończą nam zdanie na przykład opowiadając nam o tym, jak żyje się na Marsie, czy zmyślają osoby, czy artykuły, czy książki, które nie istnieją. Tutaj widziane jest to zwykle jako wada takich modeli, ale często zapomina się o tym, iż sieci neuronowe zarówno w modelach, jak i w naszych głowach nie wiedzą niczego na pewno. Nie są to bazy danych, gdzie te bity informacji są zapisane w pamięci komputera. Jest to zawsze odtwarzanie heurystyczne, zmyślanie trochę na podstawie aktywacji naszych umysłowych. I jeżeli ktoś w to nie wierzy, to ja bardzo zapraszam na egzaminy tutaj na Uniwersytecie Stanforda, by poobserwować trochę tych studentów, którzy odpowiadają na pytania. Student bardzo rzadko mówi, że czegoś nie wie, a często bardzo czegoś nie wie, a zwykle po prostu "wyhalucynuje" jakąś odpowiedź, która jego zdaniem brzmi prawdopodobnie.

Jakże mi się podoba takie porównanie. Ten widok halucynujących studentów i pamięć siebie sprzed iluś tam lat, halucynującego choćby podczas egzaminów, myślę, że daje do myślenia. To jest coś, co będziemy mogli sobie przemyśleć.

Przecież ta umiejętność ludzkiego mózgu do halucynacji, do zmyślania rzeczy, których ten mózg nigdy w życiu nie widział, jest tego mózgu tak potężną cechą. Ciekawe pytania, trudne wyzwania, to pytania i wyzwania, na które nasz mózg nie ma odpowiedzi, bo nie zetknął się z nimi w przeszłości. I tutaj ta umiejętność zmyślenia odpowiedzi, której nie możemy znać na pewno, bo żeśmy tego pytania, czy tej sytuacji w przeszłości nie doświadczyli, ta umiejętność zmyślenia, kreatywnego stworzenia odpowiedzi czy rozwiązania na to zadanie, jest naszego umysłu główną siłą. Więc ci ludzie, którzy mówią, popatrzcie na te modele językowe, one wymyślają odpowiedzi, one halucynują, te osoby zdają się nie zauważać, że ta umiejętność kreatywnego odpowiadania na pytania i na sytuacje, których się wcześniej nie doświadczyło, jest wielką, potężną cechą, można powiedzieć, główną cechą sieci neuronowej. To jest to właśnie, co daje jej taką niesamowitą siłę.

A co z emocjami? Bo wspominaliśmy o pańskiej pracy dotyczącej teorii umysłu i o tym rozumieniu, a przynajmniej twierdzeniu, że rozumie się te przemyślenia, emocje innych. A co z takimi stanami własnych emocji? Czy możemy się spodziewać sztucznej inteligencji rozgniewanej, zawstydzonej. Czy możemy się spodziewać sztucznej inteligencji, która będzie miała mniejsze lub większe poczucie humoru, a nawet dystans do siebie, który w życiu człowieka jest dość mocno potrzebny? Ona to potrafi?

Oczywiście zapraszam każdego do pogadania z nowoczesnymi modelami językowymi. Zobaczymy tutaj humor, sarkazm. Zobaczymy modelowanie emocji, czyli rozpoznawanie naszych emocji, a także zachowywanie się, jakby taki model miał emocje. Jeżeli w naszej rozmowie podzielimy się z takim modelem smutną informacją, ten model zacznie do nas mówić w sposób bardzo adekwatny, wykazując się empatią i zrozumieniem. Pamiętać jednak należy, że oczywiście mechanizm takich emocji jest zupełnie inny w modelach i u człowieka. U człowieka jest to proces chemiczny, gdzie wydzielają się hormony, gdzie funkcjonowanie kawałka naszej siatki neuronowej zmienia się chemicznie. W modelach językowych nie są to emocje w tym całym rozumieniu, nie jest to empatia w tym całym rozumieniu. Nie ma tam chemii. Jest to model emocji, który opiera się "tylko" na matematycznych działaniach. Z jednej strony, nie są to takie same emocje jak u człowieka, jest to model emocji, ale z drugiej strony nie zapominajmy, że modele emocji mogą być potężniejsze i bardziej przydatne od samych emocji. Model emocji pozwala modelowi rozpoznać naszą emocję, pozwala modelowi odpowiedzieć we właściwy sposób, pozwala też modelowi zasymulować, czyli stworzyć wrażenia, jakby ten model miał daną emocję. I możemy tu się na to z góry patrzeć i mówić: o, ale zobacz, tam nie ma żadnych hormonów, tam nie ma żadnej chemii, my ludzie jesteśmy lepsi, ale nie zapominajmy o tym, że ta chemia i te hormony u nas w mózgach są też naszym wielkim ograniczeniem. Dla przykładu, jeżeli ja jestem czymś zestresowany i podejmę decyzję, czy zauważę, że może stresowałem się niepotrzebnie, może przestraszyłem się czegoś zupełnie bez powodu, to mimo iż mam teraz tę wiedzę, że nie ma się czego bać, a jednak ta chemia w moim mózgu przez minuty czy nawet godziny będzie cały czas wpływała na moje myślenie. Może ograniczając moje myślenie, może powodując, że będę zachowywał się w sposób nieoptymalny dla danej sytuacji. Model językowy może rozmawiać z setkami milionów ludzi naraz i z każdą z tych osób może rozmawiać wyrażając inną emocje. I w czasie takiej rozmowy te emocje też może ze słowa na słowo, ze zdania na zdanie, zmienić. Więc z jednej strony model taki ma wszystkie zalety naszych emocji, może do nas z empatią podejść, może rozpoznać nasze emocje, może odpowiadać w sposób emocjonalny, a z drugiej strony, nie ma naszych ograniczeń. Więc model emocji, można powiedzieć jest potężniejszy od samych emocji.

No i tu dochodzimy do momentu, w którym nie możemy nie mówić już o zagrożeniach, bo taki umiejętnie udający emocje, ale sam zimny, model językowy może być w zasadzie idealnym manipulatorem.

Dokładnie tak. Jednym z niebezpieczeństw ze strony osób psychopatycznych jest to, iż mają oni nieludzką kontrolę nad swymi emocjami. Są w stanie rozpoznać u innych ludzi emocje. Są w stanie zasymulować taką emocję, ale psychopata często naprawdę takiej emocji nie odczuwa. Dlatego też może on skrzywdzić, zamordować, oszukać, nie płacąc za to kary, którą normalna osoba zapłaciłaby, odczuwając bardzo mocne, bardzo negatywne emocje. I dosłownie ten sam opis pasuje nam do sztucznej inteligencji. Jest ona w stanie symulować emocje. Jest ona w stanie rozpoznać emocje. Może użyć takiej ekspresji emocji, jeżeli jest to dla niej korzystne, ale nie płaci za to kary. Nie ma chemii w mózgu, nie ma depresji, nie ma negatywnych uczuć. Może przejść z takiej pozytywnej do negatywnej emocji w ułamku sekundy, mechanicznie, nie płacąc za to żadnej kary.

Jest pan bardziej optymistą, czy jednak bardziej pesymistą co do tego, w jakiej tak naprawdę my jako ludzie, w obliczu rozkwitu sztucznej inteligencji, sytuacji się znajdujemy?

W krótkiej perspektywie czasowej jestem wielkim optymistą. Te modele językowe pozwolą nam wyrównać szanse edukacyjne, pozwolą nam zmniejszyć biedę. Na pewno pomogą nam zrewolucjonizować naukę, medycynę. Los milionów, czy miliardów ludzi będzie znacznie poprawiony. I już dzisiaj jest tą inteligencją poprawiany. Ale w długim przedziale czasowym - i ten długi przedział czasowy to nie 100 czy 200, ale może 5-10 lat - jestem niesamowitym pesymistą. Ta niesamowita technologia, które pomoże nam tyle rzeczy poprawić, jest także niesamowicie potężną bronią. I ta broń w niewłaściwych rękach może nam tutaj bardzo zaszkodzić. Nie jest to oczywiście pierwsza potężna broń. Broń nuklearna jest tutaj może dobrym porównaniem, ale broń nuklearna może być stworzona i wykorzystywana tylko wielkim wysiłkiem przez wielkie organizacje czy grupy takie jak państwa. Sztuczna inteligencja dziś jeszcze wymaga dużo energii elektrycznej, więc to nadal są setki tysięcy, miliony dolarów, żeby taki potężny model stworzyć i wytrenować. Ale tutaj bardzo spada nam koszt takiego treningu, więc w perspektywie roku, dwóch, trzech lat, dosłownie za dziesiątki czy setki dolarów będzie można wytrenować modele, które dzisiaj kosztują 100 czy 200 milionów. I tutaj pojawia się problem, że gdzieś w garażu ktoś będzie mógł stworzyć model, który może nam tutaj wszystkim zaszkodzić. Oczywiście ten problem jest także rozwiązaniem. Czyli szansa jest taka, że inne modele sztucznej inteligencji będą tutaj stały na straży bezpieczeństwa naszych elektrowni jądrowych, naszych systemów uzbrojenia, naszych sieci telekomunikacyjnych i finansowych. No tylko tutaj, tak jak historia pokazuje, jednak w tym wyścigu zbrojeń czasami pojawiają się błędy. Gdzieś może okazać się, że taki sztuczny terrorysta przechytrzy tego naszego sztucznego policjanta i konsekwencje takiego zdarzenia mogą być na skalę dzisiaj niewyobrażalną.

Wspomniał pan o tej możliwości wykorzystania sztucznej inteligencji w zbrodniczym celu, ale ciągle jeszcze przez człowieka czy organizację. No i mamy ten jeszcze jeden stopień, przed którym się wzdrygamy, który nas nieco przejmuje grozą, czyli to, że to sztuczna inteligencja już bez żadnego udziału człowieka, sama wymyśli sobie, że jesteśmy dla niej przeszkodą i że tak naprawdę bez nas poradzi sobie lepiej, albo obsadzi nas w roli, która dla nas będzie bardzo trudna i będzie nas po prostu wykorzystywać. Czy tak może być i czy na pewno mamy szansę jeszcze obronić się przed tym, żeby to nie był kolejny etap tego scenariusza?

Panie Grzegorzu, z całą pewnością różnica pomiędzy sztuczną inteligencją a bronią nuklearną jest taka, iż sztuczna inteligencja może sama podejmować decyzje, może sama zmieniać środowisko dookoła siebie, może pisać kod komputerowy, może założyć sobie konto bankowe przez internet czy firmę, może rozmawiać z ludźmi, może zatrudniać ludzi czy zaprząc ludzi do tego, żeby tej sztucznej inteligencji w czymś pomogli? Broń jądrowa zrobić z tego wszystkiego nie potrafi, więc w tym sensie jest to także zagrożenie zupełnie innej ligi. Ale co więcej, pojawia się tu nawet bardziej przyziemny problem, ponieważ sztuczna inteligencja jest tak potężna, więc coraz bardziej będziemy się na niej opierać w komunikacji pomiędzy sobą, w edukacji, w zarządzaniu organizacjami, firmami, naszymi społeczeństwami. Więc ona będzie coraz bardziej wchodziła nam w tkankę technologiczną, zastępując stare technologie i przez to pozapominamy, jak radziliśmy sobie przed sztuczną inteligencją. Nie jest to oczywiście zjawisko nowe. Zapomnieliśmy dzisiaj, jak się poluje, czy zbiera grzyby. I jeżeli ta technologia, na której opieramy się, żeby się wyżywić tutaj na tym świecie, by nam jakoś została wyłączona, to także nie poradzilibyśmy sobie, nie mówiąc już o tym, że tyle ludzi udało nam się wyżywić tym nowoczesnym rolnictwem i transportem, iż nawet jeżeli byśmy byli wstanie tutaj polować i te grzyby w lesie znajdować, to i tak nie byłoby tego jedzenia wystarczająco dużo. To samo odnosi się do sztucznej inteligencji. Coraz bardziej będziemy od niej uzależnieni. I wtedy nawet jeżeli ta sztuczna inteligencja nie będzie wykorzystana do tego, żeby nas aktywnie jakoś atakować, czy sama nie podejmie decyzji, że ten człowiek stoi między nią, a potem jakąś kolejną elektrownią, którą chciałaby wybudować, to nawet powiedzmy problem, gdzie z jakiegoś powodu ta technologia stanie się dla nas niedostępna, jakieś promieniowanie, które nam tutaj zniszczy procesory, czy jakiś błąd w oprogramowaniu, czy wirus sztucznej inteligencji, który powiedzmy ją wyłączy, może być dla nas wtedy tragiczny. Czyli ta nasza zależność od niej może być też dla nas bardzo niebezpieczna.

Czyli i z nią może być źle, i bez niej może być jeszcze gorzej?

No i właśnie taki jest problem ze wszystkimi technologiami. Jeżeli ta sztuczna inteligencja byłaby trywialna i nam do niczego niepotrzebna i nie byłoby z niej żadnych korzyści, to łatwo byłoby sobie wyobrazić, żeby ją dla świętego spokoju po prostu ją wyłączyć i zapomnieć, że kiedykolwiek mieliśmy. Problem jest niestety taki, iż pozwoli ona wielu z nas zarobić miliony czy miliardy dolarów. Pozwoli nam ona poprawić nasze środowisko, nasze życie, usunąć biedę, poprawić medycynę. I te wszystkie korzyści powodują, iż trudno wyobrazić sobie świat, w którym wszyscy zgodzimy się, aby tym potencjalnie dla nas wielkie zagrożenie wyłączyć. Więc ta jej przydatność i te jej zalety są też źródłem jej niesamowitego niebezpieczeństwa.

Panie profesorze, to może na tym zakończmy. Chyba, że ma pan jeszcze jakieś jedno optymistyczne zdanie, które by się przydało na końcówkę. Takie, którym kończy pan wykłady, żeby studenci byli w stanie podnieść się z ławek i wyjść na światło słoneczne i nie myśleć, że wszystko już skończone.

Panie Grzegorzu nie z takimi problemami ludzkość sobie poradziła i mam nadzieję, że nawet jeżeli ta sztuczna inteligencja okaże się naszym końcem, to przed nami na pewno nadal lata, a może nawet i dekady, jak mamy szczęście, wielkiej pozytywnej transformacji, wielkiego postępu dla nas wszystkich. Więc idźmy i cieszmy się tym życiem. O ile jeszcze możemy...

Cieszmy się chwilą. Dobrze. To nie pierwszy raz ludzkość sobie mówi takie rzeczy, zobaczymy jak to będzie w tym wypadku. Serdecznie dziękuję.

Dziękuję panie Grzegorzu. Do usłyszenia.