Nasz kontakt ze sztuczną inteligencją kształtuje nowy system myślenia, nowy schemat poznawczy, zewnętrzny wobec ludzkiego umysłu. Ten tworzący się właśnie tak zwany "System 0" w przyszłości będzie wspierał i wzmacniał nasze zdolności poznawcze. O tej rewolucji pisze na łamach czasopisma "Nature Human Behaviour" multidyscyplinarna grupa naukowców, pod kierunkiem badaczy z Uniwersytetu Katolickiego Sacro Cuore w Mediolanie. Ich zdaniem "System 0" uzupełni dwa istniejące modele ludzkiego myślenia: "System 1", charakteryzujący się myśleniem intuicyjnym, szybkim i automatycznym oraz "System 2", bardziej analityczny i refleksyjny. Autorzy przestrzegają jednak, że proces ten wiąże się z pewnym ryzykiem.

REKLAMA

Pojęcia dwóch systemów myślenia, z których korzystamy w naszym życiu, wprowadził Daniel Kahneman, psycholog, który w 2002 roku otrzymał Nagrodę Nobla w dziedzinie ekonomii za prace nad racjonalnym modelem podejmowania decyzji w sytuacji niepewności. W wydanej w Polsce w 2011 roku książce "Pułapki myślenia. O myśleniu szybkim i wolnym" opisał on dwa mechanizmy, z których pierwszy to system szybki, działający w oparciu o wcześniejszą wiedzę i doświadczenia, stereotypowo, intuicyjnie, praktycznie mimowolnie. Dzięki niemu możemy wykonywać podstawowe czynności, a nowe informacje porównywać z tym, co już wiemy. Drugi, wolniejszy system wymaga refleksji i większego wysiłku, korzystamy z niego świadomie, kiedy wiemy, że musimy rozwiązać jakiś problem, podjąć bardziej skomplikowaną decyzję.

Zdaniem autorów najnowszej pracy "System 0" wprowadza dodatkowy poziom złożoności, radykalnie zmieniając krajobraz poznawczy, w którym działamy. Może on oznaczać gigantyczny krok naprzód w ewolucji naszych zdolności myślenia i podejmowania decyzji, musimy się jednak upewnić, że ten postęp doprowadzi do zwiększenia naszej autonomii poznawczej, nie naruszając jej. Podkreśla to w swojej pracy, zatytułowanej "The case for human-AI interaction as System 0 thinking", grupa włoskich naukowców, pod kierunkiem prof. Giuseppe Rivy, dyrektora Humane Technology Lab na Uniwersytecie Katolickim w Mediolanie oraz prof. Mario Ubiali z kampusu tego uniwersytetu w Brescii.

Podobnie jak zewnętrzny dysk pozwala nam przechowywać dane, które nie są zapisane w pamięci naszego komputera i korzystać z nich do pracy w dowolnym miejscu, po jego podłączeniu, sztuczna inteligencja, z jej nadzwyczajnymi możliwościami przetwarzania i obsługi danych, może stanowić taką zewnętrzną bazę danych dla naszego mózgu.

Ten "System 0" byłby formą "zewnętrznego" wsparcia naszego rozumowania, opierającym się na możliwościach AI. Zarządzając ogromnymi ilościami danych, sztuczna inteligencja może przetwarzać informacje, dostarczać nam sugestie, czy nawet decyzje oparte na pracy złożonych algorytmów. Tym, co odróżnia ją jednak od myślenia intuicyjnego czy analitycznego jest fakt, że "System 0" nie przypisuje informacjom, które przetwarza, żadnego wewnętrznego znaczenia. Innymi słowy, AI może wykonywać obliczenia, dokonywać prognoz i generować odpowiedzi bez prawdziwego "zrozumienia" treści danych, z którymi pracuje. Interpretacja i nadawanie faktycznego znaczenia tym wynikom należy już do człowieka.

Można to porównać do asystenta, który efektywnie zbiera, selekcjonuje i porządkuje informacje, ale nadal wymaga naszej interwencji, aby podejmować świadome decyzje. To zewnętrzne wsparcie poznawcze, z którego w coraz większej liczbie czynności już korzystamy, dostarcza cennych danych wejściowych, ale ostateczna kontrola musi zawsze pozostać w rękach człowieka. Na przykład nawigacja owszem pokazuje nam kilka restauracji w sąsiedztwie, ale lepiej, żeby nie podejmowała za nas decyzji, do której z nich pójdziemy.

Profesorowie Riva i Ubiali zwracają uwagę na towarzyszące tym procesom ryzyko. Chodzi przede wszystkim o ryzyko nadmiernego zaufania "Systemowi 0" bez stosowania krytycznego myślenia.

Jeśli będziemy biernie akceptować rozwiązania oferowane przez AI, możemy stracić zdolność do samodzielnego myślenia i rozwijania innowacyjnych pomysłów. W coraz bardziej zautomatyzowanym świecie kluczowe jest, aby ludzie nadal kwestionowali i podważali wyniki generowane przez AI - podkreślają eksperci.

Kolejne ryzyko wiąże się z przejrzystością i zaufaniem do systemów AI. Jak możemy być pewni, że te systemy są wolne od uprzedzeń lub zniekształceń i że dostarczają dokładnych i wiarygodnych informacji? Narastający trend wykorzystywania danych syntetycznych lub sztucznie generowanych może zaburzyć nasze postrzeganie rzeczywistości i negatywnie wpłynąć na nasze procesy decyzyjne - ostrzegają profesorowie.

Na tym nie koniec możliwych problemów. Sztuczna inteligencja może nawet przejąć nasze zdolności introspekcyjne, samą refleksję nad własnymi myślami i uczuciami, która jest procesem unikatowo ludzkim. Możemy sobie wyobrazić pokusę wykorzystania inteligentnych systemów do analizy naszych zachowań i stanów umysłowych. To rodzi pytanie: do jakiego stopnia możemy naprawdę zrozumieć siebie poprzez analizę AI? I czy AI może odtworzyć złożoność subiektywnego doświadczenia?

Te wątpliwości nie zmieniają faktu, że "System 0" oferuje ogromne możliwości. Dzięki swojej zdolności do szybkiego i efektywnego przetwarzania złożonych danych może wspierać ludzkość w rozwiązywaniu problemów, które przekraczają nasze naturalne zdolności poznawcze.

Rozwiązując skomplikowane problemy naukowe, analizując ogromne zbiory danych, czy zarządzając złożonymi systemami społecznymi, AI może stać się poważnym sojusznikiem. By jednak odpowiedzialnie wykorzystać potencjał "Systemu 0" powinniśmy - zdaniem autorów publikacji - opracować etyczne i odpowiedzialne wytyczne dotyczące jego użycia. Przejrzystość, odpowiedzialność i umiejętności cyfrowe są kluczowymi elementami, które umożliwią ludziom krytyczną interakcję ze sztuczną inteligencją - przekonują.

Edukacja społeczeństwa w zakresie poruszania się w tym nowym środowisku poznawczym będzie ich zdaniem kluczowa, by uniknąć ryzyka nadmiernego uzależnienia się od tych systemów. Bez odpowiedniej kontroli "System 0" może w przyszłości zakłócić ludzkie myślenie. Niezbędne jest, abyśmy pozostali świadomi i krytyczni co do sposobu, w jaki go używamy. Prawdziwy potencjał "Systemu 0" będzie zależał od naszej zdolności do kierowania nim we właściwym kierunku - podkreślają.