Królewska Szwedzka Akademia Nauk ogłosiła dziś laureatów tegorocznej nagrody Nobla w dziedzinie fizyki. To urodzony w Chicago 91-letni John J. Hopfield z Princeton University i urodzony w Londynie 76 lat temu Geoffrey E. Hinton z University of Toronto. Wyróżniono ich za to, że wykorzystali narzędzia fizyki do stworzenia metod, które dały podstawy powszechnie wykonywanym dziś procesom uczenia maszynowego. John Hopfield stworzył strukturę, która potrafi przechowywać i odzyskiwać informację. Geoffrey Hinton opracował metodę, która w niezależny sposób potrafi odkrywać właściwości danych i ma kluczowe znaczenie dla tworzenia dużych sztucznych sieci nauronowych, które są obecnie powszechnie wykorzystywane.

REKLAMA

Komputerowe tłumaczenia, analiza obrazów, czy wielkie modele językowe, z którymi można sensownie porozmawiać, to dziś już codzienność. Nie wszyscy zdają sobie sprawę, że tego typu technologia miała już wcześniej w nauce istotne znaczenie dla analizy wielkich ilości danych. Minione 15-20 lat to czas rozwoju technik uczenia maszynowego wykorzystujących sztuczne sieci neuronowe. Jeśli mówimy o sztucznej inteligencji, to właśnie technologia, którą mamy na myśli. Oczywiście komputery nie umieją myśleć, ale potrafią już naśladować takie funkcje jak zapamiętywanie i uczenie się. Tegoroczni laureaci sprawili, że to jest możliwe. Wykorzystując fundamentalne prawa i metody fizyki opracowali technologie, które wykorzystują struktury sieciowe do opracowywania informacji.

Metoda uczenia maszynowego różni się od tradycyjnego oprogramowania, które można porównać do konkretnego przepisu kulinarnego. Oprogramowanie otrzymuje dane, opracowuje je zgodnie z określonym przepisem i otrzymuje wyniki mniej więcej tak, jak ktoś z nas wykorzystując określone składniki i podążając w myśl przepisu piecze ciasto. W przypadku uczenia maszynowego komputer uczy się na przykładach, by zmierzyć się z problemami, które są nie dość jasne lub zbyt skomplikowane, by poradzić sobie z nimi krok po kroku serią instrukcji. Takim przykładem może być choćby rozpoznawanie obiektów na zdjęciu.

Sztuczna sieć neuronowa przetwarza informacje, wykorzystując całą strukturę sieci. Inspiracja początkowo pochodziła z chęci zrozumienia, jak działa mózg. W latach 40. XX wieku badacze zaczęli rozważać, jak matematycznie opisać działanie sieci neuronów i synaps w mózgu. Kolejny element układanki pochodził z psychologii, dzięki hipotezie neurobiologa Donalda Hebba o tym, że uczymy się, ponieważ połączenia między neuronami wzmacniają się, gdy działają razem. Później podejmowano próby odtworzenia funkcjonowania sieci mózgowej poprzez budowanie sztucznych sieci neuronowych jako symulacji komputerowych. Neurony są w nich przedstawiane jako węzły, którym przypisuje się różne wartości, a synapsy to połączenia między węzłami, które mogą być wzmacniane lub osłabiane. Hipoteza Donalda Hebba jest nadal wykorzystywana jako jedna z podstawowych zasad aktualizacji sztucznych sieci poprzez proces zwany treningiem.

Wyobraź sobie, że próbujesz przypomnieć sobie dość nietypowe słowo, którego rzadko używasz i przychodzą ci na myśl słowa podobne. Ten proces przeszukiwania podobnych słów w celu znalezienia właściwego przypomina pamięć asocjacyjną, którą John Hopfield odkrył w 1982 roku. Sieć Hopfielda może przechowywać wzorce i ma metodę ich odtwarzania. Gdy sieci zostanie podany niekompletny lub lekko zniekształcony wzorzec, metoda może znaleźć zapisany wzorzec, który jest najbardziej podobny.

Hopfield wcześniej wykorzystał swoje doświadczenie w fizyce do badania teoretycznych problemów w biologii molekularnej. Potem zainteresował się neurobiologią i zaczął myśleć o dynamice prostych sieci neuronowych. Skorzystał z fizycznej wiedzy o materiałach magnetycznych, które mają specjalne cechy dzięki swojemu spinowi atomowemu - właściwości, która sprawia, że każdy atom jest małym magnesem. Spiny sąsiednich atomów wpływają na siebie nawzajem; to może pozwolić na tworzenie się domen ze spinem w tym samym kierunku. Był w stanie stworzyć model sieci z węzłami i połączeniami, wykorzystując fizykę, która opisuje, jak materiały rozwijają się, gdy spiny wpływają na siebie nawzajem. Sieć, którą zbudował Hopfield, ma węzły, które są połączone ze sobą poprzez wiązania o różnej sile. Każdy węzeł może przechowywać indywidualną wartość - w pierwszej pracy Hopfielda mogła to być albo 0, albo 1, jak piksele w czarno-białym obrazie. Hinton zaczął od sieci Hopfielda i rozszerzył ją, aby zbudować coś nowego, wykorzystując pomysły z fizyki statystycznej.

O 76-letnim Hintonie, powszechnie uważanym za "ojca chrzestnego" sztucznej inteligencji, zrobiło się głośno w ubiegłym roku, kiedy rzucił pracę w Google, by móc swobodniej mówić o zagrożeniach związanych z technologią, której dał początek. "Nie mamy doświadczenia z przedmiotami, które są mądrzejsze od nas" - mówił podczas telefonicznej konferencji prasowej po ogłoszeniu nagrody. "To może być wspaniałe w wielu zastosowaniach, na przykład w opiece zdrowotnej" - dodawał. "Ale musimy się też obawiać potencjalnych złych konsekwencji. Przede wszystkim zagrożenia, że to wymknie nam się spod kontroli".

Jak twierdził, zwolnił się z Google, gdy zdał sobie sprawę, że komputery staną się inteligentniejsze od ludzi znacznie szybciej, niż się spodziewabno, podkreślał jednak, że sama firma działałą w tej sprawie bardzo odpowiedzialnie. Przyznał, że żałuje części swoich badań, ale działął w oparciu o wiedzę, którą miał w danej chwili. "W tych samych okolicznościach postąpiłbym tak samo, ale obawiam się, że w konsekwencji może się zdarzyć, że systemy inteligentniejsze od nas przejmą kontrolę".

Jak pisze w swym uzasadnieniu Akademia, dzięki swojej pracy od lat 80. i później, John Hopfield i Geoffrey Hinton pomogli położyć podwaliny pod rewolucję uczenia maszynowego, która rozpoczęła się około 2010 roku. Rozwój, którego jesteśmy teraz świadkami, stał się możliwy dzięki dostępowi do ogromnych ilości danych, które mogą być używane do treningu sieci oraz gwałtownemu zwiększeniu mocy obliczeniowej. Dzisiejsze sztuczne sieci neuronowe są często ogromne i zbudowane z wielu warstw. Nazywane są głębokimi sieciami neuronowymi, a sposób ich trenowania nazywa się głębokim uczeniem.

W pracy z 1982 roku Hopfield użył sieci z 30 węzłami. Jeśli wszystkie węzły są połączone ze sobą, istnieje 435 połączeń. Węzły mają swoje wartości, połączenia mają różne siły i w sumie jest mniej niż 500 parametrów do śledzenia. Próbował także sieci z 100 węzłami, ale była zbyt skomplikowana przy możliwościach komputera, którego wtedy używał. Dla porównania, obecne duże modele językowe mogą zawierać ponad bilion, czyli milion milionów parametrów.

Fizyka przyczyniła się do stworzenia narzędzi rozwoju uczenia maszynowego, ale fizyka jako dziedzina badawcza również korzysta ze sztucznych sieci neuronowych. Uczenie maszynowe od dawna jest używane w badaniach, które były wyróżniane poprzednimi Nagrodami Nobla w dziedzinie fizyki. Wykorzystano je między innymi do przeszukiwania i przetwarzania ogromnych ilości danych niezbędnych do odkrycia cząstki Higgsa, ale też do redukcji szumu w pomiarach fal grawitacyjnych zderzających się czarnych dziur lub poszukiwaniach planet pozasłonecznych. Ostatnio technologia ta zaczęła być również używana przy obliczaniu i przewidywaniu właściwości cząsteczek i materiałów - takich jak struktura cząsteczek białek, która determinuje ich funkcję. Z jej pomocą podejmuje się też próby przewidzenia, które nowe wersje materiału mogą mieć najlepsze właściwości do użycia w bardziej efektywnych ogniwach słonecznych.