"Zmniejszenie ryzyka wyginięcia (ludzkości - red.) z powodu sztucznej inteligencji powinno być globalnym priorytetem wraz z innymi ryzykami społecznymi takimi jak pandemia czy wojna atomowa" - czytamy w stanowisku amerykańskiej organizacji pozarządowej zajmującej się sztuczną inteligencją, "Center for AI Safety". Pod stanowiskiem podpisali się m.in. "ojciec chrzestny AI" Geoffrey Hinton czy szef OpenAI Sam Altman.
Jak podaje CNN, pod składającym się z jednego zdania stanowiskiem, którego treść przygotowała "Center for AI Safety" (w wolnym tłumaczeniu: Centrum Bezpieczeństwa Sztucznej Inteligencji), podpisały się dziesiątki osób. Są wśród nich liderzy branży, naukowcy, a także znane osoby.
Stanowisko podpisało łącznie 350 osób, wśród nich - jak podaje CNN: szef OpenAI Sam Altman, nazywany ojcem chrzestnym AI Geoffrey Hinton, czołowi kierownicy z Google DeepMind, ze startupu Anthropic, Kevin Scott - szef biura technologii firmy Microsoft, Bruce Schneier - pionier kryptografii i bezpieczeństwa internetu, Bill McKibben - działacz ekologiczny, czy też piosenkarka Grimes.
Jak czytamy w najnowszej publikacji w piśmie "Nature Chemical Biology", dzięki wykorzystaniu sztucznej inteligencji udało się odkryć nowy antybiotyk, który może zwalczać zagrażający życiu gatunek superbakterii. Stworzenie krótkiej listy obiecujących substancji zajęło AI tylko półtorej godziny.
Dzięki sztucznej inteligencji można było błyskawicznie wyselekcjonować spośród tysięcy potencjalnych antybiotyków te najbardziej obiecujące, by następnie przetestować je w laboratorium. W ten sposób naukowcy uzyskali silny, eksperymentalny antybiotyk o nazwie abaucyna. Będzie on jednak wymagał dalszych testów.
Powszechnie stosowane antybiotyki pozwalają skutecznie zwalczać infekcje bakteryjne. Jednak bakterie stopniowo stają się coraz odporniejsze na działanie antybiotyków, a nowe leki antybakteryjne od dziesięcioleci prawie się nie pojawiają. Co roku około miliona osób umiera z powodu zakażeń antybiotykoopornymi bakteriami.
W połowie maja Sam Altman, dyrektor generalny OpenAI, firmy stojącej za zaawansowanym czatbotem ChatGPT, wystąpił przed komisją Senatu USA. Podczas przesłuchania wezwał do wprowadzenia przepisów regulujących działanie sztucznej inteligencji. W jego ocenie ryzyko ingerencji AI w uczciwość wyborów powinno być poważnym obszarem zainteresowania władz, który wymaga wdrożenia nowych rozwiązań.
Altman przemawiał przed amerykańskim kongresem po raz pierwszy. Jego przesłuchanie przed senacką Podkomisją Sądownictwa do spraw Prywatności, Technologii i Prawa zatytułowano "Nadzór nad sztuczną inteligencją: zasady dotyczące sztucznej inteligencji".
Biznesmen stwierdził, że Stany Zjednoczone powinny rozważyć wprowadzenie wymagań licencyjnych i testowych dla rozwoju AI. Altman wskazał, że oznaczałoby to, iż USA mogłyby wymagać od firm np. testowania systemów sztucznej inteligencji przed ich opublikowaniem.
Dla nowej technologii potrzebujemy nowych rozwiązań. Regulacja sztucznej inteligencji jest niezbędna. Interwencja rządów będzie miała kluczowe znaczenie dla złagodzenia ryzyka związanego z coraz potężniejszymi modelami - podkreślił Altman.
Zarówno szef OpenAI, jak i emerytowany profesor psychologii Gary Marcus z New York University (NYU) wezwali w trakcie rozprawy do powołania nowej agencji regulacyjnej w USA, która zajmowałaby się sztuczną inteligencją.
Pod koniec marca miliarder Elon Musk i współtwórca firmy Apple Steve Wozniak podpisali apel w sprawie sztucznej inteligencji. Byli oni sygnatariuszami, razem z ponad tysiącem innych osób, listu otwartego wzywającego do natychmiastowego wstrzymania prac nad systemami sztucznej inteligencji (AI) typu ChatGPT. List, umieszczony na finansowanej przez Muska platformie Future of Life Institute, powstał w reakcji na opublikowanie przez firmę OpenAI nowego modelu języka GPT-4, bardziej zaawansowanej wersji narzędzia stosowanego w ChatGPT, bocie, który udziela odpowiedzi na pytania, prowadzi rozmowy, czy pisze teksty na zamówienie.
W liście zatytuowanym "Pause Giant AI Experiments" autorzy apelowali, by wstrzymać na co najmniej pół roku trening systemów potężniejszych niż GPT-4. Ich zdaniem systemy sztucznej inteligencji, zdolne do rywalizacji z człowiekiem, mogą stanowić poważne ryzyko dla ludzkości i społeczeństwa, mogą też mieć wpływ na naszą historię. Dlatego prace nad nimi powinny być planowane i prowadzone należytymi środkami i z odpowiednią uwagą.
Sygnatariusze listu stwierdzają tymczasem, że ani planowanie, ani zarządzanie tymi pracami nie jest na odpowiednim poziomie, a zajmujące się systemami AI firmy uczestniczą w wyścigu o stworzenie i udostępnienie coraz potężniejszych narzędzi, których działania nikt - włącznie z twórcami - nie jest w stanie w pełni zrozumieć, przewidzieć i niezawodnie kontrolować. Autorzy listu zwracają uwagę, że przyznają to nawet sami twórcy AI.