Kara od roku do pięciu lat więzienia za szkody wizerunkowe wyrządzone przy tworzeniu i rozpowszechnianiu bez zgody nagrań wideo i wizerunków zmienionych przy użyciu AI - takie restrykcje ogłosił włoski rząd. Projekt ustawy zawierający zbiór przepisów dotyczących sztucznej inteligencji jest przedmiotem prac komisji Senatu. Jak do kwestii AI podchodzą inne państwa?
We Włoszech rządowy projekt ustawy dotyczący sztucznej inteligencji zakłada karę od roku do pięciu lat więzienia za szkody wizerunkowe wyrządzone przy tworzeniu i rozpowszechnianiu bez zgody nagrań wideo i zdjęć zmienionych przy użyciu AI.
Minister sprawiedliwości Carlo Nordio poinformował, że posłużenie się AI będzie dodatkowo obciążało oskarżonych w procesach związanych z podawaniem się za kogoś, manipulowaniem cenami, oszustwami informatycznymi czy spekulacjami giełdowymi.
Ponadto w projekcie ustawy zapisano, że utworzony zostanie krajowy urząd ds. sztucznej inteligencji, którego zadaniem będzie wymierzanie kar za jej nielegalne wykorzystanie.
Jak to wygląda w innych krajach? W Hiszpanii we wrześniu 2023 r. utworzono Agencję Nadzoru nad Sztuczną Inteligencją (AESIA). Tym samym Hiszpania stała się pierwszym państwem UE, który powołał do życia tego typu organ.
AESIA ma za zadanie m.in. monitorowanie wykorzystywania AI zgodnie z obowiązującymi przepisami, walkę z niewłaściwym jej stosowaniem i wdrażanie unijnych regulacji.
W Finlandii w 2023 r. przyjęto przepisy o "automatycznym rozstrzyganiu spraw w administracji publicznej". Przewidują one, że systemy sztucznej inteligencji można wykorzystać do wspomagania pracy, ale nie bezpośrednio w procesie decyzyjnym. Co to znaczy? W administracji skarbowej organ nie może wydać decyzji podatkowej na podstawie systemów AI.
Wcześniej w 2020 r. w Finlandii wdrożono narzędzie wykorzystujące sztuczną inteligencję np. do anonimizacji orzeczeń sądowych oraz decyzji urzędowych. Zdaniem władz rozwój technologii i wdrożenie AI może przyczynić się do obniżenia kosztów sądowych i przyspieszenia rozwiązywania spraw. Jednak przy korzystaniu z AI należy "zachować rozwagę".
W Estonii programy na rzecz rozwoju sztucznej inteligencji wdrażane były od 2019 r. W 2020 roku zainicjowano program Open-Source AI Components, zawierający gotowe rozwiązania do wykorzystania w sektorze publicznym i prywatnym.
Stworzono też bazę danych projektów, których celem była poprawa jakości usług dzięki sztucznej inteligencji. W okresie pandemii Covid-19 w Estonii uruchomiono "czatbot AI", który przekazywał liczbę osób zakażonych.
Powołana w 2022 r. Narodowa Strategia AI 2.0 koncentruje się z kolei na wspieraniu krajowych przedsiębiorstw gotowych na użycie metod sztucznej inteligencji. Według OECD Estonia jest obecnie jednym z liderów w zakresie zrównoważonego wdrażania AI w różnych sektorach gospodarki.
Na Łotwie rządowa Narodowa Strategia AI została uruchomiona na początku 2020 r. Jednym z jej celów było inwestowanie w infrastrukturę cyfrową i telekomunikacyjną, podniesienie świadomości i kompetencji mieszkańców w zakresie AI przez reformy edukacyjne oraz zapewnienie sprzyjającego otoczenia politycznego dla rozwoju i wdrażania rozwiązań przy użyciu AI.
W Wielkiej Brytanii regulacje dotyczące stosowania sztucznej inteligencji nadal są w fazie rozwoju. Kraj nie próbuje wprowadzać przepisów, które całościowo regulowałyby kwestie związane z AI. Tam, gdzie to możliwe, opiera się na już istniejących ramach prawnych.
W 2021 r. brytyjski rząd ogłosił narodową strategię ws. sztucznej inteligencji. W 2023 r. powstała "biała księga", w której przedstawiła ogólne zasady dotyczące AI, ale pozostawiła istniejącym organom regulacyjnym znaczną elastyczność w dostosowywaniu tych zasad do konkretnych obszarów, takich jak transport lub rynki finansowe.
Chiny są najbardziej aktywne w kształtowaniu przepisów dotyczących AI. W 2023 r. weszła w życie pierwsza regulacja administracyjna w sprawie zarządzania usługami tej technologii.
Dodatkowo do istotnych regulacji należą rozporządzenie w sprawie algorytmów rekomendacji z 2021 i zasady dotyczące treści generowanych syntetycznie z 2022 r. Głównym celem wszystkich trzech jest kontrola informacji, będąca jednym z narzędzi w rękach potężnego mechanizmu cenzury w ChRL.
Co ciekawe, czatboty tworzone przez chińskie przedsiębiorstwa lub chcące działać na terytorium Chin nie odpowiadają na pytania dotyczące przywódcy kraju Xi Jinpinga czy wrażliwych dla władz wydarzeń historycznych.
W USA głównym dokumentem dotyczącym zasad stosowania AI jest rozporządzenie wykonawcze o "bezpiecznym, pewnym i godnym zaufania rozwoju i wykorzystaniu sztucznej inteligencji", wydane przez prezydenta Joe Bidena w 2023 r.
Dokument m.in. nakłada na firmy rozwijające AI obowiązek dzielenia się z władzami wynikami badań na temat bezpieczeństwa ich systemów, ustanawia standardy chroniące przed używaniem AI do tworzenia niebezpiecznych substancji biologicznych czy złośliwego oprogramowania oraz wyznacza cele mające służyć ochronie prywatności i jasnemu oznaczaniu treści generowanych przez AI.
Dokument był pierwszym kompleksowym zestawem zasad dla AI w USA. Wiele jego postanowień nie jest prawnie wiążących, a dotychczasowe projekty ustaw dotyczące sztucznej inteligencji nie zostały przyjęte w Kongresie.