CIA planuje stworzyć własną sztuczną inteligencję. Nowy chatbot będzie korzystał z poufnych danych, które posiada amerykańska agencja. "Oni chcieliby przygotować coś, co będzie odpowiadać na pytania związane z wiedzą tajemną, co z pewnością nie jest dostępne dla normalnego człowieka. Taki model przeszuka całą stertę dokumentów i przygotuje jedną zwięzłą odpowiedź" - tłumaczy Jakub Mrugalski, ekspert od cyberbezpieczeństwa i nowych technologii.

REKLAMA

Twoja przeglądarka nie obsługuje standardu HTML5 dla audio

Sztuczna inteligencja od CIA i awaria w fabrykach VW

CIA rozpoczyna pracę nad własną sztuczną inteligencją. Jakub Mrugalski wyjaśnia, w jaki sposób CIA wykorzysta opracowaną przez siebie technologię: "Korzystając z takiego modelu jesteśmy w stanie odpytywać o pewne dane, czyli zadajemy pytanie i dostajemy odpowiedź. Problem polega na tym, że model może odpowiadać tylko na podstawie wiedzy, jaką posiada. CIA ma trochę więcej wiedzy, niż otwarty model typu np. ChatGPT" - tłumaczy w programie Radia RMF24 "Cyberświat".

Informacje, które posiada CIA bardzo często są tajemnicą i niewiele osób ma do nich dostęp. Sztuczna inteligencja wyposażona w taką wiedzę będzie narzędziem przełomowym. Gość Radia RMF24 dodaje, że nowe rozwiązanie będzie też wygodne: "Taki model przeszuka całą stertę dokumentów i przygotuje dla nas jedną zwięzłą odpowiedź".

Dlaczego CIA chce stworzyć własną technologię?

Ekspert tłumaczy, że publiczne modele, które na podstawie dużych zbiorów danych odpowiadają na pytania, nie są dobrym rozwiązaniem dla CIA. Jakub Mrugalski sugeruje, że otwarte modele nie posiadają wiedzy, jaką dysponuje amerykańska agencja wywiadowcza. Kolejnym problemem jest kwestia bezpieczeństwa, czyli możliwość wycieku poufnych danych.

Gość Mateusza Chroboka dodaje, że powszechnie dostępne modele często nie spełniają wymagań stawianych przez agencję i mogą bardziej utrudniać, niż pomagać. CIA może pytać o rzeczy, które przez takie modele są wykrywane jako potencjalnie nielegalne czy niebezpieczne. Nawet modele trochę bardziej odcenzurowane mogą nie chcieć wykonać polecania czy przetworzyć danych. W momencie, gdy taki model jest do wszystkiego, to co z punktu widzenia CIA jest do niczego - wyjaśnia ekspert. Jakub Mrugalski sugeruje, że poza ograniczeniami związanymi z cenzurą, publiczne chaty posiadają też wiele innych ograniczeń technologicznych czy dotyczących odmowy wykonania niektórych poleceń.

Zdaniem Jakuba Mrugalskiego opracowanie własnej technologii, w przypadku CIA, ma więcej zalet. Amerykańska agencje będzie mogła wyszkolić system oparty na własnych danych, czyli pochodzących z wiarygodnego źródła. Gość Radia RMF24 informuje, że według doniesień reporterów, model opracowany przez CIA będzie także podawał źródła informacji. Takiej funkcji nie posiadają chaty dostępne publicznie. Dzięki temu, weryfikacja poprawności danych będzie łatwiejsza i szybsza.

Jak ochronić się przez wyciekiem wrażliwych danych?

Ekspert od cyberbezpieczeństwa ostrzega przed wpisywaniem osobistych danych do wyszukiwarki chatów. To, co wklejamy w interfejsie webowym może być użyte do nauki tego modelu. W praktyce, inny użytkownik, pytając o to samo, może dostać odpowiedź bazującą poniekąd na naszym impulsie - podkreśla gość Mateusza Chroboka.

Jakub Mrugalski proponuje, co możemy zrobić, aby ustrzec się przed wyciekiem danych: "Używanie tzw. placeholderów, czyli jeżeli chcemy wysłać jakieś dane wrażliwe, to zamieniamy je na pewnego rodzaju zastępniki (...) To, co będzie przetworzone przez model językowy to są dane zanonimizowane" - wyjaśnia.

Opracowanie: Natalia Biel