Meta szykuje się do wprowadzenia swojego własnego serwisu mikroblogowania, który ma być konkurencją dla popularnego Twittera. Mowa o nowej aplikacji Threads. W sieci trwa już odliczanie do startu nowej aplikacji. "Nowy Threads od Instagrama zbiera o wiele, wiele więcej danych niż zbiera Twitter. I to jest pierwsza rzecz, która bardzo silnie rzuca się w oczy. Twórcy powiedzieli, że te media będą tak w rozsądny sposób zarządzane, żeby tak troszeczkę dać po nosie Elonowi. Natomiast jak się okazuje, robią to, co zwykle Meta robi, czyli zbierają wszystko, co się da" - mówił w Radiu RMF24 Mateusz Chrobok, ekspert do spraw cyberbezpieczeństwa i sztucznej inteligencji, który był gościem Bogdana Zalewskiego.
Zdaniem gościa Radia RMF24 Mateusza Chroboka, dobrze byłoby, gdyby nowe medium dawało możliwość tzw. interoperacyjności, czyli korzystało z tzw. protokołu rozproszonego. Dzięki temu nawet jeśli ktoś jest w innym miejscu, na innym serwerze, to możesz do niego napisać. Dotrą do niego te wiadomości, co jest piękne w swojej idei, bo nie mamy tej centralizacji, że tylko jedni zbierają dane i tylko jedni mogą cenzurować - tłumaczył ekspert.
Chrobok zwraca uwagę na fakt, że aplikacjE takie jak Twitter czy Threads mogą z łatwością wpływać na to, co użytkownik widzi. I chętnie wykorzystują tą możliwość, kierując się różnymi pobudkami. Mamy do czynienia z firmą, która sprzedaje zarządzanie uwagą użytkowników - bo tak ostatecznie jest, czy to Twitter, czy to Meta, czy ktokolwiek inny, sprzedaje reklamy, manipulując tym, co się będzie pojawiało w feedzie, czyli w tym, co użytkownik dostanie. Są w stanie wpływać na takich użytkowników. Od niektórych dostaną za to pieniądze, od innych to będą pewnie jakieś przysługi polityczne - powiedział.
Nie jest to jedyne zagrożenie. Zebrane przez algorytmy dane mogą później trafić na czarny rynek. Już teraz znane są przypadki danych pochodzących z kont osób korzystających z Chat GPT, które są przedmiotem handlu w tzw. darknecie. Ej, zobacz, mam tutaj ważną osobę, która piastuje ciekawe stanowisko, to tego sprzedam za 100 dolarów, a przeciętnego Kowalskiego za 5 dolarów, bo ten tam tylko sobie pisał jakieś śmieszki. Więc tak to wygląda - opisuje Chrobok.
Nielegalne zastosowania technologii na tym się nie wyczerpują. Jest jeszcze drugi wątek, który podniósł Europol w niedawnym swoim raporcie, który jest związany z tzw. czarnymi LLMami, czyli large language models. To znaczy oni przewidują, i takie rzeczy pewnie już się dzieją, że będą powstawały coraz to lepsze narzędzia oparte właśnie na takich metodach jak Chat GPT, tylko prywatne, w tzw. darknecie, żeby najlepiej pisać teksty do oszukiwania ludzi, do tworzenia phishingu, lepszych smsów, żeby ludzie w nie klikali - rozwija gość.
Chrobok podkreśla także, że nie do końca wiemy, skąd informacje czerpią modele językowe, z których korzystamy i które na nas oddziałują. Zapytany o możliwość modyfikowania w ten sposób poglądami użytkowników wyjaśnia: Treść przekazana bardzo wpływa na odbiorcę, a tutaj mamy do czynienia nie tylko z filtrowaniem treści źródłowych, no bo firma Open AI nie powiedziała ostatecznie, na czym wyuczyła swoje modele, co jest pierwszą taką czerwoną flagą, a po drugie oni nie mówią wprost o tym, co cenzurują.
Pokazuje ten problem na przykładzie z Chin: Niedawno gruchnęła wiadomość, że tam buduje się w Chinach takiego dużego LLMa. Ja zakładam, że on będzie miał zupełnie inne granice etyczno-moralne niż to, co widzimy w Chat GPT, więc na pewno będzie miało to wpływ na generowanie kolejnych populacji, które będą odpowiednio ukształtowane światopoglądowo, tak jak to ta firma ustali.
Ekspert, zapytany o sytuacje osób, które nie korzystają z najnowszych rozwiązań, odpowiada: To zaczyna być coraz większe wykluczenie cyfrowe, co przeraża mnie z perspektywy ludzi, którzy mają trudności z pisaniem i czytaniem. A gdzie tam do korzystania z Chat GPT.
Jednak nie tylko takie ograniczenia przewiduje Chrobok. Mam taką smutną konstatację, że będą pewnie takie chatboty, z których będą korzystać normalni ludzie, a pewnie będą chatboty elitarne. Takim przykładem modelu, który powstał, to jest tam Bloomberg GPT, gdzie Bloomberg na danych finansowych wyuczył bardzo duży model i sprzedaje go, bo to jest taki model finansowy. Nie każdy może sobie na niego pozwolić, a on pewnie daje pewną przewagę na rynku - wyjaśniał.
Opracowanie: Dorota Hilger