Gliwicka firma KP Labs opublikowała właśnie pierwsze obrazy ze swojego demonstracyjnego satelity Intuition-1, który na pokładzie rakiety Falcon 9 firmy Space X trafił na orbitę niemal dokładnie 5 miesięcy temu. W satelicie zastosowano przełomową technologię opracowania danych już na orbicie z pomocą sztucznej inteligencji. Dzięki temu - jak tłumaczy nam wiceprezes KP Labs Michał Zachara - znacznie skraca się proces przesyłania danych na Ziemię. Obrazy pozyskane tzw. metodą hiperspektralną umożliwiają precyzyjną identyfikację i analizę różnych substancji, typów roślinności, minerałów i innych materiałów na powierzchni Ziemi. Zastosowanie zademonstrowanych przez firmę KP Labs technologii pozwoli na znaczący postęp w dziedzinie obserwacji Ziemi i poprowadzi do ulepszenia jakości danych dla różnorodnych zastosowań naukowych i komercyjnych. Firma chce zaproponować tę technologię nie tylko do misji obserwacyjnych, ale też innego typu misji kosmicznych.
Obrazowanie hiperspektralne to zaawansowana technika, używana do rejestrowania światła w wielu pasmach, wykraczających poza możliwości tradycyjnych systemów wizualnych. W przeciwieństwie do standardowego obrazowania RGB, które używa trzech szerokich pasm, czerwonego, zielonego i niebieskiego, obrazowanie hiperspektralne zbiera informacje w całym widmie elektromagnetycznym, dzieląc je na wiele wąskich pasm (Intuition-1 wykorzystuje aż 192 takie pasma), w tym tych, które nie są widoczne dla ludzkiego oka. Umożliwia to precyzyjną identyfikację i analizę różnych substancji, typów roślinności i minerałów na powierzchni Ziemi.
Takie podejście oferuje wiele korzyści dla badań środowiska, rolnictwa, leśnictwa, górnictwa czy analizy oceanów. W rolnictwie może być wykorzystywane do oszczędzania wody i lepszego zarządzania glebą. W monitoringu środowiska pomaga wykrywać zmiany w ekosystemach, śledzić zanieczyszczenia i wspierać działania związane z katastrofami naturalnymi. Dzięki obrazowaniu hiperspektralnemu można zbierać dużo danych, które są przydatne do identyfikowania minerałów na obszarach górniczych i wspierania działań eksploracyjnych.
Włączenie sztucznej inteligencji (AI) do przetwarzania danych już na pokładzie Intuition-1, skraca czas i ogranicza zasoby wymagane do analizy obrazów satelitarnych. Filtruje i przetwarza dane na orbicie, wysyłając na Ziemię tylko niezbędne informacje, usprawniając w ten sposób dalszą analizę i przyspieszając dostarczanie danych. Ta metoda zapewnia szybki dostęp do kluczowych informacji dla analityków znajdujących się na Ziemi, a co za tym idzie dla docelowego odbiorcy analiz zobrazowań satelitarnych.
Z wiceprezesem KP Labs Michałem Zacharą rozmawiał dziennikarz RMF FM Grzegorz Jasiński.
Twoja przeglądarka nie obsługuje standardu HTML5 dla audio
Grzegorz Jasiński: Państwa satelita znalazł się na orbicie praktycznie dokładnie 5 miesięcy temu, bo start był 11 listopada. Więc zanim jeszcze opowiemy o dzisiejszej premierze zdjęć, o tym, co państwo nam pokazują, chciałem zapytać, co się działo z Intuition-1 przez te miesiące?
Michał Zachara: Przez ten czas trwał tzw. "commissioning" satelity. O co tutaj chodzi? Przez pierwszy miesiąc praktycznie czekaliśmy na to, aby nasz satelita został wypuszczony z takiego większego satelity, który zabierał na pokład kilka innych satelitów i żeby został wypuszczony na odpowiednią orbitę. I gdy to się stało, mogliśmy zacząć "odpalać" poszczególne podsystemy całego satelity. Zaczęliśmy od tego, żeby nawiązać kontakt radiowy z satelitą. Następnie sprawdzaliśmy, czy wszystkie podzespoły działają, czy działanie podzespołów i podsystemów jest nominalne i zaczęliśmy "odpalać" poszczególne części naszego satelity. Nasz satelita to jest satelita typu cube-sat, satelita hiperspektralny, który ma zaawansowany instrument optyczny i bardzo zaawansowaną jednostkę do przetwarzania danych na orbicie. Żeby to wszystko zgrać, musieliśmy krok po kroku sprawdzać, czy wszystko działa. Musieliśmy też ustabilizować satelitę, żeby przestał się obracać, bo zazwyczaj po opuszczeniu większego tzw. dispensera satelity wpadają w rotację. Musieliśmy ustabilizować każdą z trzech osi satelity.
Jak to się robi?
Otóż mamy na naszym satelicie koła reakcyjne, które muszą współpracować z tzw. systemem ATCS. System ATCS daje informacje, w jakiej pozycji względem Ziemi znajduje się satelita i później na tej podstawie odpowiednio wyhamowujemy tak zwanymi kołami reakcyjnymi ruch obrotowy satelity. To jest żmudny proces, bo czasami można albo za mocno wyhamować, albo można zbyt przyspieszyć satelitę. Musimy mieć pewność, że takiego obrotu nie ma i że mamy pewną stabilność, po to, żeby utrzymywać kontakt radiowy z satelitami, bo anteny muszą być cały czas widoczne dla naszych stacji naziemnych, ale również musimy być pewni, że nasz instrument optyczny "patrzy" w Ziemię, a nie np. w przestrzeń kosmiczną.
A jeśli chodzi o otoczenie, satelita jest całkowicie sam, nie leci w żadnej formacji? Już wszystkie te satelity porozlatywały się w swoje strony?
Nie, nie leci w żadnej formacji, jest całkowicie odosobniony, leci na swojej orbicie, na którą został wyniesiony, to jest na wysokości około 520 kilometrów, czyli tzw. niskiej orbicie okołoziemskiej. I w tej chwili właśnie, po tych kilku miesiącach, zdołaliśmy przeprowadzić testy wszystkich podsystemów satelity, zdołaliśmy doprowadzić do tego, że podjęliśmy akwizycję pierwszych zdjęć hiperspektralnych, zaczęliśmy odpalać algorytmy sztucznej inteligencji na pokładzie naszego satelity, na jednostce Leopard, która jest częścią tego satelity. I tak krok po kroku, test po teście, sprawdzaliśmy czy wszystko działa. No i jak się okazuje, na szczęście, wszystko działa. W tej chwili możemy się cieszyć pierwszymi zdjęciami, które już do nas spływają z orbity...
Publikujecie państwo 3 zdjęcia, więc powiedzmy, co na nich widać.
My zrobiliśmy akwizycję terenów okołorównikowych, czyli mamy zdjęcie Arabii Saudyjskiej, mamy zdjęcie Burkina Faso i mamy zdjęcie Algierii, niestety jeszcze nie mamy zdjęć znad Europy i zdjęć Polski. Ale te zdjęcia zostały tam zrobione nieprzypadkowo. Po pierwsze ze względu na to, że chcieliśmy mieć pewność, iż mamy w miarę bezchmurne warunki i faktycznie coś będzie na tych zdjęciach widać. Są to albo pustynie, albo tereny zielone z rzekami. No ale też na wysokości równika ten lot satelity nad Ziemią jest najbardziej stabilny w naszym przypadku, więc też w takich ustawieniach było nam najwygodniej zrobić pierwszą akwizycję.
Ile czasu trwa wykonanie takiego zdjęcia, potem jego przeprocesowanie z pomocą sztucznej inteligencji, w komputerze samego satelity, a następnie przesłanie na Ziemię?
My mamy dość innowacyjne podejście do tej akwizycji danych, bo nie wysyłamy wszystkiego na Ziemię. Może dla kontekstu powiem, że zdjęcia hiperspektralne, które my pozyskujemy, to jest bardzo duży zestaw danych. Taka jedna scena, 50 kilometrów na 50 kilometrów, to może być kilka gigabajtów danych. Wysłanie tego na Ziemię to jest po prostu długotrwały proces. W związku z czym my przetwarzamy dane już na orbicie, a na Ziemię wysyłamy albo dane mocno zredukowane, albo same informacje na temat tego, co satelita widzi. W związku z czym taka akwizycja pojedyncza to jest kwestia kilku sekund przelotu nad danym miejscem, ale później zaczyna się dość żmudny proces przetwarzania tego na orbicie. Bo, po pierwsze, musimy takie zdjęcie z takiej "surówki" doprowadzić do zdjęcia, które faktycznie jest pozbawione artefaktów, wyrównane, skalibrowane. Zazwyczaj zajmuje to około połowy jednej orbity, tzn. połowę z około 90 minut. Satelita przetwarza dane przez połowę tej orbity, a przez połowę orbity się ładuje. Można powiedzieć, że taka jedna scena jest przetwarzana przez około 45 minut.
Te zdjęcia, które państwo wykonujecie na tym etapie są oczywiście zdjęciami testowymi, ale to są też tak naprawdę zdjęcia reklamowe, bo państwo chcecie zachęcić potencjalnych klientów do wykorzystania tej technologii do swoich potrzeb. Co możecie zaoferować?
Intuition-1 to jest satelita demonstracyjny. To należy podkreślać. I my pragniemy właśnie tym satelitą zademonstrować, że przetwarzanie bardzo dużego zbioru danych w przestrzeni kosmicznej z użyciem nowych technologii jest możliwe. I mówimy tutaj i o hardware, który produkujemy, czyli jednostce do przetwarzania danych, ale również algorytmach sztucznej inteligencji, które te zdjęcia przetwarzają. W związku z czym, my tutaj wyróżniamy się na tle konkurencji tym, że doprowadzamy do tego, że wszystkie dane mogą być przetwarzane na samym satelicie. To może być wykorzystywane do obserwacji Ziemi, ale może być też wykorzystywane do szeregu innych misji, czy to misjach kosmicznych, gdzie np. wymagane jest dokowanie jednego satelity do drugiego. Czy w misjach, tzw. deep space, w których mamy bardzo ograniczony transfer danych między sondą kosmiczną a stacjami naziemnymi. Tak, że my tutaj budujemy podstawę pod to, żeby coraz więcej danych zbierać w kosmosie, ale żeby nie przesyłać wszystkiego na Ziemię, tylko efektywnie przetwarzać je na statku kosmicznym. A mówię o statku kosmicznym dlatego, że nie celujemy już tylko w satelity, ale mówimy też właśnie o sondach, orbiterach, łazikach. Wszędzie tam, gdzie są zaawansowane instrumenty badawcze, jest wymagane coraz bardziej zaawansowane przetwarzanie danych. I my tu się staramy wbijać w taką bardzo wąską niszę europejską, ale też światową, z naszymi rozwiązaniami.
Bardzo długo było tak, że na orbitę mogły lecieć komputery wcześniejszych generacji, bo zabezpieczenie ich przed promieniowaniem wymagało dodatkowych działań. To był zawsze problem, żeby te nowe generacje procesorów przygotowywać do misji kosmicznych. Jak w przypadku państwa komputera udało się to zrobić i na ile jest to jednostka taka bieżąca? Na ile działa w sposób, który osiąga możliwości, które są na Ziemi?
To wciąż jest jedno z większych wyzwań, albo największych wyzwań, które tutaj, w naszej firmie KP Labs rozwiązujemy, czyli właśnie wpływ środowiska kosmicznego na elektronikę. Ona po pierwsze bardzo szybko degraduje w związku z promieniowaniem, ale mamy też efekty, które sprawiają, że obliczenia mogą być niekorzystne, gdy cząstka promieniowania uderzy w procesor, który coś liczy. Może nam się odwrócić bit i całe przetwarzanie jest niepoprawne. W związku z czym bardzo duży nacisk kładziemy na tę odporność radiacyjną. Nasze jednostki przetwarzania danych zabezpieczamy przed promieniowaniem zarówno na poziomie softwarowym, ale też hardwarowym, to znaczy wprowadzamy redundantność poszczególnych ważnych elementów. Wprowadzamy zabezpieczenia softwarowe, które sprawdzają czy obliczenia zostały wykonane poprawnie. Wykorzystujemy odpowiednie chipy i elementy elektroniczne, które są przetestowane pod względem radiacji. Nasze jednostki w tej chwili są głównie projektowane właśnie głównie na tę niską orbitę okołoziemską, gdzie wpływ radiacyjny, który my potrafimy przeżyć, to jest około 20 kiloradów. Ale też pracujemy nad bardziej zaawansowanymi jednostkami, które będą w stanie przeżyć znacznie więcej. Więc są to wciąż jednostki, które muszą być dostosowane do tego środowiska kosmicznego. W związku z czym one nie są aż tak wydajne, jak to, co mamy nawet na naszych biurkach, czy w telefonach. I tak porównując wydajność naszego Leoparda, to mówimy, że jest to wydajność zbliżona do karty graficznej, która jest obsługiwana przez domowy laptop. Czyli bez dużych fajerwerków, ale z drugiej strony, w porównaniu do tego, co aktualnie lata na orbicie, możemy się poszczycić tym, że nasze rozwiązania są około stu razy bardziej wydajne od konkurencji. Więc ta wydajność już jest znacząco wyższa od tego, co w kosmosie lata. W związku z tym także jesteśmy w stanie przetwarzać znacznie większe zbiory danych.
Pytaniem, które państwo zadawaliście sobie przed misją, było oczywiście pytanie o trwałość tego urządzenia, o to, jak długo może pełnić swoją misję. Rozmawiając na ten temat usłyszałem, że trzy lata to byłoby bardzo dobrze. Jak pan ocenia po tych 5 miesiącach, po testach, jak się to sprawdza? Czy ta długotrwałość misji jest realna, czy może coś się przesuwa nawet na dłuższy czas?
Raczej jest realna. I w tej chwili ta trwałość nawet nie jest powiązana z trwałością rozwiązań, które my zastosowaliśmy, tylko z tym, że Intuition-1 nie został wyposażony w silnik. W związku z czym on naturalnie zejdzie z orbity po około trzech, czterech latach i my nie jesteśmy w stanie wpłynąć na długość tej misji, bo nie możemy podnosić tej orbity. Ale patrząc na to, jak się zachowują komponenty, które wykorzystaliśmy, jak działa optyka, jak działa Leopard, jak działa Intuition-1 sam w sobie, myślimy, że mógłby przetrwać dłużej.
W każdym razie do tego momentu, kiedy zacznie zahaczać o atmosferę, zwalniać i spadać, prawdopodobnie będzie działał?
Prawdopodobnie. Wiadomo, że w kosmosie możemy działać tylko na zasadzie prawdopodobieństwa. Póki co może to prawdopodobieństwo jest dość wysokie.
Jakie wnioski dotyczące kolejnych misji, kolejnych prac, kolejnych działań, przyniosły już te miesiące, które państwo macie za sobą, wypatrując tego satelity na orbicie?
Bardzo dużo się uczymy na temat tego, jak działają nasze rozwiązania. Mamy już wnioski dotyczące tego, w jaki sposób moglibyśmy dostosować nasz software do przyszłej misji. Mamy wnioski dotyczące tego, jakie ewentualnie poprawki hardwarowe wprowadzić w kolejnych edycjach naszych systemów. Więc widzimy tutaj potencjał na to, żeby przede wszystkim stawiać na większą długotrwałość naszych rozwiązań pod względem trwałości, odporność na środowisko kosmiczne, wpływ radiacji itd. My staramy się przeskakiwać i uczyć na tych poszczególnych doświadczeniach w taki sposób, żeby zaczynać od elementów, które są skomplikowane, ale wykonalne, jak na wielkość naszej firmy. Ale z każdym rokiem wchodzić w coraz to większe projekty i coraz to bardziej skomplikowane architektury, co wymaga znaczących nakładów finansowych i na R&D, ale też na sprzęt, którego używamy do tworzenia elektroniki, do testowania elektroniki i na dobór podwykonawców. Więc bardzo dużo uczymy się na temat samych nawet procesów wytwarzania elektroniki, co w innych branżach bardzo często jest pomijalne. W kosmosie każda śrubka, każdy kawałek elektroniki, musi być bardzo dobrze przetestowany i musi mieć pełną gwarancję sukcesu podczas misji, bo jak już satelita wyleci, to nie możemy zbytnio wpływać na to, co się z nim dzieje. Nie możemy wysłać tam człowieka, który naprawi kabelek. Musimy w taki sposób zaprojektować nasze rozwiązanie, żeby było w pełni odporne na wszystko, co się może wydarzyć po drodze.
Jak rozumiem wszystkie kabelki na razie są podłączone i działają.
Póki co tak.