Do widzenia, SETI@home!
Na początku należy się jednak słowo wyjaśnienia.
SETI, czyli Search for Extraterrestrial Inteligence – w tłumaczeniu Poszukiwania Pozaziemskiej Inteligencji – jest wieloletnim już projektem naukowym, który wciąż trwa i wykorzystuje profesjonalne zaplecze techniczne i kadrę, najczęściej uniwersytecką. Omawiane tu SETI@home było z kolei niejako jego odnogą i zarazem pomysłem, jak do szukania życia w kosmosie zaangażować amatorów, a konkretniej – moc obliczeniową ich komputerów.
W grupie raźniej
Pomysł na SETI@home narodził się, gdy stało się jasne, że ilość danych dostarczana przez radioteleskopy jest wprost niebotyczna. By zwiększyć skuteczność badań i odciążyć uniwersyteckie komputery oraz naukowców, postanowiono skorzystać z przetwarzania rozproszonego, które w drugiej połowie lat 90. zaczęło zdobywać coraz większą popularność. Patrząc od strony technicznej, polega ono na przeprowadzaniu działań matematycznych za pomocą zasobów komputerowych, które nie są zgrupowane w jednym miejscu, a rozproszone – ale za to połączone w jeden organizm za pomocą sieci.
Dane wymagające przeliczenia są w takim wypadku dzielone na części, które mogą przyjąć postać np. programów do wykonania, a te następnie są rozsyłane przez serwer do aplikacji klienckich. Tam są przetwarzane, a do serwera przez tę samą sieć powracają w formie rozwiązania. W tej układance kluczową rolę odgrywa centralny komputer, który jest odpowiedzialny za rozdzielanie zadań, a następnie weryfikację gotowych wyników. Kontrola tego rodzaju bardzo często odbywa się np. poprzez zlecenie ponownego przeliczenia tych samych danych na innym komputerze klienckim. Jeśli wszystko jest w porządku, wyniki są scalane i archiwizowane lub przesyłane do dalszej analizy.
Pierwsze próby takiej organizacji pracy komputerów podejmowano już w latach 60., a w latach 70. postały pierwsze działające w ten sposób sieci – połączone jednak lokalnie. Formalnie rzecz ujmując, dobrym przykładem systemu tego rodzaju jest… poczta elektroniczna opracowana w ramach amerykańskiej sieci ARPANET. SETI@home to jednak daleko bardziej zaawansowane przedsięwzięcie.
Jak działa SETI?
Oficjalnie SETI@Home rozpoczęło pracę 17 maja 1999 roku. Każdy zainteresowany mógł pobrać przygotowany wcześniej niewielki program kliencki i uruchomić go na własnej maszynie. Aplikacja ta działała w tle, pracując, gdy użytkownik nie korzystał z (włączonego, rzecz jasna) komputera. Nie bez znaczenia był też fakt, że wizualizację obliczeń stanowił efektowny wygaszacz ekranu. Założenie było bardzo proste: kiedy nie korzystasz ze sprzętu, twój komputer przeprowadza obliczenia dla SETI@home. Takie podejście zaskarbiło sobie sympatię użytkowników – nie mieli oni przeświadczenia, że uczestnicząc w projekcie, coś tracą, a równocześnie zyskiwali poczucie robienia czegoś innowacyjnego i ciekawego – a potencjalnie nawet rewolucyjnego.
Wspomniany wygaszacz tak naprawdę był jedynie efektownym ozdobnikiem, praca zaś odbywała się na pośrednictwem sieci. Serwer wysyłał każdemu użytkownikowi porcję danych pozyskiwanych przez dwa radioteleskopy: trzystusiedmiometrowego Arecibo i stumetrowego Green Bank. Co ciekawe, zapis kosmicznego szumu – bo w istocie tego rodzaju informacje były analizowane – zbierano przy okazji innych badań prowadzonych na tych obiektach. SETI@home było więc badaniem przeprowadzanym „przy okazji” i równocześnie sposobem na zwiększenie skuteczności wspomnianych urządzeń – naukowcy, prosząc o pomoc entuzjastów projektu, maksymalizowali wykorzystanie danych. Te ostatnie zaś przyjmowały prostą postać: każda porcja do obróbki miała objętość 350 kilobajtach, których przetworzenie trwało 107 sekund.
Następnie próbki te do wszystkich w sieci SETI@home rozsyłał serwer. Komputery użytkowników miały zaś za zadanie wychwycenie z szumu potencjalnie interesujących sygnałów przy zastosowaniu bardzo wymagającego algorytmu, który m.in. niwelował wielostopniowy efekt Dopplera, jakim obarczone były zapisy. Po takiej obróbce dane powracały na serwery opiekującego się projektem Uniwersytetu Berkeley, gdzie budowano z nich bazę danych. Ta zaś była – i w dalszym ciągu jest! – badana pod kątem pojawiających się regularności w wykrytych w szumie anomaliach.
Arecibo
Ogrom danych
Brzmi to wszystko bardzo prosto – w praktyce jednak o skali podejmowanych w ramach SETI@home obliczeń mówi co innego. Dane, zanim trafiły do komputerów uczestników projektu, dostarczane były do Berkeley na taśmach magnetycznych DLT o pojemności 35 GB. Każda mieściła 15:30 h zapisu sygnału z teleskopu. Zamysłem twórców SETI@home było zaś przetworzenie kosmicznego szumu... z dwóch lat. Już to wydawało się nierealne – ale wraz z eksplozją popularności przedsięwzięcia ten początkowy limit zdjęto. Jak chwalili się twórcy projektu, w październiku 2000 roku – czyli w niecałe półtora roku od startu – w obliczeniach SETI@home pomagało niemal 2,5 mln ochotników, z czego ponad 500 tys. było aktywnych (czyli zwróciło przeliczony fragment nagrania w ciągu dwóch tygodni). Wówczas też suma czasu pracy wszystkich CPU wyniosła 437 tys. lat, a średnia moc obliczeniowa sieci w tym czasie – 15,7 TFLOPS.
To, że platforma odniosła sukces, nie ulegało wątpliwości. Pojawiły się więc próby jej rozwoju. W 2005 roku klasyczny klient SETI@home został zastąpiony systemem BOINC, czyli Berkeley Open Infrastructure for Network Computing. Początkowo opracowywany jako wsparcie poszukiwań kosmitów, szybko stał się platformą dla wielu innych projektów działających na podobnej zasadzie. Logując się do BOINC, wybieramy, gdzie chcielibyśmy przekazać moc obliczeniową naszego komputera. Wśród trzydziestu projektów znajdziemy inne dotyczące kosmosu, kosmologii czy modelowania wszechświata, ale jest też wiele znacząco odbiegających od tematyki SETI@home. BOINC stał się wszechstronną platformą naukową z projektami z zakresu genetyki, fizyki, matematyki, astrobiologii czy medycyny. Zresztą w tym ostatnim przypadku można teraz wspomóc walkę z wirusem COVID-19, zapisując się do projektu Science United.
SETI@home u schyłku
Póki co oczywiście nie udało się odnaleźć dowodu na istnienie pozaziemskiego życia. Tym niemniej dzięki SETI@home zidentyfikowano kilka miejsc w przestrzeni kosmicznej, z których dobiegały sygnału wyróżniające się na tle kosmicznego szumu – nie da się jednak stwierdzić jednoznacznie, jaki jest ich charakter. Najpewniej był to największy sukces projektu – 31 marca 2020 rozdzielono bowiem ostatnie próbki do analizy, a całość przeszła w stan hibernacji.
Jak ogłosili jego opiekunowie, dalsze obliczenia przestały mieć sens, gdyż przeliczono wszystkie dane, na którym naukowcom zależało. Według oświadczenia pracowników Uniwersytetu, należy się teraz skupić na analizie pozyskanego materiału, wyciągnięciu wniosków i opracowaniu tematu w formie pracy naukowej.
Równocześnie jednak to nie koniec SETI@home: pozostaje on co prawda zawieszony, ale cały czas czeka na okazję, by znów ruszyć z obliczeniami – te jednak mogą już dotyczyć innej, choć związanej z głównym tematem projektu kwestii. Jeszcze parę lat temu pojawiły się plany zbadania danych z Parkes Observatory, a co za tym idzie – nieba południowej półkuli. Wygląda jednak na to, że pomysł ten został ostatecznie porzucony.
W ostatnich dniach oficjalnego funkcjonowania potencjałem swych procesorów SETI@home wsparło ponad 90 tys. użytkowników z puli 1,8 miliona ogólnej ich liczby. Przeciętna moc obliczeniowa sieci wyniosła 1117,09 TFLOPS – czyli ponad 71 razy więcej niż w roku 2000. PC Format też dorzucił swoją cegiełkę. Zresztą w przypadku naszego administratora był to powrót do przeszłości. U szczytu popularności SETI@home, wpatrując się w kolorowy wygaszacz ekranu, udostępniał on moc obliczeniową redakcyjnego komputera – podobnie jak setki tysięcy maniaków wypatrujących życia w kosmosie.