Globalny superkomputer
Projekt poszukiwania pozaziemskiej inteligencji poprzez analizę sygnałów z radioteleskopu. Celem jest zidentyfikowanie transmisji w wąskim paśmie, która wyraźnie odróżnia się od naturalnych sygnałów emitowanych przez ciała niebieskie oraz szumu elektronicznego generowanego przez źródła promieniowania elektromagnetycznego z Ziemi czy satelitów.
https://setiathome.berkeley.edu
Folding@home
Tworzenie białek jest jednym z najważniejszych procesów biochemicznym w naszych organizmach. Projekt Folding@home bada, w jaki sposób proces ten przebiega w przestrzeni 3D. Dzięki lepszemu zrozumieniu być może uda się lepiej poznać genezę chorób wywoływanych przez białka, takich jak choroby szalonych krów (BSD), Parkinsona czy Creutzfeldta-Jakoba.
http://folding.stanford.edu
Rosetta@home
W tym projekcie obliczenia rozproszone są wykorzystywane do przewidywania struktury białek. Celem jest wynalezienie nowych protein, które mogą pomóc w walce z najgroźniejszymi chorobami ludzkości – wirusem HIV, malarią, chorobą Alzheimera, wąglikiem czy różnymi odmianami nowotworów. Badane są także możliwości zwalczania wirusa opryszczki.
http://boinc.bakerlab.org/rosetta
Einstein@home
Projekt polega na analizie sygnałów z pulsarów zarejestrowanych przez Laserowe Obserwatorium Fal Grawitacyjnych LIGO. Niektóre pulsary o kształcie odbiegającym od sfery emitują fale grawitacyjne. Celem jest wykrycie śladów fal towarzyszącym tylko połączeniu czarnych dziur.
https://einsteinathome.org/pl/home
MilkyWay@Home
Przedmiotem badania są strumienie gwiazd wokół Drogi Mlecznej, pozostałości po karłowatych galaktykach rozerwanych przez oddziaływanie grawitacyjne wielkiego skupiska gwiazd. Celem projektu jest utworzenie mapy tych struktur, a także określenie ich dynamiki. Materiał do analizy pochodzi ze Sloan Digital Sky Survey, mapy nieba z danymi 500 mln ciał niebieskich.
https://milkyway.cs.rpi.edu/milkyway
www.plgrid.pl
Na obliczeniach równoległych bazują zarówno systemy rozproszone, jak i współczesne superkomputery. W obydwu przypadkach dane dzieli się na fragmenty. Różnicą jest natomiast to, że w superkomputerze obliczenia są wykonywane w równolegle, a informacje mogą być wymieniane między węzłami niemal w czasie rzeczywistym. W systemie rozproszonym obliczenia wykonuje się na fragmentach zbioru danych, a wyniki agreguje w bazie danych.
Z tego względu platformy, takie jak Worldwide LHC Computing Grid czy te bazujące na aplikacji BOINC nie mają wszystkich zalet superkomputera. Choć połączona moc obliczeniowa systemu rozproszonego jest porównywalna, a może nawet większa od typowych superkomputerów, to systemom rozproszonym brakuje jednej fundamentalnej cechy – mechanizmu szybkiej wymiany danych pomiędzy jednostkami obliczeniowymi. Ze względu na odległości opóźnienia sygnału są o kilka rzędów wielkości większe, co wyklucza działania na dużych zbiorach danych, które muszą być przetwarzane równolegle. Z tego względu na rozproszonych systemach nie liczy się na przykład numerycznej prognozy pogody czy symulacji procesów w reaktorach nuklearnych. Natomiast w zastosowaniach, które pozwalają na podzielenie zadania na fragmenty, rozproszony system poradzi sobie niemal tak dobrze, jak tradycyjny superkomputer.