Tajemnice superkomputerów
Duże moce obliczeniowe, częstotliwości i zagęszczenie układów obliczeniowych na niewielkiej przestrzeni powodują wydzielanie ogromnych ilości energii. Ciepła jest tyle, że można je wykorzystywać do ogrzewania budynków. Aby systemy mogły funkcjonować, niezbędne są więc wyspecjalizowane układy chłodzenia.
Początkowo używano tylko systemów wentylatorów i chłodzenia powietrzem, ale było to mało wydajne i energochłonne rozwiązanie. Dziś najczęściej stosuje się rozwiązania mieszane, chłodzenie cieczą, bardzo często w układzie zamkniętym. W dużym uproszczeniu w systemie zamkniętym ciecz odbiera energię cieplną generowaną przez elementy elektronicznie. Układy mogą być chłodzone bezpośrednio bądź za pomocą systemu chłodzenia powietrznego. Następnie poprzez wymienniki ciepła energia przekazywana jest innej cieczy do drugiego obiegu. Czynnik w tym obiegu jest studzony w chłodnicach poza budynkiem. Inną metodą jest zanurzenie poszczególnych węzłów komputera bezpośrednio w cieczy dielektrycznej. Opływający układy elektroniczne płyn odbiera wydzielane ciepło.
Techniki zarządzania zużyciem energii i odprowadzania energii wypromieniowanej podczas pracy komputerów są dla projektantów coraz istotniejsze. Wynika to z prób upakowania coraz bardziej wydajnych obliczeniowo konstrukcji na mniejszej przestrzeni. W wyścigu technologii wygrywają dziś rozwiązania wodne, które są około dziesięciu razy efektywniejsze. IBM przewiduje, że staną się one główną metodą chłodzenia superkomputerów w przyszłości, nawet w tak zwanych układach 3D, w których procesory obliczeniowe układane są w stosie jeden na drugim. Prowadzone są badania nad umieszczeniem pomiędzy rdzeniami procesorów malutkich 50-mikronowych rurek, którymi mogłaby przepływać ciecz chłodząca. Według IBM dzięki chłodzeniu wodą do 2025 roku można zmniejszyć rozmiary dzisiejszego superkomputera do wielkości komputera biurkowego z roku 2012.
Wyścigi superkomputerów są jak kiedyś wyścig zbrojeń. Największe mocarstwa na świecie chcą być liderem w tej dziedzinie. Aktualnie wszyscy pracują nad przekroczeniem bariery EFLOPS czyli tryliona operacji zmiennoprzecinkowych na sekundę (eksa – 1018). USA planują uruchomić swoje systemy w okolicach roku 2021. Mają to być Frontier i Aurora (bliźniacza jednostka Summita, przeprojektowana przed planowanym początkowo na 2018 rok uruchomieniem). O szczegółach ich konstrukcji nie wiadomo na razie wiele. Najprawdopodobniej rdzeniem systemów będą procesory IBM wspomagane przez GPU Nvidii.
Chińczycy także przygotowują swój komputer działający z szybkością tryliona operacji na sekundę na początek lat 20. Będzie on bazował na konstrukcji Sunway TaihuLight wykorzystującej procesory RISC własnego projektu. W Europie w tym samym kierunku podąża natomiast projekt Mont-Blanc 2020. Planuje się w nim zastosowanie energooszczędnych procesorów ARMv8-A z technologią SVE (zmiennej długości wektora). Z tego samego procesora chce skorzystać też Fujitsu, projektując następcę trzeciego na listopadowej liście HPCG superkomputera K computer działającego w Japonii.
Jednym z poważniejszych problemów we wszystkich tych projektach jest zoptymalizowanie zużycia energii. Teoretycznie bowiem system „exascale” można uruchomić już nawet dziś. Wystarczy tylko rozbudować istniejące konstrukcje, dokładając kolejne moduły. Jak zaznaczył jednak profesor Peter Kogge z University of Notre Dame, zajmujący się projektowaniem procesorów i systemów komputerowych, można to zrobić „pod warunkiem, że znajdzie się ktoś gotów zapłacić rachunek za zużywaną energię elektryczną”. Dziesięciokrotne powiększenie superkomputera bazującego na aktualnej technologii wymagałoby dziesięciokrotnie większej mocy zasilającej. A różnica między 20 MW, a 200 MW mocy jest taka, jak „między oddaną do twojej dyspozycji podstacją energetyczną a elektrownią atomową”.