TechnologieKomputer przyszłości

    Komputer przyszłości

    Miniaturyzacja tranzystorów zbliża się do granicy 10 nm, poniżej której wystąpią zakłócenia destabilizujące pracę procesora komputery przestaną przyspieszać. Dlatego zespoły badawcze koncernów informatycznych pracują nad wynalezieniem nowej technologii.

    Komputer przyszłości

    Współczesne komputery są oparte na architekturze von Neumanna z lat 40. XX wieku. Zakłada ona układ maszyny obliczeniowej składającej się z urządzeń wejścia-wyjścia, jednostki obliczeniowej i pamięci operacyjnej przechowującej zarówno program, jak i dane. Jej procesor bazuje na tranzystorach, które w latach 70. XX wieku, dzięki pomysłowości inżynierów z Intela, połączono w zintegrowany mikroprocesor, mieszczący na jednym kawałku krzemu wiele tranzystorów. Przez kolejne 40 lat obserwowaliśmy gwałtowny rozwój mikroprocesorów, w których zgodnie z prawem Moore’a (jednego z założycieli Intela), co 24 miesiące podwajano liczbę tranzystorów, stale zwiększając ich wydajność.

    Koniec krzemu

    Upychanie coraz większej liczby tranzystorów w mikroprocesorze, który zasadniczo nie zwiększał swojej powierzchni, wymagało zmniejszania samych przełączników. Pierwszy procesor Intela 4004 miał kilkaset tranzystorów, a jego najmniejsze elementy – 10 mikrometrów (1x10–6 m). Obecna generacja popularnych mikroprocesorów tego samego producenta, czyli procesory Intel Core oznaczone nazwą kodową Broadwell, mają elementy wielkości 14 nanometrów (1x10–9 m), czyli mniejsze o trzy rzędy wielkości. Pozwoliło to zwiększyć liczbę tranzystorów do 1,5 miliarda! w jednym procesorze. Niestety czas postępu opisanego prawem Moore’a nieuchronnie się kończy. Za granicę technologiczną uznaje się przedział 7–5 nanometrów. Po przekroczeniu tej granicy zaczną się pojawiać efekty kwantowe, czyli zjawiska związane z fizyką cząstek elementarnych, co uniemożliwi poprawne działanie klasycznych procesorów. Jeśli wdrażanie kolejnych generacji procesów litograficznych, czyli technologii wypalania ścieżek w krzemie za pomocą światła laserowego, będzie się odbywało w takim tempie jak obecnie, kres rozwoju mikroprocesorów drogą upychania na nich coraz większej liczby tranzystorów nastąpi w 2020–22 roku.

    Nie tędy droga

    Teoretycznie można by było zwiększać wydajność pecetów za pomocą dalszego podnoszenia częstotliwości taktowania zegara, co pomnożyłoby liczbę operacji wykonywanych w czasie. Niestety na przeszkodzie stoi problem wydzielania ciepła. Im wyższe taktowanie, tym większej mocy trzeba dostarczyć procesorowi. Spotęgowany przepływ prądu powoduje jednak wydzielanie ciepła, które trzeba odprowadzać.

    Biorąc pod uwagę wydajność chłodzenia powietrzem, rozsądna granica częstotliwości taktowania znajduje się nieco poniżej 4 GHz. W praktyce osiągnął ją już procesor Pentium 4 Prescott 3,8 GHz z 2004 roku, który pobierał 120 W. Od tego czasu zegary procesorów stoją w miejscu, podobnie jak maksymalny pobór prądu procesorów desktopowych. Najszybszy obecnie procesor z serii Intel Core Ex- treme Edition pobiera 140 W. Zresztą dalsze zwiększanie taktowania spowodowałoby pojawienie się kolejnych problemów. Po przekroczeniu 5 GHz sygnały mogłyby nie zdążyć pokonać odległości z jednego końca układu do drugiego, co utrudniłoby komunikację między strukturami logicznymi, znajdującymi się na krawędziach mikroprocesora.

    Inżynierowie projektujący procesory spróbowali zwiększać ich wydajność, umieszczając w jednym układzie kilka rdzeni obliczeniowych. Obecnie w procesorach do zastosowań desktopowych liczba rdzeni wzrosła do 4. W przypadku serwerowych wersji tych produktów stosowane są mikroprocesory maksymalnie 18-rdzeniowe. Umieszczanie większej liczby rdzeni, jak się okazało, nie przynosi oczekiwanego wzrostu wydajności. Nie wszystkie problemy obliczeniowe da się z powodzeniem wykonywać równolegle. Poza tym obliczenia równoległe wymagają optymalizacji oprogramowania pod kątem liczby rdzeni obliczeniowych. Przepisanie rozwijanych od lat algorytmów jest dużo trudniejsze i bardziej czasochłonne niż zaprojektowanie i wyprodukowanie nowego układu scalonego.

    Węgiel zamiast krzemu

    Jednym z pomysłów na obejście ograniczeń w gęstości upakowania tranzystorów jest zastosowanie grafenu, czyli dwuwymiarowej struktury – warstwy pojedynczych atomów węgla. Dzięki temu, że doskonale przewodzi prąd, można go użyć zamiast metalu do tworzenia ścieżek przewodzących w układzie scalonym. Procesor zbudowany z grafenowych tranzystorów mógłby dzięki mniejszemu wydzielaniu ciepła pracować z częstotliwością dużo wyższą niż współczesne konstrukcje.

    Niestety wciąż nie udało się opracować metody produkowania bardzo czystego grafenu na skalę przemysłową. Udało się natomiast zastosować ścieżki grafenowe w układach scalonych, wyprodukowanych w krzemowej technologii CMOS (takiej jak zwykłe mikroprocesory). Firma IBM pokazała działający grafenowy układ scalony wzmacniający sygnał radiowy. Niestety jest to uklad analogowy, a zastosowana metoda produkcji i osadzania grafenu w krzemie wyklucza komercyjne zastosowania.

    Obiecującym materiałem są także węglowe nanorurki, które podobnie jak grafen mogą przewodzić prąd. Grupa inżynierów z Uniwersytetu Stanford zbudowała działający procesor, w którym nanorurki zastępują krzemowe tranzystory w roli bramek logicznych. Układ ma niecałe 200 tranzystorów, a jego możliwości odpowiadają pierwszemu mikroprocesorowi Intel 4004. Można podłączyć do niego klawiaturę i wykonywać proste operacje, jak dodawanie czy sortowanie liczb. Dzięki temu, że tranzystory są z węgla, można będzie zminiaturyzować elementy bardziej, niż pozwala na to proces krzemowy. Poza tym nanorurki węglowe nie wydzielają tyle ciepła co tranzystory krzemowe, dzieki czemu będzie można osiągnąć wyższe częstotliwości przy 10-krotnym zmniejszeniu zużycia energii.

    Równolegle do prac nad zastąpieniem krzemu w mikroprocesorach trwają badania, które mogą wywrócić świat komputerów do góry nogami. Zmierzają one do opracowania zupełnie nowej architektury komputera, która nie będzie bazowała na układach logicznych złożonych z tranzystorów, nieważne: krzemowych czy węglowych.

    Zamiast bitów qubity

    Najbardziej obiecującym pomysłem jest obecnie idea komputera kwantowego, który do obliczeń będzie wykorzystywał zjawiska mechaniki kwantowej, występujące w świecie cząstek elementarnych. Kwantowe zjawiska, sprzeczne z regułami panującymi w makroświecie, sprawiają, że cząstka, np. elektron, może znajdować się w wielu stanach i miejscach jednocześnie. Jej stan czy położenie można określić tylko za pomocą prawdopodobieństwa. Co więcej, cząstki mogą być splątane niewidzialną i do końca niezrozumiałą więzią, która pozwala im oddziaływać na siebie z pominięciem ograniczenia w przepływie informacji, jaką dla makroświata jest prędkość światła w próżni.

    Teoretyczna koncepcja komputera kwantowego z lat 80. jest obecnie wykorzystywana do tworzenia działających, kwantowych maszyn obliczeniowych, na które pieniądze hojnie wykłada nie tylko prywatny biznes (m.in. Google, Microsoft, IBM), ale także agencje rządowe, takie jak NSA czy wojsko.

    Obraz

    Komputer kwantowy nie bazuje na bitach, czyli elementach, które mogą mieć wartość 1 lub 0 (we współczesnych komputerach bit jest wyrażany stanem tranzystora otwarty–zamknięty). Zastępują je kwantowe qubity, którymi mogą być na przykład złapane w pułapkę magnetyczną jony, elektrony lub fotony. Qubit w przeciwieństwie do bitu może mieć dwa stany jednocześnie, czyli reprezentować 1 i 0 naraz.

    Ma to sporo korzystnych możliwości obliczeniowych. Na przykład układ 8 bitów pozwala reprezentować jeden stan odpowiadający liczbie od 0 do 256. Układ 8 qubitów pozwala reprezentować 256 stanów w tym samym czasie. Programowanie takiego komputera musi odbywać się poprzez ustawienie qubitów w pożądanym stanie kwantowym, po czym następuje odczyt, który zredukuje liczbę potencjalnych stanów do jednej wartości. Wynik takich obliczeń będzie miał charakter prawdopodobieństwa, które będzie można zwiększyć, powtarzając wielokrotnie operację.

    Uzyskanie uniwersalnego komputera kwantowego, co jeszcze się nie udało, pozwoliłoby rozwiązać wiele trudnych problemów, z którymi nie radzą sobie współczesne maszyny. Większość z nich obejmuje zadania z dziedziny optymalizacji, np. znalezienia najkrótszej drogi, która pozwoli odwiedzić 30 miast w Europie (tzw. problem komiwojażera).Komputer kwantowy nie musiałby sprawdzać wszystkich kombinacji, jak tradycyjny komputer, ale z dużym prawdopodobieństwem od razu wskazałby najkrótszą drogę, zużywającą najmniej energii.

    Inne zastosowanie to faktoryzacja dużych liczb, czyli odkrycie dwóch liczb pierwszych, które po przemnożeniu pozwoliłyby uzyskać daną liczbę. Możliwość uruchomienia na komputerze kwantowym algorytmu Shora pozwoliłaby złamać większość zabezpieczeń kryptograficznych, w tym używanych w internecie mechanizmów klucza publicznego, takich jak RSA.

    Maszyną, która w pewnych wypadkach zachowuje się jak komputer kwantowy, jest znajdujący się już w sprzedaży, wyspecjalizowany komputer D-Wave. Urządzenie wykorzystuje zjawiska kwantowe w celu optymalizacji algorytmów używanych np. do rozpoznawania obiektów, maszynowego uczenia się czy sortowania wyników wyszukiwania.

    Komputery neuronowe

    Kolejną innowacyjną architekturą komputera jest komputer neuronowy. Naśladuje działanie prawej półkuli naszego mózgu. Mózg, w przeciwieństwie do klasycznego komputera, działa dzięki wytwarzaniu połączeń między wielką siecią miliardów komórek nerwowych. Za pomocą tych połączeń potrafi przetwarzać sygnały płynące ze zmysłów, np. wzroku czy dotyku, i reagować na nie. Prace nad komputerem neuronowym rozpoczęły się jeszcze w ubiegłym stuleciu, ale nabrały tempa po roku 2000. IBM np. pokazał w połowie 2014 roku działający procesor neuronowy TrueNorth (patrz ramka „Procesor neuronowy IBM TrueNorth”).

    Gdzie procesory neuronowe miałyby znaleźć zastosowanie? Głównym zadaniem pozostanie wizualne i dźwiękowe rozpoznawanie wzorców. Tym, co daje komputerowi neuronowemu przewagę w rozpoznawaniu wzorców, jest możliwość prowadzenia działania w większej liczbie równoległych, jednocześnie obsługiwanych wątków. Na przykład w aplikacji rozpoznawania twarzy jeden rdzeń może się koncentrować na kształcie nosa, inny na teksturze włosów, kolejny na kolorze oczu. Każdy indywidualny rdzeń jest wolniejszy od tradycyjnego procesora, ale ponieważ operacje biegną równolegle, układ jako całość może wykonywać tego typu zadania bardzo szybko i dokładnie.

    Inne zastosowania obejmują wykorzystanie kamer do automatycznego identyfikowania kształtów w trudnych, przepełnionych innymi kształtami środowiskach. Układ może być także bardzo przydatny do przetwarzania języka naturalnego: jest w stanie słuchać poleceń od ludzi i analizować je. Można do tego dodać pracę z mową i wizją w czasie rzeczywistym, bez wyłączania urządzenia przy zasilaniu bateryjnym.

    Prawdopodobnie już niedługo zobaczymy więcej zastosowań nowych chipów. Nie będzie problemów z ich wytwarzaniem – są wykonywane w tradycyjnej technologii litograficznej, takiej samej jak konwencjonalne procesory. Do nowego układu jest już gotowych ponad dwieście programów. Udało się je stworzyć dzięki symulacji architektury układu na superkomputerach.

    Obraz

    Komputer optyczny

    Kolejnym pomysłem na nową architekturę jest komputer optyczny, który zamiast używać prądu elektrycznego, wykonywałby obliczenia, korzystając z fal świetlnych. Wyeliminowałoby to wiele wad współczesnych maszyn. Wykorzystanie światła do przesyłania danych w szynach systemowych radykalnie zwiększyłoby ich przepustowość. Jest to możliwe, gdyż w jednym światłowodzie można równocześnie przesyłać fale w różnych częstotliwościach i z różną polaryzacją. Gdyby udało się stworzyć procesor wykorzystujący ścieżki optyczne, można by było wykonywać dużą liczbę równoległych obliczeń. Poza tym procesor optyczny nie nagrzewałby się tak, jak jego elektryczny odpowiednik. Właściwości światła można także wykorzystać do utworzenia pamięci holograficznych, które byłyby dużo bardziej pojemne od dzisiejszej, półprzewodnikowej pamięci RAM bądź flash.

    Niestety perspektywa stworzenia komputera optycznego wydaje się bardziej odległa niż w przypadku komputera kwantowego czy neuronowego. Komponenty optyczne są bardzo drogie. Miniaturyzacja układów optycznych do rozmiarów porównywalnych z dzisiejszymi, krzemowymi układami scalonymi wymagałaby opracowania zupełnie nowych, nieznanych dzisiaj procesów produkcyjnych, na co niestety nie można liczyć w przewidywalnej przyszłości.

    Komputery biologiczne

    Do obliczeń naukowcy próbują także zaprząc biologiczny nośnik od wieków przekazujący informacje o budowie żywych organizmów, czyli DNA. W warunkach laboratoryjnych udało się przeprowadzić proste obliczenia, korzystając ze zbiornika z zawiesiną materiału biologicznego, w którym oprócz białek składających się na łańcuch DNA znajdowały się enzymy stymulujące określone reakcje. Tą drogą udawało się wyodrębnić nitki DNA, które miały zakodowane rozwiązane zdefiniowanego wcześniej problemu, np. rozwiązanie ścieżki Hamiltona.

    Naukowcy eksperymentują także z wykorzystaniem komórek nerwowych. System złożony z takich elementów posłużył w laboratorium do dodawania liczb 8-bitowych. Gdyby w przyszłości udało się wynaleźć skuteczną metodę budowania maszyn obliczeniowych z żywych komórek, mogłyby one odziedziczyć właściwości organizmu, czyli samodzielnie naprawiać uszkodzenia własnej struktury.

    Przyszłość pokaże

    Do momentu, w którym proces bazujący na krzemie wyczerpie możliwości dalszego progresu, zostało jeszcze około dziesięciu lat. Czas pokaże, czy kryzys w rozwoju komputerów uda się całkowicie zażegnać czy odsunąć go przynajmniej o kolejną dekadę.

    D-Wave – pierwszy komputer kwantowy

    D-Wave to pierwsza na świecie komercyjna maszyna, która pozwala uruchamiać algorytmy korzystające z efektów kwantowych. Sercem jest procesor składający się z 512 qubitów (wkrótce ma się pojawić wersja z 1000 qubitów), którymi są miniaturowe druciki z rzadkiego metalu – niobu. Gdy schłodzi się je do granicy 0,2 stopnia powyżej absolutnego zera (-273) i podłączy do zasilania, można zaobserwować efekt splątania kwantowego, co pozwala na obliczenia kwantowe. Aby utrzymać taką temperaturę, niewielki chip jest umieszczony w kilkumetrowej lodówce chłodzonej ciekłym helem, która zużywa aż 15 kW energii. W obudowie jest niemal idealna próżnia, co zapewnia ochronę niestabilnych stanów kwantowych w qubitach. Procesor jest także zabezpieczony przed oddziaływaniami magnetycznymi. D-Wave działa na zasadzie wyżarzania kwantowego. Tę operację można porównać do odnajdywania najniższych punktów w górskim krajobrazie. Komputer kwantowy potrafi wskazać takie miejsce w krótkim czasie, oczywiście z określonym prawdopodobieństwem. Na D-Wave nie można uruchamiać wszystkich algorytmów kwantowych, a jedynie działania związane z optymalizacją. D-Wave, kupiony m.in. przez Google, jest intensywnie testowany we współpracy z NASA w celu odkrycia mocnych i słabych stron procesora. Badaczom udało się znaleźć kilka rodzajów obliczeń, w których D-Wave działa dużo szybciej niż tradycyjna maszyna.

    Obraz

    Wybrane dla Ciebie