Komputer optyczny
Kolejnym pomysłem na nową architekturę jest komputer optyczny, który zamiast używać prądu elektrycznego, wykonywałby obliczenia, korzystając z fal świetlnych. Wyeliminowałoby to wiele wad współczesnych maszyn. Wykorzystanie światła do przesyłania danych w szynach systemowych radykalnie zwiększyłoby ich przepustowość. Jest to możliwe, gdyż w jednym światłowodzie można równocześnie przesyłać fale w różnych częstotliwościach i z różną polaryzacją. Gdyby udało się stworzyć procesor wykorzystujący ścieżki optyczne, można by było wykonywać dużą liczbę równoległych obliczeń. Poza tym procesor optyczny nie nagrzewałby się tak, jak jego elektryczny odpowiednik. Właściwości światła można także wykorzystać do utworzenia pamięci holograficznych, które byłyby dużo bardziej pojemne od dzisiejszej, półprzewodnikowej pamięci RAM bądź flash.
Niestety perspektywa stworzenia komputera optycznego wydaje się bardziej odległa niż w przypadku komputera kwantowego czy neuronowego. Komponenty optyczne są bardzo drogie. Miniaturyzacja układów optycznych do rozmiarów porównywalnych z dzisiejszymi, krzemowymi układami scalonymi wymagałaby opracowania zupełnie nowych, nieznanych dzisiaj procesów produkcyjnych, na co niestety nie można liczyć w przewidywalnej przyszłości.
Komputery biologiczne
Do obliczeń naukowcy próbują także zaprząc biologiczny nośnik od wieków przekazujący informacje o budowie żywych organizmów, czyli DNA. W warunkach laboratoryjnych udało się przeprowadzić proste obliczenia, korzystając ze zbiornika z zawiesiną materiału biologicznego, w którym oprócz białek składających się na łańcuch DNA znajdowały się enzymy stymulujące określone reakcje. Tą drogą udawało się wyodrębnić nitki DNA, które miały zakodowane rozwiązane zdefiniowanego wcześniej problemu, np. rozwiązanie ścieżki Hamiltona.
Naukowcy eksperymentują także z wykorzystaniem komórek nerwowych. System złożony z takich elementów posłużył w laboratorium do dodawania liczb 8-bitowych. Gdyby w przyszłości udało się wynaleźć skuteczną metodę budowania maszyn obliczeniowych z żywych komórek, mogłyby one odziedziczyć właściwości organizmu, czyli samodzielnie naprawiać uszkodzenia własnej struktury.
Przyszłość pokaże
Do momentu, w którym proces bazujący na krzemie wyczerpie możliwości dalszego progresu, zostało jeszcze około dziesięciu lat. Czas pokaże, czy kryzys w rozwoju komputerów uda się całkowicie zażegnać czy odsunąć go przynajmniej o kolejną dekadę.
D-Wave – pierwszy komputer kwantowy
D-Wave to pierwsza na świecie komercyjna maszyna, która pozwala uruchamiać algorytmy korzystające z efektów kwantowych. Sercem jest procesor składający się z 512 qubitów (wkrótce ma się pojawić wersja z 1000 qubitów), którymi są miniaturowe druciki z rzadkiego metalu – niobu. Gdy schłodzi się je do granicy 0,2 stopnia powyżej absolutnego zera (-273) i podłączy do zasilania, można zaobserwować efekt splątania kwantowego, co pozwala na obliczenia kwantowe. Aby utrzymać taką temperaturę, niewielki chip jest umieszczony w kilkumetrowej lodówce chłodzonej ciekłym helem, która zużywa aż 15 kW energii. W obudowie jest niemal idealna próżnia, co zapewnia ochronę niestabilnych stanów kwantowych w qubitach. Procesor jest także zabezpieczony przed oddziaływaniami magnetycznymi.
D-Wave działa na zasadzie wyżarzania kwantowego. Tę operację można porównać do odnajdywania najniższych punktów w górskim krajobrazie. Komputer kwantowy potrafi wskazać takie miejsce w krótkim czasie, oczywiście z określonym prawdopodobieństwem. Na D-Wave nie można uruchamiać wszystkich algorytmów kwantowych, a jedynie działania związane z optymalizacją.
D-Wave, kupiony m.in. przez Google, jest intensywnie testowany we współpracy z NASA w celu odkrycia mocnych i słabych stron procesora. Badaczom udało się znaleźć kilka rodzajów obliczeń, w których D-Wave działa dużo szybciej niż tradycyjna maszyna.