Talerze i kości
O tym, że ilość generowanych na świecie cyfrowych informacji rośnie w niewyobrażalnym tempie, nie trzeba już chyba nikogo przekonywać Obecnie, według najnowszego raportu firmy DOMO, ludzkość każdego dnia wytwarza 2,5 kwintyliona danych (kwintylion to jedynka z trzydziestoma zerami). W 2020 roku każdy internauta ma produkować w ciągu sekundy 1,7 MB danych. A te wszystkie informacje trzeba gdzieś pomieścić i zapisać!
Z problemem tego, jak składować ogromne ilości danych, spotkał się z pewnością każdy z nas. Niezależnie od tego, czy przechowujemy informacje na komputerze, smartfonie czy w chmurze, przestrzeń na dane szybko się kurczy i albo musimy dokupić kolejny pakiet miejsca w chmurze, albo dodać lub wymienić nasz dysk na pojemniejszy model. Obecnie standardowo do przechowywania danych wykorzystuje się dwa rodzaje pamięci masowej – szybką, półprzewodnikową pamięć flash i tradycyjne nośniki magnetyczne. W tym pierwszym przypadku mamy do czynienia z napędami SSD (Solid State Drive), w drugim z tradycyjnymi dyskami twardymi HDD (Hard Disk Drive).
Dysk twardy jeszcze nie umiera
O tym, że technologia dysków twardych odchodzi już do lamusa, słyszy się regularnie od 1991 roku, odkąd to w wybranych modelach laptopów IBM-a z serii ThinkPad pojawił się pierwszy napęd SSD firmy SanDisk o zawrotnej jak na tamte czasy pojemności 20 MB. Jeśli jednak ktoś myślał, ze tradycyjne dyski twarde łatwo się poddadzą, był w dużym błędzie. Dzięki technologiom, które dopiero dzisiaj zaczynają być używane, „twardziele” będą nam służyć jeszcze przez długie lata. Co więcej, ich pojemność dość szybko urośnie do ogromnych, jak na dzisiejsze standardy, rozmiarów. Dowodzą tego plany produkcyjne firm Seagate i WD na najbliższe lata – wkrótce pojawić się mają dyski o pojemności 60 TB.
Przyjrzyjmy się temu, jak zbudowany jest dysk twardy. Za pierwszy seryjnie produkowany dysk twardy uznaje się opracowany w 1956 roku przez firmę IBM model IBM 350. Mieścił on 3,75 MB. Jednak dysk twardy w formie, jaką obecnie znamy, powstał dopiero w 1980 roku. Był to 5-megabajtowy, 5,25-calowy napęd Seagate ST-506, który charakteryzował się ok. 5 razy większą pojemnością niż standardowo używane wówczas dyskietki. 3,5-calowe dyski twarde pojawiły się trzy lata później. Nieistniejąca już firma Rodime Limited opracowała wówczas 10-megabajtowe modele napędów RO351 i RO352. Od tamtego czasu podstawowa, mechaniczna konstrukcja dysków twardych nie zmieniła się w istotny sposób. Oczywiście udoskonalono poszczególne elementy konstrukcyjne dysku, zmieniono materiały, z których się je produkuje, unowocześniono elektronikę sterującą i zwiększono szybkość odczytu oraz zapisu danych. Zmniejszono też czas dostępu oraz precyzję pracy mechanicznych podzespołów. Niemniej do dziś dyski twarde wciąż składają się z jednego lub kilku pokrytych materiałem magnetycznym talerzy, które wirują na wspólnej osi, oraz z zespołu głowic zapisująco-odczytujących, umieszczonych na ruchomych ramionach. Dzięki temu głowice mogą z wyjątkową precyzją dotrzeć do wybranego sektora na wirującym talerzu – tam, gdzie są dane zapisane magnetycznie.
Zwiększamy pojemność
Podstawowym czynnikiem wpływającym na pojemność dysków twardych, a pośrednio na szybkość ich pracy, jest gęstość zapisu. Gęstość ta, wyrażana w bitach na cal kwadratowy, mówi nam, jak dużo informacji (bitów) można zmieścić na calu kwadratowym powierzchni magnetycznego nośnika. Im parametr ten jest większy, tym więcej informacji da się zmieścić na jednym talerzu dysku twardego. Dostępne w sklepach „twardziele” charakteryzują się obecnie gęstością zapisu na poziomie 740–820 gigabitów na cal kwadratowy, co umożliwia przechowywanie do ok. 4 TB danych na jednym talerzu dysku magnetycznego.
Warto wspomnieć, że do roku 2005 wszystkie dyski twarde używały technologii podłużnego magnetycznego zapisu danych – LMR (Longitudinal Magnetic Recording). Z tej metody zapisu korzysta się od samego początku na wszystkich nośnikach magnetycznych, w tym na taśmach magnetofonowych, taśmach wideo, dyskietkach. W zapisie LMR sygnał rejestrowany jest na przesuwającym się pod głowicą magnetycznym nośniku, np. wirującym talerzu. W trakcie zapisu cząstki materiału magnetycznego zostają odpowiednio namagnesowane. Odczyt danych polega zaś na tym, że namagnesowany nośnik, przesuwając się pod głowicą, powoduje zmiany pola magnetycznego w głowicy, a więc wpływa na przepływający przez głowicę prąd. To dzięki tym zmianom prądu odczytać można zapisane na dysku informacje.
We wspomnianym 2005 roku firma Toshiba zaprezentowała dwa pierwsze modele dysków twardych – MK4007GAL i MK8007GAH, o pojemnościach odpowiednio 40 i 80 GB – wykorzystujące nowatorską wówczas technologię zapisu prostopadłego – PMR (Perpendicular Magnetic Recording). W zapisie tym używane do przechowywania informacji najmniejsze elementy magnetyczne o jednorodnym kierunku namagnesowania, nazywane domenami, ułożone są prostopadle do powierzchni nośnika, a nie jak w technologii LMR równolegle. Dzięki temu, że domeny skierowane są w głąb talerza, zajmują mniej miejsca na powierzchni. W ten sposób można zmieścić ich znacznie więcej obok siebie, zwiększając tym samym gęstość zapisu. Oczywiście w technologii PMR używa się innych głowic magnetycznych, które są w stanie zmienić namagnesowanie ustawionych pionowo domen.
W wypadku płasko rozłożonych na powierzchni nośnika domen maksymalna gęstość upakowania danych wynosi ok. 120 gigabitów na cal kwadratowy. Powyżej tej granicy domeny mogą już samoistnie zmieniać swoje namagnesowanie – jest to tzw. zjawisko superparamagnetyzmu – niszcząc tym samym zapisane na nośniku informacje. Technologia PMR teoretycznie umożliwia osiągnięcia gęstości zapisu na poziomie 1 Tbit/cal² – po przekroczeniu tej granicy można już stracić informacje. Nietrudno zauważyć, że coraz szybciej zbliżamy się do granic możliwości technologii PMR, dlatego producenci dysków twardych poszukują nowych sposobów na zwiększenie pojemności.
Hel zamiast powietrza
Przez pewien czas firma WD (Western Digital) promowała technologię HelioSeal. Korzystające z niej napędy są o tyle ciekawe, że ich wnętrze wypełnione jest helem. Gęstość helu jest siedmiokrotnie mniejsza niż powietrza, dzięki czemu w dyskach tych udało się w znaczący sposób zmniejszyć opór stawiany przez gaz obracającym się talerzom i ramionom głowic. Mniejsze opory ośrodka pozwalają w 3,5-calowej konstrukcji „twardziela” upakować większą liczbę talerzy i głowic odczytująco-zapisujących. W najbardziej pojemnych dyskach korzystających z technologii HelioSeal konstruktorom udało się zmieścić ich aż osiem, a więc o trzy więcej niż w standardowych konstrukcjach dysków twardych.
Hel ma również o większe przewodnictwo termiczne, co ułatwia odprowadzanie ciepła generowanego przez mechaniczne podzespoły. W ten sposób uzyskano stabilną pracę przy znacznie mniejszych domenach. W konsekwencji większa liczba talerzy i wyższa gęstość zapisu sprawiły, że w sprzedaży zadebiutowały dyski o pojemności 14 TB – m.in. model WD Ultrastar DC HC530. Wadą technologii helowych jest to, że są one stosunkowo drogie. Cząsteczki helu są bardzo małe i trudno jest dobrze uszczelnić dysk, tak aby nie uciekał z niego gaz.
SMR w akcji
Jedną z alternatyw dla technologii helowych jest stosowana przez firmę Seagate SMR (Shingled Magnetic Recording). W systemach SMR zwiększenie gęstości zapisu uzyskuje się, minimalizując odstępy pomiędzy ścieżkami na talerzu dysku twardego. Ścieżki nakładają się tutaj na siebie nawzajem jak dachówki na dachu – stąd nazwa tej technologii, „gontowy zapis magnetyczny”.
Jedną z alternatyw dla technologii helowych jest stosowana przez firmę Seagate SMR (Shingled Magnetic Recording). W systemach SMR zwiększenie gęstości zapisu uzyskuje się, minimalizując odstępy pomiędzy ścieżkami na talerzu dysku twardego. Ścieżki nakładają się tutaj na siebie nawzajem jak dachówki na dachu – stąd nazwa tej technologii, „gontowy zapis magnetyczny”.
Nadchodzą HAMR i MAMR
Jednak to nie koniec technologicznych nowości. Pod koniec 2018 roku firma Seagate zaprezentowała dysk twardy o pojemności 16 TB, który korzysta z technologii HAMR (Heat-Assisted Magnetic Recording), czyli zapisu magnetycznego wspomaganego termicznie. Do zapisu wykorzystywana jest niewielka dioda laserowa zamontowana na każdej głowicy, która podgrzewa fragment powierzchni talerza do temperatury 400–700 stopni Celsjusza. W ten sposób zmniejsza się tzw. oporność magnetyczną materiału. Dzięki temu znacznie łatwiej jest namagnesować niewielkie domeny, zwiększając tym samym gęstość zapisu.
Bardzo podobnym mechanizmem dysponuje firma WD, jednak w jej wypadku zamiast diody laserowej używa się miniaturowego generatora fal mikrofalowych o częstotliwości 20–40 GHz. Technologia MAMR (Microwave Assisted Magnetic Recording), bo taka jest jej nazwa, daje podobny efekt zmniejszenia oporności magnetycznej jak podgrzewanie w technologii HAMR, ale nie występuje tu wzrost temperatury nośnika.
Twarde dyski zgodne z technologiami HAMR i MAMR o pojemnościach 16 i więcej terabajtów zaczną się pojawiać sukcesywnie na rynku już w tym roku. Obie pozwolą przekroczyć gęstość zapisu rzędu 10 Tbit/cal². Dzięki temu docelowa pojemność dysków wyniesie ponad 60 TB, a transfer danych może osiągnąć szybkość przekraczającą 1–1,5 GB/s. Firma Seagate zapowiedziała już, że w ciągu kilku miesięcy pojawią się w sprzedaży napędy o pojemności 20 TB, a w przyszłym roku, na początku tylko w centrach danych, zagoszczą dyski o pojemności 36–48 TB. Co ciekawe, do 2025 roku na półkach sklepowych będą już napędy o pojemności co najmniej 100 TB, produkowane zarówno przez Seagate’a, jak i WD!
Dogonić SSD
Sama pojemność to nie wszystko, czego potrzeba, by dysk twardy był w stanie konkurować z napędami SSD. Dla użytkowników liczy się również szybkość pracy i czas dostępu do informacji, a pod tym wglądem tradycyjne „twardziele” dość wyraźnie odstają od swoich młodszych braci. Aby poprawić szybkość odczytu i zapisu danych, firma Seagate opracowała technologię MACH.2 Multi Actuator.
Pomysł jest dość prosty i polega na tym, że zamiast jednego zestawu głowic odczytująco-zapisujących w dysku twardym znalazły się dwa tego typu komplety, pracujące niezależnie od siebie. Wykorzystanie tylko dwóch niezależnych zestawów głowic zaowocowało znacznie wyższą liczbą operacji wejścia/wyjścia i, co za tym idzie, przepustowością dochodzącą do 480 MB/s. Są to osiągi, które dorównują budżetowym napędom SSD. Jak twierdzi producent, jeszcze większa liczba grup niezależnych głowic pozwoli uzyskać wyniki wydajności porównywalne ze standardowymi napędami SSD.
Napęd półprzewodnikowy
Dyski SSD, czyli elektroniczne napędy półprzewodnikowe, w których zastosowano pamięć flash, niemal całkowicie zdominowały rynek ultraprzenośnych notebooków. Wynika to z faktu, że dyski te są odporne na uszkodzenia mechaniczne (brak w nich części ruchomych), a do działania potrzebują znacznie mniej prądu. Są też znacznie szybsze, mniejsze i mogą składać się z zaledwie kilku kości pamięci, niewielkiej płytki drukowanej oraz układu kontrolera, jak napędy M.2 (patrz: ramka). Niestety napędy SSD są też dużo droższe i, ze względów finansowych, w typowych komputerach i notebookach trudno znaleźć napęd o pojemności większej niż 500 GB.
Urządzenia SSD posługują się do przechowywania danych nieulotną, a więc niewymagającą stałego zasilania prądem, pamięcią flash – obecnie są to najczęściej układy typu NAND flash. Pracą kości pamięci zarządza kontroler i wewnętrzne oprogramowanie. Napęd SSD niezależnie od tego, czy korzysta z interfejsu SATA, micro-SATA, PCI-Express czy M.2 (patrz ramka), przekazuje systemowi operacyjnemu jedynie wirtualny obraz dysku, tak jakby był to tradycyjny dysk magnetyczny. Oczywiście ten obraz z sektorami i ścieżkami nie ma nic wspólnego z wewnętrzną, fizyczną organizacją danych w kościach pamięci.
Komórka pamięci flash działa analogicznie do komórki pamięci operacyjnej DRAM, jednak, jak już wspomnieliśmy, w odróżnieniu od niej nie wymaga stałego zasilania. Budowa typowego napędu SSD nie jest specjalnie skomplikowana. Napęd ogranicza się do kilku elementów funkcjonalnych. Najważniejszym i podstawowym z nich są układy pamięci flash, w których przechowane są dane. Ich pracą zarządza kontroler współpracujący z pamięcią podręczną dysku, czyli cache’em. Oprócz tego na wspólnej płytce drukowanej zamontowane jest złącze komunikacyjne, pozwalające podłączyć taki dysk do komputera. W wypadku napędów SATA całość umieszcza się w 2,5-calowej obudowie i z zewnątrz taki napęd niczym nie różni się od swojego mechanicznego odpowiednika (patrz: ramka). Oczywiście napędy SSD oraz coraz pojemniejsze i szybsze dyski twarde to nie jedyne technologie pamięci masowych, nad którymi trwają prace w laboratoriach na całym świecie. Wymienić tu można jeszcze technologię dwuwymiarowego zapisu magnetycznego TDMR (Two Dimensional Magnetic Recording), rozmaite technologie optyczne, w tym holografię, zapis danych w DNA czy metody kwantowe, ale to temat na zupełnie inną opowieść.
Optane Memory i systemy hybrydowe
Jednym ze sposobów na zwiększenie szybkości pracy pamięci masowej przy jednoczesnym zachowaniu jej pojemności są dyski hybrydowe SSHD (Solid State Hybrid Drive), takie jak na przykład Seagate Desktop SSHD 1 TB. Napędy tego typu to połączenie zalet dysku SSD i HDD. Do tradycyjnego napędu magnetycznego dołożony został sporej wielkości bufor pamięci flash, którego zadaniem jest cache’owanie operacji na najczęściej wykorzystywanych w danej chwili danych, które zapisane są na talerzach dysku magnetycznego. Innymi słowy dyski SSHD zapewniają szybkość pracy na poziomie dysków SSD i pojemność tradycyjnych dysków twardych – oczywiście tylko w wypadku najczęściej wykorzystywanych danych. Tego typu konstrukcje cieszyły się bardzo dużą popularnością jeszcze kilka lat temu, kiedy napędy SSD były bardzo, ale to bardzo drogie i dołożenie do dysku kilkunastu gigabajtów pamięci flash w istotny sposób wpływało na wydajność komputera. Dzisiaj dyski SSHD wykorzystuje się niemal wyłącznie do modernizacji starszych komputerów, niemniej napędy hybrydowe stały się podstawą do opracowania przez Intela pamięci Optane. Optane Memory to tak naprawdę system akceleracji pamięci masowej. Moduł specjalnej, stworzonej przez Intela pamięci 3D XPoint o pojemności 16 lub 32 GB tworzy bufor pomiędzy RAM-em a tradycyjnym dyskiem twardym podpiętym do portu SATA. Specjalny algorytm wybiera najczęściej wykorzystywane pliki i przenosi je do nieulotnej pamięć Intel Optane Memory. W ten sposób dostęp do nich jest niemal natychmiastowy, i to zaraz po włączeniu komputera. Oczywiście wszystko to dzieje się automatycznie, bez udziału użytkownika i „wiedzy” systemu operacyjnego. To dlatego nie widzimy pamięci Optane jako dodatkowego dysku w naszym komputerze.
Technologia HelioSeal – dysk twardy wypełniony helem
- Zmniejszenie rozpraszania energii mechanicznej podczas wykonywania obrotów dysków w powietrzu
- Możliwość umieszczenia talerzy bliżej siebie, co zwiększa pojemność dysku
- Zmniejszenie temperatury o 4 stopnie Celsjusza
- 49-procentowa redukcja wydzielanego ciepła w przeliczeniu na TB pojemności
Interfejsy i formaty SSD
Napędy SSD proponowane są klientom końcowym w trzech formatach: 1,8”, 2,5” oraz M.2 – pomijamy tu serwerowe dyski w postaci kart PCI-Express przypominających karty graficzne. Dwa pierwsze warianty to napędy umieszczone w obudowach podobnych do dysków twardych, natomiast dyski M.2 montowane są bezpośrednio na płycie głównej w specjalnym złączu. Przypominają one trochę swoim wyglądem standardowy moduł pamięci RAM. Jeśli chodzi o interfejsy stosowane w napędach SSD, to najbardziej oczywiste jest tu złącze SATA w wersjach II lub III, a więc takie samo jak w tradycyjnych „twardzielach”. Zapewnia ono transfer do 6 Gb/s (SATA III), czyli teoretycznie 750 MB/s – w praktyce jest to znacznie mniej, zwykle ok. 570 MB/s. W wypadku dysków SSD taka wartość transferu jest mniejsza od ich maksymalnych możliwości, dlatego zaczęto stosować znacznie wydajniejsze interfejsy. Są nimi PCI-Express, łącze wykorzystywane m.in. do podłączania kart graficznych, a także mSATA, czyli micro-SATA stosowane głównie w notebookach, oraz zyskujące coraz większą popularność M.2, wykorzystujące magistralę PCI-Express, gwarantujące transfer na poziomie 1 GB/s.