TechnologieHistoria dysków twardych

    Historia dysków twardych

    Dysk twardy obchodzi swoje 60. urodziny. Z tej okazji warto przypomnieć sobie historię tego nośnika danych.

    Historia dysków twardych

    Praktycznie każde obecnie używane urządzenie elektroniczne jest wyposażone w magazyn danych taki jak dysk twardy lub pamięć flash – innymi słowy nieulotny magazyn na dane, które są w nim przechowywane także po wyłączeniu komputera, czyli odcięciu zasilania.

    Ilość danych przechowywanych w komputerach stale rośnie. Zwiększa się zarówno objętość plików (kiedyś gra mieściła się na kilku dyskietkach, teraz trzeba ściągnąć kilkadziesiąt gigabajtów danych), jak i rodzaj materiałów – dziś prawie wszystkie dokumenty i zdjęcia mają postać cyfrową. Dlatego też regularnie zwiększa się zapotrzebowanie na pojemność dysków, zarówno wśród zwykłych użytkowników, jak i w wypadku centrów danych przechowujących gigantyczne ilości informacji.

    Taśmy

    Protoplastą dysków twardych były karty dziurkowane. Po raz pierwszy zastosowano je w połowie XIX wieku w krośnie, gdzie służyły do sterowania nićmi podczas tkania. Dzięki temu można było łatwo tworzyć tkaninę o powtarzalnym wzorze. Karty perforowane z czasem ewoluowały w taśmy. Ich idea była ciągle rozwijana, ale z czasem zupełnie zmienił się materiał wykorzystywany do ich produkcji.

    W 1900 roku opracowano metodę zapisu dźwięku w postaci magnetycznej. Jako pierwszy nośnik wykorzystano stalowy drut, wkrótce zastąpiony stalową taśmą. Wadą tego rozwiązania była olbrzymia waga. Z kolei lekkie taśmy papierowe pokryte materiałem ferromagnetycznym, np. tlenkiem żelaza, były nietrwałe. W 1928 r. papier zastąpiono lekką taśmą z nylonu. By zapisać dane na taśmie, trzeba użyć głowicy elektromagnetycznej – ta za pomocą silnego pola ustawia domeny magnetyczne, czyli namagnesowuje taśmy. Odczyt polega na sprawdzeniu zmian pola.

    Taśmy miały jednak kilka wad. Po pierwsze, były to nośniki niezbyt wytrzymałe. Po drugie, by odczytać informację z konkretnej części taśmy, trzeba było ustawić ją naprzeciwko głowicy odczytującej, czyli przewinąć taśmę, co było uciążliwe. Wie o tym każdy posiadacz magnetowidu.

    Dyskietki

    Materiały ferromagnetyczne stosowano również w dyskietkach, które wynalazł Yoshiro Nakamatsu w 1950 roku. Wynalazek ten bardzo szybko został wykupiony przez firmę IBM. Zdobył popularność w latach 70-tych i 80-tych, gdy w sklepach pojawiły się pierwsze napędy dyskietek. Powszechnie używano ich niemal do końca XX wieku.

    Karty perforowane

    Pierwszy ogólnie przyjęty standard karty perforowanej stworzył IBM. Karta opatentowana przez tę firmę w 1928 roku była podzielona na 80 kolumn i 12 wierszy (10 numerycznych, dwa strefowe), zaś pola bitowe znajdowały się na przecięciu kolumn z wierszami. Dane na karcie zapisywało się za pomocą dziurkarki klawiszowej, a następnie za pomocą sprawdzarki weryfikowało się poprawność wprowadzonych informacji. Wadami tego standardu były bardzo mała pojemność oraz niska trwałość. Rozwinięciem idei kart dziurkowanych są taśmy perforowane. Cechują się one większą długością i, co za tym idzie, większą pojemnością, ale są bardzo podatne na zniszczenia. Karty odczytywano za pomocą szczotek elektrycznych, które zwierały się z bębnem w miejscu, gdzie był wycięty otwór. Zamknięcie obwodu dawało logiczną jedynkę.

    Pierwsze dyski twarde

    Dyski twarde mają dokładnie 60 lat – we wrześniu 1956 roku pojawiło się pierwsze urządzenie tego typu. Był to model IBM 350 o pojemności 5 MB. Wykorzystywał on 50 talerzy, z których każdy miał średnicę wynoszącą 24 cale i był pokryty materiałem magnetycznym. Odczyt i zapis danych był przeprowadzany za pomocą głowic elektromagnetycznych – informacje zapisuje się, zmieniając natężenie pola magnetycznego generowanego przez głowicę zapisującą i namagnesowując w ten sposób talerz pokrytego warstwą magnetyczną. Z kolei odczyt danych polega na zmianie rezystancji głowicy odczytującej.

    Dyski twarde mają dokładnie 60 lat – we wrześniu 1956 roku pojawiło się pierwsze urządzenie tego typu. Był to model IBM 350 o pojemności 5 MB. Wykorzystywał on 50 talerzy, z których każdy miał średnicę wynoszącą 24 cale i był pokryty materiałem magnetycznym. Odczyt i zapis danych był przeprowadzany za pomocą głowic elektromagnetycznych – informacje zapisuje się, zmieniając natężenie pola magnetycznego generowanego przez głowicę zapisującą i namagnesowując w ten sposób talerz pokrytego warstwą magnetyczną. Z kolei odczyt danych polega na zmianie rezystancji głowicy odczytującej.

    W 1970 roku na rynek trafił IBM 3300 wyposażony w mechanizm korekcji błędów. Sprzęt ten składał się z dwóch modułów wyposażonych w wymienne kartridże i kosztował równowartość dzisiejszych 400 tys. dolarów. Jeden kartridż miał aż 11 talerzy o średnicy 14 cali każdy i miał pojemność 100 MB. W 1974 roku została ona podwojona. Jeżeli komuś nie wystarczało to rozwiązanie, mógł połączyć kilka dysków i stworzyć jednostkę o niebywałej pojemności przekraczającej gigabajt. Niestety taki zestaw miał bardzo duże gabaryty.

    Obraz

    Może wydawać się, że dyski SSD to stosunkowo nowy wynalazek, ale nie do końca jest to prawda. Już w 1976 roku firma Dataram zaprezentowała Bulk Core, czyli nośnik wyposażony w pamięć ferrytową i pozbawiony elementów mechanicznych. Dysk taki charakteryzował się bardzo krótkim czasem dostępu wynoszącym 2 ms i pod względem parametrów przewyższał dostępne na rynku rozwiązania. Sprzęt ten nie przyjął się na rynku ze względu na cenę kilkukrotnie przewyższającą koszt standardowych nośników danych, które też nie należały do najtańszych.

    Czas miniaturyzacji

    W 1980 roku rozpoczęła się era miniaturyzacji dysków twardych. Właśnie wtedy został pokazany światu model ST-506 autorstwa firmy Shugart Technology, dzisiaj znanej jako Seagate. Jego pojemność wynosiła zaledwie 5 MB, ale wyróżnikiem tego modelu były małe gabaryty: format 5,25” i masa 3,2 kg. Napęd ten był kilkukrotnie większy od dzisiaj używanych dysków, ale na początku lat 80. robił wrażenie. Trzy lata później pojawił się 3,5-calowy dysk Rodime RO352 o pojemności 10 MB, zaś w 1988 roku zadebiutował pierwszy dysk w formacie 2,5 cala, którego pojemność wynosiła całe 20 MB. Jak widać, miniaturyzacja i wzrost pojemności nośników już wtedy szły ze sobą w parze. Rozwój dysków postępował na tyle sprawnie, że już w 1991 roku IBM zaprezentował 3,5-calowy dysk o pojemności 1 GB, zaś rok później Seagate przygotował model o pojemności 2,1 GB, którego talerze kręciły się prędkością 7200 RPM.

    Z taką samą prędkością pracują dyski obecnie dostępne w sklepach. Wielu producentów sprzętu tworzyło modele, w których talerze obracały się dwa razy szybciej. Przekładało się to na wydajność dysku, ale też znacznie obniżało jego kulturę pracy – urządzenia były tak głośne, że producenci pozostali przy prędkości 7200 RPM, a tylko nieliczne dyski profesjonalne były wyposażane w talerze, które kręciły się z prędkością przekraczającą 10 000 obrotów na minutę. Od przełomu XX i XXI wieku w dyskach talerzowych nie miała miejsca już żadna rewolucja. Pojawiło się kilka ciekawych rozwiązań takich jak kolejkowanie danych, premierę miał wykorzystywany do dziś interfejs SATA, ale poza tym po prostu rosła pojemność nowych dysków. Dziś każdy może sobie pozwolić na model o pojemności wynoszącej 2–4 TB, to wydatek rzędu kilkuset złotych.

    Obraz

    Można pokusić się o stwierdzenie, że rynek dysków talerzowych od jakiegoś czasu przeżywa zastój. Na rynku pojawiły się dyski SSD, wykorzystujące pamięci NAND flash, wielu osobom znane przede wszystkim z pendrive’ów. Nie mają one żadnych ruchomych elementów, są bardzo szybkie oraz odporne na uszkodzenia mechaniczne. Zasada działania pamięci NAND flash stosowanych w dyskach SSD jest podobna jak w przypadku pamięci DRAM. Nie wymaga ona jednak stałego zasilania, ponieważ zamiast kondensatora stosowany jest drugi tranzystor, który potrafi na stałe przechowywać elektrony.

    Niestety przez długi czas dyski SSD były poza zasięgiem zwykłego użytkownika. Pierwsze takie urządzenia pojawiły się w 1995 roku, ale dopiero w 2006 ceny zaczęły spadać do akceptowalnego poziomu. Dziś ceny tego typu napędów o pojemności 256 GB wynoszą około 300 zł. Mają one znacznie mniejszą pojemność niż dyski talerzowe, ale nie jest to problem dla większości użytkowników. Bardziej wymagające osoby mogą na dysku SSD zainstalować system operacyjny i najczęściej używane programy, a dodatkowy nośnik talerzowy traktować jak magazyn danych – filmów, muzyki i zdjęć. Obie technologie obecnie doskonale się uzupełniają i dlatego żadna z nich nie zniknie z rynku przez naprawdę długi czas.

    Co przyniesie przyszłość?

    Jednak mimo że dyski SSD nadal dynamicznie się rozwijają, w końcu ich dalsze ulepszanie będzie niemożliwe, dlatego już należy szukać następcy tej technologii. Prawdopodobnie będą nim nośniki Intel Optane zbudowane w oparciu o pamięci 3D XPoint. Zaprezentowany w tym roku prototyp takiego napędu jest od 5,2 do 7,2 raza szybszy od standardowego dysku SSD. Niestety cechuje się przy tym kilkukrotnie mniejszą pojemnością niż obecnie używane nośniki SSD. Jest to jednak problem wieku dziecięcego, który za jakiś czas najprawdopodobniej uda się rozwiązać. Intel wierzy w swoje rozwiązanie i twierdzi, że napędy Optane będą łączyć wszystkie zalety dysków SSD oraz pamięci RAM.

    Co zaś spotka dyski twarde? Nie znikną z rynku tak szybko, bo choć są mniej wydajne od SSD, oferują najlepszy stosunek ceny do pojemności. Ilość mieszczących się na nich danych będzie nadal rosnąć, choć w tym celu trzeba zwiększyć gęstość zapisu. Konieczne jest zastosowanie nowego materiału ferromagnetycznego, np. stopu żelazowo-platynowego FePt. Niestety nie istnieją głowice, które swoim polem magnetycznym mogą namagnesować w temperaturze pokojowej talerz pokryty takim materiałem, dlatego warstwę magnetyczną znajdującą się na talerzu trzeba podgrzać za pomocą lasera lub promieniowania mikrofalowego. Firmy pracują też nad odizolowaniem od siebie domen magnetycznych tak, by zminimalizować ich wpływ na siebie. W tym celu używa się izolacji z tlenku krzemu. Dyski wyposażone w wyżej wymienione rozwiązania mają cechować się gęstością zapisu na poziomie 10 terabitów na cal kwadratowy, co w wypadku 3,5-calowego dysku przekłada się na pojemność 60 TB. Duża gęstość zapisu oznacza też dużą wydajność dysku, więc takie nośniki mogą działać szybciej od dostępnych obecnie SSD.

    Twardy czy miękki?

    Magnetyczny nośnik wykorzystywany w dyskietkach miał postać cienkiego krążka wykonanego z folii z naniesioną warstwą magnetyczną. Stąd wzięła się nazwa „floppy”, czyli dysk miękki, sflaczały. Olbrzymie 8-calowe dyskietki nigdy nie trafiły do domowych komputerów. Te pierwsze masowo w nich stosowane miały rozmiar 5,25 cala i obudowę z elastycznego tworzywa. Znacznie popularniejsze dyskietki w rozmiarze 3,5 cala miały obudowę sztywną, jednak nie zmieniło to przyjętej powszechnie nazwy. Z kolei pierwsze klasyczne dyski twarde nazwano twardymi (hard) dlatego, że wykorzystywały szklane, sztywne talerze z naniesioną warstwa magnetyczną. W porównaniu z dyskietkami były sztywne i twarde.

    Wybrane dla Ciebie