HardwareTest dysków HDD, SDD i NVMe

    Test dysków HDD, SDD i NVMe

    Dyski tradycyjne i SSD. Napędy wewnętrzne, zewnętrzne i wirtualne. Twardziele pracujące solo, parami lub w grupie. Sposobów na organizację miejsca na dane jest wiele, ale który będzie najlepszy dla Ciebie?

    Test dysków HDD, SDD i NVMe

    Na początek trzeba ustalić priorytety. Czy ważniejsza jest szybkość uruchamiania programów i gier czy też komfortowa praca z dużymi plikami, na przykład wideo? A może największe znacznie ma bezpieczeństwo? Przed ruszeniem na zakupy trzeba również poznać ograniczenia już posiadanego sprzętu. Mają one znaczenie przede wszystkim w przypadku notebooków. Wiele modeli na szczęście umożliwia montaż więcej niż jednego dysku: w starszych konstrukcjach w miejscu napędu optycznego, w nowszych – korzystając ze złącza M.2.

    Dużo większe możliwości, jeśli chodzi o organizację miejsca na dane, dają desktopy. Nawet kilkuletnie maszyny są zazwyczaj w stanie „dogadać się” z sześcioma dyskami SATA. W nowszych mamy ponadto co najmniej jedno złącze M.2. W takich warunkach aż prosi się, by założyć RAID-a. Nie zawsze jednak ma on sens.

    Co to jest RAID?

    RAID to skrót od Redundant Array of Independent Disks, czyli nadmiarowa macierz niezależnych dysków. Brzmi strasznie, chodzi jednak o różne sposoby wykorzystania miejsca na dyskach (najlepiej takich samych). Na przykład mając dwa HDD-ki można stworzyć RAID 0 (stripping) oraz 1 (mirroring). Ten pierwszy sprawia, że powstanie napęd logiczny o pojemności dwukrotnie większej od zasobności mniejszego dysku. Innymi słowy mając dwa HDD po 1 TB otrzymamy pojedynczy o pojemności 2 TB. I to teoretycznie o dwukrotnie większej prędkości odczytu i zapisu danych. Zapisane na nim pliki bowiem będą automatycznie rozdzielane pomiędzy oba „twardziele”. Minus jest niestety taki, że awaria jednego urządzenia oznacza utratę wszystkich danych. Dlatego do przechowywania cennych informacji wykorzystuje się RAID 1.

    W tym wypadku połączenie dwóch dysków 1 TB każdy da w rezultacie 1 TB, ale dane będą jednocześnie zapisywane w dwóch kopiach, więc dopiero awaria obu nośników spowoduje utratę danych. Mając trzy lub więcej dysków, można się natomiast pokusić o założenie macierzy RAID 5. Podobnie jak w przypadku „jedynki” przeżyje on awarię jednego dysku, ale pojemność takiej macierzy równa się sumie pojemności wszystkich dysków składowych minus jeden (czyli 2 TB w przypadku trzech dysków 1 TB oraz 3 TB w przypadku czterech dysków).

    Ostrożnie z SSD

    Przy opisie RAID-ów braliśmy pod uwagę tradycyjne dyski HDD. Nie bez powodu. Już pojedynczy SSD z interfejsem SATA jest tak wydajny, że łączenie go w RAID, by zwiększyć osiągi, rzadko kiedy ma sens. W razie potrzeby (np. gdy zajmujesz się edycją wideo w rozdzielczości 4K) lepiej już zainwestować w droższy model z interfejsem M.2 NVMe. Jest jeszcze jeden powód, żeby nie łączyć w macierz dysków półprzewodnikowych: większość SSD-ków połączonych w RAID-y nie jest w stanie dobrze wykonać funkcji TRIM (o której piszemy w ramce), przez co ich wydajność szybko spadnie.

    RAID może być sprzętowy, na przykład na bazie narzędzi Intela (o ile takową możliwość ma płyta główna – modele z tanimi chipsetami będą jej pozbawione, w tych z układami ze średniej i wysokiej półki, czyli H, P i Z, powinny już być, ale lepiej to sprawdzić w specyfikacji), albo programowy. Microsoft używa określenia „miejsce do magazynowania” (Storage Spaces). Do wyboru są proste (odpowiednik RAID 0), dublowane (RAID 1) oraz parzystości (RAID 5), a oficjalną instrukcję ich zakładania można przeczytać pod tym linkiem: bit.ly/2qC3Jan. Ale uwaga: na miejscu do magazynowania nie uda się zainstalować systemu. Jest to natomiast możliwe w przypadku rozwiązań sprzętowych. Jednak choć RAID pozwala na zwiększenie wydajności lub pojemności, za jego pomocą nie da się wyeliminować ani największej wady HDD (niewielka prędkość działania), ani SSD (wysoka cena).

    Optane i FuzeDrive

    Dlatego Intel opracował technologię Optane, w przypadku procesorów Ryzen można zaś skorzystać z FuzeDrive. Ogólna zasada działania jest bardzo podobna: pozwalają one połączyć pojemność HDD z wydajnością SSD. Różnica jest taka, że Optane wymaga specjalnego modułu SSD, który pełni rolę pamięci podręcznej. Ponadto mechanizm ten jest kompatybilny jedynie z dwiema ostatnimi generacjami płyt głównych – a dodatkowo korzysta ze złącza M.2. FuzeDrive zadziała natomiast z dowolnym SSD-kiem, a dodatkowo jego pojemność zostanie dodana do HDD-ka (dla porównania dysk Optane staje się niewidoczny, a miejsca na nim nie można wykorzystać do przechowywania danych). Trzeba jednak za to zapłacić: 20 $ jeśli SSD ma pojemność do 128 GB lub 60 $, gdy SSD ma pojemność do 1 TB.

    Na kolejnych stronach testujemy większość opisywanych tu sposobów organizacji miejsca, oceniając, która technologia jest najlepsza pod względem wydajności, a która zapewni optymalny kompromis między wydajnością i ceną. Przy okazji dowiemy się również, na co można liczyć, gdy na pierwszym miejscu będzie bezpieczeństwo.

    Szyfrowanie dysków?

    W Windowsie mamy do dyspozycji opracowany przez Microsoft, wbudowany w system (w wersji Pro lub wyższych) Bitlocker oraz open source’owy VeraCrypt. Ten drugi uchodzi za bezpieczniejszy, bo dzięki otwartym źródłom przechodzi niezależne audyty bezpieczeństwa. Jest jednak mniej wygodny w użyciu (wymaga ręcznego wprowadzania hasła przy starcie systemu), do tego zauważalnie wypływa na wydajność przy odczycie i zapisie małych plików. Bitlocker jest wydajniejszy, do tego bezproblemowo współpracuje z TRIM-em (VeraCrypt – nie). Nawet jeśli zaszyfrujemy dysk systemowy, komputer będzie działał równie szybko. Do tego w komputerach z modułem TPM (Trusted Platform Module, czyli specjalny chip do bezpiecznego przechowywania kluczy kryptograficznych, który posiada większość notebooków oraz biznesowych desktopów) hasło można podawać tylko raz, logując się do Windowsa. A w przypadku maszyn z czytnikiem linii papilarnych lub odpowiednią kamerką – nie podawać wcale. Oczywiście pozostaje jeszcze kwestia bezpieczeństwa. Bitlocker jest rozwiązaniem zamkniętym, ale nie jest znany ani jeden przypadek złamania tego systemu, oczywiście pomijając odgadnięcie lub przechwycenie hasła. Decydując się na szyfrowanie, trzeba jednak pamiętać, że utrata hasła oraz kodu odblokowującego oznacza utratę danych – dotyczy to zarówno VeraCryptu jak i Bitlockera (chyba że w tym drugim wypadku została wybrana opcja przechowywania kodu na koncie Microsoft).

    Uwaga na TRIM i miejsce

    Dyski SSD wykorzystują do przechowywania danych pamięć flash. Charakteryzuje się ona dużą prędkością odczytu, średnią zapisu i bardzo niską – kasowania danych. Dlatego obecnie sprzedawane modele korzystają z mechanizmu TRIM: po skasowaniu pliku system operacyjny wysyła do kontrolera informację, że dane miejsce zostało zwolnione i należy je wyczyścić. Porządki trochę trwają, dlatego robione są, gdy dysk nie jest używany. W związku z tym producenci zalecają, by pozostawiać na SSD-ku trochę wolnego miejsca. Rozsądne minimum to 10%, ale jeśli zdarza Ci się zapisywać duże ilości danych, warto zostawić nawet 25% pojemności maksymalnej. Dzięki temu zapis nowych lub zmodyfikowanych danych będzie znacznie szybszy. Dodatkowo kontroler będzie mógł efektywnie zarządzać wykorzystaniem komórek pamięci flash. Wytrzymują one po około 3000 operacji zapisu – bez równomiernego rozdzielenia pracy żywotność SSD-ka znacząco spadnie.

    Procedura testowa dysków

    Wszystkie dyski testowane były na tej samej platformie. Jej podstawę stanowi płyta główna MSI Z370 Godlike Gaming, procesor Intel Core i5-8600K oraz 16 GB pamięci RAM Goodram IRDM DDR4. System Windows 10 Pro zainstalowany był na osobnym dysku SSD podłączonym do pierwszego kanału SATA III. Tamże zainstalowaliśmy również narzędzia do testowania: Crystal Disk Mark w wersji 5.5, AS SSD w wersji 2.0.6485 oraz PC Mark 8 w wersji 2.8.704.

    Testy wykonywane były przy wykorzystaniu pierwszego złącza M.2, w standardzie PCIe 3.0 x4, lub kanałów 5 i 6 w przypadku SATA III. Niezależnie od rzeczywistej pojemności i sposobu pracy, na nośnikach zakładana była pojedyncza partycja o wielkości 100 GB. Formatowaliśmy ją w systemie NTFS przy domyślnej wielkości klastra. Takie podejście pozwala w powtarzalny sposób wyznaczyć maksymalne osiągi urządzeń. Jednocześnie zaś zmniejsza czas potrzebny na ukończenie testów w przypadku PCMark 8. Narzędzie to niestety nie lubi się z dyskami (lub matrycami RAID) o dużych pojemnościach.

    Oprócz danych pochodzących z programów testowych braliśmy pod uwagę również cenę pamięci, a także dołączone do nich akcesoria i wygląd – choć ich wpływ na ocenę był znikomy.

    M.2 – i co dalej?

    Sam fakt, że dane urządzenie wyposażono w złącze M.2 niewiele jeszcze znaczy. Ba, to może być na przykład karta sieciowa, a nie SSD! Dyski zresztą występują w dwóch wersjach: SATA oraz NVMe. Różnią się dodatkowym wycięciem, więc jeśli wszystko pasuje, nie powinno dojść do uszkodzenia sprzętu. Kupno SSD w standardzie SATA to jednak marnowanie potencjału, choć w niektórych notebookach nie ma innego wyjścia. Wybierając SSD M.2 trzeba też sprawdzić wymiary. Są zakodowane w 4 lub 5 cyfrach. Dwie pierwsze to szerokość, kolejne oznaczają długość (w milimetrach). Większość notebooków jest zgodna maksymalnie z 2280.

    Jak włączyć RAID lub Optane?

    Obraz

    W przypadku komputera z zainstalowanym i działającym systemem najpierw sprawdź w BIOS-ie lub UEFI, w jakim trybie pracują dyski. Jeśli będzie to AHCI (ta opcja jest popularniejsza, bo przyspiesza start komputera), w pierwszej kolejności trzeba przygotować Windowsa do przesiadki na macierz RAID lub dołożenia Optane.

    Uruchom system i odinstaluj sterowniki Intel RST – jeśli trzeba, zrestartuj komputer. Następnie uruchom program msconfig.exe i na karcie Rozruch zmień Opcje rozruchu na Bezpieczny rozruch/Minimalny. Ponownie zrestartuj komputer, wejdź do BIOS-u/UEFI i zmień tryb pracy kontrolera dysków na RAID. Zapisz zmiany, zrestartuj komputer. Windows uruchomi się w trybie Bezpiecznego rozruchu (uwaga: wolniej niż normalnie) i automatycznie zmieni konfigurację. Gdy skończy, uruchom program msconfig.exe, wyłącz Bezpieczny rozruch i zrestartuj komputer.

    By założyć RAID-a na dane musisz zainstalować i uruchomić program Intel RST (https://intel.ly/2vJ6VGX). Najnowsza jego wersja przeznaczona jest tylko dla Windows 10. Uwaga: dane z dysków wybranych do RAID-a zostaną bezpowrotnie skasowane! Gdy natomiast chcesz na nośnikach z RAID-em zainstalować system (zwykła migracja jest niestety niemożliwa), musisz najpierw skonfigurować macierz, korzystając ze specjalnego programu zapisanego w BIOS-ie. Najczęściej uruchamia się go kombinacją Ctrl+I podczas startu komputera.

    Z kolei Optane można włączyć zarówno za pomocą wspomnianego już Intel RST, jak i aplikacji Intel Optane Memory (http://intel.ly/2qWwAr1). Ten pierwszy program ma większe możliwości, bo za jego pomocą zarządza się również RAID-em, drugi jest prostszy w użyciu. Efekt w obu przypadkach jest jednak taki sam. Co ważne, dołożenie Optane nie powoduje utraty danych, nawet w przypadku dysku systemowego.

    Podsumowanie testu

    Jak widać po wynikach testów, w dobie dysków SSD tradycyjne napędy HDD ciągle mają sens – i to nawet kiedy weźmiemy pod uwagę wydajność. Przy transferach dużych plików dwa „talerzowce” połączone w RAID 0 nie odstają bowiem zbytnio od krzemowej pamięci korzystającej z interfejsu SATA III. Nawet najszybsze takie modele osiągają maksymalnie nieco ponad 500 MB/s, podczas gdy dwa tanie HDD z talerzami 3,5” obracającymi się z prędkością 7200 obr./min – około 400 MB/s. W obu przypadkach są to wartości maksymalne. To zastrzeżenie ma znaczenie zwłaszcza w przypadku zapisu. W tanich konstrukcjach SSD po zapisaniu paru gigabajtów (które mieszczą się w szybkiej pamięci cache) transfer spada bowiem nawet do około 100 MB/s. Podobnie wygląda to, gdy na tego rodzaju dysku jest już niewiele wolnej przestrzeni.

    Szybkość transferu w tradycyjnych HDD też się rzecz jasna waha, bo zależy m.in. od stopnia fragmentacji danych oraz miejsca na talerzach, w którym w danej chwili zapisywane są informacje. Wykorzystywane technologie magnetycznego przechowywania danych nie nakładają za to żadnych ograniczeń, jeśli chodzi o ilość zapisanych danych. W przypadku dysków SSD jest to zaś jeden z ważniejszych parametrów. W typowym użytkowaniu jednak nie trzeba się nim zbytnio przejmować: żywotność SSD i tak powinna przekroczyć 10 lat.

    Oczywiście zapis i odczyt sekwencyjny dużych ilości danych to tylko jedna strona medalu. Sytuacja zmienia się diametralnie, gdy pod uwagę weźmie się czasy dostępu czy operacje na małych plikach. Jeśli chodzi o responsywność, zwłaszcza przy jednoczesnym korzystaniu z wielu programów, „talerzowce” są bez szans. Warto też podkreślić, że różnica w komforcie pracy na komputerze, w którym system zainstalowany został na pamięci SSD, jest subiektywnie znacznie większa, niż wynikałoby to z rezultatu testów w PCMarku 8, który mierzy wydajność podczas uruchamiania i korzystania z gier i programów. Użycie krzemu „pod system” wpływa na komfort pracy bardziej niż dołożenie pamięci RAM lub wymiana procesora.

    Bezpieczny magazyn

    Wynik testu jednoznacznie pokazuje, że różnice między tradycyjnymi projektorami a mniejszym, bardziej mobilnym sprzętem są spore. Nie znaczy to, że „maluchy” należy ignorować. Ciekawym przykładem jest projektor LG, który zajął ostatnie miejsce. Pod względem jasności nie może równać się ze zwycięzcami – jego siła jest jednak gdzie indziej. To sprzęt, który swobodnie można wziąć do niewielkiej torby, i – dzięki wbudowanej baterii – użyć z dala od gniazdka. Ciekawą cechą LG PH450UG jest wbudowana przeglądarka i odtwarzacz plików multimedialnych. W konfrontacji z „dużymi” widać też, że niewielki pobór mocy małego projektora pozytywnie wpływa na kulturę pracy.

    Błyskawiczny cache

    Jeśli posiadasz dość nowy komputer, bazujący na 7. lub 8. generacji procesorów Intela, warto rozważyć jego rozbudowę o pamięć Optane. Jak pokazują wyniki testów, tradycyjny HDD pracujący w tandemie z takim modułem o pojemności 32 GB (normalnie kosztuje około 230 zł, w promocjach jeszcze taniej) w wielu testach oferuje wyniki lepsze niż jeden z najwydajniejszych SSD-ków NVMe, Samsung EVO 960! Oczywiście pod warunkiem, że dane znajdują się w pamięci Optane, a nie na HDD. W przypadku rzadziej wykorzystywanych informacji osiągi będą bliższe temu, co oferują napędy talerzowe. To jeden z powodów, dla którego nie warto naszym zdaniem kupować Optane w wersji 16 GB, mimo że jest o 100 zł tańsza. Kolejnym jest zaś fakt, że mniej pojemna wersja ma o połowę niższą wydajność podczas zapisu.

    Nie wszystkie płyty główne są jednak z Optane zgodne. Teoretycznie możliwość zainstalowania tego rodzaju rozszerzenia dotyczy wszystkich chipsetów serii 200 lub nowszych, ale warto to sprawdzić przed zakupem. Dodatkowo niezbędna może być aktualizacja BIOS-u lub UEFI – warto takową przeprowadzić, by oszczędzić sobie problemów. Warto też pamiętać, że w przypadku procesorów siódmej generacji Optane może służyć wyłącznie do przyspieszenia dysku systemowego. To znacząco ogranicza użyteczność, bo w tej roli w przypadku mocniejszych konfiguracji występuje przecież SSD. Ograniczenie to zniknęło na szczęście w ósmej generacji CPU Intela. W najnowszych pecetach Optane może więc przyspieszyć HDD przeznaczony na magazyn danych. I zadziała nawet wtedy, gdy ten będzie miał pojemność 12 TB.

    Nie wszystko złoto, co SSD

    Po przetestowaniu tańszych modeli SSD ze złączem SATA III, zarówno działających w pojedynkę, jak i w macierzy RAID (0 oraz 1), oraz najwydajniejszych, korzystających z NVMe, wniosków mamy kilka. Pierwszy jest taki, że jeśli zależy nam na wydajności, lepiej kupić jedno szybkie urządzenie NVMe niż kilka wolniejszych SATA III, które następnie zostaną połączone w RAID 0. Ten ostatni wprawdzie zwiększy szybkość transferu dużych plików, ale nie na tyle, by macierz mogła zagrozić zwycięzcy testu. NVMe radzi sobie bowiem znacznie lepiej w przypadku małych plików, a to głównie ten parametr decyduje o responsywności systemu. Warto mieć także na uwadze fakt, że RAID może powodować problemy z działaniem funkcji TRIM, co z czasem doprowadzi do pogorszenia osiągów dysków SSD. Zmniejsza również trwałość flasha. Trzeba zresztą w tym miejscu wspomnieć, że wielu producentów wprost nie zaleca wykorzystania ich urządzeń w macierzach RAID. Mając na uwadze powyższe uwagi – trudno się temu dziwić.

    Po połączeniu krzemowych dysków w macierz RAID 1 wydajność wzrasta znacznie mniej niż w przypadku skorzystania z RAID 0. Nie transfery jednak są tu największą zaletą – w takiej konfiguracji chodzi przede wszystkim o zwiększone bezpieczeństwo danych. Oczywiście wiąże się to z dwukrotnie wyższymi kosztami. Te zaś w przypadku pamięci flash są i tak znacznie wyższe, niż przy urządzeniach HDD. Z tego powodu nie polecamy takiej konfiguracji wszystkim użytkownikom. Jednakże w sytuacji, gdy ważna jest zarówno wydajność, jak i bezpieczeństwo, SSD korzystające ze złącza SATA są teraz najlepszym kompromisem: Optane nie działa bowiem z RAID-em, a wykorzystanie dwóch urządzeń NVMe w trybie RAID wymaga zazwyczaj zastosowania specjalnej karty rozszerzeń. Jeśli się jednak na takie rozwiązanie zdecydujesz, szukaj SSD-ków, których producenci nie mają nic przeciwko RAID-om, inaczej ryzykujesz problemy z wydajnością lub trwałością.

    NVMe to nie tylko M.2

    Obraz

    Dyski SSD NVMe komunikują się przy pomocy interfejsu PCIe. Tego samego, co na przykład karty graficzne. Różnica jest taka, że w modelach domowych wykorzystywany jest maksymalnie standard PCIe 3.0 x4, podczas gdy GPU używa x16. Jeśli takie urządzenie zostanie podłączone przy wykorzystaniu złącza x2 albo PCIe 2.0, maksymalna wydajność spadnie o połowę (ale np. Optane używa maksymalnie x2). Wspólny standard oznacza, że da się podłączyć dysk M.2 do płyty głównej bez złącza M.2 za pomocą specjalnej przejściówki. Ich ceny zaczynają się od mniej niż 100 zł.

    Wybrane dla Ciebie