Lepsze niż HDD
Nowe rodzaje produktów spotykają się z krytyką sceptyków i wywołują obawy, czy deklaracjom producentów można wierzyć. Zrozumiałe jest, że w przypadku pamięci SSD użytkownicy martwią się o trwałość zapisu danych i podatność tych nośników na awarie.
Era popularyzacji SSD rozpoczęła się wraz z wprowadzeniem na rynek Windows 7. To pierwszy system Microsoftu, który poprawnie obsługiwał tego rodzaju pamięci i nie prowadził do ich przedwczesnego uszkodzenia. W tym samym czasie pojawiły się pierwsze poważne problemy z tymi nośnikami.
Źródła obaw
Nowo zainstalowany na nośniku SSD system Windows XP pracował płynnie, jednak z czasem nadmierna liczba zapisów generowanych przez system doprowadzała SSD do usterek. Nie była to ani wina systemu, ani sprzętu – złym pomysłem było po prostu takie łączenie produktów.
W początkowej fazie rozwoju SSD występowały również problemy z dyskami Intela. W większości testów osiągały rewelacyjne wyniki, jednak próba wykorzystania benchmarku Iometer (zresztą również firmowanego przez Intela) prowadziła do uszkodzenia nośnika. W rzeczywistych warunkach produkty działały bez zastrzeżeń.
Sporą wpadkę zaliczyła również firma OCZ, która w serii dysków Vertex korzystała z nowatorskiego kontrolera wbudowanego w SSD. Według różnych doniesień nawet 1/3 spośród wszystkich nośników uległa awarii w czasie pierwszego roku działania.
Po kilku latach morderczym testom poddano trzy egzemplarze OCZ serii Arc 100. Producent gwarantuje ich TBW na poziomie 22 TB, a w rzeczywistości najsłabszy z nich zapisał 240 TB danych, drugi i trzeci po około 495 TB. Widać więc, że słaba trwałość dysków OCZ to przeszłość.
Główny parametr
Wymieniony wyżej parametr TBW (z ang. Total Bytes Written) jest najważniejszym parametrem określającym jakość SSD. Oznacza łączną liczbę terabajtów, których zapis producent gwarantuje dla danego modelu. Wartości TBW zależą przede wszystkim od rodzaju użytych pamięci flash. Przy założeniu, że system zapisuje na dysku średnio kilka gigabajtów dziennie, typowy dla tanich SSD poziom TBW wynoszący 20–50 TB zapewnia ok. 10 lat użytkowania dysku.
TBW jest uzależniony od maksymalnej liczby tzw. cykli kasowania i programowania pojedynczej komórki pamięci. W pamięciach TLC (Triple Level Cell) jest to 500–3000 cykli, a pamięci MLC (Multi Level Cell) mają ten parametr na poziomie 3000–10 000 cykli. Najdroższe, ale najwydajniejsze i najbardziej żywotne modele SSD korzystają z pamięci SLC (Single Level Cell) – liczba operacji kasowania i zapisywania komórek pamięci sięga 100 000 cykli.
Dbałość o trwałość
Inżynierowie tworzący SSD mają świadomość tych ograniczeń, więc stosują odpowiednie funkcje. Do najważniejszych należy Wear Leveling – równomierne rozkładanie zapisów do najmniej obciążonych komórek. Specjalne tablice gromadzące informacje o dokonanej liczbie zapisów umożliwiają też umieszczanie w komórkach będących bliżej kresu działania tych danych, które są wyłącznie odczytywane (odczyt nie zużywa SSD, powoduje to wyłącznie zapis). Ponadto każda pamięć SSD ma zapas przeznaczony na podmianę uszkodzonych komórek.
Komputery mają też coraz więcej pamięci RAM, więc co jakiś czas powraca idea wykorzystania jej jako tzw. ramdysku służącego do buforowania danych. Takie rozwiązania oferują m.in. Crucial i Plextor. Mając na uwadze wydłużenie działania SSD przez zmniejszenie liczby zapisów, ramdysk ma sens. Pojawiają się też nowe algorytmy określające zapis danych w pamięci, warto więc sprawdzać dostępność nowego firmware’u dysku SSD. Instalując oprogramowanie producenta, warto również sprawdzić proponowane zmiany w konfiguracji systemu, które mają na celu zwiększenie trwałości i wydajności SSD.
Testy trwałości
Wiele firm próbowało zmierzyć trwałość SSD – bardzo dobre efekty osiągnął TechReport . W teście sprawdzono zachowanie kilku różnych dysków o pojemności 240 GB. Najsłabszy był Samsung SSD 840 z pamięciami TLC, który bez problemu zapisał 100 TB danych, po czym zaczęły występować przeniesienia danych z komórek uszkodzonych do rezerwowych. Dysk działał dalej aż do zapisania niemal 900 TB danych.
Kingston HyperX z pamięciami MLC zapisał bez problemu około 600 TB, a po wystąpieniu oznak realokacji komórek jeszcze kolejne 200 TB. Intel SSD 335, korzystający z tego samego kontrolera oraz tego samego rodzaju kości, zapisał 728 TB, a następnie przełączył się do trybu tylko do odczytu, umożliwiając ściągnięcie danych.
Najlepszy wynik osiągnął Samsung 840 Pro. Wprawdzie realokacja sektorów zaczęła występować po zapisaniu około 600 TB danych, jednak całkowite uszkodzenie SSD nastąpiło po zapisaniu aż 2,5 PB. W żadnym z przetestowanych dysków nie nastąpił spadek wydajności wraz z ilością zapisanych danych. Testy SSD na ogromną skalę zapowiada firma Backblaze – dostawca usług chmurowych. W przypadku dysków magnetycznych regularnie tworzy ona raporty dotyczące dziesiątek tysięcy używanych napędów.
Dla paranoików
Jeśli nieprawdopodobnie wysoka trwałość SSD jeszcze cię nie przekonuje, możesz dodatkowo zabezpieczyć dane. Jednym z prostszych sposobów jest macierz RAID1, czyli zapis lustrzanej kopii danych na dwóch dyskach. Jeśli nie masz zaufania do SSD, możesz wykorzystać macierz RAID1 składającą się z jednego dysku SSD i jednego HDD. Dzięki temu zyskasz szybkość działania i pewność, że żadne dane nie zostaną utracone w przypadku awarii któregokolwiek z nośników danych. Dodatkowo rozwiązanie będzie tańsze niż macierz składająca się z dwóch dysków SSD.
Zwalniające SSD
Praktyka pokazuje, że korzystając z SSD, warto przygotować się na spadek wydajności wraz z ich zapełnianiem. Jest to szczególnie widoczne, gdy ilość wolnego miejsca spada poniżej 10 proc. (optymalne jest korzystanie z pamięci SSD zajętej w nie więcej niż 60 proc.). Szczególnie powolne okazują się wtedy operacje na dużych zbiorach danych.
W razie spadku wydajności SSD trzeba zrobić na nim trochę miejsca. Można też wykonać kopię dysku na innym nośniku (np. za pomocą programu Clonezilla), przeprowadzić tzw. bezpieczne kasowanie danych i odtworzyć system z kopii. Operację Secure Erase można wykonać za pomocą narzędzi niektórych producentów albo wykorzystać Parted Magic – program kosztuje 9 dolarów.
MTBF nie określa trwałości dysku
Kupując SSD, nie warto kierować się parametrem MTBF (Mean Time Between Failures). W wypadku dysków HDD jest on wyrażany w setkach tysięcy, a SSD – w milionach godzin. Przykładowo MTBF dysku Seagate Barracuda 7200.11 to 700 tys. godzin. Wydawać by się mogło, że dysk nie powinien ulec awarii przez 240 lat przy pracy przez 8 godzin na dobę. Niestety MTBF oznacza tylko prawdopodobieństwo wystąpienia awarii – 2920 godzin rocznie (8 godzin dziennie) podzielone przez 700 000 godzin i pomnożone przez 100% oznacza prawdopodobieństwo awarii 0,42%. Innymi słowy jeden dysk na 240 ulegnie awarii w ciągu roku.
Awaryjność dysków – okiem praktyka
Michał Szulowski
starszy specjalista ds. informatyki w instytucji państwowej
W czasie kilku lat pracy wymieniłem już kilkanaście spośród około 300 dysków twardych pracujących w mojej firmie. Część z nich była jeszcze na gwarancji, lecz nie mogłem z niej skorzystać, bo są na nich przechowywane dane wrażliwe, które nie mogą wydostać się poza firmę. Awarie zdarzały się zarówno dyskom 3,5” przeznaczonym do pracy ciągłej w serwerach NAS, sprzedawanym przez największe marki dyskom 2,5” SAS przeznaczonym do niezawodnego, wieloletniego, nieprzerywalnego działania w serwerach, a także zwykłym dyskom 3,5” montowanym w pecetach. Od ponad czterech lat korzystamy w firmie z SSD, których obecnie mamy około 30. Jak na razie żaden z nich, nawet najbardziej obciążony, nie wykazuje oznak zbliżającego się końca działania.