Dyski twarde.
Historia pamięci masowych sięga połowy dziewiętnastego wieku – już wtedy używano kart perforowanych do wprowadzania danych do mechanicznych maszyn liczących. Pierwsze elektroniczne komputery korzystały z pamięci zbudowanej z lamp elektronowych, potem zaczęły pojawiać się różnej maści pamięci magnetyczne – bąbelkowe, taśmowe, bębnowe.
Pierwszy w historii twardy dysk pojawił się w 1957 roku. Wtedy to IBM zaprezentował urządzenie o nazwie RAMAC 350 – złożony z pięćdziesięciu 24-calowych dysków zespół miał pojemność 5 MB, a koszt jego rocznej dzierżawy wynosił 35 tys. dolarów; jak nietrudno policzyć, oznaczało to 7 tys. dolarów za megabajt... W epoce maszyn mainframe budowano całe „farmy dysków” z zamkniętymi w klimatyzowanych pomieszczeniach zestawami talerzy o średnicach 14 czy 8 cali, wartymi grube dziesiątki tysięcy dolarów. Pojawienie się IBM PC w roku 1981 wcale nie zapowiadało rewolucji w dziedzinie pamięci masowych – system operacyjny „prapeceta” zawierał procedury obsługi pamięci w postaci magnetofonu kasetowego, choć oczywiście istniała także możliwość korzystania ze stacji dyskietek. Lista opcjonalnego wyposażenia IBM PC/XT z roku 1983 obejmuje już twardy dysk o pojemności 5 lub 10 MB – ówczesne napędy o znajomej średnicy 5,25" miały wysokość trzech cali (podobnie zresztą, jak wczesne stacje dyskietek) i stąd właśnie określenie „full height” (współczesny czytnik CD-ROM to „half height”). W roku 1984 Western Digital skonstruował - dzierżący przez kilka lat godność „standardu przemysłowego”, zastosowany w IBM PC/AT interfejs ST506, zaś w 1986 – opracowany do spółki z firmą Compaq dobrze nam znany interfejs IDE (Integrated Drive Electronics). Mniej więcej rok później w komputerach stacjonarnych zaczęto instalować dyski 3,5" (o wysokości 1", czyli „low profile”) – dopiero potem znalazły one zastosowanie w przenośnych laptopach. Postęp technologii powodował ciągły wzrost pojemności i szybkości urządzeń, przy jednoczesnym spadku zapotrzebowania na energię, coraz mniejszej hałaśliwości i większej niezawodności. Wyniki tego wyścigu obserwujemy na co dzień.
Parametry:
Podstawowe parametry dysku sztywnego są takie same, jak dla każdego innego rodzaju pamięci. Jest to pojemność, czas dostępu do danych oraz szybkość ich odczytu i zapisu. Do parametrów podstawowych dochodzi szereg parametrów i informacji szczegółowych, pozwalających na precyzyjne określenie zarówno przeznaczenia dysku, jak i jego zachowania w konkretnych warunkach eksploatacji.
Podstawowym „handlowym”, najbardziej eksponowanym parametrem dysku jest, poza pojemnością, czas dostępu do danych.
Czas dostępu to czas pozycjonowania głowic plus średnio pół obrotu dysku (bo zawsze jest możliwa sytuacja, gdy poszukiwany sektor znalazł się pod głowicą, zanim była gotowa do odczytu), zatem na czas dostępu wpływa zarówno sprawność mechanizmu pozycjonowania głowic, jak i prędkość obrotowa dysku. Typowy średni czas pozycjonowania głowic to 3-6 ms, a pół obrotu dysku, wykonującego np. 7200 obr./min to około 4 ms – razem, dodając jeszcze czas przełączania głowic, uzyskujemy 8-11 ms. Czas dostępu jest szczególnie ważny w obsłudze baz danych, gdzie występuje często bezpośrednie adresowanie danych plikowych.
Użytkowo najważniejszym z parametrów dysku jest tzw. transfer wewnętrzny, czyli szybkość bezpośredniego odczytu i zapisu danych. Rozważmy następujący, bardzo uproszczony, przykład: zadanie polegające na odczytaniu 20 plików po 100 kB każdy w przypadku dwu dysków: jednego o średnim czasie dostępu 10 ms i transferze wewnętrznym 2 MB/s, drugiego o czasie dostępu 7,5 ms (o 25% szybciej!) i transferze wewnętrznym 1,8 MB/s (o zaledwie 10%). Pierwszy z dysków jest w stanie wykonać zadanie w czasie 1200 ms, drugi z nich potrzebuje na to samo zadanie 1261 ms, o przeszło 5% więcej. A ponieważ najbardziej eksponowanym z parametrów jest czas dostępu, ten drugi dysk będzie na pewno sporo droższy, pomimo gorszej wydajności. Transfer wewnętrzny jest stosunkowo rzadko podawany, natomiast dla zwiększenia zamieszania, a także w celu oszołomienia klienta wielkimi liczbami, mocno eksponowanym parametrem dysku jest zwykle szybkość interfejsu, której wpływ na rzeczywistą wydajność systemu jest obecnie marginalny. Odwołując się do naszego przykładu - do przetransmitowania 2 MB danych interfejs SCSI-2 o przepustowości 20 MB/s potrzebuje 100 ms, interfejs Ultra ATA-66 zaledwie 33 ms, ale w obu przypadkach czas transmisji przez interfejs i tak zawarty jest w ogólnym czasie operacji i praktycznie nie ma wpływu na końcowy rezultat.
Liczba talerzy– określa liczbę talerzy danego dysku. Uwaga! Liczba talerzy nie oznacza, że dane zapisywane są zawsze po obu stronach talerza dysku. Informację na ten temat otrzymamy porównując liczbę talerzy z liczbą głowic danego dysku.
Liczba głowic – określa, ile głowic zajmuje się odczytem/zapisem danych na talerzach. Liczba ta wskazuje także na to, czy wszystkie talerze są wykorzystywane obustronnie. Parzysta liczba głowic wskazuje na to, że dane mogą być przechowywane na każdej stronie każdego talerza dysku, natomiast nieparzysta – że jedna strona któregoś z talerzy dysku nie jest w ogóle wykorzystywana.
Interfejs – prawie wszystkie nowe dyski to urządzenia zdolne do pracy w trybie Ultra DMA/66. Jedynie urządzenia ATA-4 nie mają tej funkcji. Mimo to każdy z dysków może pracować także w trybie PIO (przy wyłączonym transferze DMA).
Średni czas dostępu – parametr ten określa, w jakim czasie (średnio) od otrzymania przez dysk żądania odczytu/zapisu konkretnego obszaru nastąpi rozpoczęcie operacji. Im krótszy jest ten czas, tym dysk może zapewnić większą płynność odtwarzania, co może mieć znaczenie np. podczas nagrywania płyt CD-R/CD-RW, gdzie wymagany jest ciągły dopływ danych.
Transfer wewnętrzny – parametr ten określa w praktyce rzeczywisty transfer danego dysku. Im wartość ta jest wyższa, tym dany dysk jest szybszy. Jednak o tym, czy w danym komputerze będzie osiągał optimum swoich możliwości decyduje konfiguracja komputera (włączenie trybu DMA itp.).
Transfer zewnętrzny – właśnie ten parametr często jest używany w marketingowych określeniach i notatkach producentów. Tymczasem nie określa on faktycznej szybkości dysku, lecz przepustowość interfejsu. Oczywiście im ten parametr jest wyższy, tym lepiej – warto jednak pamiętać, że dyski o takim samym transferze zewnętrznym mogą w praktyce pracować z różną szybkością.
Liczba obrotów na min. – parametr określający, z jaką szybkością obracają się talerze danego dysku. Im szybkość obrotowa jest wyższa, tym więcej danych może być odczytywanych przez głowice. Pamiętajmy jednak, że ten parametr należy oceniać biorąc pod uwagę także gęstość zapisu. W praktyce jednak przy porównywaniu dysków o podobnej pojemności te z większą szybkością obrotową są zazwyczaj szybsze.
Budowa
Stosowana w dyskach sztywnych technika zapisu nie odbiega od tej, z jaką mamy do czynienia w magnetofonie czy w kartach telefonicznych, a także w dyskietkach. Wytwarzane przez elektromagnetyczną głowicę pole magnetyczne powoduje uporządkowanie domen magnetycznych w nośniku ferromagnetycznym o szerokiej pętli histerezy, a ruch tak zapisanego nośnika w pobliżu głowicy odczytującej powoduje w niej indukcję sygnału elektrycznego, odpowiadającego zapisanym danym. Współczesna technologia do odczytu danych używa, zamiast głowic indukcyjnych, półprzewodnikowych elementów magnetorezystywnych, umożliwiających zwiększenie zarówno odczytywalnej gęstości zapisu, jak i zwiększenie szybkości odczytu. Dysk stały naszego PC to wirujący talerz lub zespół talerzy o powierzchni pokrytej nośnikiem magnetycznym, a odpowiednio ustawiane na tych powierzchniach głowice zapisują i odczytują dane. Głowice umieszczone są na przypominającym ramię gramofonu ramieniu pozycjonującym i dociskane do powierzchni dysku sprężynami, ale podczas obrotów dysku nie stykają się z nią – powstająca w wyniku szybkich obrotów talerzy „poduszka powietrzna” utrzymuje głowice nad powierzchnią. Rozwiązanie takie nazywane jest „pływającymi głowicami” i jak na razie jest bezkonkurencyjne i stosowane powszechnie, chociaż są już w toku prace nad innymi sposobami prowadzenia głowic.
Głowice dysku są zamontowane na konstrukcji obrotowej, budzącej skojarzenie z ramieniem gramofonu. Słuszne optycznie skojarzenie nie jest jednak prawdziwe. Podczas gdy ramię gramofonu było prowadzone przez ścieżkę zapisu na płycie, to z ramieniem głowic dysku jest zupełnie inaczej – musi ono być ustawione tak, by głowice znalazły się nad odczytywaną właśnie ścieżką (czy raczej – na odczytywanym „cylindrze”). W pierwszych konstrukcjach dysków sztywnych pozycjonowanie głowic było realizowane przez mechanizm napędzany silnikiem krokowym (rozwiązanie takie jest do dziś stosowane w napędach dyskietek). W miarę wzrostu wymagań szybkościowych stosowano inne rozwiązania, spośród których optymalnym jak na razie okazało się voice coil, czyli układ magnetodynamiczny, wzorowany na stosowanym w głośnikach (stąd nazwa) – umieszczona w polu silnego magnesu stałego cewka porusza się zgodnie z przepływającym przez nią prądem, ustawiając w odpowiedniej pozycji związane z nią mechanicznie ramię głowic dysku. Technika ta pozwoliła na zmniejszenie czasu pozycjonowania głowic na zadanej ścieżce z kilkudziesięciu do kilku milisekund, a przy przejściach pomiędzy kolejnymi ścieżkami nawet poniżej jednej milisekundy. Tradycyjnie w komputerze PC AT adresowanie dysku przez przerwanie 13 BIOS-u (INT 13) odbywało się za pomocą trzech parametrów: cylindra, głowicy i sektora (tzw. adresowanie CHS od słów Cylinder, Head, Sector). Konwencjonalne funkcje INT 13 używały 24 bitów do reprezentacji adresów, zatem możliwe było jedynie zaadresowanie obszaru o pojemności 8,4 GB (224×512 bajtów/sektor = 8,4 GB). W celu przekroczenia tej granicznej wartości producenci wprowadzili dwa nowsze sposoby (stosowane właśnie w dzisiejszych dyskach) adresowania. Pierwszy polegał na rozszerzeniu reprezentacji adresu w konwencji CHS do 32 bitów, drugi – częściej stosowany – używał zupełnie odmiennej metody noszącej nazwę LBA. W metodzie LBA (Logical Block Addressing) stosowane jest adresowanie 28-bitowe, co pozwala na zaadresowanie obszaru do granicznej (znowu!) pojemności wynoszącej: 228×512 bajtów/sektor = 137,4 GB. Jest to wartość jak na razie nieosiągalna dla przeciętnego posiadacza komputera (dla producentów – owszem; nie tak dawno Quantum poinformowało o wyprodukowaniu dysku o pojemności ponad 200 GB!). Ten właśnie tryb adresowania jest zalecany i zaimplementowany w BIOS-ach większości dzisiejszych PC-tów. Zapis na dysku dokonywany jest w formie koncentrycznych ścieżek, podzielonych na sektory. Dość tajemnicze pojęcie „cylinder”, występujące w opisie parametrów dysku i nie znajdujące bezpośredniego odbicia w jego konstrukcji, to grupa ścieżek o tym samym numerze na wszystkich powierzchniach roboczych. Liczba głowic odpowiada liczbie roboczych powierzchni talerzy dysku. Taki opis parametrów fizycznych dysku oraz wynikający z niego tryb adresowania stanowiły pierwotnie podstawę rozumienia zapisu na dysku przez wszystkie systemy operacyjne. Opis CHS (cylinder/head/sector) sprawdzał się bardzo dobrze w czasach, gdy całością procesu zapisu i odczytu danych zarządzała jednostka centralna przy współudziale dość prymitywnego sterownika. Nietrudno jednak zauważyć, że całkowita długość pierwszej, najbardziej zewnętrznej ścieżki jest znacznie większa od długości ostatniej, najbliższej osi talerza. Liniowa gęstość zapisu jest stała dla wszystkich ścieżek (po prostu – maksymalna), a przy stałej liczbie sektorów na każdej kolejnej ścieżce (licząc od ostatniej do pierwszej) marnowałaby się coraz większa ilość miejsca. Dlatego już od dość dawna stosuje się technikę MZR (Multiple Zone Recording), maksymalnie wykorzystującą dostępną powierzchnię talerzy – liczba sektorów w ostatnim cylindrze dysku, wynikająca z liniowej gęstości zapisu, pozostaje stała w kolejnych cylindrach do chwili, gdy ilość wolnego miejsca pozwoli na dodanie jednego sektora więcej. Na dysku powstają w ten sposób kolejne strefy, charakteryzujące się rosnącą liczbą sektorów w miarę zbliżania się do krawędzi talerza.
Powody powstawania uszkodzeń?
Mimo relatywnie dużych rozmiarów, dyski twarde stanowią arcydzieła mechaniki precyzyjnej. Przy typowej gęstości zapisu, szerokość pojedynczej ścieżki zapisu wynosi zaledwie ok. 0,01 mm. Szerokość głowicy odczytującej, wykonanej jako element magnetorezystywny, wynosi ok. 80% szerokości ścieżki – to odpowiada ostrzu nieco tylko stępionej żyletki! Każde dotknięcie powierzchni dysku przez głowicę odpowiada dotknięciu takim właśnie ostrzem. Warstwa nośnika magnetycznego na powierzchniach talerzy dysków pokryta jest bardzo cienką warstwą lakieru ochronnego. W normalnych warunkach eksploatacji twardość powierzchni ochronnej najzupełniej wystarcza – start i lądowanie głowic wiążą się co prawda z przesuwaniem ich po powierzchni talerza, ale występujące naciski są za małe, by zarysować powierzchnię ochronną. Podczas pracy dysku głowice przesuwają się nad powierzchnią talerzy na „poduszce powietrznej” o wysokości kilkunastu mikrometrów, wytwarzanej dzięki ruchowi talerzy, a dopuszczalne nierówności powierzchni nie przekraczają 10% wysokości „lotu” głowicy. W takich warunkach nośnik dysku nie ma prawa ulec uszkodzeniu. Panuje powszechne przekonanie, że dysk nie działający jest odporny na wstrząsy i uderzenia. Tymczasem, co może być zaskakujące, źródłem większości uszkodzeń powierzchni roboczych dysku są właśnie wstrząsy i uderzenia, których napęd doznał w stanie spoczynku. W stanie spoczynku głowice leżą na wydzielonych obszarach powierzchni talerzy, zwanych strefą lądowania (landing zone), przyciśnięte do powierzchni przez odpowiedni układ sprężysty ramienia głowicy. Cóż się stanie, jeśli taki „zaparkowany” dysk dozna silnego, krótkotrwałego wstrząsu? Głowica oderwie się od powierzchni, wyginając sprężyste ramię, a następnie, w wyniku jego drgań, kilkakrotnie uderzy w powierzchnię, za każdym razem odbijając się od niej. Zwraca uwagę fakt, że głowica w takiej sytuacji nie uderza swoją powierzchnią, ale krawędzią! Twarda powierzchnia ochronna jest, niestety, zbyt krucha, by mogła to przy silniejszych wstrząsach wytrzymać – uderzająca głowica odłupuje drobne fragmenty ochronnego lakieru. Wydawać by się mogło, że nawet ewentualne uszkodzenie powierzchni w strefie lądowania nie powinno spowodować obniżenia sprawności dysku – przecież w tym obszarze nie ma żadnych danych. Rzeczywiście, ale powstałe tam drobne okruchy materiału przemieszczają się, wraz z powietrzem, po całym wnętrzu napędu. Drobne, ale wielokrotnie większe od grubości poduszki powietrznej, unoszącej głowicę. A jeśli któryś z nich dostanie się pomiędzy głowicę a powierzchnię wirującego talerza, następują kolejne drgania głowicy i jej ramienia oraz kolejne uderzenia głowicy – tym razem już w roboczą powierzchnię dysku! Oprócz uszkodzeń powierzchni, na tyle drobnych, że układy korekcji błędów wbudowane w elektronikę dysku, poradzą sobie z powodowanymi przez nie błędami, powstają jeszcze nowe okruchy. Im jest ich więcej, tym częściej zdarza im się wpadnięcie pod głowicę i tym częściej powstają nowe uszkodzenia i nowe drobiny. Proces degradacji wartości użytkowej dysku postępuje lawinowo, tym bardziej, że przy uszkodzonej powierzchni strefy lądowania przy każdym starcie i lądowaniu głowicy mogą powstawać kolejne uszkodzenia.
Na jakiego rodzaju wstrząsy narażony jest dysk od momentu opuszczenia taśmy produkcyjnej, do chwili, kiedy trafi do komputera? Co mu grozi po drodze, a czym możemy mu zaszkodzić sami? Odpowiedzi na te pytania może w pewnym stopniu dostarczyć zamieszczony rysunek – wynika z niego, że dysk zamontowany w komputerze jest względnie bezpieczny, nawet upuszczenie komputera na twarde podłoże nie powinno spowodować poważniejszych szkód. Dużym zagrożeniem dla dysku jest również sam proces montażu komputera. W tej fazie łatwo „nabawić się” kłopotów na przyszłość. O uderzenie metalowym narzędziem wcale nietrudno – wystarczy „obsunięcie” ręki, uderzenie dyskiem o konstrukcję obudowy też może się zdarzyć. A jeśli ktoś ma pecha, to i o upadek dysku na twarde podłoże wcale nietrudno. Wszystkie te „gwałtowne zdarzenia” dysk znosi pozornie bez szwanku – po zmontowaniu komputera działa poprawnie i nic nie wskazuje na to, by cokolwiek mu dolegało.
Instalacja dysku w komputerze.
Najpopularniejszym interfejsem do przesyłu danych w komputerach PC jest obecnie EIDE. W dzisiejszych komputerach kontroler EIDE jest zintegrowany z płytą główną, w starszych jednostkach korzystanie z dysków wymagało zainstalowania w komputerze dodatkowej karty kontrolera. Jeżeli na płycie głównej komputera znajdują się złącza oznaczone zazwyczaj jako „Primary” i „Secondary", znaczy to, że komputer ma kontroler EIDE zintegrowany z płytą. Oznaczenia te odzwierciedlają dwa odrębne kanały (pierwszy i drugi lub też nadrzędny i podrzędny) interfejsu EIDE. Pozornie instalacja dysku jest prosta, gdyż w zasadzie polega tylko na połączeniu zamontowanego w obudowie dysku z jednym z dwóch wyżej przedstawionych złącz kontrolera za pomocą specjalnego kabla zwanego popularnie „taśmą”. Teoretycznie, gdy dysponujemy tylko jednym dyskiem, komputer będzie z nim współpracował bez względu na fakt, do jakiego kanału został podłączony. Tym niemniej pamiętać należy o generalnej zasadzie, by najszybszy dysk podłączyć zawsze do pierwszego kanału oraz by (w przypadku, gdy w komputerze zainstalowany jest jeszcze jakiś dysk lub inne urządzenie EIDE) był on urządzeniem nadrzędnym „master”. Nawet jeżeli wymaga to przetasowania dysków (czyli przesunięcia starszego napędu z pozycji „master” na pierwszym kanale na pozycję „slave”), to dzięki temu znacznie lepiej wykorzystamy potencjał technologiczny tkwiący w nowym dysku. Kontroler EIDE łączy się z urządzeniami w kolejności kanałów, uwzględniając priorytety urządzeń, zatem wstawienie najszybszego dysku na uprzywilejowanej pozycji jest rozwiązaniem optymalnym. Wynika to z faktu, że najczęściej na pierwszym dysku zainstalowany jest system operacyjny, a tym samym jest on najczęściej wykorzystywany. Kontroler EIDE jest w stanie obsłużyć maksymalnie do czterech urządzeń (dysków, napędów CD-ROM czy DVD-ROM). Na każdy kanał przypadają po dwa urządzenia. Na każdym kanale dane urządzenie musi mieć ustawiony priorytet dostępu do magistrali. Innymi słowy, z dwóch urządzeń podłączonych do jednego kanału EIDE, jedno musi być urządzeniem nadrzędnym, zaś drugie podrzędnym. Każdy dysk twardy EIDE ma zworki pozwalające ustawić go na pożądany priorytet. Oznaczenie dysku jako „master” (władca) określa go jako urządzenie nadrzędne na danym kanale, odpowiednikiem urządzenia podrzędnego jest określenie „slave” (niewolnik). Jeżeli dysk twardy jest jedynym tego typu urządzeniem w systemie, nie ma potrzeby ustawiania dla niego priorytetu, a tym samym nie trzeba manipulować zworkami na dysku.
BoczekKmicic