Konfiguracja sprzętu i oprogramowania

Rodzaje nośników informacji, ich klasyfikacja i charakterystyka. Ewolucja mediów komputerowych 3 przykłady mediów optycznych i magnetycznych


Napędy dyskietek: zasada działania, dane techniczne, główne elementy. Dyski twarde: współczynniki kształtu, zasada działania, rodzaje, główne cechy, tryby pracy. Konfiguracja i formatowanie dysków magnetycznych. Narzędzia do konserwacji twardych dysków magnetycznych. Struktura logiczna i format dysków magnetooptycznych i kompaktowych. Napędy CD-R (RW), DVD-R (RW), ZIP: zasada działania, główne komponenty, specyfikacje. Napędy magnetooptyczne, streamery, dyski flash. Przegląd głównych nowoczesnych modeli.

Uczeń musi wiedzieć:

Zasada działania i główne elementy napędu FDD;

Charakterystyka i tryby działania dysku twardego;

Zasada działania napędów magnetooptycznych i dysków kompaktowych;

Formaty dysków optycznych i magnetooptycznych;

Student musi być w stanie:

Nagrywaj informacje na różnych nośnikach;

Użyj narzędzi programowych Utrzymanie dysk twardy;

Określ główne cechy napędów;

Cele Lekcji:

Zapoznanie studentów z głównymi elementami akumulatorów informacji.

Zapoznanie się z rodzajami nośników pamięci i ich charakterystyką.

Edukacja kultury informacyjnej studentów, uważności, dokładności, dyscypliny, wytrwałości.

Rozwój zainteresowań poznawczych, umiejętność samokontroli, umiejętność robienia notatek.

Postęp lekcji:

Część teoretyczna.

Przechowywanie danych na nośnikach magnetycznych

W prawie wszystkich komputerach osobistych informacje są przechowywane na nośnikach przy użyciu zasad magnetycznych lub optycznych. Dzięki magnetycznym nośnikom danych dane binarne są „zamieniane” w małe, metalowe, namagnesowane cząstki ułożone we „wzór” na płaskim dysku lub taśmie. Ten magnetyczny „wzór” można następnie zdekodować w binarny strumień danych.

Działanie nośników magnetycznych - dysków twardych i dyskietek - opiera się na elektromagnetyzmie. Jego istota polega na tym, że gdy prąd elektryczny przepływa przez przewodnik, wokół niego powstaje pole magnetyczne (ryc. 1). Pole to działa na znajdującą się w nim substancję ferromagnetyczną. Gdy zmienia się kierunek prądu, zmienia się również polaryzacja pola magnetycznego. Zjawisko elektromagnetyzmu jest wykorzystywane w silnikach elektrycznych do generowania sił działających na magnesy zamontowane na obracającym się wale.

Istnieje jednak również efekt odwrotny: w przewodniku, na który oddziałuje zmienne pole magnetyczne, powstaje prąd elektryczny. Gdy zmienia się polaryzacja pola magnetycznego, zmienia się również kierunek prądu elektrycznego (ryc. 2).

Głowica odczytująco-zapisująca w dowolnym napędzie dyskowym składa się z rdzenia ferromagnetycznego w kształcie litery U i nawiniętej wokół niego cewki (uzwojenia), przez którą może przepływać prąd elektryczny. Gdy prąd przepływa przez uzwojenie, w rdzeniu (obwodzie magnetycznym) głowicy powstaje pole magnetyczne (rys. 3). Podczas przełączania kierunku przepływającego prądu zmienia się również polaryzacja pola magnetycznego. Zasadniczo głowice są elektromagnesami, których polaryzację można bardzo szybko zmienić, zmieniając kierunek przepływającego prądu elektrycznego.

Ryż. 1. Gdy prąd przepływa przez przewodnik, wokół niego powstaje pole magnetyczne

Ryż. 2. Gdy przewodnik porusza się w polu magnetycznym, generowany jest w nim prąd elektryczny

Ryż. 3. Głowica odczytu/zapisu

Pole magnetyczne w rdzeniu częściowo rozchodzi się w otaczającą przestrzeń dzięki obecności szczeliny „przeciętej” u podstawy litery U. Jeżeli w pobliżu szczeliny znajduje się inny ferromagnes (warstwa robocza nośnika), to zlokalizowane jest w nim pole, ponieważ takie substancje mają mniejszy opór magnetyczny niż powietrze . Strumień magnetyczny przechodzący przez szczelinę jest zamykany przez nośnik, co prowadzi do polaryzacji jego cząstek magnetycznych (domen) w kierunku pola. Kierunek pola, a tym samym remanencja nośnika, zależy od biegunowości pola elektrycznego w uzwojeniu głowicy.

Elastyczne dyski magnetyczne wykonuje się zwykle na lavsanie, a sztywne na podłożu aluminiowym lub szklanym, na które nakładana jest warstwa materiału ferromagnetycznego. Warstwa robocza składa się głównie z tlenku żelaza z różnymi dodatkami. Pola magnetyczne wytworzone przez poszczególne domeny na czystym dysku są zorientowane losowo i wzajemnie się kompensują na dowolnym rozszerzonym (makroskopowym) odcinku powierzchni dysku, więc jego namagnesowanie szczątkowe wynosi zero.

Jeśli obszar powierzchni dysku zostanie wystawiony na działanie pola magnetycznego po pociągnięciu w pobliżu szczeliny głowicy, wówczas domeny układają się w określonym kierunku, a ich pola magnetyczne nie znoszą się już nawzajem. W rezultacie w tym obszarze pojawia się namagnesowanie szczątkowe, które można później wykryć. W kategoriach naukowych możemy powiedzieć: resztkowy strumień magnetyczny utworzony przez tę część powierzchni dysku staje się niezerowy.

Odczytuj/zapisuj projekty głowic

Wraz z rozwojem technologii napędów dyskowych pojawiły się również konstrukcje głowic do odczytu/zapisu. Pierwszymi głowicami były rdzenie z uzwojeniem (elektromagnesy). Jak na współczesne standardy, ich rozmiary były ogromne, a gęstość zapisu niezwykle niska. Z biegiem lat projekty głowic przeszły długą drogę od pierwszych głowic z rdzeniami ferrytowymi do nowoczesnych typów.

Najczęściej używane głowice to cztery następujące typy:

ü ferryt;

ü z metalem w szczelinie (MIG);

ü cienkowarstwowe (TF);

ü magnetorezystancyjny (MR);

ü olbrzymi magnetorezystancyjny (GMR).

· Głowice ferrytowe

Klasyczne głowice ferrytowe zostały po raz pierwszy zastosowane w napędzie Winchester 30-30 firmy IBM. Ich rdzenie wykonane są na bazie prasowanego ferrytu (na bazie tlenku żelaza). Pole magnetyczne w szczelinie powstaje, gdy przez uzwojenie przepływa prąd elektryczny. Z kolei, gdy w pobliżu szczeliny zmienia się natężenie pola magnetycznego, w uzwojeniu indukowana jest siła elektromotoryczna. Głowica jest więc uniwersalna, tj. może być używany zarówno do pisania, jak i do czytania. Wymiary i masa główek ferrytowych są większe niż głów cienkowarstwowych; dlatego, aby zapobiec ich niepożądanemu kontaktowi z powierzchniami dysków, konieczne jest zwiększenie szczeliny.

W okresie istnienia główek ferrytowych znacznie poprawiono ich oryginalną (monolityczną) konstrukcję. W szczególności opracowano tak zwane głowice szklano-ferrytowe (kompozytowe), których mały rdzeń ferrytowy jest umieszczony w ceramicznej obudowie. Szerokość rdzenia i szczelina magnetyczna takich głowic jest mniejsza, co pozwala na zwiększenie gęstości ścieżek zapisu. Ponadto zmniejsza się ich wrażliwość na zewnętrzne zakłócenia magnetyczne.

· Głowy z metalem w szczelinie

Głowice z metalem w szczelinie (Metal-In-Gap - MIG) pojawiły się w wyniku udoskonaleń w konstrukcji kompozytowej głowicy ferrytowej. W takich głowicach szczelina magnetyczna znajdująca się z tyłu rdzenia jest wypełniona metalem. Dzięki temu znacznie zmniejsza się skłonność materiału rdzenia do nasycenia magnetycznego, co umożliwia zwiększenie indukcji magnetycznej w szczelinie roboczej, a w konsekwencji zapis na płycie o większej gęstości. Ponadto gradient pola magnetycznego wytwarzanego przez głowicę z metalem w szczelinie jest wyższy, co powoduje, że na powierzchni dysku powstają obszary namagnesowane o wyraźniej określonych granicach (zmniejsza się szerokość stref zmiany znaku).

Głowice te umożliwiają stosowanie mediów o dużej sile koercji i cienkiej warstwie roboczej. Zmniejszając całkowitą masę i ulepszając konstrukcję, takie głowice można umieścić bliżej powierzchni mediów.

Główki z metalową szczeliną są dwojakiego rodzaju: jednostronne i dwustronne (tj. z jedną i dwiema metalizowanymi szczelinami). W głowicach jednostronnych warstwa stopu magnetycznego znajduje się tylko w tylnej (niepracującej) szczelinie, a w głowicach dwustronnych w obu. Warstwę metalu nakłada się metodą osadzania próżniowego. Indukcja nasycenia stopu magnetycznego jest około dwa razy większa niż ferrytu, co, jak już wspomniano, umożliwia nagrywanie na nośnikach z dużą siłą koercji, które są stosowane w dyskach o dużej pojemności. Głowice dwustronne są pod tym względem lepsze niż głowice jednostronne.

· Cienkie głowice filmowe

Głowice cienkowarstwowe (TF) produkowane są w niemal tej samej technologii co układy scalone, tj. przez fotolitografię. Na jednym podłożu można „wydrukować” kilka tysięcy głowic na raz, które w efekcie są małe i lekkie.

Szczelina robocza w matrycach cienkowarstwowych może być bardzo wąska, a jej szerokość jest regulowana podczas produkcji poprzez nałożenie dodatkowych warstw niemagnetycznego stopu aluminium. Aluminium całkowicie wypełnia szczelinę roboczą i dobrze zabezpiecza ją przed uszkodzeniem (odpryskiwaniem krawędzi) w przypadku przypadkowego kontaktu z dyskiem. Sam rdzeń jest wykonany ze stopu żelaza i niklu, którego indukcja nasycenia jest 2–4 razy większa niż ferrytu.

Obszary namagnesowania szczątkowego utworzone przez głowice cienkowarstwowe na powierzchni dysku mają wyraźnie określone granice, co umożliwia uzyskanie bardzo dużej gęstości zapisu. Ze względu na niską wagę i małe wymiary głowic, szczelina między nimi a powierzchniami dysków może być znacznie zmniejszona w porównaniu do głowic ferrytowych i MIG: w niektórych napędach jej wartość nie przekracza 0,05 mikrona. W efekcie, po pierwsze, zwiększa się namagnesowanie szczątkowe obszarów powierzchni nośnych, a po drugie zwiększa się amplituda sygnału i poprawia się stosunek sygnału do szumu w trybie odczytu, co ostatecznie wpływa na niezawodność zapisu i odczytu danych.

Obecnie głowice cienkowarstwowe są używane w większości napędów o dużej pojemności, zwłaszcza w małych modelach, prawie zastępując głowice metalem w szczelinie. Ich konstrukcja i właściwości są stale ulepszane, ale najprawdopodobniej w niedalekiej przyszłości zostaną zastąpione głowicami magnetorezystancyjnymi.

· Głowice magnetorezystywne

Głowice magnetorezystywne (Magneto-Resistive - MR) pojawiły się stosunkowo niedawno. Są opracowywane przez IBM i pozwalają na osiągnięcie najwyższych wartości​​gęstości zapisu i szybkości dysków. Głowice magnetorezystywne zostały po raz pierwszy zainstalowane na dysku twardym o pojemności 1 GB (3,5 cala) firmy IBM w 1991 roku.

Wszystkie głowice są detektorami, tj. rejestrować zmiany w strefach namagnesowania i przetwarzać je na sygnały elektryczne, które można interpretować jako dane. Z zapisem magnetycznym jest jednak jeden problem: gdy domeny magnetyczne nośnika maleją, spada poziom sygnału głowicy i istnieje możliwość wzięcia szumu za sygnał „prawdziwy”. Aby rozwiązać ten problem, niezbędna jest wydajna głowica odczytująca, która może bardziej wiarygodnie określić obecność sygnału.

Głowice magnetorezystywne są droższe i bardziej skomplikowane niż inne typy głowic, ponieważ posiadają w swojej konstrukcji dodatkowe elementy, a proces technologiczny obejmuje kilka dodatkowych etapów. Poniżej wymieniono główne różnice między głowicami magnetorezystywnymi a głowicami konwencjonalnymi:

v należy do nich podłączyć dodatkowe przewody w celu dostarczenia prądu pomiarowego do czujnika rezystancyjnego;

v 4–6 dodatkowych masek (fotomasek) jest wykorzystywanych w procesie produkcyjnym;

v ze względu na wysoką czułość głowice magnetorezystancyjne są bardziej podatne na zewnętrzne pola magnetyczne, dlatego muszą być starannie ekranowane.

We wszystkich rozważanych wcześniej głowicach „pracowała” ta sama luka w procesie pisania i czytania, a w głowicy magnetorezystywnej są dwie – każda do własnej pracy. Przy opracowywaniu głowic z pojedynczą szczeliną roboczą trzeba iść na kompromis przy wyborze jej szerokości. Faktem jest, że aby poprawić parametry głowicy w trybie czytania, konieczne jest zmniejszenie szerokości przerwy (zwiększenie rozdzielczości), a podczas pisania przerwa powinna być szersza, ponieważ w tym przypadku strumień magnetyczny wnika w warstwę roboczą na większą głębokość („magnetyzuje” ją na całej grubości). W głowicach magnetorezystywnych z dwiema szczelinami każda z nich może mieć optymalną szerokość. Inną cechą rozważanych głowic jest to, że ich część rejestrująca (cienka filmowa) tworzy na dysku szersze ścieżki niż jest to konieczne do pracy jednostki odczytującej (magnetorezystancyjne). W tym przypadku głowica czytająca „zbiera” mniej zakłóceń magnetycznych z sąsiednich torów.

· Gigantyczne głowice magnetorezystywne

W 1997 roku IBM ogłosił nowy typ głowicy magnetorezystywnej o znacznie większej czułości. Nazywano je gigantycznymi głowicami magnetorezystywnymi (Giant Magnetoresistive - GMR). Otrzymali tę nazwę w oparciu o zastosowany efekt (chociaż były mniejsze niż standardowe głowice magnetorezystywne). Efekt GMR odkryto w 1988 roku w kryształach umieszczonych w bardzo silnym polu magnetycznym (około 1000 razy większym od pola magnetycznego stosowanego w dyskach twardych).

Metody kodowania danych

Dane na nośnikach magnetycznych są przechowywane w postaci analogowej. Jednocześnie same dane prezentowane są w: forma cyfrowa, ponieważ są ciągiem zer i jedynek. Podczas nagrywania, cyfrowe informacje wchodzące do głowicy magnetycznej tworzą na dysku domeny magnetyczne o odpowiedniej polaryzacji. Jeśli podczas rejestracji głowica otrzyma sygnał dodatni, domeny magnetyczne są spolaryzowane w jednym kierunku, a jeśli jest ujemny, w przeciwnym. Gdy zmienia się polaryzacja zarejestrowanego sygnału, zmienia się również polaryzacja domen magnetycznych.

Jeżeli podczas odtwarzania głowica zarejestruje grupę domen magnetycznych o tej samej polaryzacji, nie generuje żadnych sygnałów; generowanie następuje tylko wtedy, gdy głowica wykryje zmianę polaryzacji. Te momenty zmiany biegunowości nazywane są zmianami znaków. Każda zmiana znaku powoduje, że głowica odczytuje impuls napięciowy; to właśnie te impulsy rejestruje urządzenie podczas odczytu danych. Ale jednocześnie głowica czytająca nie generuje dokładnie takiego sygnału, który został zarejestrowany; w rzeczywistości tworzy szereg impulsów, z których każdy odpowiada momentowi zmiany znaku.

Aby optymalnie rozmieścić impulsy w nagrywanym sygnale, surowe dane przechodzą przez specjalne urządzenie zwane enkoderem/dekoderem. To urządzenie konwertuje dane binarne na sygnały elektryczne zoptymalizowane pod kątem rozmieszczenia stref zmiany znaku na ścieżce zapisu. Podczas odczytu enkoder/dekoder wykonuje transformację odwrotną: odtwarza z sygnału sekwencję danych binarnych. Na przestrzeni lat opracowano kilka metod kodowania danych, których głównym celem było osiągnięcie maksymalnej wydajności i niezawodności zapisu i odczytu informacji.

Podczas pracy z danymi cyfrowymi synchronizacja ma szczególne znaczenie. Podczas czytania lub pisania bardzo ważne jest dokładne określenie momentu każdej zmiany znaku. W przypadku braku synchronizacji moment zmiany znaku może zostać błędnie określony, co skutkuje nieuniknioną utratą lub zniekształceniem informacji. Aby temu zapobiec, działanie urządzeń nadawczych i odbiorczych musi być ściśle zsynchronizowane. Problem ten można rozwiązać na dwa sposoby. Najpierw zsynchronizuj działanie dwóch urządzeń, przesyłając specjalny sygnał synchronizacji (lub sygnał zegarowy) oddzielnym kanałem komunikacyjnym. Po drugie, połącz sygnał zegarowy z sygnałem danych i prześlij je razem w jednym kanale. To jest istota większości metod kodowania danych.

Chociaż opracowano wiele różnych metod, obecnie stosuje się tylko trzy z nich:

ü modulacja częstotliwości (FM);

ü zmodyfikowana modulacja częstotliwości (MFM);

ü Kodowanie o ograniczonej długości pola rekordu (RLL).

Modulacja częstotliwości (FM)

Metoda kodowania FM (Frequency Modulation) została opracowana przed innymi i została wykorzystana podczas nagrywania tak zwanych dyskietek o pojedynczej gęstości w pierwszych komputerach PC. Pojemność takich jednostronnych dyskietek wynosiła tylko 80 KB. W latach 70-tych w wielu urządzeniach stosowano zapis z modulacją częstotliwości, ale teraz został on całkowicie zarzucony.

Zmodyfikowana modulacja częstotliwości (MFM)

Głównym celem twórców metody MFM (zmodyfikowana modulacja częstotliwości) było zmniejszenie liczby stref zmiany znaku w celu rejestrowania tej samej ilości danych w porównaniu do kodowania FM i odpowiednio zwiększenie potencjalnej pojemności nośnika. Dzięki tej metodzie rejestracji zmniejsza się liczba stref zmiany znaku używanych tylko do synchronizacji. Przejścia zegarowe są zapisywane tylko na początku komórek z zerowym bitem danych i tylko wtedy, gdy jest poprzedzony bitem zerowym. We wszystkich innych przypadkach strefa zmiany znaku synchronizacji nie jest tworzona. Dzięki takiemu zmniejszeniu liczby stref zmiany znaku przy tej samej dopuszczalnej gęstości ich rozmieszczenia na dysku pojemność informacyjna podwaja się w porównaniu z zapisem metodą FM.

Dlatego dyski MFM są często określane jako dyski o podwójnej gęstości. Ponieważ przy rozważanej metodzie zapisu ta sama liczba stref zmiany znaku zawiera dwa razy więcej „użytecznych” danych niż w przypadku kodowania FM, prędkość odczytu i zapisu informacji na nośniku również ulega podwojeniu.

Kodowanie długości pola rekordu (RLL)

Do tej pory najpopularniejsza metoda kodowania z ograniczeniem długości pola rekordu (Run Length Limited - RLL). Pozwala na umieszczenie na płycie półtora raza więcej informacji niż przy nagrywaniu metodą MFM i trzykrotnie więcej niż przy kodowaniu FM. Przy użyciu tej metody kodowane są nie pojedyncze bity, ale całe grupy, w wyniku czego powstają określone sekwencje stref zmiany znaku.

Metoda RLL została opracowana przez IBM i po raz pierwszy została zastosowana w dużych dyskach maszynowych. Pod koniec lat 80. zaczęto go stosować w dyskach twardych komputerów PC, a dziś jest używany w prawie wszystkich komputerach PC.

Pomiar pojemności pamięci

W grudniu 1998 r. Międzynarodowa Komisja Elektrotechniczna (IEC), zajmująca się normalizacją w dziedzinie elektrotechniki, wprowadziła jako oficjalną normę system nazw i symboli jednostek miar stosowanych w dziedzinie przetwarzania danych i komunikacji. Do niedawna, przy jednoczesnym stosowaniu dziesiętnego i binarnego systemu miar, jeden megabajt mógł być równy 1 milionowi bajtów (106) lub 1 048 576 bajtom (220). Skróty standardowych jednostek stosowanych do pomiaru pojemności napędów magnetycznych i innych podano w tabeli. jeden.

Zgodnie z nowym standardem 1 MiB (mebibajt) zawiera 220 (1 048 576) bajtów, a 1 MB (megabajt) zawiera 106 (1 000 000) bajtów. Niestety, nie ma ogólnie przyjętego sposobu odróżnienia wielokrotności binarnych od dziesiętnych. Innymi słowy, angielski skrót MB (lub M) może oznaczać zarówno miliony bajtów, jak i megabajty.

Z reguły rozmiary pamięci są mierzone w jednostkach binarnych, ale pojemność pamięci jest mierzona zarówno w jednostkach dziesiętnych, jak i binarnych, co często prowadzi do nieporozumień. Zauważ też, że w wersji angielskiej bity (bity) i bajty (Bytes) różnią się w przypadku pierwszej litery (może to być mała lub duża litera). Na przykład, gdy oznaczane są miliony bitów, używana jest mała litera „b”, co powoduje, że jednostką miliona bitów na sekundę jest Mb/s, podczas gdy MBps oznacza milion bajtów na sekundę.

Co to jest dysk twardy

Najbardziej niezbędnym i jednocześnie najbardziej tajemniczym elementem komputera jest dysk twardy. Jak wiadomo, jest przeznaczony do przechowywania danych, a konsekwencje jego awarii są często katastrofalne. Do poprawnej pracy lub modernizacji komputera konieczne jest dobre rozeznanie, czym jest - dysk twardy.

Głównymi elementami napędu jest kilka okrągłych płyt aluminiowych lub niekrystalicznych. W przeciwieństwie do dyskietek (dyskietek), nie można ich zginać; stąd nazwa dysk twardy (rys. 4). W większości urządzeń są one nieusuwalne, dlatego czasami takie dyski nazywane są stałymi (dyskami stałymi). Istnieją również wymienne dyski twarde, takie jak urządzenia Iomega Zip i Jaz.

Najnowsze osiągnięcia

Minęło prawie 20 lat odkąd dyski twarde stały się powszechnymi komponentami komputerów osobistych, ich parametry zmieniły się radykalnie. Aby dać wyobrażenie o tym, jak daleko zaszedł proces doskonalenia dyski twarde Przyjrzyjmy się najjaśniejszym faktom.

Maksymalna pojemność dysków 5,25" wzrosła z 10 MB (1982) do 180 GB i więcej w przypadku dysków 3,5" o połowie wysokości (Seagate Barracuda 180). Pojemność 2,5-calowych dysków o wysokości nie większej niż 12,5 mm, stosowanych w komputerach przenośnych, wzrosła do 32 GB (IBM Travelstar 32GH). Dyski twarde o pojemności mniejszej niż 10 GB w nowoczesnych komputerach stacjonarnych prawie nigdy nie są używane.

Szybkość przesyłania danych wzrosła z 85-102 KB/s na komputerze IBM XT (1983) do 51,15 MB/s na najszybszych systemach (Seagate Cheetah 73LP).

Średni czas wyszukiwania (tj. czas ustawienia głowicy na żądaną ścieżkę) zmniejszył się z 85 ms w komputerze IBM XT (1983) do 4,2 ms w jednym z najszybszych obecnie dysków (Seagate Cheetah X15).

W 1982 roku dysk 10 MB kosztował ponad 1500 USD (150 USD za megabajt). Obecnie koszt dysków twardych spadł do pół centa za megabajt.

Ryż. 4. Widok dysku twardego ze zdjętą górną pokrywą

Jak działają dyski twarde

W dyskach twardych dane są zapisywane i odczytywane przez uniwersalne głowice odczytująco-zapisujące z powierzchni wirujących dysków magnetycznych, podzielone na ścieżki i sektory (po 512 bajtów), jak pokazano na rys. 5.

Dyski zazwyczaj mają wiele zainstalowanych dysków, a dane są zapisywane po obu stronach każdego z nich. Większość dysków ma co najmniej dwa lub trzy dyski (co pozwala na nagrywanie na czterech lub sześciu stronach), ale są też dyski z 11 lub więcej dyskami. Tory tego samego typu (położone identycznie) ze wszystkich stron dysków są połączone w cylinder (rys. 6). Każda strona dysku ma swoją własną ścieżkę odczytu/zapisu, ale wszystkie głowice są zamontowane na wspólnym pręcie lub stojaku. Dlatego głowice nie mogą poruszać się niezależnie od siebie i poruszają się tylko synchronicznie.

Dyski twarde obracają się znacznie szybciej niż dyskietki. Ich prędkość obrotowa nawet w większości pierwszych modeli wynosiła 3600 obr/min (czyli 10 razy więcej niż w stacji dyskietek) i do niedawna była niemal standardem dla dysków twardych. Ale teraz wzrosła częstotliwość rotacji dysków twardych. Na przykład w laptopie Toshiba dysk o pojemności 3,3 GB obraca się z prędkością 4852 obr./min, ale istnieją już modele o częstotliwościach 5400, 5600, 6400, 7200, 10 000, a nawet 15 000 obr./min. Szybkość konkretnego dysku twardego zależy od częstotliwości jego obrotu, szybkości ruchu układu głowic oraz liczby sektorów na ścieżce.

Podczas normalnej pracy dysku twardego głowice odczytu/zapisu nie dotykają (i nie powinny dotykać!) dysków. Ale kiedy zasilanie zostanie wyłączone, a dyski zatrzymają się, opadają na powierzchnię. Podczas pracy urządzenia pomiędzy głowicą a powierzchnią wirującego dysku powstaje bardzo mała szczelina powietrzna (poduszka powietrzna). Jeśli drobinka kurzu dostanie się do tej szczeliny lub nastąpi wstrząs, głowica „zderzy się” z dyskiem obracającym się „z pełną prędkością”. Jeśli uderzenie jest wystarczająco silne, głowa pęknie. Konsekwencje tego mogą być różne – od utraty kilku bajtów danych po awarię całego dysku. Dlatego w większości napędów powierzchnie dysków magnetycznych są stopowane i powlekane specjalnymi smarami, co pozwala urządzeniom wytrzymać codzienne „starty” i „lądowania” głowic, a także poważniejsze wstrząsy.


Ryż. 5. Ścieżki i sektory dysku twardego

Ryż. 6. Cylinder akumulatora

na dyskach twardych


Tory i sektory

Ścieżka to pojedynczy „pierścień” danych po jednej stronie dysku. Ścieżka nagrywania na płycie jest zbyt duża, aby można ją było wykorzystać jako jednostkę pamięci. W wielu dyskach jego pojemność przekracza 100 tys. bajtów, a przydzielanie takiego bloku do przechowywania małego pliku jest niezwykle marnotrawstwem. Dlatego ścieżki na dysku są podzielone na ponumerowane segmenty, zwane sektorami.

Liczba sektorów może się różnić w zależności od gęstości ścieżek i typu napędu. Na przykład ścieżka stacji dyskietek może zawierać od 8 do 36 sektorów, podczas gdy ścieżka dysku twardego może zawierać od 380 do 700 sektorów. programy standardowe formatowania, mają pojemność 512 bajtów, ale jest możliwe, że ta wartość zmieni się w przyszłości.

Numeracja sektorów na ścieżce zaczyna się od jednego, w przeciwieństwie do głowic i cylindrów, które są liczone od zera. Na przykład 3,5-calowa dyskietka HD (High Density) (pojemność 1,44 MB) zawiera 80 cylindrów, ponumerowanych od 0 do 79, napęd ma dwie głowice (o numerach 0 i 1), a każda ścieżka cylindra jest podzielona na 18 sektory (1-18).

Podczas formatowania dysku na początku i na końcu każdego sektora tworzone są dodatkowe obszary do zapisywania ich numerów, a także inne informacje serwisowe, dzięki którym kontroler identyfikuje początek i koniec sektora. Pozwala to odróżnić niesformatowane i sformatowane pojemności dysków. Po sformatowaniu pojemność dysku maleje, z czym trzeba sobie radzić, gdyż w celu zapewnienia normalnej pracy dysku należy zarezerwować pewną ilość miejsca na dysku na informacje serwisowe.

Na początku każdego sektora zapisywany jest jego nagłówek (lub prefiks - część prefiksu), który określa początek i numer sektora, a na końcu - zakończenie (lub sufiks - część sufiksu), który zawiera sumę kontrolną (suma kontrolna ) niezbędne do sprawdzenia integralności danych . Większość nowych dysków używa tak zwanego wpisu No-ID zamiast nagłówka, który zawiera więcej danych. Oprócz określonych obszarów informacji o usługach, każdy sektor zawiera obszar danych o pojemności 512 bajtów.

Dla jasności wyobraź sobie, że sektory to strony w książce. Każda strona zawiera tekst, ale nie wypełnia on całej przestrzeni strony, ponieważ posiada marginesy (górny, dolny, prawy i lewy). Umieszczone na marginesach informacje serwisowe, takie jak tytuły rozdziałów (które odpowiadałyby numerom ścieżek i cylindrów w naszej analogii) oraz numery stron (które odpowiadałyby numerom sektorów). Obszary na dysku, podobnie jak pola na stronie, są tworzone podczas formatowania dysku; jednocześnie zapisywane są w nich informacje serwisowe. Ponadto podczas formatowania dysku obszary danych każdego sektora są wypełniane wartościami fikcyjnymi. Formatując płytę, możesz w zwykły sposób zapisywać informacje w obszarze danych. Informacje zawarte w nagłówkach sektorów i konkluzjach nie zmieniają się podczas normalnych operacji zapisu danych. Możesz to zmienić tylko poprzez ponowne sformatowanie dysku.

Formatowanie dysków

Istnieją dwa rodzaje formatowania dysku:

ü formatowanie fizyczne lub niskopoziomowe;

ü formatowanie logiczne lub wysokiego poziomu.

Podczas formatowania dyskietek za pomocą Eksploratora Windows 9x lub polecenia DOS FORMAT wykonywane są obie operacje, ale w przypadku dysków twardych operacje te należy wykonać osobno. Co więcej, w przypadku dysku twardego między dwiema wskazanymi operacjami formatowania wykonywany jest trzeci etap - partycjonowanie dysku. Partycjonowanie jest absolutnie konieczne, jeśli zamierzasz używać wielu systemów operacyjnych na tym samym komputerze. Formatowanie fizyczne jest zawsze takie samo, niezależnie od właściwości systemu operacyjnego i opcji formatowania wysokiego poziomu (które mogą być różne dla różnych systemów operacyjnych). Pozwala to na połączenie kilku systemów operacyjnych na jednym dysku twardym.

Organizując kilka partycji na jednym dysku, każda z nich może służyć do uruchamiania własnego systemu operacyjnego lub reprezentować osobny wolumin (wolumin) lub dysk logiczny (dysk logiczny). Wolumin lub dysk logiczny jest tym, do którego system przypisuje literę dysku.

W ten sposób, twarde formatowanie dysk jest wykonywany w trzech etapach.

1. Formatowanie niskiego poziomu.

2. Organizacja partycji na dysku.

3. Formatowanie wysokiego poziomu.

Napędy na nośnikach magnetycznych i optycznych

Napędy dyskietek: zasada działania, dane techniczne, główne elementy. Dyski twarde: współczynniki kształtu, zasada działania, rodzaje, główne cechy, tryby pracy. Konfiguracja i formatowanie dysków magnetycznych. Narzędzia do konserwacji twardych dysków magnetycznych. Struktura logiczna i format dysków magnetooptycznych i kompaktowych. Napędy CD-R (RW), DVD-R (RW), ZIP: zasada działania, główne komponenty, specyfikacje. Napędy magnetooptyczne, streamery, dyski flash. Przegląd głównych nowoczesnych modeli.

Uczeń musi wiedzieć:

  • zasada działania i główne elementy napędu FDD;
  • charakterystyka i tryby działania dysku twardego;
  • zasada działania napędów magneto-optycznych i dysków kompaktowych;
  • formaty dysków optycznych i magnetooptycznych;

Student musi być w stanie:

  • rejestrować informacje na różnych nośnikach;
  • używać oprogramowania do konserwacji dysków twardych;
  • określić główne cechy napędów;

Cele Lekcji:

  • – zapoznanie studentów z głównymi składnikami akumulatorów informacji.
  • - studiowanie rodzajów nośników pamięci i ich właściwości.
  • - edukacja kultury informacyjnej uczniów, uważności, dokładności, dyscypliny, wytrwałości.
  • - rozwój zainteresowań poznawczych, umiejętności samokontroli, umiejętności robienia notatek.

Część teoretyczna.

Przechowywanie danych na nośnikach magnetycznych

W prawie wszystkich komputerach osobistych informacje są przechowywane na nośnikach przy użyciu zasad magnetycznych lub optycznych. Dzięki magnetycznym nośnikom danych dane binarne są „zamieniane” w małe, metalowe, namagnesowane cząstki ułożone we „wzór” na płaskim dysku lub taśmie. Ten magnetyczny „wzór” można następnie zdekodować w binarny strumień danych.

Działanie nośników magnetycznych - dysków twardych i dyskietek - opiera się na elektromagnetyzmie. Jego istota polega na tym, że gdy prąd elektryczny przepływa przez przewodnik, wokół niego powstaje pole magnetyczne (ryc. 1). Pole to działa na znajdującą się w nim substancję ferromagnetyczną. Gdy zmienia się kierunek prądu, zmienia się również polaryzacja pola magnetycznego. Zjawisko elektromagnetyzmu jest wykorzystywane w silnikach elektrycznych do generowania sił działających na magnesy zamontowane na obracającym się wale.

Istnieje jednak również efekt odwrotny: w przewodniku, na który oddziałuje zmienne pole magnetyczne, powstaje prąd elektryczny. Gdy zmienia się polaryzacja pola magnetycznego, zmienia się również kierunek prądu elektrycznego (ryc. 2).

Głowica odczytująco-zapisująca w dowolnym napędzie dyskowym składa się z rdzenia ferromagnetycznego w kształcie litery U i nawiniętej wokół niego cewki (uzwojenia), przez którą może przepływać prąd elektryczny. Gdy prąd przepływa przez uzwojenie, w rdzeniu (obwodzie magnetycznym) głowicy powstaje pole magnetyczne (rys. 3). Podczas przełączania kierunku przepływającego prądu zmienia się również polaryzacja pola magnetycznego. Zasadniczo głowice są elektromagnesami, których polaryzację można bardzo szybko zmienić, zmieniając kierunek przepływającego prądu elektrycznego.

Ryż. 2. Gdy przewodnik porusza się w polu magnetycznym, generowany jest w nim prąd elektryczny
Ryż. 3. Głowica odczytu/zapisu

Pole magnetyczne w rdzeniu częściowo rozchodzi się w otaczającą przestrzeń dzięki obecności szczeliny „przeciętej” u podstawy litery U. Jeżeli w pobliżu szczeliny znajduje się inny ferromagnes (warstwa robocza nośnika), to zlokalizowane jest w nim pole, ponieważ takie substancje mają mniejszy opór magnetyczny niż powietrze . Strumień magnetyczny przechodzący przez szczelinę jest zamykany przez nośnik, co prowadzi do polaryzacji jego cząstek magnetycznych (domen) w kierunku pola. Kierunek pola, a tym samym remanencja nośnika, zależy od biegunowości pola elektrycznego w uzwojeniu głowicy.

Elastyczne dyski magnetyczne wykonuje się zwykle na lavsanie, a sztywne na podłożu aluminiowym lub szklanym, na które nakładana jest warstwa materiału ferromagnetycznego. Warstwa robocza składa się głównie z tlenku żelaza z różnymi dodatkami. Pola magnetyczne wytworzone przez poszczególne domeny na czystym dysku są zorientowane losowo i wzajemnie się kompensują na dowolnym rozszerzonym (makroskopowym) odcinku powierzchni dysku, więc jego namagnesowanie szczątkowe wynosi zero.

Jeśli obszar powierzchni dysku zostanie wystawiony na działanie pola magnetycznego po pociągnięciu w pobliżu szczeliny głowicy, wówczas domeny układają się w określonym kierunku, a ich pola magnetyczne nie znoszą się już nawzajem. W rezultacie w tym obszarze pojawia się namagnesowanie szczątkowe, które można później wykryć. W kategoriach naukowych możemy powiedzieć: resztkowy strumień magnetyczny utworzony przez tę część powierzchni dysku staje się niezerowy.

Odczytuj/zapisuj projekty głowic

Wraz z rozwojem technologii napędów dyskowych pojawiły się również konstrukcje głowic do odczytu/zapisu. Pierwszymi głowicami były rdzenie z uzwojeniem (elektromagnesy). Jak na współczesne standardy, ich rozmiary były ogromne, a gęstość zapisu niezwykle niska. Z biegiem lat projekty głowic przeszły długą drogę od pierwszych głowic z rdzeniami ferrytowymi do nowoczesnych typów.

Najczęściej używane głowice to cztery następujące typy:

  • ferryt;
  • z metalem w szczelinie (MIG);
  • cienkowarstwowy (TF);
  • magnetorezystancyjny (MR);
  • olbrzymi magnetorezystancyjny (GMR).
  • Głowice ferrytowe

Klasyczne głowice ferrytowe zostały po raz pierwszy zastosowane w napędzie Winchester 30-30 firmy IBM. Ich rdzenie wykonane są na bazie prasowanego ferrytu (na bazie tlenku żelaza). Pole magnetyczne w szczelinie powstaje, gdy przez uzwojenie przepływa prąd elektryczny. Z kolei, gdy w pobliżu szczeliny zmienia się natężenie pola magnetycznego, w uzwojeniu indukowana jest siła elektromotoryczna. Głowica jest więc uniwersalna, tj. może być używany zarówno do pisania, jak i do czytania. Wymiary i masa główek ferrytowych są większe niż głów cienkowarstwowych; dlatego, aby zapobiec ich niepożądanemu kontaktowi z powierzchniami dysków, konieczne jest zwiększenie szczeliny.

W okresie istnienia główek ferrytowych znacznie poprawiono ich oryginalną (monolityczną) konstrukcję. W szczególności opracowano tak zwane głowice szklano-ferrytowe (kompozytowe), których mały rdzeń ferrytowy jest umieszczony w ceramicznej obudowie. Szerokość rdzenia i szczelina magnetyczna takich głowic jest mniejsza, co pozwala na zwiększenie gęstości ścieżek zapisu. Ponadto zmniejsza się ich wrażliwość na zewnętrzne zakłócenia magnetyczne.

  • Głowy z metalem w szczelinie

Głowice z metalem w szczelinie (Metal-In-Gap - MIG) pojawiły się w wyniku udoskonaleń w konstrukcji kompozytowej głowicy ferrytowej. W takich głowicach szczelina magnetyczna znajdująca się z tyłu rdzenia jest wypełniona metalem. Dzięki temu znacznie zmniejsza się skłonność materiału rdzenia do nasycenia magnetycznego, co umożliwia zwiększenie indukcji magnetycznej w szczelinie roboczej, a w konsekwencji zapis na płycie o większej gęstości. Ponadto gradient pola magnetycznego wytwarzanego przez głowicę z metalem w szczelinie jest wyższy, co powoduje, że na powierzchni dysku powstają obszary namagnesowane o wyraźniej określonych granicach (zmniejsza się szerokość stref zmiany znaku).

Głowice te umożliwiają stosowanie mediów o dużej sile koercji i cienkiej warstwie roboczej. Zmniejszając całkowitą masę i ulepszając konstrukcję, takie głowice można umieścić bliżej powierzchni mediów.

Główki z metalową szczeliną są dwojakiego rodzaju: jednostronne i dwustronne (tj. z jedną i dwiema metalizowanymi szczelinami). W głowicach jednostronnych warstwa stopu magnetycznego znajduje się tylko w tylnej (niepracującej) szczelinie, a w głowicach dwustronnych w obu. Warstwę metalu nakłada się metodą osadzania próżniowego. Indukcja nasycenia stopu magnetycznego jest około dwa razy większa niż ferrytu, co, jak już wspomniano, umożliwia nagrywanie na nośnikach z dużą siłą koercji, które są stosowane w dyskach o dużej pojemności. Głowice dwustronne są pod tym względem lepsze niż głowice jednostronne.

  • Cienkie głowice filmowe

Głowice cienkowarstwowe (TF) produkowane są w niemal tej samej technologii co układy scalone, tj. przez fotolitografię. Na jednym podłożu można „wydrukować” kilka tysięcy głowic na raz, które w efekcie są małe i lekkie.

Szczelina robocza w matrycach cienkowarstwowych może być bardzo wąska, a jej szerokość jest regulowana podczas produkcji poprzez nałożenie dodatkowych warstw niemagnetycznego stopu aluminium. Aluminium całkowicie wypełnia szczelinę roboczą i dobrze zabezpiecza ją przed uszkodzeniem (odpryskiwaniem krawędzi) w przypadku przypadkowego kontaktu z dyskiem. Sam rdzeń jest wykonany ze stopu żelaza i niklu, którego indukcja nasycenia jest 2–4 razy większa niż ferrytu.

Obszary namagnesowania szczątkowego utworzone przez głowice cienkowarstwowe na powierzchni dysku mają wyraźnie określone granice, co umożliwia uzyskanie bardzo dużej gęstości zapisu. Ze względu na niską wagę i małe wymiary głowic, szczelina między nimi a powierzchniami dysków może być znacznie zmniejszona w porównaniu do głowic ferrytowych i MIG: w niektórych napędach jej wartość nie przekracza 0,05 mikrona. W efekcie, po pierwsze, zwiększa się namagnesowanie szczątkowe obszarów powierzchni nośnych, a po drugie zwiększa się amplituda sygnału i poprawia się stosunek sygnału do szumu w trybie odczytu, co ostatecznie wpływa na niezawodność zapisu i odczytu danych.

Obecnie głowice cienkowarstwowe są używane w większości napędów o dużej pojemności, zwłaszcza w małych modelach, prawie zastępując głowice metalem w szczelinie. Ich konstrukcja i właściwości są stale ulepszane, ale najprawdopodobniej w niedalekiej przyszłości zostaną zastąpione głowicami magnetorezystancyjnymi.

  • Głowice magnetorezystywne

Głowice magnetorezystywne (Magneto-Resistive - MR) pojawiły się stosunkowo niedawno. Są opracowywane przez IBM i pozwalają na osiągnięcie najwyższych wartości​​gęstości zapisu i szybkości dysków. Głowice magnetorezystywne zostały po raz pierwszy zainstalowane w 1 GB (3,5″) dysku twardym firmy IBM w 1991 roku.

Wszystkie głowice są detektorami, tj. rejestrować zmiany w strefach namagnesowania i przetwarzać je na sygnały elektryczne, które można interpretować jako dane. Z zapisem magnetycznym jest jednak jeden problem: gdy domeny magnetyczne nośnika maleją, spada poziom sygnału głowicy i istnieje możliwość wzięcia szumu za sygnał „prawdziwy”. Aby rozwiązać ten problem, niezbędna jest wydajna głowica odczytująca, która może bardziej wiarygodnie określić obecność sygnału.

Głowice magnetorezystywne są droższe i bardziej skomplikowane niż inne typy głowic, ponieważ posiadają w swojej konstrukcji dodatkowe elementy, a proces technologiczny obejmuje kilka dodatkowych etapów. Poniżej wymieniono główne różnice między głowicami magnetorezystywnymi a głowicami konwencjonalnymi:

  • należy do nich podłączyć dodatkowe przewody w celu dostarczenia prądu pomiarowego do czujnika rezystancyjnego;
  • W procesie produkcyjnym stosuje się 4–6 dodatkowych masek (fotomasek);
  • Głowice magnetorezystancyjne ze względu na wysoką czułość są bardziej podatne na zewnętrzne pola magnetyczne, dlatego należy je starannie ekranować.

We wszystkich rozważanych wcześniej głowicach „pracowała” ta sama luka w procesie pisania i czytania, a w głowicy magnetorezystywnej są dwie – każda do własnej pracy. Przy opracowywaniu głowic z pojedynczą szczeliną roboczą trzeba iść na kompromis przy wyborze jej szerokości. Faktem jest, że aby poprawić parametry głowicy w trybie czytania, konieczne jest zmniejszenie szerokości przerwy (zwiększenie rozdzielczości), a podczas pisania przerwa powinna być szersza, ponieważ w tym przypadku strumień magnetyczny wnika w warstwę roboczą na większą głębokość („magnetyzuje” ją na całej grubości). W głowicach magnetorezystywnych z dwiema szczelinami każda z nich może mieć optymalną szerokość. Inną cechą rozważanych głowic jest to, że ich część rejestrująca (cienka filmowa) tworzy na dysku szersze ścieżki niż jest to konieczne do pracy jednostki odczytującej (magnetorezystancyjne). W tym przypadku głowica czytająca „zbiera” mniej zakłóceń magnetycznych z sąsiednich torów.

  • Gigantyczne głowice magnetorezystywne

W 1997 roku IBM ogłosił nowy typ głowicy magnetorezystywnej o znacznie większej czułości. Nazywano je gigantycznymi głowicami magnetorezystywnymi (Giant Magnetoresistive - GMR). Otrzymali tę nazwę w oparciu o zastosowany efekt (chociaż były mniejsze niż standardowe głowice magnetorezystywne). Efekt GMR odkryto w 1988 roku w kryształach umieszczonych w bardzo silnym polu magnetycznym (około 1000 razy większym od pola magnetycznego stosowanego w dyskach twardych).

Metody kodowania danych

Dane na nośnikach magnetycznych są przechowywane w postaci analogowej. Jednocześnie same dane są prezentowane w postaci cyfrowej, ponieważ są ciągiem zer i jedynek. Podczas nagrywania, cyfrowe informacje wchodzące do głowicy magnetycznej tworzą na dysku domeny magnetyczne o odpowiedniej polaryzacji. Jeśli podczas rejestracji głowica otrzyma sygnał dodatni, domeny magnetyczne są spolaryzowane w jednym kierunku, a jeśli jest ujemny, w przeciwnym. Gdy zmienia się polaryzacja zarejestrowanego sygnału, zmienia się również polaryzacja domen magnetycznych.

Jeżeli podczas odtwarzania głowica zarejestruje grupę domen magnetycznych o tej samej polaryzacji, nie generuje żadnych sygnałów; generowanie następuje tylko wtedy, gdy głowica wykryje zmianę polaryzacji. Te momenty zmiany biegunowości nazywane są zmianami znaków. Każda zmiana znaku powoduje, że głowica odczytuje impuls napięciowy; to właśnie te impulsy rejestruje urządzenie podczas odczytu danych. Ale jednocześnie głowica czytająca nie generuje dokładnie takiego sygnału, który został zarejestrowany; w rzeczywistości tworzy szereg impulsów, z których każdy odpowiada momentowi zmiany znaku.

Aby optymalnie rozmieścić impulsy w nagrywanym sygnale, surowe dane przechodzą przez specjalne urządzenie zwane enkoderem/dekoderem. To urządzenie konwertuje dane binarne na sygnały elektryczne zoptymalizowane pod kątem rozmieszczenia stref zmiany znaku na ścieżce zapisu. Podczas odczytu enkoder/dekoder wykonuje transformację odwrotną: odtwarza z sygnału sekwencję danych binarnych. Na przestrzeni lat opracowano kilka metod kodowania danych, których głównym celem było osiągnięcie maksymalnej wydajności i niezawodności zapisu i odczytu informacji.

Podczas pracy z danymi cyfrowymi synchronizacja ma szczególne znaczenie. Podczas czytania lub pisania bardzo ważne jest dokładne określenie momentu każdej zmiany znaku. W przypadku braku synchronizacji moment zmiany znaku może zostać błędnie określony, co skutkuje nieuniknioną utratą lub zniekształceniem informacji. Aby temu zapobiec, działanie urządzeń nadawczych i odbiorczych musi być ściśle zsynchronizowane. Problem ten można rozwiązać na dwa sposoby. Najpierw zsynchronizuj działanie dwóch urządzeń, przesyłając specjalny sygnał synchronizacji (lub sygnał zegarowy) oddzielnym kanałem komunikacyjnym. Po drugie, połącz sygnał zegarowy z sygnałem danych i prześlij je razem w jednym kanale. To jest istota większości metod kodowania danych.

Chociaż opracowano wiele różnych metod, obecnie stosuje się tylko trzy z nich:

  • modulacja częstotliwości (FM);
  • zmodyfikowana modulacja częstotliwości (MFM);
  • kodowanie z ograniczeniem długości pola rekordu (RLL).

Modulacja częstotliwości (FM)

Metoda kodowania FM (Frequency Modulation) została opracowana przed innymi i została wykorzystana podczas nagrywania tak zwanych dyskietek o pojedynczej gęstości w pierwszych komputerach PC. Pojemność takich jednostronnych dyskietek wynosiła tylko 80 KB. W latach 70-tych w wielu urządzeniach stosowano zapis z modulacją częstotliwości, ale teraz został on całkowicie zarzucony.

Zmodyfikowana modulacja częstotliwości (MFM)

Głównym celem twórców metody MFM (zmodyfikowana modulacja częstotliwości) było zmniejszenie liczby stref zmiany znaku w celu rejestrowania tej samej ilości danych w porównaniu do kodowania FM i odpowiednio zwiększenie potencjalnej pojemności nośnika. Dzięki tej metodzie rejestracji zmniejsza się liczba stref zmiany znaku używanych tylko do synchronizacji. Przejścia zegarowe są zapisywane tylko na początku komórek z zerowym bitem danych i tylko wtedy, gdy jest poprzedzony bitem zerowym. We wszystkich innych przypadkach strefa zmiany znaku synchronizacji nie jest tworzona. Dzięki takiemu zmniejszeniu liczby stref zmiany znaku przy tej samej dopuszczalnej gęstości ich rozmieszczenia na dysku pojemność informacyjna podwaja się w porównaniu z zapisem metodą FM.

Dlatego dyski MFM są często określane jako dyski o podwójnej gęstości. Ponieważ przy rozważanej metodzie zapisu ta sama liczba stref zmiany znaku zawiera dwa razy więcej „użytecznych” danych niż w przypadku kodowania FM, prędkość odczytu i zapisu informacji na nośniku również ulega podwojeniu.

Kodowanie długości pola rekordu (RLL)

Do tej pory najpopularniejsza metoda kodowania z ograniczeniem długości pola rekordu (Run Length Limited - RLL). Pozwala na umieszczenie na płycie półtora raza więcej informacji niż przy nagrywaniu metodą MFM i trzykrotnie więcej niż przy kodowaniu FM. Przy użyciu tej metody kodowane są nie pojedyncze bity, ale całe grupy, w wyniku czego powstają określone sekwencje stref zmiany znaku.

Metoda RLL została opracowana przez IBM i po raz pierwszy została zastosowana w dużych dyskach maszynowych. Pod koniec lat 80. zaczęto go stosować w dyskach twardych komputerów PC, a dziś jest używany w prawie wszystkich komputerach PC.

Pomiar pojemności pamięci

W grudniu 1998 r. Międzynarodowa Komisja Elektrotechniczna (IEC), zajmująca się normalizacją w dziedzinie elektrotechniki, wprowadziła jako oficjalną normę system nazw i symboli jednostek miar stosowanych w dziedzinie przetwarzania danych i komunikacji. Do niedawna, przy jednoczesnym stosowaniu dziesiętnego i binarnego systemu miar, jeden megabajt mógł być równy 1 milionowi bajtów (106) lub 1 048 576 bajtom (220). Skróty standardowych jednostek stosowanych do pomiaru pojemności napędów magnetycznych i innych podano w tabeli. jeden.

Zgodnie z nowym standardem 1 MiB (mebibajt) zawiera 220 (1 048 576) bajtów, a 1 MB (megabajt) zawiera 106 (1 000 000) bajtów. Niestety, nie ma ogólnie przyjętego sposobu odróżnienia wielokrotności binarnych od dziesiętnych. Innymi słowy, angielski skrót MB (lub M) może oznaczać zarówno miliony bajtów, jak i megabajty.

Z reguły rozmiary pamięci są mierzone w jednostkach binarnych, ale pojemność pamięci jest mierzona zarówno w jednostkach dziesiętnych, jak i binarnych, co często prowadzi do nieporozumień. Zauważ też, że w wersji angielskiej bity (bity) i bajty (Bytes) różnią się w przypadku pierwszej litery (może to być mała lub duża litera). Na przykład, gdy oznaczane są miliony bitów, używana jest mała litera „b”, co powoduje, że jednostką miliona bitów na sekundę jest Mb/s, podczas gdy MBps oznacza milion bajtów na sekundę.

Co to jest dysk twardy

Najbardziej niezbędnym i jednocześnie najbardziej tajemniczym elementem komputera jest dysk twardy. Jak wiadomo, jest przeznaczony do przechowywania danych, a konsekwencje jego awarii są często katastrofalne. Do poprawnej pracy lub modernizacji komputera konieczne jest dobre rozeznanie, czym jest - dysk twardy.

Głównymi elementami napędu jest kilka okrągłych płyt aluminiowych lub niekrystalicznych. W przeciwieństwie do dyskietek (dyskietek), nie można ich zginać; stąd nazwa dysk twardy (rys. 4). W większości urządzeń są one nieusuwalne, dlatego czasami takie dyski nazywane są stałymi (dyskami stałymi). Istnieją również wymienne dyski twarde, takie jak urządzenia Iomega Zip i Jaz.

Najnowsze osiągnięcia

Minęło prawie 20 lat odkąd dyski twarde stały się powszechnymi komponentami komputerów osobistych, ich parametry zmieniły się radykalnie. Aby dać ci wyobrażenie o tym, jak daleko zaszedł proces ulepszania dysków twardych, oto najbardziej uderzające fakty.

Maksymalna pojemność dysków 5,25" wzrosła z 10 MB (1982) do 180 GB i więcej w przypadku dysków 3,5" o połowie wysokości (Seagate Barracuda 180). Pojemność 2,5-calowych dysków o wysokości nie większej niż 12,5 mm, stosowanych w komputerach przenośnych, wzrosła do 32 GB (IBM Travelstar 32GH). Dyski twarde o pojemności mniejszej niż 10 GB w nowoczesnych komputerach stacjonarnych prawie nigdy nie są używane.

Szybkość przesyłania danych wzrosła z 85-102 KB/s na komputerze IBM XT (1983) do 51,15 MB/s na najszybszych systemach (Seagate Cheetah 73LP).

Średni czas wyszukiwania (tj. czas ustawienia głowicy na żądaną ścieżkę) zmniejszył się z 85 ms w komputerze IBM XT (1983) do 4,2 ms w jednym z najszybszych obecnie dysków (Seagate Cheetah X15).

W 1982 roku dysk 10 MB kosztował ponad 1500 USD (150 USD za megabajt). Obecnie koszt dysków twardych spadł do pół centa za megabajt.

Jak działają dyski twarde

W dyskach twardych dane są zapisywane i odczytywane przez uniwersalne głowice odczytująco-zapisujące z powierzchni wirujących dysków magnetycznych, podzielone na ścieżki i sektory (po 512 bajtów), jak pokazano na rys. 5.

Dyski zazwyczaj mają wiele zainstalowanych dysków, a dane są zapisywane po obu stronach każdego z nich. Większość dysków ma co najmniej dwa lub trzy dyski (co pozwala na nagrywanie na czterech lub sześciu stronach), ale są też dyski z 11 lub więcej dyskami. Tory tego samego typu (położone identycznie) ze wszystkich stron dysków są połączone w cylinder (rys. 6). Każda strona dysku ma swoją własną ścieżkę odczytu/zapisu, ale wszystkie głowice są zamontowane na wspólnym pręcie lub stojaku. Dlatego głowice nie mogą poruszać się niezależnie od siebie i poruszają się tylko synchronicznie.

Dyski twarde obracają się znacznie szybciej niż dyskietki. Ich prędkość obrotowa nawet w większości pierwszych modeli wynosiła 3600 obr/min (czyli 10 razy więcej niż w stacji dyskietek) i do niedawna była niemal standardem dla dysków twardych. Ale teraz wzrosła częstotliwość rotacji dysków twardych. Na przykład w laptopie Toshiba dysk o pojemności 3,3 GB obraca się z prędkością 4852 obr./min, ale istnieją już modele o częstotliwościach 5400, 5600, 6400, 7200, 10 000, a nawet 15 000 obr./min. Szybkość konkretnego dysku twardego zależy od częstotliwości jego obrotu, szybkości ruchu układu głowic oraz liczby sektorów na ścieżce.

Podczas normalnej pracy dysku twardego głowice odczytu/zapisu nie dotykają (i nie powinny dotykać!) dysków. Ale kiedy zasilanie zostanie wyłączone, a dyski zatrzymają się, opadają na powierzchnię. Podczas pracy urządzenia pomiędzy głowicą a powierzchnią wirującego dysku powstaje bardzo mała szczelina powietrzna (poduszka powietrzna). Jeśli drobinka kurzu dostanie się do tej szczeliny lub nastąpi wstrząs, głowica „zderzy się” z dyskiem obracającym się „z pełną prędkością”. Jeśli uderzenie jest wystarczająco silne, głowa pęknie. Konsekwencje tego mogą być różne – od utraty kilku bajtów danych po awarię całego dysku. Dlatego w większości napędów powierzchnie dysków magnetycznych są stopowane i powlekane specjalnymi smarami, co pozwala urządzeniom wytrzymać codzienne „starty” i „lądowania” głowic, a także poważniejsze wstrząsy.

Ryż. 6. Cylinder dysku twardego

Tory i sektory

Ścieżka to pojedynczy „pierścień” danych po jednej stronie dysku. Ścieżka nagrywania na płycie jest zbyt duża, aby można ją było wykorzystać jako jednostkę pamięci. W wielu dyskach jego pojemność przekracza 100 tys. bajtów, a przydzielanie takiego bloku do przechowywania małego pliku jest niezwykle marnotrawstwem. Dlatego ścieżki na dysku są podzielone na ponumerowane segmenty, zwane sektorami.

Liczba sektorów może się różnić w zależności od gęstości ścieżek i typu napędu. Na przykład ścieżka dyskietki może zawierać od 8 do 36 sektorów, a ścieżka dysku twardego od 380 do 700. Sektory utworzone przy użyciu standardowych formaterów mają pojemność 512 bajtów, ale możliwe jest, że ta wartość zmieni się w przyszłości .

Numeracja sektorów na ścieżce zaczyna się od jednego, w przeciwieństwie do głowic i cylindrów, które są liczone od zera. Na przykład 3,5-calowa dyskietka HD (High Density) (pojemność 1,44 MB) zawiera 80 cylindrów, ponumerowanych od 0 do 79, napęd ma dwie głowice (o numerach 0 i 1), a każda ścieżka cylindra jest podzielona na 18 sektory (1-18).

Podczas formatowania dysku na początku i na końcu każdego sektora tworzone są dodatkowe obszary do zapisywania ich numerów, a także inne informacje serwisowe, dzięki którym kontroler identyfikuje początek i koniec sektora. Pozwala to odróżnić niesformatowane i sformatowane pojemności dysków. Po sformatowaniu pojemność dysku maleje, z czym trzeba sobie radzić, gdyż w celu zapewnienia normalnej pracy dysku należy zarezerwować pewną ilość miejsca na dysku na informacje serwisowe.

Na początku każdego sektora zapisywany jest jego nagłówek (lub prefiks - część prefiksu), który określa początek i numer sektora, a na końcu - zakończenie (lub sufiks - część sufiksu), który zawiera sumę kontrolną (suma kontrolna ) niezbędne do sprawdzenia integralności danych . Większość nowych dysków używa tak zwanego wpisu No-ID zamiast nagłówka, który zawiera więcej danych. Oprócz określonych obszarów informacji o usługach, każdy sektor zawiera obszar danych o pojemności 512 bajtów.

Dla jasności wyobraź sobie, że sektory to strony w książce. Każda strona zawiera tekst, ale nie wypełnia on całej przestrzeni strony, ponieważ posiada marginesy (górny, dolny, prawy i lewy). Na marginesach umieszczane są informacje serwisowe, na przykład tytuły rozdziałów (w naszej analogii będą to odpowiadać numerom ścieżek i cylindrów) oraz numery stron (odpowiadające numerom sektorów). Obszary na dysku, podobnie jak pola na stronie, są tworzone podczas formatowania dysku; jednocześnie zapisywane są w nich informacje serwisowe. Ponadto podczas formatowania dysku obszary danych każdego sektora są wypełniane wartościami fikcyjnymi. Formatując płytę, możesz w zwykły sposób zapisywać informacje w obszarze danych. Informacje zawarte w nagłówkach sektorów i konkluzjach nie zmieniają się podczas normalnych operacji zapisu danych. Możesz to zmienić tylko poprzez ponowne sformatowanie dysku.

Formatowanie dysków

Istnieją dwa rodzaje formatowania dysku:

  • formatowanie fizyczne lub niskopoziomowe;
  • Boolean lub formatowanie wysokiego poziomu.

Podczas formatowania dyskietek za pomocą Eksploratora Windows 9x lub polecenia DOS FORMAT wykonywane są obie operacje, ale w przypadku dysków twardych operacje te należy wykonać osobno. Co więcej, w przypadku dysku twardego między dwiema wskazanymi operacjami formatowania wykonywany jest trzeci etap - partycjonowanie dysku. Partycjonowanie jest absolutnie konieczne, jeśli zamierzasz używać wielu systemów operacyjnych na tym samym komputerze. Formatowanie fizyczne jest zawsze takie samo, niezależnie od właściwości systemu operacyjnego i opcji formatowania wysokiego poziomu (które mogą być różne dla różnych systemów operacyjnych). Pozwala to na połączenie kilku systemów operacyjnych na jednym dysku twardym.

Organizując kilka partycji na jednym dysku, każda z nich może służyć do uruchamiania własnego systemu operacyjnego lub reprezentować osobny wolumin (wolumin) lub dysk logiczny (dysk logiczny). Wolumin lub dysk logiczny jest tym, do którego system przypisuje literę dysku.

Tak więc formatowanie dysku twardego odbywa się w trzech krokach.

  1. Formatowanie niskiego poziomu.
  2. Organizacja partycji dyskowych.
  3. Formatowanie wysokiego poziomu.

Formatowanie niskiego poziomu

Podczas procesu formatowania niskiego poziomu ścieżki płyty są dzielone na sektory. Jednocześnie rejestrowane są nagłówki i konkluzje sektorów (przedrostki i przyrostki), a także tworzone są odstępy między sektorami i ścieżkami. Obszar danych każdego sektora jest wypełniony fikcyjnymi wartościami lub specjalnymi testowymi zestawami danych. W napędach dyskietek liczba sektorów na ścieżkę zależy od typu dyskietki i napędu; liczba sektorów na ścieżkę dysku twardego zależy od interfejsu dysku i kontrolera.

Prawie wszystkie dyski IDE i SCSI wykorzystują tak zwane nagrywanie strefowe ze zmienną liczbą sektorów na ścieżkę. Tory, które są bardziej oddalone od centrum, a więc dłuższe, zawierają większą liczbę sektorów niż te położone blisko centrum. Jednym ze sposobów na zwiększenie pojemności dysku twardego jest podzielenie zewnętrznych cylindrów na więcej sektorów niż cylindrów wewnętrznych. Teoretycznie cylindry zewnętrzne mogą zawierać więcej danych, ponieważ mają większy obwód. Jednak w napędach, które nie korzystają z rejestracji strefowej, wszystkie cylindry zawierają tę samą ilość danych, mimo że obwód cylindrów zewnętrznych może być dwa razy większy od obwodów wewnętrznych. W rezultacie marnuje się przestrzeń na tor zewnętrzny, który jest wykorzystywany wyjątkowo nieefektywnie (rys. 7).

W przypadku nagrywania strefowego cylindry są podzielone na grupy zwane strefami, a w miarę zbliżania się do zewnętrznej krawędzi dysku ścieżki są dzielone na coraz większą liczbę sektorów. We wszystkich cylindrach należących do jednej strefy liczba sektorów na torach jest taka sama. Możliwa liczba stref zależy od typu napędu; w większości urządzeń jest ich 10 lub więcej (rys. 8).

Ryż. 7. Standardowe nagrywanie: liczba sektorów jest taka sama na wszystkich ścieżkach Ryż. 8. Nagrywanie strefowe: liczba sektorów na ścieżkach zmienia się w miarę przesuwania się od środka płyty

Inną cechą rejestracji strefowej jest to, że prędkość wymiany danych z napędem może być różna i zależy od strefy, w której głowice znajdują się w danym momencie. Dzieje się tak, ponieważ w strefach zewnętrznych jest więcej sektorów, a kątowa prędkość obrotu dysku jest stała (tzn. liniowa prędkość ruchu sektorów względem głowicy podczas odczytu i zapisu danych na ścieżkach zewnętrznych jest większa niż na wewnętrznych te).

Organizacja partycji dyskowych

Dzieląc dysk na obszary zwane partycjami, w każdym z nich można utworzyć system plików odpowiadający określonemu systemowi operacyjnemu. Obecnie istnieją trzy systemy plików najczęściej używane w systemach operacyjnych.

FAT (File Allocation Table - tabela alokacji plików). Jest to standardowy system plików dla DOS, Windows 9x i Windows NT. W partycjach FAT pod DOS dopuszczalna długość nazw plików to 11 znaków (8 znaków nazwy rzeczywistej i 3 znaki rozszerzenia), a rozmiar woluminu (dysku logicznego) to do 2 GB. W systemach Windows 9x i Windows NT 4.0 i nowszych dozwolona długość nazwy pliku to 255 znaków.

FAT32 (tabela alokacji plików, 32-bitowa - 32-bitowa tabela alokacji plików). Używany z Windows 95 OSR2 (OEM Service Release 2), Windows 98 i Windows 2000. W tabelach FAT 32 komórki lokalizacji odpowiadają 32-bitowym liczbom. Przy takiej strukturze plików rozmiar woluminu (dysku logicznego) może wynosić do 2 TB (2048 GB).

NTFS (system plików Windows NT — system plików Windows NT). Dostępne tylko w systemie operacyjnym Windows NT/2000. Nazwy plików mogą mieć długość do 256 znaków, a rozmiar partycji to (teoretycznie) 16 Ebajtów (16×1018 bajtów). NTFS zapewnia dodatkowe funkcje, których nie zapewniają inne systemy plików, takie jak funkcje zabezpieczeń.

System plików FAT jest obecnie najczęściej używany, ponieważ jest obsługiwany przez większość istniejących systemów operacyjnych.

Partycjonowanie na dysku odbywa się za pomocą programu FDISK dostarczanego z systemem operacyjnym, za pomocą którego można wybrać (zarówno w megabajtach, jak i w procentach) rozmiar partycji podstawowej i dodatkowej. Nie ma twardych i szybkich wskazówek dotyczących tworzenia partycji na dysku - należy wziąć pod uwagę rozmiar dysku, a także system operacyjny, który ma zostać zainstalowany.

Po utworzeniu partycji musisz wykonać formatowanie wysokiego poziomu za pomocą narzędzi systemu operacyjnego.

Formatowanie wysokiego poziomu

Podczas formatowania na wysokim poziomie system operacyjny(Windows 9x, Windows NT lub DOS) tworzy struktury do pracy z plikami i danymi. Każda partycja (dysk logiczny) zawiera sektor startowy woluminu (Volume Boot Sector - VBS), dwie kopie tabeli alokacji plików (FAT) oraz katalog główny (Root Directory). Korzystając z tych struktur danych, system operacyjny przydziela miejsce na dysku, śledzi lokalizację plików, a nawet „omija” wadliwe obszary na dysku, aby uniknąć problemów.

Zasadniczo formatowanie wysokiego poziomu to nie tyle formatowanie, co tworzenie spisu zawartości dysku i tabeli alokacji plików. Prawdziwe formatowanie to formatowanie niskopoziomowe, w którym płyta jest podzielona na ścieżki i sektory. Polecenie FORMAT DOS wykonuje obydwa rodzaje formatowania na dyskietce, a na dysku twardym tylko formatowanie wysokiego poziomu. Aby sformatować dysk twardy na niskim poziomie, potrzebny jest specjalny program, zwykle dostarczany przez producenta dysku.

Główne komponenty dysków twardych

Istnieje wiele różnych typów dysków twardych, ale prawie wszystkie składają się z tych samych podstawowych elementów. Konstrukcje tych jednostek i jakość użytych materiałów mogą się różnić, ale ich podstawowe właściwości użytkowe i zasady działania są takie same. Główne elementy konstrukcyjne typowego dysku twardego (rysunek 9) obejmują:

  • dyski;
  • głowice do odczytu/zapisu;
  • mechanizm napędu głowicy;
  • silnik napędu dysku;
  • płytka drukowana z obwodami sterującymi;
  • kable i złącza;
  • elementy konfiguracyjne (zworki i przełączniki).

Dyski, silnik dysku, głowice i mechanizm napędu głowicy są zwykle umieszczone w szczelnej obudowie zwanej Head Disk Assembly (HDA). Zwykle ten blok jest traktowany jako pojedynczy węzeł; prawie nigdy nie jest otwierany. Inne komponenty, które nie są zawarte w jednostce HDA (płytka drukowana, panel przedni, elementy konfiguracyjne i części montażowe) są zdejmowane.

Dyski

Zazwyczaj napęd zawiera jeden lub więcej dysków magnetycznych. Z biegiem lat ustalono szereg standardowych rozmiarów dysków, które są określane głównie przez rozmiar dysków, a mianowicie:

  • 5,25 cala (w rzeczywistości - 130 mm lub 5,12 cala);
  • 3,5 cala (w rzeczywistości - 95 mm lub 3,74 cala);
  • 2,5 cala (w rzeczywistości - 65 mm lub 2,56 cala);
    • 1 cal (w rzeczywistości - 34 mm lub 1,33 cala).

Są też dyski o większych rozmiarach, np. 8 cali, 14 cali, a nawet więcej, ale z reguły te urządzenia nie są używane w komputerach osobistych. Obecnie dyski 3,5-calowe są najczęściej instalowane w komputerach stacjonarnych i niektórych modelach przenośnych, podczas gdy małe urządzenia (2,5-calowe i mniejsze) są najczęściej instalowane w systemach przenośnych.

Większość dysków jest wyposażona w co najmniej dwa dyski, chociaż niektóre mniejsze modele mogą mieć jeden. Liczba dysków jest ograniczona fizycznymi wymiarami dysku, a mianowicie wysokością jego obudowy. Największa liczba dysków w dyskach 3,5-calowych to 11.

Warstwa robocza dysku

Niezależnie od tego, jaki materiał jest używany jako podstawa dysku, jest on pokryty cienką warstwą substancji zdolnej do zatrzymywania szczątkowego namagnesowania po ekspozycji na zewnętrzne pole magnetyczne. Warstwa ta nazywana jest warstwą roboczą lub magnetyczną i to w niej przechowywane są zapisane informacje. Najczęściej spotykane są dwa rodzaje warstwy roboczej:

  • tlenek;
  • cienki film.

Warstwa tlenkowa to powłoka polimerowa wypełniona tlenkiem żelaza.

Cienkowarstwowa warstwa robocza ma mniejszą grubość, jest mocniejsza, a jakość jej pokrycia znacznie wyższa. Technologia ta stała się podstawą do produkcji nowej generacji napędów, w której udało się znacznie zmniejszyć szczelinę między głowicami a powierzchniami dysków, co pozwoliło na zwiększenie gęstości zapisu.

Warstwa robocza ocynkowana cienkowarstwowo otrzymywana jest w procesie elektrolizy. Dzieje się to w podobny sposób, jak przy chromowaniu zderzaka samochodu. Aluminiowe podłoże dysku jest kolejno zanurzane w kąpielach z różnymi roztworami, w wyniku czego pokrywa się go kilkoma warstwami metalowej folii. Warstwa robocza to warstwa stopu kobaltu o grubości zaledwie około 1 mikrocala (około 0,025 mikrona).

Głowice do odczytu/zapisu

Dyski twarde mają własną głowicę odczytu/zapisu po każdej stronie każdego dysku. Wszystkie głowice są zamontowane na wspólnej ruchomej ramie i poruszają się jednocześnie.

Na ryc. 10 przedstawia typową konstrukcję mechanizmu uruchamiającego z ruchomą cewką.

Gdy napęd jest wyłączony, głowice dotykają dysków pod działaniem sprężyn. Podczas wirowania dysków zwiększa się ciśnienie aerodynamiczne pod głowicami i odrywają się one od powierzchni roboczych („startuj”). Gdy dysk obraca się z pełną prędkością, odstęp między nim a głowicami może wynosić 0,5–5 mikrocali (0,01–0,5 µm) lub nawet więcej.


Ryż. 10. Głowice do odczytu/zapisu i napęd obrotowy z ruchomą cewką

Mechanizmy napędowe

Być może nawet ważniejszy od samych głów jest mechanizm, który utrzymuje je w pozycji, zwany napędem. To za jego pomocą głowice przesuwają się od środka do krawędzi dysku i są montowane na danym cylindrze. Istnieje wiele konstrukcji mechanizmów wykonawczych, ale można je podzielić na dwa główne typy:

  • z silnikiem krokowym;
  • z ruchomą cewką.

Rodzaj napędu w dużej mierze determinuje szybkość i niezawodność napędu, niezawodność odczytu danych, jego stabilność temperaturową, wrażliwość na wybór pozycji pracy i wibracje. Powiedzmy od razu, że napędy z silnikami krokowymi są znacznie mniej niezawodne niż urządzenia z napędami z ruchomą cewką.

Napęd silnika krokowego

Silnik krokowy to silnik elektryczny, którego wirnik może obracać się tylko krokowo, tj. pod ściśle określonym kątem. Jeśli ręcznie obrócisz wałek, usłyszysz miękkie kliknięcia (lub trzaski podczas szybkiego obracania), które pojawiają się za każdym razem, gdy wirnik przechodzi przez następną stałą pozycję.

Ruchoma cewka napędowa

Napęd z ruchomą cewką jest stosowany w prawie wszystkich nowoczesnych napędach. W przeciwieństwie do systemów silników krokowych, w których głowice poruszają się na ślepo, napęd z ruchomą cewką wykorzystuje sygnał sprzężenia zwrotnego, dzięki czemu pozycje głowic względem torów można precyzyjnie określić i w razie potrzeby skorygować. Taki system pozwala na większą prędkość, dokładność i niezawodność niż tradycyjny napęd z silnikiem krokowym.

Napęd z ruchomą cewką działa na zasadzie elektromagnetyzmu. Istnieją dwa rodzaje siłowników z ruchomą cewką:

  • liniowy;
  • obrócenie.

Te typy różnią się jedynie fizycznym rozmieszczeniem magnesów i cewek.

Napęd liniowy porusza głowice w linii prostej, ściśle wzdłuż linii promienia dysku. Cewki znajdują się w szczelinach magnesów trwałych. Główną zaletą napędu liniowego jest to, że podczas jego użytkowania nie występują błędy azymutu charakterystyczne dla napędu obrotowego. (Azymut odnosi się do kąta między płaszczyzną szczeliny roboczej głowicy a kierunkiem ścieżki zapisu.) Podczas przechodzenia z jednego cylindra do drugiego głowice nie obracają się, a ich azymut się nie zmienia.

Napęd liniowy ma jednak istotną wadę: jego konstrukcja jest zbyt masywna. Aby zwiększyć wydajność napędu, musisz zmniejszyć masę mechanizmu napędowego i samych głowic. Im lżejszy mechanizm, tym większe przyspieszenie może przenosić z jednego cylindra na drugi. Napędy liniowe są znacznie cięższe od napędów obrotowych, dlatego nie są stosowane w nowoczesnych napędach.

Napęd obrotowy działa na tej samej zasadzie co napęd liniowy, ale w nim końce dźwigni głowicy są przymocowane do ruchomej cewki. Gdy cewka porusza się względem magnesu stałego, dźwignie ruchu głowicy obracają się, przesuwając głowice w kierunku osi lub w kierunku krawędzi dysków. Ze względu na niewielką masę taka konstrukcja może poruszać się z dużymi przyspieszeniami, co może znacznie skrócić czas dostępu do danych. Szybki ruch głowic ułatwia również fakt, że ramiona dźwigni są wykonane inaczej: to, na którym mocowane są głowice, jest dłuższe.

Wadą tego napędu jest to, że głowice obracają się podczas przechodzenia z cylindrów zewnętrznych do wewnętrznych oraz zmienia się kąt pomiędzy płaszczyzną szczeliny magnetycznej głowicy a kierunkiem toru. Dlatego szerokość obszaru roboczego dysku (obszar, w którym znajdują się ścieżki) jest często ograniczona (tak, aby nieuniknione błędy azymutalne pozostały w dopuszczalnych granicach). Obecnie napęd obrotowy jest stosowany w prawie wszystkich urządzeniach magazynujących z ruchomą cewką.

Automatyczne parkowanie głowy

Po wyłączeniu zasilania dźwignie z głowicami opuszczają się na powierzchnie dysków. Dyski są w stanie wytrzymać tysiące „wzlotów i upadków” głowic, ale pożądane jest, aby występowały na specjalnie zaprojektowanych obszarach powierzchni dysków, na których nie są zapisywane dane. Podczas tych startów i lądowań dochodzi do zużycia (ścierania) warstwy roboczej, ponieważ „chmury pyłu” składające się z cząstek warstwy roboczej nośnika wylatują spod głów; jeśli napęd zostanie wstrząśnięty podczas startu lub lądowania, prawdopodobieństwo uszkodzenia głowic i dysków znacznie wzrośnie.

Jedną z zalet napędu z ruchomą cewką jest automatyczne parkowanie głowic. Gdy zasilanie jest włączone, głowice są ustawiane i utrzymywane na miejscu dzięki interakcji pól magnetycznych ruchomej cewki i magnesu trwałego. Po wyłączeniu zasilania pole trzymające głowice nad konkretnym cylindrem zanika, a one zaczynają ślizgać się w niekontrolowany sposób po powierzchniach dysków, które jeszcze się nie zatrzymały, co może spowodować uszkodzenia. Aby zapobiec ewentualnemu uszkodzeniu napędu, zespół głowicy obrotowej połączony jest ze sprężyną powrotną. Gdy komputer jest włączony, siła magnetyczna zwykle przeważa nad siłą sprężyny. Ale kiedy zasilanie jest wyłączone, sprężyny przesuwają głowice w strefę parkowania, zanim dyski się zatrzymają. Wraz ze spadkiem prędkości obrotowej tarcz, głowice „lądują” z charakterystycznym trzaskiem w tej właśnie strefie. Tak więc, aby aktywować mechanizm parkowania głowicy w napędach z ruchomą cewką, wystarczy wyłączyć komputer; nie jest do tego potrzebne żadne specjalne oprogramowanie. W przypadku nagłej awarii zasilania głowice parkują automatycznie.

Silnik napędu tarczowego

Silnik napędzający tarcze jest często nazywany wrzecionem. Silnik wrzeciona jest zawsze połączony z osią obrotu tarcz, nie stosuje się do tego pasków napędowych ani kół zębatych. Silnik musi być cichy: wszelkie wibracje są przenoszone na płyty i mogą prowadzić do błędów odczytu i zapisu.

Prędkość obrotowa silnika musi być ściśle określona. Zwykle waha się od 3600 do 7200 obr./min lub więcej i jest stabilizowany za pomocą obwodu sterowania silnikiem w pętli zamkniętej (automatycznego dostrajania), aby osiągnąć wysoką dokładność.

Tablica sterowania

Każdy dysk, w tym dyski twarde, ma co najmniej jedną płytę. Zamontowany na nim elektroniczne obwody do sterowania silnikiem wrzeciona i głowicami napędowymi, a także do wymiany danych ze sterownikiem (przedstawionych w określonej formie). W napędach IDE kontroler jest instalowany bezpośrednio w napędzie, natomiast w przypadku SCSI należy użyć dodatkowej karty rozszerzeń.

Kable napędowe i złącza

Większość dysków twardych ma wiele złączy interfejsu do podłączenia do systemu, zasilania, a czasem uziemienia obudowy. Większość dysków twardych ma co najmniej trzy rodzaje złączy:

  • złącze interfejsu (lub złącza);
  • złącze zasilania;

Złącza interfejsu mają największe znaczenie, ponieważ przesyłają dane i polecenia do iz napędu. Wiele standardów interfejsów umożliwia podłączenie wielu napędów do jednego kabla (magistrali). Oczywiście w tym przypadku powinny być co najmniej dwa z nich; v Interfejs SCSI do jednego kabla można podłączyć do siedmiu dysków (Wide SCSI-2 obsługuje do 15 urządzeń). Niektóre standardy (takie jak ST-506/412 lub ESDI) zapewniają oddzielne złącza dla danych i sygnałów sterujących, więc napęd i kontroler są połączone dwoma kablami, ale większość nowoczesnych urządzeń ISE i SCSI jest podłączonych za pomocą jednego kabla.

Złącza zasilania dysku twardego są zwykle takie same jak napędy dyskietek. Większość dysków korzysta z dwóch napięć (5 V i 12 V), ale mniejsze modele przeznaczone do laptopów używają 5 V.

Specyfikacje dysku twardego

Jeśli chcesz kupić nowy dysk lub po prostu chcesz poznać różnice między różnymi rodzinami produktów, porównaj ich specyfikacje. Poniżej znajdują się kryteria, według których zwykle ocenia się jakość dysków twardych.

  • Niezawodność.
  • wydajność.
  • Zawieszenie antywstrząsowe.
  • Cena £.

Niezawodność

W opisach napędów można znaleźć taki parametr jak średni czas między awariami (Mean Time Between Failures - MTBF), który zwykle waha się od 20 do 500 tys. godzin lub więcej. Nigdy nie zwracam uwagi na te liczby, ponieważ są one czysto teoretyczne.

SPRYTNY. (Self-Monitoring, Analysis and Reporting Technology) to nowy standard branżowy opisujący metody przewidywania występowania błędów dysku twardego. Kiedy S.M.A.R.T. dysk twardy zaczyna monitorować pewne parametry, które są wrażliwe na awarie dysku lub je sygnalizować. W wyniku tego monitorowania można przewidzieć awarie dysków.

Wydajność

Ważnym parametrem dysku twardego jest jego prędkość. Ten parametr dla różnych modeli może się znacznie różnić. I jak to często bywa, najlepszą miarą wydajności dysku jest jego cena. Wydajność napędu można ocenić za pomocą dwóch parametrów:

  • średni czas wyszukiwania;
  • prędkość przesyłu danych.

Średni czas wyszukiwania, mierzony w milisekundach, oznacza średni czas przejścia głowic z jednego cylindra do drugiego (a odległość między tymi cylindrami może być dowolna). Ten parametr można zmierzyć wykonując odpowiednią liczbę operacji wyszukiwania dla losowo wybranych ścieżek, a następnie dzieląc całkowity czas poświęcony na tę procedurę przez liczbę wykonanych operacji. Wynikiem będzie średni czas pojedynczego wyszukiwania.

Cena £

Ostatnio „koszt jednostkowy” dysków twardych spadł do 2 centów za megabajt (a nawet niższy). Koszt dysków stale spada, a po pewnym czasie poczujesz, że nawet pół centa za megabajt jest zbyt drogie. To właśnie ze względu na obniżkę ceny dyski o pojemności poniżej 1 GB praktycznie nie są obecnie produkowane, a najlepszym wyborem będzie dysk o pojemności powyżej 10 GB.

  • pojemność surowa w milionach bajtów;
  • sformatowana pojemność w milionach bajtów;
  • pojemność pierwotna w megabajtach (MB);
  • sformatowana pojemność w megabajtach (MB).

Pytania do samokontroli

  1. Co to jest dyskietka?
  2. Jaka jest istota magnetycznego kodowania informacji binarnych?
  3. Jak działają dyskietki i dyski twarde?
  4. Jakie są zalety i wady napędów CD?

Grebenyuk E.I., Grebenyuk N.A. Techniczne środki informatyzacji Wydawnictwo "Akademia" - Moskwa, 2007 /s.51-82/

Nośnikiem informacji (nośnikiem informacji) jest każdy materialny przedmiot używany przez osobę do przechowywania informacji. Może to być np. kamień, drewno, papier, metal, tworzywa sztuczne, krzem (i inne rodzaje półprzewodników), taśma z warstwą namagnesowaną (w rolkach i kasetach), materiał fotograficzny, tworzywa sztuczne o specjalnych właściwościach (np. dysków optycznych) itp., itp.

Nośnikiem informacji może być dowolny obiekt, z którego możliwe jest odczytanie (odczytanie) dostępnych na nim informacji.

Nośniki informacji służą do:

  • dokumentacja;
  • przechowywanie;
  • czytanie;
  • przekazywanie (rozpowszechnianie) informacji.

Często sam nośnik informacji umieszczony jest w powłoce ochronnej, co zwiększa jego bezpieczeństwo, a tym samym niezawodność przechowywania informacji (np. kartki papieru są umieszczone w okładce, chip pamięci jest umieszczony w plastiku (karta inteligentna), taśma magnetyczna jest umieszczona w etui itp.) .

Nośniki elektroniczne obejmują nośniki do pojedynczego lub wielokrotnego zapisu (zwykle cyfrowe) za pomocą środków elektrycznych:

  • dyski optyczne (CD-ROM, DVD-ROM, Blu-ray Disc);
  • półprzewodnik (pamięć flash, dyskietki itp.);
  • dyski CD (CD - Compact Disk, CD), które mogą zawierać do 700 MB informacji;
  • dyski DVD (DVD - Digital Versatile Disk, digital universal disk), które mają znacznie większą pojemność informacyjną (4,7 GB), ponieważ ścieżki optyczne na nich są cieńsze i gęściej rozmieszczone;
  • Płyty HR DVD i Blu-ray o pojemności od 3 do 5 razy większej niż płyty DVD przy użyciu niebieskiego lasera 405 nanometrów.

Media elektroniczne mają znaczną przewagę nad mediami papierowymi (arkusze, gazety, czasopisma):

  • według objętości (rozmiaru) przechowywanych informacji;
  • według jednostkowego kosztu przechowywania;
  • pod względem opłacalności i skuteczności w dostarczaniu aktualności (przeznaczone dla nie przechowywanie długoterminowe) Informacja;
  • w miarę możliwości udzielać informacji w dogodnej dla konsumenta formie (formatowanie, sortowanie).

Są też wady:

  • kruchość urządzeń do czytania;
  • waga (masa) (w niektórych przypadkach);
  • zależność od źródeł zasilania;
  • potrzeba czytelnika / pisarza dla każdego rodzaju i formatu mediów.

Dysk twardy lub HDD (angielski dysk twardy (magnetyczny), HDD, HMDD), dysk twardy to urządzenie pamięci masowej (urządzenie do przechowywania informacji) oparte na zasadzie zapisu magnetycznego. Jest to główny nośnik pamięci w większości komputerów.

W przeciwieństwie do dysku „elastycznego” (dyskietki), informacje na dysku twardym są zapisywane na twardych płytach pokrytych warstwą materiału ferromagnetycznego – dyskach magnetycznych. HDD wykorzystuje jeden lub więcej talerzy na tej samej osi. Głowice czytające w trybie pracy nie dotykają powierzchni płytek dzięki warstwie przepływu powietrza powstającej przy powierzchni podczas szybkiego obrotu. Odległość między głowicą a dyskiem wynosi kilka nanometrów (w nowoczesnych dyskach około 10 nm), a brak kontaktu mechanicznego zapewnia długą żywotność urządzenia. W przypadku braku rotacji dysku głowice znajdują się na wrzecionie lub poza dyskiem w strefie bezpiecznej ("parkowania"), gdzie wykluczony jest ich nienormalny kontakt z powierzchnią dysków.

Ponadto, w przeciwieństwie do dyskietki, nośnik pamięci jest zwykle łączony z napędem, napędem i jednostką elektroniczną. Takie dyski twarde są często używane jako niewymienne nośniki pamięci.

Dyski optyczne (laserowe) są obecnie najpopularniejszymi nośnikami danych. Wykorzystują optyczną zasadę zapisu i odczytu informacji za pomocą wiązki laserowej.

Płyty DVD mogą być dwuwarstwowe (pojemność 8,5 GB), a obie warstwy mają odblaskową powierzchnię, na której znajdują się informacje. Ponadto pojemność informacyjna płyt DVD może zostać podwojona (do 17 GB), ponieważ informacje mogą być zapisywane po obu stronach.

Napędy optyczne dzielą się na trzy typy:

  • bez możliwości zapisu - CD-ROM i DVD-ROM (ROM - Read Only Memory, read-only memory). Na Płyty CD-R OM i DVD-ROM przechowują informacje, które zostały do ​​nich zapisane podczas procesu produkcyjnego. Zapisanie do nich nowych informacji nie jest możliwe;
  • z pojedynczym zapisem i wielokrotnym odczytem - CD-R i DVD ± R (R - zapisywalny, zapisywalny). Na płytach CD-R i DVD±R informacje można nagrać, ale tylko raz;
  • wielokrotnego zapisu - CD-RW i DVD ± RW (RW - wielokrotnego zapisu, wielokrotnego zapisu). Informacje na płytach CD-RW i DVD±RW można wielokrotnie zapisywać i usuwać.

Główne cechy napędów optycznych:

  • pojemność płyty (CD - do 700 MB, DVD - do 17 GB)
  • szybkość przesyłania danych z nośnika do pamięci RAM - mierzona w ułamkach wielokrotności prędkości 150 Kb/s dla napędów CD;
  • czas dostępu - czas potrzebny na wyszukanie informacji na dysku, mierzony w milisekundach (dla CD 80-400 ms).

Obecnie szeroko stosowane są napędy CD o prędkości 52x – do 7,8 MB/s. Płyty CD-RW są nagrywane z mniejszą szybkością (na przykład 32x). Dlatego napędy CD są oznaczone trzema liczbami „prędkość odczytu x prędkość zapisu CD-R x prędkość zapisu CD-RW” (na przykład „52x52x32”).
Napędy DVD są również oznaczone trzema numerami (na przykład „16x8x6”).

Jeśli przestrzegane są zasady przechowywania (przechowywanie w skrzynkach w pozycji pionowej) i eksploatacji (bez zarysowań i zabrudzeń), nośniki optyczne mogą przechowywać informacje przez dziesięciolecia.

Pamięć flash odnosi się do półprzewodników z reprogramowalną elektrycznie pamięcią (EEPROM). Ze względu na rozwiązania techniczne, niski koszt, dużą objętość, niskie zużycie energii, dużą szybkość, zwartość i wytrzymałość mechaniczną, pamięć flash jest wbudowana w cyfrowe urządzenia przenośne i nośniki danych. Główną zaletą tego urządzenia jest to, że jest nieulotne i nie potrzebuje prądu do przechowywania danych. Wszystkie informacje przechowywane w pamięci flash można odczytać nieskończoną ilość razy, ale liczba pełnych cykli zapisu jest niestety ograniczona.

Pamięć flash ma swoje zalety przed innymi napędami (dyski twarde i napędy optyczne), a także jego niedociągnięcia, z którymi można się zapoznać z poniższej tabeli.

Typ napędu Zalety Wady
dysk twardy Duża ilość przechowywanych informacji. Wysoka prędkość. Niski koszt przechowywania danych (za 1 MB) Duże wymiary. Wrażliwość na wibracje. Hałas. Rozpraszanie ciepła
dysk optyczny Łatwość transportu. Tanie przechowywanie informacji. Możliwość replikacji Mała objętość. Potrzebujesz czytelnika. Ograniczenia operacji (czytanie, pisanie). Niska prędkość. Wrażliwość na wibracje. Hałas
Pamięć flash Szybki dostęp do danych. Ekonomiczne zużycie energii. Odporny na wibracje. Łatwość podłączenia do komputera. Kompaktowe wymiary Ograniczona liczba cykli zapisu

Pierwszym magnetycznym nośnikiem zapisu, który był stosowany w urządzeniach Poulsena na przełomie XIX i XX wieku, był drut stalowy o średnicy do 1 mm. Na początku XX wieku wykorzystywano w tym celu również rolowaną taśmę stalową. W tym samym czasie (w 1906 r.) wydano pierwszy patent na dysk magnetyczny. Jednak cechy jakościowe wszystkich tych nośników były bardzo niskie. Dość powiedzieć, że wykonanie 14-godzinnego zapisu magnetycznego raportów na Międzynarodowym Kongresie w Kopenhadze w 1908 roku wymagało 2500 km, czyli około 100 kg drutu.

Dopiero w drugiej połowie lat dwudziestych XX wieku, kiedy wynaleziono proszkową taśmę magnetyczną, zapis magnetyczny zaczął być szeroko stosowany. Początkowo proszek magnetyczny osadzano na podłożu papierowym, następnie na octanie celulozy, aż do zastosowania jako podłoża materiału z politereftalanu etylenu o wysokiej wytrzymałości (lavsan). Poprawiono również jakość proszku magnetycznego. W szczególności zaczęto stosować proszki tlenku żelaza z dodatkiem kobaltu, metaliczne proszki magnetyczne żelaza i jego stopów, co umożliwiło kilkukrotne zwiększenie gęstości zapisu.

W 1963 roku firma Philips opracowała tak zwane nagrywanie kasetowe, co umożliwiło stosowanie bardzo cienkich taśm magnetycznych. W kasetach kompaktowych maksymalna grubość taśmy wynosi tylko 20 µm przy szerokości 3,81 mm. Pod koniec lat 70. pojawiły się mikrokasety o wymiarach 50 x 33 x 8 mm, a w połowie lat 80. XX wieku. - pikokasety - trzy razy mniej niż mikrokasety.

Od początku lat 60. Dyski magnetyczne są szeroko stosowane - przede wszystkim w komputerowych urządzeniach do przechowywania danych. Dysk magnetyczny to dysk aluminiowy lub plastikowy o średnicy od 30 do 350 mm, pokryty warstwą roboczą proszku magnetycznego o grubości kilku mikronów. W napędzie dyskowym, podobnie jak w magnetofonie, informacje są rejestrowane za pomocą głowicy magnetycznej, tylko nie wzdłuż taśmy, ale na koncentrycznych ścieżkach magnetycznych znajdujących się na powierzchni wirującego dysku, zwykle po obu stronach. Dyski magnetyczne są twarde i elastyczne, wymienne i wbudowane w komputer osobisty. Ich głównymi cechami są: pojemność informacji, czas dostępu do informacji oraz szybkość czytania z rzędu.

Aluminiowe dyski magnetyczne - dyski twarde (hard drive) niewymienne - są strukturalnie połączone w komputerze w jedną jednostkę z dyskiem twardym. Ułożone są w pakiety (stosy) od 4 do 16 sztuk. Zapis danych na twardym dysku magnetycznym, a także odczyt odbywa się z prędkością do 7200 obr./min. Pojemność dysku sięga ponad 9 GB. Nośniki te są przeznaczone do trwałego przechowywania informacji, które są wykorzystywane podczas pracy z komputerem (oprogramowanie systemowe, pakiety aplikacji itp.).

Elastyczne plastikowe dyski magnetyczne (dyskietki, z angielskiego dyskietki - swobodnie wiszące) wykonane są z elastycznego tworzywa sztucznego (dakronu) i umieszczane są pojedynczo w specjalnych plastikowych kasetach. Kaseta dyskietek nazywana jest dyskietką. Najczęściej spotykane dyskietki mają średnice 3,5" i 5,25". Pojemność jednej dyskietki wynosi zwykle od 1,0 do 2,0 MB. Opracowano już jednak 3,5-calową dyskietkę o pojemności 120 MB. Dodatkowo produkowane są dyskietki przeznaczone do pracy w warunkach zwiększonego zapylenia i wilgotności.

Powszechne zastosowanie, głównie w systemach bankowych, znalazło tzw plastikowe karty, czyli urządzenia do magnetycznego sposobu przechowywania informacji i zarządzania danymi. Są dwojakiego rodzaju: proste i inteligentne. W prostych kartach jest tylko pamięć magnetyczna, która pozwala na wprowadzanie danych i ich zmianę. W kartach inteligentnych, które są czasami nazywane kartami inteligentnymi (z angielskiego. mądry - mądry), oprócz pamięci wbudowany jest również mikroprocesor. Umożliwia wykonanie niezbędnych obliczeń oraz sprawia, że ​​karty plastikowe stają się wielofunkcyjne.

Należy zauważyć, że oprócz magnetycznego istnieją inne sposoby zapisu informacji na karcie: zapis graficzny, tłoczenie (wytłaczanie mechaniczne), kodowanie kreskowe, a od 1981 roku także zapis laserowy (na specjalnej karcie laserowej, która umożliwia do przechowywania informacji o dużej objętości, ale nadal bardzo drogie).

Do nagrywania dźwięku w dyktafonach cyfrowych stosuje się w szczególności minikarty, które mają podobieństwo do dyskietek o pojemności pamięci 2 lub 4 MB i umożliwiają nagrywanie przez 1 godzinę.

Obecnie materiałowe magnetyczne nośniki zapisu są klasyfikowane:

według kształtu geometrycznego i rozmiaru (kształt taśmy, dysku, karty itp.);

przez wewnętrzną strukturę nośnika (dwie lub więcej warstw różnych materiałów);

zgodnie z metodą zapisu magnetycznego (nośniki do zapisu wzdłużnego i prostopadłego);

według rodzaju rejestrowanego sygnału (do rejestracji bezpośredniej sygnałów analogowych, do rejestracji modulacyjnej, do rejestracji cyfrowej).

Technologie i nośniki materialne zapisu magnetycznego są stale udoskonalane. W szczególności występuje tendencja do zwiększania gęstości zapisu informacji na dyskach magnetycznych wraz ze spadkiem ich rozmiaru oraz spadkiem średniego czasu dostępu do informacji.

Wysyłanie dobrej pracy do bazy wiedzy jest proste. Skorzystaj z poniższego formularza

Studenci, doktoranci, młodzi naukowcy korzystający z bazy wiedzy w swoich studiach i pracy będą Ci bardzo wdzięczni.

Wysłany dnia http://www.allbest.ru/

Wysłany dnia http://www.allbest.ru/

KURS PRACA

NOŚNIKI MAGNETYCZNE I OPTYCZNE ORAZ MOŻLIWOŚCI ICH WYKORZYSTANIA W PRAKTYCE ORGANIZACJI

Wstęp

Wniosek

Lista wykorzystanych źródeł i literatury

Wstęp

Znaczenie

Społeczeństwo informacyjne charakteryzuje się wieloma cechami, z których jedną jest to, że informacja staje się najważniejszym czynnikiem rozwoju społeczeństwa.

Zachowanie, rozwój i racjonalne wykorzystanie zasobu dokumentalnego ma ogromne znaczenie dla każdego społeczeństwa i państwa.

Charakterystyczną cechą dzisiejszego etapu rozwoju człowieka jest prezentacja informacji nie tylko w formie drukowanej i innych form analogowych, ale także w formie elektronicznej, cyfrowej, co umożliwia tworzenie, przechowywanie, organizowanie dostępu i korzystanie z dokumentów elektronicznych w zasadniczo odmiennym sposób.

W przyrodzie naturalnym nośnikiem informacji jest pamięć ludzka. A jednak od czasów starożytnych człowiek używał obcych środków pomocniczych do przechowywania informacji, które na początku były najbardziej prymitywne (kamienie, gałęzie, pióra, koraliki). Historycznymi kamieniami milowymi w rozwoju nośników informacji było stworzenie pisma, wynalezienie najpierw papirusu, potem pergaminu i papieru, a następnie druku.

W naszych czasach liczba nośników materiałów znacznie wzrosła. Jedno pozostaje niezmienione wymagania dotyczące przechowywania, a także ilość przechowywanych informacji wraz z rozwojem ludzkości tylko wzrasta, a dokładny czas, w którym informacje ulegną amortyzacji, z reguły nie jest znany.

W rezultacie społeczeństwo stara się zawsze wybierać najlepsze media, aby zachować ważne informacje. Ale czy tak łatwo wybrać nośnik materiału?

Celem pracy jest scharakteryzowanie dokumentów magnetycznych i optycznych, a także uzasadnienie ich wykorzystania w pracy organizacji.

Przedmiot studiów: dokumenty magnetyczne i optyczne.

Przedmiot studiów: wykorzystanie dokumentów magnetycznych i optycznych w pracy organizacji.

1. Sposoby przechowywania informacji

1.1 Najstarsze sposoby przechowywania informacji

Pierwszymi nośnikami informacji były ściany jaskiń w epoce paleolitu. Początkowo ludzie malowali na ścianach jaskiń, kamieniach i skałach, takie rysunki i napisy nazywane są petroglifami. Najstarsze ryty naskalne i petroglify (z greckiego petros - kamień i glif - rzeźba) przedstawiały zwierzęta, polowania i sceny domowe. Wśród najstarszych obrazów na ścianach jaskiń epoki paleolitu są odciski rąk ludzkich i przypadkowe sploty falistych linii, wciśniętych w mokrą glinę palcami tej samej ręki. Warto zauważyć, jak żywe, żywe były wizerunki zwierząt w jaskiniach późnego okresu starożytnej epoki kamienia. Ich twórcy doskonale zdawali sobie sprawę z zachowań zwierząt, ich zwyczajów. Zauważyli w swoich ruchach takie linie, które wymykają się współczesnemu obserwatorowi. Warto zauważyć, że starożytni mistrzowie, przedstawiając zwierzęta, wykorzystywali nieregularności skalne, zagłębienia i występy do modelowania ich ciał, przypominających zarysy postaci. Obraz jakby nie oderwał się jeszcze od otaczającej go przestrzeni, nie usamodzielnił się.

Ludzie starożytnej epoki kamienia nie znali ornamentu. Na wykonanych z kości wizerunkach zwierząt i ludzi widoczne są niekiedy rytmicznie powtarzające się kreski lub zygzaki, przypominające ornament. Ale przyglądając się uważnie, widzisz, że jest to symbol wełny, ptasich piór lub włosów. Tak jak wizerunek zwierzęcia „kontynuuje” skaliste tło, tak te ornamentopodobne motywy nie stały się jeszcze samodzielnymi, warunkowymi figurami oddzielonymi od rzeczy, które można nałożyć na dowolną powierzchnię. Należy przypuszczać, że najstarsze nośniki informacji służyły nie tylko jako prosta dekoracja, ale malowidła naskalne miały służyć przekazywaniu informacji lub łączyć te funkcje.

Jednym z pierwszych dostępnych materiałów była glina. Glina jest materialnym nośnikiem znaków pisemnych, który miał wystarczającą wytrzymałość (bezpieczeństwo informacji), poza tym była tania i łatwo dostępna, a plastyczność, łatwość zapisu pozwalała zwiększyć efektywność zapisu, można było łatwo, wyraźnie i wyraźnie przedstawiają znaki pisania. Naturalny materiał pisarski znaleźli starożytni mieszkańcy Mezopotamii, żyjący na samym południu tego kraju - Sumerowie. Głównym bogactwem naturalnym tego regionu była glina: miejscowi mieszkańcy budowali z niej swoje domostwa, świątynie bogów, robili z niej naczynia, lampy i trumny. Według starożytnego mitu sumeryjskiego nawet człowiek został stworzony z gliny. Zasoby tego materiału były praktycznie niewyczerpane. Dlatego w rejonie południowej Mezopotamii gliniane tabliczki stały się materialnym nośnikiem znaków pisma, które były tu szeroko stosowane już na początku III tysiąclecia p.n.e. mi.

Umiejętność skutecznego pisania przyczynia się do powstania pisma. Ponad pięć tysięcy lat temu (osiągnięcie cywilizacji sumeryjskiej, terytorium współczesnego Iraku) pojawiło się pismo na glinie (już nie rysunki, ale ikony i piktogramy podobne do liter).

Tabliczki gliniane stały się materialną podstawą dla wysoko rozwiniętego pisma. W drugiej połowie III tysiąclecia p.n.e. mi. w literaturze sumeryjskiej reprezentowano szeroką gamę gatunków: mity i epickie opowieści wierszem, hymny do bogów, nauki, bajki o zwierzętach, przysłowia i powiedzenia. Amerykański sumerolog Samuel Cramer miał szczęście otworzyć najstarszy na świecie „katalog biblioteczny”, umieszczony na tablicy o długości 6,5 cm i szerokości około 3,5 cm. Pisarzowi udało się na tej malutkiej tabliczce zapisać nazwiska 62 dzieł literackich. „Co najmniej 24 tytuły z tego katalogu odnoszą się do dzieł, które częściowo lub całkowicie do nas dotarły” – pisze S.Ya. Kramera.

Bardziej przystępny materiał do pisania został wynaleziony w starożytnym Rzymie. Były to specjalne woskowe tabletki, których ludzkość używa od ponad 1500 lat. Tabletki te zostały przygotowane z drewna lub kości słoniowej. Od krawędzi deski w odległości 1-2 cm zrobiono wgłębienie o 0,5-1 cm, a następnie wypełniono je woskiem na całym obwodzie. Pisali na tabliczce, nanosząc na wosk znaki ostrym metalowym patyczkiem - rylcem, który był zaostrzony z jednej strony, a jego drugi koniec miał kształt szpatułki i mógł wymazać napis. Takie woskowe płytki były składane z woskiem wewnątrz i łączone w dwa (dyptyk) lub trzy (tryptyk) kawałki lub kilka kawałków skórzanym paskiem (poliptyk) i uzyskano książkę, prototyp średniowiecznych kodów i dalekiego przodka książek nowożytnych. W starożytnym świecie i średniowieczu woskowe tabliczki były używane jako zeszyty, do notatek domowych i do nauki pisania dzieci. W Rosji istniały podobne woskowane tabliczki i nazywano je tserami.

W gorącym klimacie zapisy na tabliczkach woskowych były krótkotrwałe, ale niektóre z oryginalnych tabliczek woskowych przetrwały do ​​dziś (na przykład z zapisami królów francuskich). Z carów rosyjskich zachował się tzw. kodeks nowogrodzki z XI wieku. - To jest poliptyk składający się z czterech woskowych stron.

Ogromnym krokiem naprzód było użycie papirusu, wprowadzonego przez starożytnych Egipcjan. Najstarszy zwój papirusu pochodzi z 25 wieku p.n.e. mi. Później Grecy i Rzymianie przyjęli pismo papirusowe od Egipcjan. Napisali na nim specjalnym długopisem.

Papirus to materiał piśmienniczy rozpowszechniony w Egipcie i całym basenie Morza Śródziemnego, do produkcji którego użyto rośliny z rodziny turzyc.

Surowcem do produkcji papirusu była trzcina rosnąca w dolinie Nilu. Łodygi papirusu zostały obrane, rdzeń pocięty wzdłuż na cienkie paski. Powstałe paski układano na zakładkę na płaskiej powierzchni. Kolejną warstwę pasków ułożono na nich pod kątem prostym i ułożono pod dużym gładkim kamieniem, a następnie pozostawiono pod palącym słońcem. Po wyschnięciu arkusz papirusu został wypolerowany i wygładzony muszlą lub kawałkiem kości słoniowej. Arkusze w swojej ostatecznej formie wyglądały jak długie wstążki i dlatego utrwalane były w zwojach, a później łączono je w księgi.

W starożytności papirus był głównym materiałem pisarskim w całym świecie grecko-rzymskim. Produkcja papirusu w Egipcie była bardzo duża. Mimo wszystkich swoich dobrych właściwości papirus był nadal delikatnym materiałem. Zwojów papirusu nie można było przechowywać dłużej niż 200 lat. Papirusy przetrwały do ​​dziś tylko w Egipcie, wyłącznie dzięki unikalnemu klimatowi tego obszaru.

Jako materialny nośnik informacji papirus był używany nie tylko w starożytnym Egipcie, ale także w innych krajach basenu Morza Śródziemnego oraz w Europie Zachodniej - aż do XI wieku. A ostatnim historycznym dokumentem spisanym na papirusie było przesłanie Papieża z początku XX wieku.

Wadą tego nośnika było to, że z czasem ciemniało i pękało. Dodatkową wadą było to, że Egipcjanie nałożyli zakaz eksportu papirusu za granicę.

Braki nośników informacji (glina, papirus, wosk) stymulowały poszukiwania nowych nośników. Tym razem zadziałała zasada „wszystko nowe – dobrze zapomniane stare”. Zaczęto produkować materiały piśmiennicze ze skóry zwierzęcej - pergamin. Pergamin stopniowo zastąpił papirus. Zaletami nowego nośnika są wysoka niezawodność przechowywania informacji (siła, trwałość, nie ściemniały, nie wysychały, nie pękały, nie pękały), możliwość ponownego wykorzystania (np. w zachowanym modlitewniku z X wieku, naukowcy znaleźli kilka warstw zapisów w górę iw dół, wymazanych i oczyszczonych, a za pomocą promieni rentgenowskich odkryto tam najstarszy traktat Archimedesa). Księgi na pergaminie - palimpsesty (z języka greckiego rblYamshzufpn - rękopis pisany na pergaminie według wypranego lub zeskrobanego tekstu).

Nazwa materiału pochodzi od miasta Pergamon, gdzie po raz pierwszy wykonano ten materiał. Od starożytności po dzień dzisiejszy pergamin znany jest wśród Żydów pod nazwą „gwil”, jako materiał kanoniczny do zapisywania Objawienia Synajskiego w odręcznych zwojach Tory. Na powszechniejszym typie pergaminowym „klaf” napisano również fragmenty Tory na tefil i mezuza. Do produkcji tych odmian pergaminu używa się tylko skór koszernych gatunków zwierząt.

Pergamin to niegarbowana wykończona skóra zwierzęca - owcza, cielęca lub kozia.

Według greckiego historyka Ctesiasa w V wieku. pne mi. skóra była od dawna używana jako materiał do pisania przez Persów. Skąd pod nazwą "diftera" przeszła do Grecji, gdzie wraz z papirusem do pisania używano przetworzonych skór owczych i kozich.

Innym materiałem pochodzenia roślinnego, używanym głównie w strefie równikowej (w Ameryce Środkowej od VIII wieku na Wyspach Hawajskich) była tapa. Wykonano go z drewna morwy papierowej, w szczególności z łyka, łyka. Łykę wymyto, oczyszczono z nierówności, a następnie ubito młotkiem, wygładzono i osuszono.

Starożytni Niemcy pisali swoje teksty runiczne na tablicach bukowych (Buchenholz), stąd słowo „Buch”, książka. Znaki nakładano przez drapanie (Writan), skąd pochodzi angielski czasownik write, pisać (z tego samego rdzenia co niemiecki ritzen, drapać).

Rzymianie w najwcześniejszym okresie swych dziejów, gdy pismo dopiero wchodziło w życie, pisali na drewnianej łyce (liber): to samo słowo zaczęli nazywać księgą. Nośniki informacji pisma rzymskiego nie zachowały się na tym materiale, ale litery z kory brzozowej mogą najwyraźniej służyć jako najbliższy analog.

Kora brzozy - rozpowszechniona od XII wieku

W poszukiwaniu bardziej praktycznych mediów próbowano pisać na drewnie, jego korze, liściach, skórze, metalach, kościach. W krajach o gorącym klimacie często używano suszonych i lakierowanych liści palmowych. W Rosji najczęstszym materiałem do pisania była kora brzozy - pewne warstwy kory brzozowej.

Tak zwany list z kory brzozowej, kawałek kory brzozowej z zarysowanymi znakami, został znaleziony przez archeologów 26 lipca 1951 r. podczas wykopalisk w Nowogrodzie. Były również pisemne dowody na to, że w starożytnej Rosji do pisania używano kory brzozowej - wspomina o tym Józef Wołocki w opowieści o klasztorze Sergiusza z Radoneża.

Archeolodzy znaleźli nawet miniaturową księgę z kory brzozowej, liczącą 12 stron, o wymiarach 5 x 5 cm, w której wzdłuż zagięcia naszyte są podwójne kartki. Przygotowanie kory brzozy do procesu rejestracji nie było trudne. Wcześniej była gotowana, następnie wewnętrzna warstwa kory została zeskrobana i odcięta na brzegach. W rezultacie powstał materiał bazowy dokumentu w postaci wstążki lub prostokąta. Do pisania używano zwykle wewnętrznej strony kory brzozowej, która jest gładsza. Listy zostały zwinięte w zwój. W tym przypadku tekst znajdował się na zewnątrz. Teksty liter z kory brzozowej wyciskano specjalnym narzędziem – rysikiem wykonanym z żelaza, brązu lub kości.

Z powodu niedociągnięć poprzednich przewoźników chiński cesarz Liu Zhao nakazał znaleźć dla nich godnego zastępcę. Podczas gdy w świecie zachodnim istniała konkurencja między tablicami woskowymi, papirusem i pergaminem w Chinach w II wieku p.n.e. wynaleziono papier.

Początkowo papier w Chinach był wytwarzany z wadliwych kokonów jedwabników, potem zaczęto robić papier z konopi. Następnie w 105 AD. Cai Lun zaczął robić papier ze zmiażdżonych włókien morwy, popiołu drzewnego, szmat i konopi. Wszystko to zmieszał z wodą i powstałą masę rozłożył na formie (drewniana rama i bambusowe sito). Po wysuszeniu na słońcu tę masę wygładził za pomocą kamieni. Rezultatem są mocne arkusze papieru. Już wtedy papier był powszechnie używany w Chinach. Po wynalazku Cai Luna proces wytwarzania papieru uległ szybkiej poprawie. Zaczęli dodawać skrobię, klej, naturalne barwniki itp., aby zwiększyć wytrzymałość.

Na początku VII wieku sposób wytwarzania papieru stał się znany w Korei i Japonii. A po kolejnych 150 latach przez jeńców wojennych trafia do Arabów. Papiernictwo, urodzone w Chinach, powoli przenosi się na Zachód, stopniowo infiltrując kulturę materialną innych narodów.

1.2 Wynalezienie nowoczesnych nośników danych

Od XIX wieku, w związku z wynalezieniem nowych metod i środków dokumentowania (dokumentacja fotograficzna, filmowa, dźwiękowa itp.), upowszechniło się wiele zasadniczo nowych nośników udokumentowanych informacji. W zależności od ich cech jakościowych, a także od sposobu dokumentacji można je sklasyfikować w następujący sposób:

papier;

media fotograficzne;

mechaniczne nośniki do nagrywania dźwięku;

nośniki magnetyczne;

dyski optyczne (laserowe) i inne obiecujące nośniki informacji.

Najważniejszym materialnym nośnikiem informacji pozostaje papier. Obecnie na rynku krajowym istnieją setki różnych rodzajów papieru i wyrobów papierniczych. Przy wyborze papieru do dokumentacji należy wziąć pod uwagę właściwości papieru, ze względu na: proces technologiczny jego produkcja, skład, wykończenie powierzchni itp.

Każdy papier wykonany w tradycyjny sposób charakteryzuje się pewnymi właściwościami, które należy uwzględnić w procesie dokumentacji. Te kluczowe cechy i wskaźniki obejmują:

skład kompozycyjny, tj. skład i rodzaj włókien (celuloza, miazga drzewna, len, bawełna i inne włókna), ich zawartość procentowa, stopień rozdrobnienia;

gramatura papieru (gramatura 1 m2 papieru dowolnego gatunku). Masa papieru produkowanego do druku wynosi od 40 do 250 g/m2. m;

grubość papieru (może wynosić od 4 do 400 mikronów);

gęstość, stopień porowatości papieru (ilość masy papierniczej wg/cmЁ);

właściwości strukturalne i mechaniczne papieru (w szczególności kierunek orientacji włókien w papierze, przepuszczalność światła, przezroczystość papieru, odkształcenia pod wpływem wilgoci itp.);

gładkość powierzchni papieru;

Odporność na światło;

zachwaszczenie papieru (wynik użycia do jego produkcji zanieczyszczonej wody) oraz inne właściwości papieru.

W zależności od właściwości papier dzieli się na klasy (do druku, do pisania, do pisania, ozdobne, opakowaniowe itp.), a także rodzaje (typograficzny, offsetowy, gazetowy, powlekany, piśmienniczy, kartograficzny, papier Whatman, dokumentowy, itd.) .). Tak więc papier o gramaturze od 30 do 52 g/m2 iz przewagą ścieru drzewnego w jego składzie nazywamy papierem gazetowym. Papier drukarski ma gramaturę od 60 do 80 g/m² i jest produkowany na bazie ścieru drzewnego. Papier kartograficzny ma jeszcze większą gęstość (od 85 do 160 g/m²). Do dokumentacji technicznej używa się wysokogatunkowego białego papieru rysunkowego, który jest produkowany na bazie szmat obrabianych mechanicznie. Do drukowania banknotów, obligacji, czeków bankowych i innych ważnych dokumentów finansowych używa się papieru odpornego na naprężenia mechaniczne. Wykonany jest na bazie włókien lnianych i bawełnianych, często ze znakami wodnymi94.

Taśmy perforowane służyły do ​​mechanicznego zapisu zakodowanej informacji i dalszego jej wykorzystania w systemach wyszukiwania informacji, w komputerach wykrawających. Wykonano je z grubego papieru o grubości około 0,1 mm i szerokości 17,5; 20,5; 22,5; 25,5 mm.

Formaty papierowe mają ogromne znaczenie w zarządzaniu dokumentami i zarządzaniu dokumentacją. W 1833 r. w Rosji założono pojedynczy arkusz papieru, aw 1903 r. związek producentów papieru przyjął 19 jego formatów. Ale jednocześnie pojawiło się wiele formatów, które powstały spontanicznie z inicjatywy papierni i na podstawie życzeń konsumentów95. W latach dwudziestych, po decyzji kierownictwa bolszewików o przejściu na system metryczny, usprawniono również formaty papieru, a następnie przyjęto GOST 9327-60 „Papier i wyroby papierowe. Formaty konsumenckie”. Nowe formaty były oparte na systemie rozmiarów papieru zaproponowanym po raz pierwszy przez niemiecką organizację normalizacyjną DIN około 1920 roku. W 1975 roku system ten stał się Międzynarodowy standard(ISO 216), które zostały przyjęte przez Międzynarodową Organizację Normalizacyjną. Działa również w Rosji.

Norma ISO 216 składa się z trzech serii: A, B i C. Jako główna ustawiona jest seria (wiersz) A. Tutaj każda kartka papieru ma szerokość równą wynikowi dzielenia jej długości przez pierwiastek kwadratowy z dwóch (1: 1.4142). Powierzchnia formatu głównego (A0) to 1 m², a jego boki to 841x1189 mm. Pozostałe formaty uzyskuje się poprzez sukcesywne dzielenie poprzedniego formatu na pół, równolegle do jego mniejszego boku. W rezultacie wszystkie powstałe formaty są geometrycznie podobne. Każdy format jest oznaczony dwoma znakami: literą A, wskazującą, że należy do serii A, oraz liczbą wskazującą liczbę podziałów oryginalnego formatu A0.

Formaty ISO 216 serii A:

4A0 1682x2378; 2A0 1189x1682; A0 841x1189; A1 594x841; A2 420x594; A3 297x420;

A4 210x297; A5 148x210; A6 105x148; A7 74x105; A8 52x74; A9 37x52; A10 26x37.

Formaty serii B są używane, gdy seria A nie ma odpowiedniego formatu. Format serii B to średnia geometryczna między formatami An i A(n+1).

Formaty serii C standaryzują koperty. Format serii C to średnia geometryczna między formatami serii A i B o tym samym numerze. Na przykład dokument na arkuszu A4 dobrze pasuje do koperty C4.

Biorąc pod uwagę formaty papieru według systemu ISO, powstały kopiarki, czyli m.in. powiązane ze stosunkiem 1:v2. Ta zasada jest również stosowana w laboratoriach filmowych i fotograficznych. Kopiarki wyposażone są w odpowiednie narzędzia skalujące najczęściej używane, np.:

71% v0.5 А3> А4

141% v2 A4>A3 (również A5>A4)

Rozmiary papieru ISO są obecnie szeroko stosowane we wszystkich krajach uprzemysłowionych, z wyjątkiem Stanów Zjednoczonych Ameryki i Kanady, gdzie inne, choć bardzo podobne formaty są powszechne w pracy biurowej: „Letter” (216x279 mm), „Legal” ( 216x356 mm) , „Kierownik” (190x254 mm) i „Ledger/Tabloid” (279x432 mm)97.

Niektóre rodzaje papieru są zaprojektowane specjalnie do procesów reprograficznych. Są to głównie nośniki papieru światłoczułego. Wśród nich są papiery termiczne (papier termoutwardzalny i termokopiowy); papier diazo (typu diazo lub papier do druku) wrażliwy na promienie ultrafioletowe; kalka techniczna - przezroczysty, trwały, czysty papier celulozowy przeznaczony do kopiowania rysunków; papier wielowarstwowy do kopiowania elektroiskrowego itp.

Papier o grubości ponad 0,5 mm i masie 1 m2. m więcej niż 250 g nazywa się tekturą. Karton może być jednowarstwowy i wielowarstwowy. W pracy biurowej wykorzystywany jest w szczególności do produkcji pokrowców na podstawowe komplety dokumentów (walizki), karty meldunkowe itp.

Do niedawna szeroko stosowano kartonowe perforowane nośniki informacji zakodowanych cyfrowo – karty perforowane. Były to prostokąty o wymiarach 187,4x82,5 mm, wykonane z cienkiej, wytrzymałej mechanicznie tektury.

Na bazie kart dziurkowanych maszynowo wykonano karty aperturowe – karty z wbudowaną ramką z mikrofilmu lub kawałkiem nieperforowanej folii. Służyły one zwykle do przechowywania i wyszukiwania graficznej i graficznej dokumentacji technicznej oraz informacji patentowej.

Materiały fotograficzne to elastyczne folie, klisze, papiery, tkaniny. Są to w istocie wielowarstwowe układy polimerowe składające się z reguły z: podłoża (podłoża), na które nakładana jest warstwa podkładowa, a także warstwy emulsji światłoczułej (halogenek srebra) oraz warstwy antyhalacyjnej.

Kolorowe materiały fotograficzne mają bardziej złożoną strukturę. Zawierają również warstwy wrażliwe na kolor niebieski, żółty, zielony i czerwony. Rozwój wielowarstwowych materiałów barwnych w latach pięćdziesiątych był jednym z skoków jakościowych w historii fotografii, warunkującym szybki rozwój i szerokie zastosowanie fotografii kolorowej.

Do najważniejszych cech materiałów fotograficznych, w szczególności klisz fotograficznych, należą: światłoczułość, ziarnistość, kontrast, wrażliwość barwna.

Film to materiał fotograficzny na elastycznym przezroczystym podłożu z otworami na jednej lub obu krawędziach - perforacjami. Historycznie pierwsze światłoczułe nośniki taśmowe były oparte na papierze. Stosowana początkowo taśma z azotanu celulozy była bardzo palnym materiałem. Jednak już w 1897 r. Niemiecki naukowiec Weber wykonał film z niepalnym podłożem z trioctanu celulozy, który był szeroko stosowany, w tym w krajowym przemyśle filmowym. Następnie podłoże zaczęto wytwarzać z politereftalanu etylenu i innych elastycznych materiałów polimerowych.

W porównaniu z filmem fotograficznym, film zwykle składa się z większej liczby warstw. Na podłoże nakładana jest podwarstwa, która służy do mocowania warstwy światłoczułej (lub kilku warstw) na podłożu. Ponadto film kinowy ma zwykle warstwę zapobiegającą haluacji, zwijaniu się i warstwie ochronnej.

Folie dostępne są w wersji czarno-białej i kolorowej. Dzielą się również na:

negatywny;

pozytyw (do druku stykowego i projekcyjnego);

do negocjacji (może służyć do uzyskania negatywów i pozytywów);

kontratyp (do kopiowania, np. do masowej produkcji kopii filmowych);

hydrotyp;

fonogram (do fotograficznego zapisu dźwięku).

Najpopularniejszym medium do produkcji mikrofilmów jest czarno-biały film fotograficzny o szerokości 16 i 35 mm. Główne rodzaje mikrofilmów to mikrofilmy rolowane i cięte. Mikrofilm cięty to część rolki folii o długości co najmniej 230 mm, na której umieszcza się do kilkudziesięciu klatek. Mikrokarty, mikrofisze i ultramikrofisze to w rzeczywistości mikrofilmy o płaskim formacie. W szczególności mikrofisza to arkusz kliszy fotograficznej w formacie 105x148 mm.

Przez ponad stuletnią historię mechanicznej rejestracji dźwięku, zarówno materiały, jak i forma nośników informacji dźwiękowej ulegały nieustannym zmianom. Początkowo były to wałki fonograficzne, czyli puste w środku cylindry o średnicy ok. 5 cm i długości ok. 12 cm, pokryte tzw. Rolki gramofonowe szybko się zużywały, ich odtworzenie było prawie niemożliwe. Dlatego dość naturalnie szybko wyparły je płyty gramofonowe.

Płyty gramofonowe musiały spełniać bardzo rygorystyczne wymagania, ponieważ w trakcie odtwarzania nagrania dźwiękowego czubek igły naciska na dno rowka z siłą około 1 t/cm¦. Pierwsza płyta gramofonowa, nagrana w 1888 roku, była krążkiem cynkowym z wygrawerowanym fonogramem. Potem zaczęto odlewać płyty gramofonowe z celuloidu, gumy, ebonitu. Jednak plastikowe krążki na bazie polichlorku winylu i winylitu okazały się znacznie tańsze, bardziej elastyczne i trwałe. Mieli też najlepszą jakość dźwięku.

Płyty gramofonowe wykonywano metodą tłoczenia, stemplowania lub odlewania. Oryginalna płyta była krążkiem woskowym, a później krążkiem metalowym (niklowym) pokrytym specjalnym lakierem (dysk lakierniczy)99.

W zależności od rodzaju nagrania, płyty gramofonowe produkowane w naszym kraju podzielono na zwykłe, długogrające i stereofoniczne. Za granicą opracowano ponadto zapisy kwadrofoniczne i zapisy wideo. Ponadto płyty gramofonowe są klasyfikowane według rozmiaru, prędkości obrotowej, przedmiotu nagrania. W szczególności płyty stereofoniczne, których produkcję w ZSRR rozpoczęto w 1958 r., a także długogrające, były produkowane w formacie (średnica) 174, 250 i 300 mm. Częstotliwość ich obrotów wynosiła zwykle 33 obr/min.

Od początku lat 90. właściwie zaprzestano produkcji płyt gramofonowych w Rosji, ustępując miejsca innym, lepszym i wydajniejszym metodom rejestracji dźwięku (elektromagnetyczne, cyfrowe)

1.3 Wpływ rodzaju nośnika na trwałość i koszt dokumentu

Przeniesienie udokumentowanej informacji w czasie i przestrzeni jest bezpośrednio związane z fizycznymi właściwościami jej materialnego nośnika. Dokumenty, będące masowym produktem społecznym, mają stosunkowo niską trwałość. Podczas pracy w środowisku pracy, a zwłaszcza podczas przechowywania, narażone są na liczne negatywne wpływy spowodowane zmianami temperatury, wilgocią, pod wpływem światła, procesami biologicznymi itp. Na przykład, obecnie na dokumentach i książkach można znaleźć około 400 gatunków grzybów i owadów, które mogą zainfekować papier, kalkę kreślarską, tkaniny, drewno, skórę, metal, folię i inne materiały. Dlatego nieprzypadkowo problem trwałości materialnych nośników informacji przez cały czas przykuwał uwagę uczestników procesu dokumentacyjnego. Już w starożytności istniała chęć zapisywania najważniejszych informacji o tak stosunkowo trwałych materiałach, jak kamień i metal. Na przykład prawa babilońskiego króla Hammurabiego zostały wyryte na kamiennym filarze. A dziś materiały te służą do długoterminowego przechowywania informacji, w szczególności w zespołach pamięci, w miejscach pochówku itp. W procesie dokumentacji pojawiła się chęć użycia wysokiej jakości, trwałych farb i atramentów. W dużej mierze dzięki temu trafiło do nas wiele ważnych tekstowych zabytków historycznych, dokumentów z przeszłości. Wręcz przeciwnie, użycie krótkotrwałych nośników materialnych (liści palmowych, drewnianych desek, kory brzozowej itp.) doprowadziło do bezpowrotnej utraty większości dokumentów tekstowych z odległej przeszłości.

Jednak rozwiązując problem trwałości, człowiek od razu musiał zmierzyć się z innym problemem, który polegał na tym, że trwałe nośniki danych były z reguły droższe. Tak więc księgi na pergaminie były często zrównywane ceną z kamiennym domem lub nawet z całym majątkiem, sporządzano testament wraz z inną własnością, a w bibliotekach przykuwano je do ściany. Dlatego nieustannie musieliśmy szukać optymalnego stosunku między trwałością materiałowego nośnika informacji a jego kosztem. Ten problem jest nadal bardzo ważny i aktualny.

Najpopularniejszy obecnie nośnik materialny udokumentowanej informacji – papier – jest stosunkowo tani, dostępny, spełnia niezbędne wymagania co do jakości itp. Jednocześnie jednak papier jest materiałem palnym, boi się nadmiernej wilgoci, pleśni, światła słonecznego i wymaga określonych warunków sanitarno-biologicznych. Użycie niewystarczającej jakości tuszu, farby prowadzi do stopniowego zanikania tekstu na papierze. Według ekspertów pierwszy w historii papierowego dokumentu okres kryzysu rozpoczął się w połowie XIX wieku. Wiązało się to z przejściem na produkcję papieru z drewna, z użyciem barwników syntetycznych, z powszechnym stosowaniem maszyn do pisania i kopiowania. W efekcie trwałość papierowego dokumentu została skrócona z tysięcy do dwustu – trzystu lat, tj. w celu. Szczególnie krótkotrwałe są dokumenty wykonane na papierze o niskiej jakości typach i klasach (papier gazetowy itp.).

Pod koniec XX wieku, wraz z rozwojem techniki komputerowej i wykorzystaniem drukarek do wyświetlania informacji na papierze, ponownie pojawił się problem trwałości dokumentów papierowych. Faktem jest, że wiele nowoczesnych wydruków tekstów na drukarkach jest rozpuszczalnych w wodzie i blaknie. Trwalsze farby, w szczególności do: drukarki atramentowe, oczywiście są również droższe, a przez to mniej dostępne dla masowego konsumenta. Stosowanie „pirackich” przeładowanych nabojów i tonerów w Rosji tylko pogarsza sytuację.

Materialne nośniki udokumentowanych informacji wymagają zatem odpowiednich warunków ich przechowywania. Jednak nie zawsze było to obserwowane i obserwowane. W rezultacie dokumenty z archiwów resortowych do przechowywania państwowego w naszym kraju mają wady. W latach 20. liczba wad sięgała 10-20%, od lat 50. zaczęła spadać z 5 do 1%, w latach 60.-1980 była na poziomie 0,3-0,5% (choć w wartościach bezwzględnych było to 1-2,5 mln dokumentów). W latach 90. ponownie pogorszyło się przechowywanie dokumentów w archiwach resortowych, podobnie jak w pierwszych dekadach istnienia władzy sowieckiej. Wszystko to powoduje znaczne straty materialne, gdyż w archiwach i bibliotekach konieczne jest tworzenie i utrzymywanie kosztownych laboratoriów zajmujących się restauracją nośników papierowych. Musimy również wykonać archiwalne kopie dokumentów z zanikającym tekstem itp.

W Związku Radzieckim kiedyś powstał nawet program rządowy, który przewidywał rozwój i produkcję krajowego trwałego papieru do dokumentów, specjalnych stabilnych narzędzi do pisania i kopiowania, a także ograniczał wykorzystanie materiałów krótkotrwałych do tworzenia dokumentów przy pomocy standardów. Zgodnie z tym programem do lat 90. opracowano i zaczęto produkować specjalne trwałe papiery do pracy biurowej, zaprojektowane na 850 i 1000 lat. Dostosowano również skład krajowych środków piśmienniczych. Dalsza realizacja programu we współczesnych rosyjskich warunkach okazała się jednak niemożliwa ze względu na radykalne przeobrażenia społeczno-polityczne i gospodarcze, a także bardzo szybką zmianę metod i środków dokumentacji.

Problem trwałości i efektywności ekonomicznej materialnych nośników danych stał się szczególnie dotkliwy wraz z pojawieniem się dokumentów audiowizualnych i do odczytu maszynowego, które również ulegają starzeniu i wymagają specjalnych warunków przechowywania. Ponadto proces starzenia się takich dokumentów jest wielostronny i znacznie różni się od starzenia tradycyjnych nośników informacji.

Po pierwsze, dokumenty audiowizualne i do odczytu komputerowego, a także dokumenty na tradycyjnych nośnikach podlegają fizycznemu starzeniu się, związanemu ze starzeniem się nośnika materialnego. Zatem starzenie się materiałów fotograficznych objawia się zmianą właściwości ich światłoczułości i kontrastu podczas przechowywania, wzrostem tzw. zasłony fotograficznej oraz wzrostem kruchości filmów. W kolorowych materiałach fotograficznych dochodzi do naruszenia balansu kolorów, tj. blaknięcie, które objawia się zniekształceniem kolorów i zmniejszeniem ich nasycenia. Szczególnie niestabilne były klisze i dokumenty fotograficzne na nitrofilmie, który w dodatku był również wyjątkowo palnym materiałem. Pierwsze kolorowe dokumenty filmowe i fotograficzne wyblakły bardzo szybko. Należy zauważyć, że na ogół okres trwałości kolorowych dokumentów kliszowych jest kilkakrotnie krótszy niż czarno-białych, ze względu na niestabilność kolorowych barwników obrazu. Jednocześnie nośnik folii jest stosunkowo trwałym materiałem. To nie przypadek, że w praktyce archiwalnej wciąż pozostają mikrofilmy ważny sposób przechowywanie kopii zapasowych najcenniejszych dokumentów, ponieważ według ekspertów mogą one być przechowywane przez co najmniej 500 lat.

Żywotność płyt gramofonowych zależy od ich mechanicznego zużycia, zależy od intensywności użytkowania, warunków przechowywania. W szczególności plastikowe dyski (płyty fonograficzne) mogą się odkształcać po podgrzaniu.

W przeciwieństwie do tradycyjnych dokumentów tekstowych i graficznych, dokumenty audiowizualne i do odczytu maszynowego podlegają procesowi starzenia technicznego związanego z poziomem rozwoju sprzętu do odczytywania informacji. Szybki rozwój technologii prowadzi do tego, że w reprodukcji wcześniej zapisanych informacji, w szczególności z wałków gramofonowych, płyt, filmów pojawiają się problemy, a czasem przeszkody nie do pokonania, ponieważ produkcja sprzętu do ich odtwarzania albo już dawno została wstrzymana, albo istniejący sprzęt jest przystosowany do pracy z mediami materialnymi, z innymi Specyfikacja techniczna. Na przykład obecnie trudno jest znaleźć komputer, który odczytałby informacje z dyskietek 5,25", chociaż minęło dopiero pięć lat, odkąd zostały one wyparte przez dyskietki 3,5".

Wreszcie mamy do czynienia z logicznym starzeniem się, które jest związane z zawartością informacji, oprogramowaniem i standardami przechowywania informacji. Nowoczesne technologie kodowania cyfrowego pozwalają, zdaniem naukowców, przechowywać informacje „prawie na zawsze”. Wymaga to jednak okresowego przepisywania np. płyt CD – za 20-25 lat. Po pierwsze, jest drogi. I po drugie, technologia komputerowa rozwija się tak szybko, że istnieje rozbieżność między sprzętem starej i nowej generacji. Na przykład, gdy pewnego dnia amerykańscy archiwiści postanowili zapoznać się z danymi ze spisu powszechnego z 1960 r. przechowywanymi na nośnikach magnetycznych, okazało się, że informacje te można odtworzyć przy użyciu tylko dwóch komputerów na całym świecie. Jeden z nich był w USA, a drugi w Japonii.

Techniczne i logiczne starzenie się powoduje, że znaczna ilość informacji w mediach elektronicznych jest bezpowrotnie tracona. Aby temu zapobiec, w szczególności Biblioteka Kongresu USA utworzyła specjalny dział, w którym wszystkie urządzenia do odczytywania informacji z przestarzałych mediów elektronicznych są utrzymywane w stanie roboczym.

Obecnie trwają intensywne poszukiwania pojemnych informacyjnie, a jednocześnie wystarczająco stabilnych i ekonomicznych mediów. Wiadomo na przykład o eksperymentalnej technologii laboratorium Los Alamos (USA), która umożliwia zapisanie zakodowanych informacji o wielkości 2 GB (1 mln stron maszynopisu) za pomocą wiązki jonów na kawałku drutu o długości zaledwie 2,5 cm Jednocześnie przewidywana trwałość nośnika szacowana jest na 5 tysięcy lat przy bardzo dużej odporności na zużycie. Dla porównania: ewidencjonować informacje ze wszystkich nośników papierowych Funduszu Archiwalnego Federacja Rosyjska, zajęłoby tylko 50 tysięcy tych pinów, czyli 1 opakowanie115. Na jednej z konferencji naukowych, również odbywającej się w USA, zademonstrowano „wieczny dysk” Rosetty wykonany z niklu. Pozwala na zapisanie w formie analogowej do 350 000 stron tekstu i rysunków przez kilka tysięcy lat.

Tak więc.... Po porównaniu mediów materialnych możemy powiedzieć, że wraz z rozwojem nauki i techniki pojawią się nowe, bardziej zaawansowane, pojemne informacyjnie, niezawodne i niedrogie media udokumentowanej informacji, które zastąpią przestarzałe media, z których obecnie korzystamy .

2. Charakterystyka magnetycznych i optycznych nośników danych

2.1 Materialne media

Pierwszym magnetycznym nośnikiem zapisu, który był stosowany w urządzeniach Poulsena na przełomie XIX i XX wieku, był drut stalowy o średnicy do 1 mm. Na początku XX wieku wykorzystywano w tym celu również rolowaną taśmę stalową. W tym samym czasie (w 1906 r.) wydano pierwszy patent na dysk magnetyczny. Jednak cechy jakościowe wszystkich tych nośników były bardzo niskie. Dość powiedzieć, że wykonanie 14-godzinnego zapisu magnetycznego raportów na Międzynarodowym Kongresie w Kopenhadze w 1908 roku wymagało 2500 km, czyli około 100 kg drutu.

Dopiero w drugiej połowie lat dwudziestych XX wieku, kiedy wynaleziono proszkową taśmę magnetyczną, zapis magnetyczny zaczął być szeroko stosowany. Początkowo proszek magnetyczny osadzano na podłożu papierowym, następnie na octanie celulozy, aż do zastosowania jako podłoża materiału z politereftalanu etylenu o wysokiej wytrzymałości (lavsan). Poprawiono również jakość proszku magnetycznego. W szczególności zaczęto stosować proszki tlenku żelaza z dodatkiem kobaltu, metaliczne proszki magnetyczne żelaza i jego stopów, co umożliwiło kilkukrotne zwiększenie gęstości zapisu.

W 1963 roku firma Philips opracowała tak zwane nagrywanie kasetowe, co umożliwiło stosowanie bardzo cienkich taśm magnetycznych. W kasetach kompaktowych maksymalna grubość taśmy wynosi tylko 20 µm przy szerokości 3,81 mm. Pod koniec lat 70. pojawiły się mikrokasety o wymiarach 50 x 33 x 8 mm, a w połowie lat 80. XX wieku. - pikokasety - trzy razy mniej niż mikrokasety.

Od początku lat 60. Dyski magnetyczne są szeroko stosowane - przede wszystkim w komputerowych urządzeniach do przechowywania danych. Dysk magnetyczny to dysk aluminiowy lub plastikowy o średnicy od 30 do 350 mm, pokryty warstwą roboczą proszku magnetycznego o grubości kilku mikronów. W napędzie dyskowym, podobnie jak w magnetofonie, informacje są rejestrowane za pomocą głowicy magnetycznej, tylko nie wzdłuż taśmy, ale na koncentrycznych ścieżkach magnetycznych znajdujących się na powierzchni wirującego dysku, zwykle po obu stronach. Dyski magnetyczne są twarde i elastyczne, wymienne i wbudowane w komputer osobisty. Ich głównymi cechami są: pojemność informacji, czas dostępu do informacji oraz szybkość czytania z rzędu.

Aluminiowe dyski magnetyczne - dyski twarde (hard drive) niewymienne - są strukturalnie połączone w komputerze w jedną jednostkę z dyskiem twardym. Ułożone są w pakiety (stosy) od 4 do 16 sztuk. Zapis danych na twardym dysku magnetycznym, a także odczyt odbywa się z prędkością do 7200 obr./min. Pojemność dysku sięga ponad 9 GB. Nośniki te są przeznaczone do trwałego przechowywania informacji, które są wykorzystywane podczas pracy z komputerem (oprogramowanie systemowe, pakiety aplikacji itp.).

Elastyczne plastikowe dyski magnetyczne (dyskietki, z angielskiego dyskietki - swobodnie wiszące) wykonane są z elastycznego tworzywa sztucznego (dakronu) i umieszczane są pojedynczo w specjalnych plastikowych kasetach. Kaseta dyskietek nazywana jest dyskietką. Najczęściej spotykane dyskietki mają średnice 3,5" i 5,25". Pojemność jednej dyskietki wynosi zwykle od 1,0 do 2,0 MB. Opracowano już jednak 3,5-calową dyskietkę o pojemności 120 MB. Dodatkowo produkowane są dyskietki przeznaczone do pracy w warunkach zwiększonego zapylenia i wilgotności.

Tak zwane karty plastikowe, czyli urządzenia służące do magnetycznego przechowywania informacji i zarządzania danymi, znalazły szerokie zastosowanie, przede wszystkim w systemach bankowych. Są dwojakiego rodzaju: proste i inteligentne. W prostych kartach jest tylko pamięć magnetyczna, która pozwala na wprowadzanie danych i ich zmianę. W kartach inteligentnych, które są czasami nazywane kartami inteligentnymi (z angielskiego smart - smart), oprócz pamięci wbudowany jest również mikroprocesor. Umożliwia wykonanie niezbędnych obliczeń oraz sprawia, że ​​karty plastikowe stają się wielofunkcyjne.

Należy zauważyć, że oprócz magnetycznego istnieją inne sposoby zapisu informacji na karcie: zapis graficzny, tłoczenie (wytłaczanie mechaniczne), kodowanie kreskowe, a od 1981 roku także zapis laserowy (na specjalnej karcie laserowej, która umożliwia do przechowywania informacji o dużej objętości, ale nadal bardzo drogie).

Do nagrywania dźwięku w dyktafonach cyfrowych stosuje się w szczególności minikarty, które mają podobieństwo do dyskietek o pojemności pamięci 2 lub 4 MB i umożliwiają nagrywanie przez 1 godzinę.

Obecnie materiałowe magnetyczne nośniki zapisu są klasyfikowane:

według kształtu geometrycznego i rozmiaru (kształt taśmy, dysku, karty itp.);

przez wewnętrzną strukturę nośnika (dwie lub więcej warstw różnych materiałów);

zgodnie z metodą zapisu magnetycznego (nośniki do zapisu wzdłużnego i prostopadłego);

według rodzaju rejestrowanego sygnału (do rejestracji bezpośredniej sygnałów analogowych, do rejestracji modulacyjnej, do rejestracji cyfrowej).

Technologie i nośniki materialne zapisu magnetycznego są stale udoskonalane. W szczególności występuje tendencja do zwiększania gęstości zapisu informacji na dyskach magnetycznych wraz ze spadkiem ich rozmiaru oraz spadkiem średniego czasu dostępu do informacji.

2.2 Optyczne nośniki danych

Rozwój materialnych nośników udokumentowanej informacji jako całości podąża ścieżką ciągłych poszukiwań obiektów o dużej trwałości, dużej pojemności informacyjnej przy minimalnych wymiarach fizycznych nośnika. Od lat 80. coraz powszechniejsze stają się dyski optyczne (laserowe). Są to plastikowe lub aluminiowe dyski przeznaczone do zapisywania i odtwarzania informacji za pomocą wiązki laserowej.

Po raz pierwszy optyczny zapis programów dźwiękowych do celów domowych został przeprowadzony w 1982 roku przez firmy Sony i Philips w laserowych odtwarzaczach CD, które zaczęto oznaczać skrótem CD (Compact Disc). W połowie lat 80. powstały płyty CD-ROM (Compact Disc - Read Only Memory). Od 1995 roku używane są optyczne płyty CD wielokrotnego zapisu: CD-R (CD Recordable) i CD-E (CD Erasable).

Dyski optyczne mają zwykle podstawę z poliwęglanu lub szkła poddanego obróbce cieplnej. Warstwa robocza dysków optycznych wykonana jest w postaci najcieńszych warstw metali topliwych (tellu) lub stopów (telur-selen, tellur-węgiel, tellur-selen-ołów itp.), barwników organicznych. Powierzchnia informacyjna dysków optycznych pokryta jest milimetrową warstwą wytrzymałego przezroczystego tworzywa sztucznego (poliwęglanu). W procesie zapisu i odtwarzania na dyskach optycznych rolę przetwornika sygnału spełnia wiązka laserowa skupiona na warstwie roboczej dysku w plamce o średnicy około 1 μm. Gdy dysk się obraca, wiązka laserowa podąża wzdłuż toru dysku, którego szerokość również jest bliska 1 µm. Możliwość skupienia wiązki w małej plamce umożliwia tworzenie na tarczy śladów o powierzchni 1–3 μm¦. Jako źródło światła wykorzystywane są lasery (argon, hel-kadm itp.). W rezultacie gęstość zapisu jest o kilka rzędów wielkości wyższa niż limit zapewniany przez metodę zapisu magnetycznego. Pojemność informacyjna dysku optycznego sięga 1 GB (przy średnicy dysku 130 mm) i 2-4 GB (przy średnicy 300 mm).

W przeciwieństwie do metod zapisu i odtwarzania magnetycznego, metody optyczne są zbliżeniowe. Wiązka lasera jest ogniskowana na dysku za pomocą obiektywu oddalonego do 1 mm od nośnika. To praktycznie eliminuje możliwość mechanicznego uszkodzenia dysku optycznego106. W celu dobrego odbicia wiązki laserowej stosuje się tzw. „lustrzane” pokrycie krążków aluminium lub srebrem.

Szeroko stosowane jako nośniki informacji były także płyty magnetooptyczne typu RW (Re Writeble). Informacje są na nich zapisywane przez głowicę magnetyczną z jednoczesnym wykorzystaniem wiązki laserowej. Wiązka laserowa nagrzewa punkt na dysku, a elektromagnes zmienia orientację magnetyczną tego punktu. Odczyt odbywa się za pomocą wiązki laserowej o mniejszej mocy.

W drugiej połowie lat 90. pojawiły się nowe, bardzo obiecujące nośniki udokumentowanej informacji - cyfrowe uniwersalne płyty wideo DVD (Digital Versatile Disk) typu DVD-ROM, DVD-RAM, DVD-R o dużej pojemności (do 17 GB). Zwiększenie ich pojemności wiąże się z zastosowaniem wiązki laserowej o mniejszej średnicy, a także zapisu dwuwarstwowego i dwustronnego.

W zależności od technologii aplikacji płyty CD optyczne, magnetooptyczne i cyfrowe dzielą się na 3 główne klasy:

płyty z trwałymi (nieusuwalnymi) informacjami (CD-ROM). Są to plastikowe płyty CD o średnicy 4,72 cala i grubości 0,05 cala. Wykonane są z oryginalnego szklanego krążka, na który nakładana jest warstwa fotorejestracyjna. W tej warstwie system zapisu laserowego tworzy system wgłębień (znaków w postaci mikroskopijnych zagłębień), który jest następnie przenoszony na kopiowane dyski. Odczytywanie informacji odbywa się również za pomocą wiązki laserowej w napędzie optycznym komputera osobistego. CD-ROMy mają zazwyczaj pojemność 650 MB i służą do nagrywania cyfrowych programów dźwiękowych, oprogramowanie do komputerów itp.;

płyty umożliwiające jednokrotne nagrywanie i wielokrotne odtwarzanie sygnałów bez możliwości ich kasowania (CD-R; CD-WORM - Write-Once, Read-Many - nagrany raz, liczony wielokrotnie). Wykorzystywane w archiwach elektronicznych i bankach danych, w dyski zewnętrzne KOMPUTER. Stanowią bazę z przeźroczystego materiału, na który nakładana jest warstwa robocza;

odwracalne dyski optyczne umożliwiające wielokrotne nagrywanie, odtwarzanie i kasowanie sygnałów (CD-RW; CD-E). Są to najbardziej wszechstronne dyski, które mogą zastąpić nośniki magnetyczne w prawie wszystkich obszarach zastosowań. Są one podobne do dysków jednokrotnego zapisu, ale zawierają warstwę operacyjną, w której fizyczne procesy zapisu są odwracalne. Technologia produkcji takich płyt jest bardziej skomplikowana, więc są droższe niż płyty jednokrotne.

Nośniki magnetyczne (taśmy, dyski, karty itp.) charakteryzują się dużą wrażliwością na zewnętrzne wpływy elektromagnetyczne. Podlegają również starzeniu fizycznemu, zużyciu powierzchni z nałożoną magnetyczną warstwą roboczą (tzw. „zrzucanie”). Taśma magnetyczna rozciąga się w czasie, powodując zniekształcenie zapisanych na niej informacji. dokument nośnika informacji

W porównaniu do nośników magnetycznych dyski optyczne są trwalsze, ponieważ o ich żywotności nie decyduje zużycie mechaniczne, ale chemiczna i fizyczna stabilność środowiska, w którym się znajdują. Dyski optyczne należy również przechowywać w stabilnych temperaturach pokojowych i wilgotności względnej w granicach określonych dla taśm magnetycznych. Nadmierna wilgotność, wysoka temperatura i jej gwałtowne wahania, zanieczyszczone powietrze są dla nich przeciwwskazane. Oczywiście dyski optyczne należy również chronić przed uszkodzeniami mechanicznymi. Należy pamiętać, że najbardziej narażona jest „niedziałająca” pomalowana strona dysku.

3. Wykorzystanie magnetycznych i optycznych nośników pamięci

3.1 Wykorzystanie mediów w praktyce organizacji

Przewoźnik w praktyce organizacji jest ważny. Ważny jest rodzaj nośnika, jego trwałość. Wybór ten zależy od rodzaju dokumentu elektronicznego i okresu jego przechowywania. Najpopularniejszym sposobem przechowywania zasobów informacyjnych w organizacjach jest przechowywanie plików na dyskach twardych komputerów lub serwerów. Czasami konieczne staje się przeniesienie dokumentów elektronicznych na nośniki zewnętrzne. Do przechowywania dużych i skomplikowanych baz danych oraz innych zasobów informacyjnych (na przykład naukowych, technicznych lub wydawniczych), aby nie naruszać integralności danych, lepiej używać pojemnych nośników elektronicznych: dysków optycznych, wymiennych dysków twardych, macierzy RAID, itp.

Do przechowywanie archiwalne dokumenty elektroniczne w ciągu 5 lat wszelkie nowoczesne nośniki informacji elektronicznej (dyskietki magnetyczne, taśmy magnetyczne, dyski magnetyczne, magnetooptyczne i optyczne) są dość niezawodne.

W przypadku długoterminowego przechowywania dokumentów elektronicznych na nośnikach zewnętrznych najlepszym rozwiązaniem byłoby użycie dysków optycznych. Są bezpretensjonalne w przechowywaniu i dość niezawodne przez 15-20 lat. Po tym okresie nieuchronnie będziesz musiał albo przepisać pliki na inny rodzaj nośnika (ponieważ nie będzie można odczytać informacji z płyty CD), albo przekonwertować dokumenty elektroniczne na inne formaty, a także przepisać je na bardziej nowoczesne i pojemne nośniki.

Drugi i trzeci aspekt konserwacji są znacznie trudniejsze. Wiążą się one z szybką zmianą i starzeniem się sprzętu i oprogramowania komputerowego. Z biegiem czasu urządzenia odczytujące informacje z zewnętrznych nośników zużywają się i stają się przestarzałe. Na przykład zniknęły dyskietki magnetyczne o średnicy 5 cali, a po nich komputery nie były już wyposażone w napędy dysków do ich odczytywania. W niedalekiej przyszłości podobny los czeka 3-calowe dyskietki, a wiele nowoczesnych modeli komputerów PC jest już wypuszczanych bez napędów dyskowych. Urządzenia do odczytywania informacji z dysków optycznych również mogą z czasem ulec zmianie. Przybliżony cykl życia takich technologii wynosi 10-15 lat. Te zmiany technologiczne należy wziąć pod uwagę przy organizacji długoterminowego przechowywania dokumentów elektronicznych.

3.2 Wykorzystanie nośników magnetycznych i optycznych w praktyce organizacji

Powielanie dokumentów elektronicznych zależy przede wszystkim od używanego oprogramowania: OS, DBMS, przeglądarek i innych aplikacji. Zmiana platforma oprogramowania może doprowadzić do całkowitej utraty dokumentu z powodu niemożności jego obejrzenia. Jednak w przypadku większości elektronicznych dokumentów biurowych i finansowych o okresie trwałości do 5 lat czynnik ten nie jest tak istotny: cykl życia oprogramowania szacowany jest na 5-7 lat. W krótkim okresie, aby uzyskać dostęp i odtworzyć większość dokumentów tekstowych, graficznych i wideo (ale nie baz danych lub złożonych systemów projektowych i multimediów), wystarczy użycie takich konwerterów.

...

Podobne dokumenty

    Komputerowe środki dokumentacji. Rodzaje nośników dokumentów. Sposoby i środki zmiany, powielania i fizycznego przetwarzania dokumentów. Podstawowe standardy komunikacji mobilnej. Zasada działania nowoczesnych telefaksów, nowy sprzęt.

    praca semestralna, dodana 19.11.2014

    Wynalazek z dziedziny radiotechniki, jego istota, sposób zastosowania. Wady standardowych identyfikatorów numerów FSK. Główne zalety elektronicznych wymian cyfrowych z kontrolą programu, znaczenie ich wykorzystania dla przedsiębiorstw i organizacji.

    streszczenie, dodane 05/12/2009

    Badanie przeznaczenia kabli światłowodowych jako przewodowych systemów telekomunikacyjnych wykorzystujących promieniowanie elektromagnetyczne w zakresie optycznym jako nośnik sygnału informacyjnego. Charakterystyka i klasyfikacja kabli optycznych.

    streszczenie, dodane 1.11.2011

    Urządzenia do rejestrowania i odtwarzania informacji są integralną częścią komputera. Proces odtwarzania informacji o zmianach w charakterystyce medium. Współczynnik detonacji. Wymagania dotyczące dokładności wykonania części mechanizmu transportowego.

    streszczenie, dodano 13.11.2010

    Badanie radiotechnicznych systemów transmisji informacji. Cel i funkcje elementów modelu systemu przesyłania (i przechowywania) informacji. Kodowanie źródła odporne na hałas. Właściwości fizyczne kanału radiowego jako medium propagacji fal elektromagnetycznych.

    streszczenie, dodane 10.02.2009

    Badanie cech sieci bezprzewodowych, świadczenie usług komunikacyjnych niezależnie od miejsca i czasu. Proces wykorzystania szerokiego zakresu widma optycznego jako medium do przesyłania informacji w zamkniętych systemach komunikacji bezprzewodowej.

    artykuł, dodano 28.01.2016

    Obliczanie czułości optycznego modułu odbiorczego, długości odcinka regeneracji światłowodowego systemu transmisji informacji w zależności od potencjału energetycznego. Prąd szumowy modułu optoelektronicznego odbiorczego. Rezystancja obciążenia fotodetektora.

    test, dodany 01.01.2014

    Urządzenia pomiarowe w sieciach nowoczesnej telekomunikacji. Stan rozwoju rynku aparatury pomiarowej. Systemowe i operacyjne wyposażenie pomiarowe. Typowe kanały i ścieżki sieci podstawowej. Nowoczesne systemy transmisji optycznej.

    praca dyplomowa, dodana 06.01.2012

    Zaprojektowanie pomieszczenia do przechowywania cennych informacji. Możliwe kanały wycieki danych. Charakterystyka narzędzi bezpieczeństwa informacji. Zbieranie informacji na koszt promieniowanie elektromagnetyczne Linie przewodowe 220 V wychodzące poza kontrolowany obszar.

    praca semestralna, dodana 14.08.2015

    Nagrywanie informacji głosowych. Wykorzystanie technologii dyktafonu jako łącza pośredniego do rejestrowania informacji podczas tworzenia dokumentów maszynowych. Technologie tworzenia dokumentów elektronicznych, automatyczne wprowadzanie tekstu z dyktafonu do komputera.

Podobał Ci się artykuł? Podziel się z przyjaciółmi!
Czy ten artykuł był pomocny?
tak
Nie
Dziekuję za odpowiedź!
Coś poszło nie tak i Twój głos nie został policzony.
Dziękuję Ci. Twoja wiadomość została wysłana
Znalazłeś błąd w tekście?
Wybierz, kliknij Ctrl+Enter a my to naprawimy!