Konfiguracja sprzętu i oprogramowania

Nowe technologie przesyłania informacji w sieciach. Nowe technologie przesyłania informacji

1. Wstęp

Pojęcie telekomunikacji

Elementy teorii informacji

1.3.1 Definicje informacji.

1.3.2 Ilość informacji

1.3.3 Entropia

1.4. Wiadomości i sygnały

Motyw 2 . Sieci informacyjne

2.2. Konfiguracja sieci LAN.

Temat 3.

3.2. Model referencyjny (OSI)

Temat 4.

4.1. Przewodowe linie komunikacyjne

4.2. Optyczne linie komunikacyjne

Temat 5.

Temat 6..

Temat 7.

7.2. Adresowanie w sieciach IP

7.3. Protokół IP

Wykład 1

Telekomunikacja. Pojęcie informacji. Systemy transmisji informacji. Mierzenie ilości informacji

Pojęcie telekomunikacji

Zanim zajmiemy się technologiami przesyłania informacji, rozważmy sieci (systemy), w których przesyłane są różnego rodzaju informacje. Informacje (dźwięk, obraz, dane, tekst) transmitowane przez sieci telekomunikacyjne i komputerowe.

Telekomunikacja(gr. tele - daleko, daleko i łac. komunikacja - komunikacja) to przesyłanie i odbiór dowolnych informacji (dźwięku, obrazu, danych, tekstu) na odległość za pośrednictwem różnych systemów elektromagnetycznych (kanały kablowe i światłowodowe, kanały radiowe i inne, przewodowe i bezprzewodowe kanały komunikacyjne).

System telekomunikacyjny- ustawić obiekty techniczne, środki organizacyjne i podmioty,, realizując procesy połączenia, transmisji, dostępu do informacji.

Systemy telekomunikacyjne razem z medium komunikacyjnym Formularz sieci telekomunikacyjne.

Sieci telekomunikacyjne wskazane jest podzielenie według rodzaju komunikacji (sieci łączności telefonicznej, sieci transmisji danych itp.) i rozważenie, jeśli to konieczne, w różnych aspektach (technicznych, ekonomicznych, technologicznych, technicznych itp.).

Przykłady sieci telekomunikacyjnych:

usługi pocztowe;

– publiczna łączność telefoniczna (PSTN);

– sieci telefonii komórkowej;

- łączność telegraficzna;

- Internet - globalna sieć interakcji sieci komputerowych;

– przewodowa sieć nadawcza;

– kablowa sieć nadawcza;

– sieć radiowo-telewizyjna;

i inne sieci informacyjne.

Do realizacji komunikacji na odległość systemy telekomunikacyjne wykorzystują:

– systemy łączeniowe;

– systemy transmisji danych;

– systemy dostępu i kontroli kanałów transmisji;

– systemy transformacji informacji.

System transmisji danych- to kolekcja kanały komunikacji, centra przełączanie, procesory teleprocesowe, multipleksery transmisja danych oraz narzędzia programowe do nawiązywania i wdrażania komunikacji.

Pod system transmisji danych ( SPD) rozumiane jest jako medium fizyczne (FS), a mianowicie: medium, przez które propaguje się sygnał (np. kabel, światłowód (światłowód), radio itp.).

Ten cykl wykładów poświęcony jest badaniu technologii przesyłania informacji na poziomie fizycznym, kanałowym i sieciowym.

Najważniejszym aspektem kursu jest pojęcie informacji. Obecnie nie ma jednej definicji informacji jako terminu naukowego.

Oto kilka definicji informacji:

1. Informacje(od łac. Informacja- "wyjaśnienie, ekspozycja, świadomość") - ta informacja(wiadomości, dane), niezależnie od formy ich prezentacji.

2. Informacje- informacje o osobach, przedmiotach, faktach, zdarzeniach, zjawiskach i procesach, niezależnie od formy ich prezentacji.

Informacja zmniejsza niepewność, niekompletność wiedzy o osobach, przedmiotach, wydarzeniach itp.

W teorii informacji miara niepewności dowolne doświadczenie (test), które może mieć różne wyniki, stąd ilość informacji nazywana jest entropią.

W szerokim znaczeniu, w którym słowo to jest często używane w życiu codziennym, entropia oznacza miarę nieporządku w systemie; mniej elementy systemu podlega pewnemu zamówieniu, im wyższa entropia.

Więcej informacji, im bardziej uporządkowany system, i odwrotnie, im mniej informacji, im wyższy chaos systemowy, im wyższy jej entropia.

Komunikacja: informacja - wiadomość - sygnał

Wiadomość- czy informacja jest wyrażona w określonej formie? i przeznaczone do transmisji ze źródła do użytkownika ( teksty, zdjęcia, mowa, muzyka, obraz telewizyjny itd.). Informacja jest częścią przekazu, która reprezentuje nowość, tj. coś, co nie było wcześniej znane.

Sygnał- jest to proces fizyczny, który rozprzestrzenia się w przestrzeni i czasie, którego parametry są w stanie wyświetlić (zawierać) przesłanie.

Służy do przesyłania informacji sygnał, który jest wielkością fizyczną, a informacja jest w jakiś sposób związana z jej parametrami.

W ten sposób, sygnał to wielkość fizyczna, która zmienia się w określony sposób. Systemy i sieci telekomunikacyjne wykorzystują sygnały elektryczne, optyczne, elektromagnetyczne i inne rodzaje sygnałów.

Sieci telefoniczne

Pierwszy etap rozwój sieci telefonicznych - publiczne sieci telefoniczne (PSTN lub PSTN). PSTN to zbiór central PBX połączonych analogowo lub linie cyfrowe komunikacyjne (linie komunikacyjne) lub łącza łączące oraz urządzenia użytkownika (terminale) podłączone do centrali za pośrednictwem linii abonenckich. Sieci PSTN wykorzystują technologię przełączania obwodów. Zaletą sieci z komutacją łączy jest możliwość przesyłania informacji audio i wideo bez opóźnień. wada - niskie wykorzystanie kanału, wysoki koszt transmisji danych, wydłużony czas oczekiwania na innych użytkowników.

Druga faza- Sieci telefoniczne ISDN. Obecna generacja cyfrowa sieć telefoniczna- ISDN. ISDN (sieć cyfrowa usług zintegrowanych) — Cyfrowa Sieć Usług Zintegrowanych, w którym kanałami telefonicznymi, w tym liniami abonenckimi, przesyłane są wyłącznie sygnały cyfrowe.

Jako linia ISDN BRI firma telefoniczna częściej korzysta z miedzianego kabla publicznej komutowanej sieci telefonicznej (PSTN), zmniejszając w ten sposób ostateczny koszt linii ISDN.

Sieci cyfrowe wraz z integracją usług ISDN mogą być wykorzystywane do rozwiązywania szerokiej klasy problemów związanych z przesyłaniem informacji w różnych dziedzinach, w szczególności: telefonii; transfer danych; konsolidacja zdalnych sieci LAN; dostęp do światowych sieci komputerowych (Internet); transmisja ruchu wrażliwego na opóźnienia (wideo, dźwięk); integracja różnego rodzaju ruch drogowy.

Urządzeniem końcowym sieci ISDN może być: telefon cyfrowy, osobny komputer z zainstalowaną kartą ISDN, serwer plikowy lub specjalistyczny, most LAN lub router, przejściówka terminalowa z interfejsami głosowymi (do podłączenia tradycyjnego telefonu analogowego lub faksu), lub z interfejsami szeregowymi (do transmisji danych).

W Europie de facto standardem ISDN jest EuroISDN, który jest obsługiwany przez większość europejskich operatorów telekomunikacyjnych i producentów sprzętu.

Obecnie podłączony do sieci PSTN i ISDN centrale rozdzielcze komunikacja komórkowa (sieci komórkowe różnych operatorów są ze sobą połączone), co zapewnia połączenia z telefonów komórkowych na stacjonarne (PSTN lub ISDN) i odwrotnie.

Aby połączyć Internet (sieci IP) z PSTN specjalny analogowe bramki VoIP, a z ISDN stosuje się cyfrowe bramy VoIP. Sygnał głosowy z kanału VoIP może trafiać bezpośrednio do telefonu analogowego podłączonego do zwykłej sieci telefonicznej PSTN lub do telefonu cyfrowego podłączonego do cyfrowej sieci usług zintegrowanych ISDN.

Jako sieci podstawowe w telefonii stacjonarnej, do łączenia central PBX stosuje się kabel miedziany i PDH/SDH.

komórkowy

Komunikacja komórkowa to bezprzewodowy system telekomunikacyjny składający się z 1) sieci naziemnych stacji nadawczo-odbiorczych, 2) małych stacji ruchomych (telefonów komórkowych) oraz 3) centrali komórkowej (lub centrali telefonii komórkowej). GSM (Globalny System Komunikacji Mobilnej)

Sieć komórkowa: 1G, 2G, 2,5G, 3G, 4G, 5G. GSM (Globalny System Komunikacji Mobilnej)

Sieci telewizyjne

Sieci telewizyjne (naziemne, kablowe i satelitarne) są przeznaczone do przesyłania wideo. Telewizja kablowa wykorzystuje niekomutowane kanały komunikacyjne. Początkowo wideo było w formie analogowej, następnie telewizja kablowa i satelitarna została przeniesiona na sygnały cyfrowe. Obecnie telewizja analogowa przestaje istnieć, a wszystkie rodzaje przekazów telewizyjnych będą transmitować sygnały w postaci cyfrowej.

Nadawanie telewizji cyfrowej opiera się na otwartych standardach i rozwijane jest pod kontrolą konsorcjum DVB.

Najczęściej stosowane systemy to:

· cyfrowe nadawanie satelitarne - DVB-S (DVB-S2);

· nadawanie cyfrowe drogą kablową - DVB-C;

· naziemne nadawanie cyfrowe - DVB-T (DVB-T2);

nadawanie cyfrowe na urządzenia mobilne - DVB-H;

Telewizja przez IP DVB (IPTV);

· Telewizja internetowa lub streaming (telewizja internetowa).

Dotyczący DVB-H, DVB-IPTV i Internet-TV, to jest to wynik integracji (konwergencji) różnych sieci, a także urządzeń końcowych.

mobilny Telewizja DVB-H to technologia mobilnego nadawania, która przesyła cyfrowe wideo przez Internet do urządzeń mobilnych, takich jak PDA, telefon komórkowy lub przenośny telewizor.

Należy zauważyć, że IPTV (IP przez DVB lub IP przez MPEG) nie jest telewizją, która nadaje przez Internet. IPTV przypomina zwykłą telewizję kablową, tyle że do terminala abonenckiego dociera nie kablem koncentrycznym, ale tym samym kanałem co Internet (modem ADSL lub Ethernet).

IPTV to nadawanie kanałów (zwykle odbieranych z satelitów), głównie w formatach MPEG2 / MPEG4 za pośrednictwem Sieć transportowa dostawcy, a następnie oglądanie na komputerze za pomocą jednego z odtwarzaczy wideo - odtwarzacza VLC lub IPTV - odtwarzacza lub na telewizorze za pomocą specjalnego specjalistycznego urządzenia Set Top Box.

Obraz na żywo ( Telewizja internetowa). Model nadawania w telewizji internetowej znacznie różni się od innych koncepcji. Streaming Video odnosi się do technologii kompresji i buforowania danych, które umożliwiają transmisję wideo w czasie rzeczywistym przez Internet.

Sieć komputerowa

Sieci podstawowe

Obecnie Internet wykorzystuje prawie wszystkie znane linie komunikacyjne, od wolnych linii telefonicznych po szybkie cyfrowe kanały satelitarne.

Kanały komunikacji sieci globalnych zorganizowane są przez sieci podstawowe technologii FDM, PDH/SDH, DWDM(Dwuosobowy Diem).

Ponieważ ruch IP jest dziś nieodzownym atrybutem każdej sieci transmisji danych i po prostu nie można go nie obsługiwać, aby świadczyć usługi wysokiej jakości większość dużych sieci globalnych, zwłaszcza sieci operatorów telekomunikacyjnych, zbudowana jest na schemacie czterowarstwowym.

Ryż. 10. Czteropoziomowa struktura nowoczesnej globalnej sieci

Dwa niższe poziomy nie należą do rzeczywistych sieci pakietowych — są to poziomy sieci podstawowej.

Sieci podstawowe (rdzeniowe) są zaprojektowane do tworzenia infrastruktury przełączanej. Na podstawie kanałów utworzonych przez sieci główne sieci wtórne ( komputer lub telefon) sieci.

Na niższym poziomie działa najszybsza jak dotąd technologia Dense Wavelength Division Multiplexing (Dense Wavelength Division Multiplexing) DWDM, która tworzy prędkości spektralne 10 Gb/s i wyżej. Multipleksowanie z podziałem długości fali ( WDM) - technologia multipleksowania z optycznym podziałem długości fali, zwykle nazywany multipleksowanie z podziałem długości fali. Do multipleksera WDM (DWDM, CWDM) można podłączyć prawie każdy sprzęt: SONET/SDH, ATM, Ethernet.

Na kolejnym poziomie działa technologia SDH ( synchroniczna hierarchia cyfrowa). Standardy SDH/PDH zostały opracowane dla szybkich optycznych sieci komunikacyjnych - pierwsze PDH (Plesiochronous Digital Hierarchy, plezjochroniczna hierarchia cyfrowa), a następnie bardziej zaawansowana SDH (Synchronous Digital Hierarchy, synchroniczna hierarchia cyfrowa), powszechny w Europie i jego amerykański odpowiednik SONET. SONET/SDH wiąże się z użyciem metoda multipleksowania w czasie oraz synchronizację odstępów czasu ruchu między elementami sieci oraz określanie poziomów szybkości transmisji danych i parametrów fizycznych.

Trzeci poziom tworzy sieć ATM, której głównym celem jest stworzenie infrastruktury stałych kanałów wirtualnych łączących interfejsy routerów IP działających na trzecim, górnym poziomie sieci globalnej.

Warstwa IP tworzy sieć kompozytową i świadczy usługi użytkownikom końcowym, którzy przesyłają swój ruch IP przez sieć WAN lub wchodzą w interakcję za pośrednictwem protokołu IP z Internetem.

Internet wykorzystuje również „czyste” sieci IP, tak zwane, ponieważ poniżej warstwy IP nie ma innej sieci z przełączaniem pakietów, takiej jak ATM.

Strukturę „czystej” sieci IP pokazano na ryc. poniżej.

Ryż. 11. Struktura „czystej” sieci IP

W takiej sieci kanały cyfrowe są nadal tworzone przez infrastrukturę dwóch niższych warstw, a łącza te są bezpośrednio wykorzystywane przez interfejsy routerów IP, bez żadnej warstwy pośredniej.

Rozwój sieci komunikacyjnych wykazał potrzebę integracji dźwięku, obrazu i innych rodzajów danych, aby móc je razem przesyłać. Ponieważ dyskretne kanały komunikacyjne są bardziej niezawodne i bardziej ekonomiczne niż analogowe kanały komunikacyjne, przyjęto je jako podstawę. W związku z tym liczba sieci analogowych gwałtownie spada i są one zastępowane sieciami dyskretnymi.

miękki przełącznik

Softswitch (soft switch) to elastyczny soft switch, jeden z głównych elementów poziomu kontroli sieci komunikacyjnej nowej generacji NGN

Ryż. 15. Softswitch jako część publicznej sieci komunikacyjnej

Softswitch to urządzenie sterujące sieć NGN, zaprojektowany w celu oddzielenia funkcji zarządzania połączeniami od funkcji przełączania, zdolny do obsługi dużej liczby abonentów i interakcji z serwerami aplikacji, obsługujący otwarte standardy. SoftSwitch jest nośnikiem inteligencji sieci IP, koordynując kontrolę usług połączeń, sygnalizację i funkcje łączności w jednej lub kilku sieciach.

Inną ważną funkcją softswitcha jest połączenie sieci NGN nowej generacji z istniejącymi tradycyjnymi sieciami PSTN za pośrednictwem sygnalizacji (SG) i bram medialnych (MG).

Technologie transferu informacji

Temat 1. Podstawowe pojęcia dotyczące systemów informacji i transmisji informacji

1. Wstęp

Pojęcie telekomunikacji

Elementy teorii informacji

1.3.1 Definicje informacji.

1.3.2 Ilość informacji

1.3.3 Entropia

1.4. Wiadomości i sygnały

1.5. Główne kierunki rozwoju technologii telekomunikacyjnych

Motyw 2 . Sieci informacyjne

2.1. Charakterystyka i klasyfikacja sieci informacyjnych

2.2. Konfiguracja sieci LAN.

2.3. Podstawowe topologie sieci

2.4. Technologie sieciowe sieci lokalne

2.5. Sposoby budowania sieci informacyjnych

Temat 3. Architektury sieci informacyjnych

3.1. Wielowarstwowa architektura sieci informacyjnych

3.2. Model referencyjny (OSI)

Temat 4. Linie komunikacyjne i kanały danych

4.1. Przewodowe linie komunikacyjne

4.2. Optyczne linie komunikacyjne

4.3. Bezprzewodowe kanały komunikacji

4.4. Satelitarne kanały danych

Temat 5. Technologie przesyłania danych w warstwie fizycznej

5.1 Podstawowe funkcje warstwy fizycznej

5.2. Metody konwersji sygnały dyskretne(modulacja i kodowanie):

5.2.1. Modulacja analogowa sygnałów dyskretnych (AM, FM, FM)

5.2.2. Cyfrowe kodowanie sygnałów dyskretnych (impuls i potencjał)

5.3. Sygnały analogowe PCM

5.4. Metody multipleksowania:

5.4.1. metoda FDM

5.4.2. Multipleksowanie z podziałem czasu TDM

5.4.3. Według długości fali WDM (w światłowodowych kanałach komunikacyjnych)

Temat 6. Technologie przesyłania danych w warstwie łącza danych.

6.1. Technologie przesyłania danych na poziomie łącza danych w sieci LAN i łączach dzierżawionych (Ethernet, Token Ring, FDDI; SLIP, HDLC, PPP)

6.2. Technologie warstwy łącza WAN lub transportu szkieletowego (X.25, Frame Relay, ATM, MPLS, Ethernet; ISDN, PDH, SDH/SONET, WDM/DWDM)

Temat 7. Technologie przesyłania informacji na poziomie sieci w sieciach kompozytowych (sieci IP)

7.1. Sieć oparta na warstwie sieci

7.2. Adresowanie w sieciach IP

7.3. Protokół IP

7.4. Routing w sieciach danych.

7.5. Zarządzanie przepływem danych.

Program kursu obejmujący 108 godzin akademickich składa się z jednego modułu merytorycznego (edukacyjnego) z 3 punktami (objętość punktu ECTS wynosi 36 godzin akademickich) i składa się z zajęć stacjonarnych i samodzielnej pracy studentów.

Przeglądając technologie przesyłania informacji, nie sposób nie wspomnieć o modelu OSI, który opisuje strukturę idealnej architektury sieci. Każdy interfejs i protokół transmisji, który zostanie omówiony w tej pracy dyplomowej, zajmuje w tym modelu swój specyficzny poziom.

    1. model osi

Aby różne komponenty sieci mogły się komunikować, muszą działać przy użyciu tego samego protokołu wymiany informacji, to znaczy muszą „mówić” tym samym językiem. Protokół definiuje zestaw reguł organizowania wymiany informacji na wszystkich poziomach interakcji obiektów sieciowych. Model OSI (Open System Interconnect) opracowany przez Międzynarodową Organizację Normalizacyjną (ISO) jest używany jako „linijka” do definiowania poziomów. Model OSI ma siedem poziomów interakcji, które uwzględniają proces wymiany informacji między urządzeniami w sieci. Każda z warstw sieci jest względnie autonomiczna i jest rozpatrywana osobno. Model OSI służy do definiowania funkcji każdej warstwy. Ten model zawiera zasadniczo 2 różne modele:

    model oparty na protokole poziomym, który zapewnia mechanizm interakcji programów i procesów na różnych maszynach;

    model wertykalny oparty na usługach świadczonych przez sąsiednie warstwy na tej samej maszynie.

Rysunek 1.1.1 Model OSI

Warstwa fizyczna (warstwa fizyczna) - dolny poziom modelu, który określa sposób przesyłania danych, reprezentowanych w postaci binarnej, z jednego urządzenia (komputera) do drugiego. Transmisja sygnałów elektrycznych lub optycznych drogą kablową lub radiową odbywa się zgodnie z metodami kodowania sygnałów cyfrowych. Specyfikacje warstwy fizycznej definiują poziomy napięcia, taktowanie napięcia, fizyczne szybkości przesyłania informacji, maksymalne odległości przesyłania informacji, wymagania dotyczące nośników, fizyczne złącza i inne podobne cechy.

Funkcje warstwy fizycznej są zaimplementowane na wszystkich urządzeniach podłączonych do sieci. Po stronie komputera funkcje warstwy fizycznej są realizowane przez kartę sieciową, która zapewnia mechaniczny interfejs do podłączenia komputera do medium transmisyjnego lub portu szeregowego. Warstwa fizyczna definiuje takie rodzaje mediów transmisji danych jak światłowód, skrętka, kabel koncentryczny, łącze satelitarne itp.

Standardowe typy interfejsów sieciowych związanych z warstwą fizyczną to: interfejsy fizyczne USB, RS-232, RS-485, RJ-45, Ethernet (10BASE-T, 100BASE-T i 1000BASE-TX). Podstawowe protokoły warstwy fizycznej: IEEE 802.15 (bluetooth), EIA RS-232, RS-485, DSL (cyfrowa linia abonencka), ISDN (sieć cyfrowa zintegrowanych usług), 802.11 Wi-Fi, GSM, RFID, 802.15.4.

Warstwa łącza danych zapewnia niezawodne przesyłanie danych przez kanał fizyczny. Dane odebrane z warstwy fizycznej, reprezentowane w bitach, pakuje do ramek, sprawdza je pod kątem integralności i w razie potrzeby koryguje błędy (tworzy powtórne żądanie uszkodzonej ramki) i przesyła je do warstwy sieciowej. Wykonując to zadanie, warstwa łącza zajmuje się kwestiami adresowania fizycznego, topologii sieci, powiadamiania o błędach, dostarczania bloków danych w kolejności i sterowania przepływem informacji. Zwykle warstwa ta jest podzielona na dwie podwarstwy: LLC (Logical Link Control) w górnej połowie, która wykonuje sprawdzanie błędów i konserwację warstwy sieci oraz MAC (Media Access Control) w dolnej połowie, która odpowiada za adresowanie fizyczne i odbieranie / przesyłanie pakietów w warstwie fizycznej . Na tym poziomie działają przełączniki, mosty i inne urządzenia, nazywane są urządzeniami drugiego poziomu.

Protokoły warstwy łącza: Controller Area Network (CAN), IEEE 802.3 Ethernet, Fibre Distributed Data Interface (FDDI), Frame Relay, IEEE 802.11 wireless LAN, 802.15.4, Point-to-Point Protocol (PPP), Token Ring, x. 25, bankomat.

W programowaniu poziom ten reprezentuje sterownik karty sieciowej; w systemach operacyjnych istnieje interfejs programowy do wzajemnej interakcji poziomów kanału i sieci. Nie jest to nowy poziom, a po prostu implementacja modelu dla konkretnego systemu operacyjnego. Przykłady takich interfejsów: ODI, NDIS, UDI.

Warstwa sieci (warstwa sesji) zapewnia połączenie i wybór trasy między dwoma systemami końcowymi połączonymi z różnymi „podsieciami”, które mogą znajdować się w różnych lokalizacjach geograficznych. Warstwa sieci odpowiada za tłumaczenie adresów i nazw logicznych na fizyczne, wyznaczanie najkrótszych tras, przełączanie i routing, problemy ze śledzeniem i „przeciążenie” w sieci. Protokoły warstwy sieci kierują dane ze źródła do miejsca docelowego. Urządzenia (routery) działające na tym poziomie są warunkowo nazywane urządzeniami trzeciego poziomu (zgodnie z numerem poziomu w modelu OSI).

Protokoły warstwy sieciowej: IP/IPv4/IPv6 (Protokół Internetowy), IPX (Internetwork Packet Exchange), X.25 (częściowo zaimplementowany w warstwie 2), IPsec (Internet Protocol Security). Protokoły routingu — RIP (Protokół informacji o routingu), OSPF (Open Shortest Path First).

Warstwa transportowa (warstwa transportowa) – najwyższa z warstw odpowiedzialnych za transport danych, ma za zadanie zapewnić niezawodny transfer danych od nadawcy do odbiorcy. Jednocześnie poziom niezawodności może się zmieniać w szerokim zakresie. Istnieje wiele klas protokołów warstwy transportowej, począwszy od protokołów zapewniających tylko podstawowe funkcje transportowe (na przykład funkcje przesyłania danych bez potwierdzenia), po protokoły zapewniające, że wiele pakietów danych jest dostarczanych do miejsca docelowego we właściwej kolejności, multipleksowanie wielu danych strumienie, zapewniają mechanizm kontroli przepływu danych i gwarantują aktualność odbieranych danych.

Na przykład UDP ogranicza się do kontroli integralności danych w ramach pojedynczego datagramu i nie wyklucza możliwości utraty całego pakietu, zduplikowania pakietów lub naruszenia kolejności, w jakiej pakiety danych zostały odebrane. Dodaje dwa pola do nagłówka pakietu IP, z których jedno, pole „port”, zapewnia multipleksację informacji między różnymi procesami aplikacji, a drugie pole – „suma kontrolna” – pozwala zachować integralność danych.

Przykładami aplikacji sieciowych korzystających z UDP są NFS i SNMP.

TCP zapewnia niezawodną ciągłą transmisję danych, wykluczającą utratę danych lub naruszenie kolejności ich nadejścia lub powielania, może redystrybuować dane poprzez dzielenie dużych porcji danych na fragmenty i odwrotnie, sklejając fragmenty w jeden pakiet.

Główne protokoły warstwy transportowej to: SPX (Sequenced Packet Exchange), TCP (Transmission Control Protocol), UDP (User Datagram Protocol).

Warstwa sesji synchronizuje konwersację między obiektami warstwy prezentacji i zarządza tworzeniem/kończeniem sesji, wymianą informacji, ustalaniem prawa do przesyłania danych oraz utrzymywaniem sesji w okresach nieaktywności aplikacji. Sesje składają się z dialogu między dwoma lub więcej obiektami widoku. Jako przykład narzędzi programowych zapewniających działanie warstwy sesyjnej mogą służyć interfejsy NetBIOS sieci Windows oraz Sockety - gniazda sieci TCP/IP.

Warstwa prezentacji odpowiada za zapewnienie, że informacje przesyłane z warstwy aplikacji jednego systemu są czytelne dla warstwy aplikacji innego systemu. W razie potrzeby warstwa prezentacji dokonuje translacji między wieloma formatami prezentacji informacji przy użyciu wspólnego formatu prezentacji informacji. W razie potrzeby przekształcane są nie tylko rzeczywiste dane, ale także struktury danych używane przez programy. Warstwa prezentacji odpowiada za umożliwienie dialogu między aplikacjami na różnych maszynach. Ta warstwa zapewnia transformację danych (kodowanie, kompresję itp.) warstwy aplikacji w strumień informacji dla warstwy transportowej. Protokoły warstwy prezentacji są zazwyczaj częścią funkcjonalności trzech najwyższych warstw modelu.

Warstwa aplikacji (warstwa aplikacji) - górna warstwa modelu OSI, która zapewnia interakcję aplikacji użytkownika z siecią:

    umożliwia aplikacjom korzystanie z usług sieciowych:

    • zdalny dostęp do plików i baz danych,

      Przekazywanie poczty e-mail;

    odpowiedzialny za przekazywanie informacji serwisowych;

    dostarcza aplikacjom informacje o błędach;

    generuje żądania do warstwy prezentacji.

Protokoły warstwy aplikacji: HTTP, SMTP, SNMP, POP3, FTP, TELNET i inne.

Zbadanie struktury tego modelu pozwala na stworzenie jaśniejszego obrazu lokalizacji każdej technologii sieciowej w złożonym systemie sieciowym.

      Systemy identyfikacji obiektów

Sama idea automatycznego rozpoznawania obiektów nie jest nowa. Znanych jest co najmniej pięć rodzajów identyfikacji:

    optyczne: systemy oparte na kodach kreskowych, rozpoznawanie znaków;

    magnetyczne: pasek magnetyczny, rozpoznawanie znaków nanoszonych przez media magnetyczne;

    identyfikacja radiowa (RFID) i transmisja danych: plastikowe karty chipowe ze zintegrowanym mikroprocesorem, znaczniki radiowe;

    biometryczne: rozpoznawanie odcisk palca, skanując wzór tęczówki oka;

    akustyczne: identyfikacja po parametrach dźwięku (głos).

        Identyfikacja optyczna

Identyfikacja optyczna to zasada wyboru poszczególnych elementów systemu spośród wielu podobnych za pomocą punktowego źródła promieniowania optycznego w widzialnym zakresie długości fal.

Identyfikacja optyczna jest często stosowana na kolei. Sprzęt do analizy wideo zapewnia automatyczną kontrolę torów kolejowych, przyległego terytorium (pierwszego przejazdu) i innych obiektów infrastruktury przy użyciu środki techniczne Obiekt monitorowany.

Sprzęt rozwiązuje następujące zadania:

    rejestracja, transmisja i przetwarzanie analityczne informacji wideo o sytuacji w chronionych obiektach;

    automatyczne tworzenie operacyjnego sygnału alarmowego w przypadku sytuacji awaryjnej (alarmującej);

    ciągłe monitorowanie wydajności wszystkich elementów kompleksu oraz automatyczne wykrywanie nieautoryzowanych zmian jego ustawień.

Wbudowane w sprzęt algorytmy przetwarzania analizy wideo powinny zapewniać:

    automatyczne wykrywanie, śledzenie i klasyfikacja celów na podejściach do torów kolejowych i innych obiektów infrastruktury;

    klasyfikacja celów według rodzajów zachowań, w tym: pojawienie się w danej strefie;

    kontrola jakości obrazu i automatyczne generowanie komunikatu alarmowego w przypadku znacznego pogorszenia jakości.

Ponadto identyfikacja optyczna służy do sterowania ruchem taboru transportu kolejowego (RT) poprzez automatyczne wykrywanie i identyfikowanie wagonów, cystern i platform po ich numerze rejestracyjnym.

Kamera zamontowana jest na stelażu na wysokości do 6 metrów i skierowana jest wzdłuż toru kolejowego. Przedmiotem analizy wideo są ludzie i pojazdy poruszające się losowo w polu widzenia kamery. Sprzęt obsługuje różne profile standardu ONVIF (Open Network Video Interface Forum). ONVIF to standard branżowy, który definiuje protokoły interakcji urządzeń, takich jak kamery IP, rejestratory DVR i systemy zarządzania wideo.

Wadą identyfikacji optycznej jest możliwość zanieczyszczenia kamer umieszczonych w skomplikowanych obszarach, wpływ zakłóceń na jakość obrazu, a co za tym idzie identyfikacji, dość wysoki koszt takich systemów (zestawów kamer i analizatorów obrazu).

        RFID

RFID (Radio Frequency IDentification) - identyfikacja radiowa, metoda automatycznej identyfikacji obiektów, w której dane przechowywane w tzw. transponderach, czyli tagach RFID, są odczytywane lub zapisywane za pomocą sygnałów radiowych. Każdy system RFID zawiera następujące elementy:

    urządzenie czytające (czytnik, czytnik lub interrogator);

    transponder (znacznik RFID).

Większość tagów RFID składa się z dwóch części. Pierwszym z nich jest układ scalony (IC) do przechowywania i przetwarzania informacji, modulowania i demodulowania sygnału o częstotliwości radiowej (RF) oraz niektórych innych funkcji. Drugi to antena do odbioru i transmisji sygnału.

Rysunek 1.2.2.1 Antena RFID

Istnieje kilka sposobów organizowania tagów i systemów RFID:

    Według częstotliwości pracy

    • Oznaczenia pasma LF (125-134 kHz). Systemy pasywne z tego zakresu są niedrogie i ze względu na swoje właściwości fizyczne są wykorzystywane do podskórnych znaczników w mikroczipowaniu zwierząt, ludzi i ryb. Jednak ze względu na długość fali występują problemy z odczytem na duże odległości, a także problemy z kolizjami odczytu.

      Znaczniki pasma HF (13,56 MHz). Zaletą tych systemów jest to, że są tanie, nie stwarzają problemów środowiskowych i licencyjnych, są dobrze znormalizowane i mają szeroką gamę rozwiązań. Wykorzystywane są w systemach płatności, logistyce, identyfikacji osobistej. Dla częstotliwości 13,56 MHz opracowano normę ISO 14443 (typy A/B). Pojawiają się jednak problemy z odczytem na duże odległości, w warunkach dużej wilgotności, obecności metalu, a także problemy związane z pojawianiem się kolizji podczas czytania.

      Znaczniki pasma UHF (UHF, 860-960 MHz). Etykiety z tej gamy mają największy zakres rejestracji, w wielu standardach z tej gamy znajdują się mechanizmy antykolizyjne. W systemach RFID UHF, w porównaniu do LF i HF, koszt tagów jest niższy, podczas gdy koszt innych urządzeń jest wyższy. Pasmo częstotliwości UHF jest obecnie dostępne do bezpłatnego użytku w Federacja Rosyjska w tzw. paśmie „europejskim” - 863-868 MHz oraz w paśmie „amerykańskim” ____.

    Według źródła zasilania

    • Bierny

      Aktywny

      półpasywny

    Według rodzaju pamięci

    • RO (tylko do odczytu) - zawiera tylko identyfikator. Dane są zapisywane tylko raz podczas produkcji

      WORM (Write Once Read Many) - zawiera identyfikator i blok pamięci jednorazowego zapisu

      RW (odczyt i zapis) - zawierają identyfikator i blok pamięci do wielokrotnego zapisu informacji. Zawarte w nich dane można wielokrotnie nadpisywać.

    Odległość czytania

      Identyfikacja w pobliżu (odczyt z odległości do 20 cm)

      Identyfikacja średniego zasięgu (od 20 cm do 10 m)

      Identyfikacja dalekiego zasięgu (5m do 300m)

    Przez wykonanie

Pasywne tagi RFID nie mają wbudowanego źródła energii. Prąd elektryczny indukowany w antenie przez sygnał elektromagnetyczny z czytnika zapewnia wystarczającą moc do działania chipa krzemowego znajdującego się w znaczniku i transmisji sygnału odpowiedzi. W praktyce maksymalna odległość odczytu tagów pasywnych waha się od 10 cm (4 cale) (wg ISO 14443) do kilku metrów (EPC i ISO 18000-6), w zależności od wybranej częstotliwości i wielkości anteny. Tagi pasywne (860-960 MHz) przesyłają sygnał poprzez modulację odbitego sygnału nośnego (modulacja wstecznego rozproszenia). Antena czytnika emituje sygnał o częstotliwości nośnej i odbiera zmodulowany sygnał odbity od znacznika.

Aktywne tagi RFID posiadają własne źródło zasilania i nie zależą od energii czytnika, dzięki czemu są odczytywane z dużej odległości (do 300 metrów), są większe i mogą być wyposażone w dodatkową elektronikę. Jednak te znaczniki są najdroższe, a baterie mają ograniczony czas działania. Tagi aktywne są w większości przypadków bardziej niezawodne i zapewniają najwyższą dokładność odczytu z maksymalnej odległości. Tagi aktywne, posiadając własne zasilanie, mogą również generować sygnał wyjściowy o wyższym poziomie niż tagi pasywne, dzięki czemu mogą być stosowane w środowiskach bardziej agresywnych dla sygnału RF: woda, powietrze.

Półpasywne tagi RFID, zwane również półaktywnymi, są bardzo podobne do tagów pasywnych, ale mają baterię, która zasila chip. Jednocześnie zasięg tych znaczników zależy tylko od czułości odbiornika czytnika i mogą one funkcjonować w większej odległości iz lepszymi parametrami.

Czytniki informacji to urządzenia, które odczytują informacje z tagów i zapisują do nich dane. Urządzenia te mogą być na stałe podłączone do systemu księgowego lub pracować autonomicznie. Czytelnicy dzielą się na stacjonarne i mobilne.

Rysunek 1.2.2.2 Czytnik RFID

Międzynarodowe standardy RFID, jako integralna część technologii automatycznej identyfikacji, są opracowywane i przyjmowane przez międzynarodową organizację ISO wraz z IEC.

Podział tagów na klasy został zaakceptowany na długo przed pojawieniem się inicjatywy EPCglobal mającej na celu usprawnienie dużej liczby protokołów RFID, ale nie było ogólnie przyjętego protokołu wymiany między czytnikami a tagami. Doprowadziło to do niezgodności między czytnikami i tagami różnych producentów. W 2004 roku ISO/IEC przyjęła jedną międzynarodową normę ISO 18000, która opisuje protokoły wymiany (interfejsy radiowe) we wszystkich zakresach częstotliwości RFID od 135 kHz do 2,45 GHz. Zakres UHF (860-960) MHz odpowiada normie ISO 18000-6A/B. W 2004 roku specjaliści EPCglobal stworzyli nowy protokół wymiany pomiędzy czytnikiem a tagiem UHF - Class 1 Generation 2. W 2006 roku propozycja EPC Gen2 z niewielkimi zmianami została przyjęta przez ISO/IEC jako dodatek Z do istniejących wersji A i B standardu ISO 18000-6, a standard ISO/IEC 18000-6C jest obecnie najszerzej stosowanym standardem technologii RFID w paśmie UHF.

Wady RFID to:

    wydajność kolczyka zostaje utracona w przypadku częściowego uszkodzenia mechanicznego;

    podatność na zakłócenia w postaci pól elektromagnetycznych;

    niewystarczająca otwartość opracowywanych standardów.

W tej sekcji rozważono główne technologie identyfikacji obiektów. Wśród nich szczególną uwagę zwrócono na RFID i identyfikację optyczną, które można wykorzystać do zainicjowania połączenia stałej dyspozytorni z rejestratorem ruchu pociągów (TRDR).

      Technologie bezprzewodowe

Aby przeprowadzić proces wymiany informacji pomiędzy komputerem PC a RPDP, postanowiono zbadać istniejące technologie bezprzewodowej transmisji danych, aby następnie wybrać najbardziej odpowiednią.

        bluetooth

Technologia BlueTooth (standard IEEE 802.15) była pierwszą technologią zorganizowania bezprzewodowej sieci danych osobistych (WPAN - Wireless Personal Network). Umożliwia transmisję danych i głosu kanałem radiowym na niewielkie odległości (10–100 m) w nielicencjonowanym paśmie częstotliwości 2,4 GHz oraz łączy komputery PC, telefony komórkowe i inne urządzenia w przypadku braku bezpośredniej widoczności. Podczas tworzenia głównym celem było opracowanie interfejsu radiowego o niskim zużyciu energii i niskich kosztach, który umożliwiłby komunikację między telefonami komórkowymi i bezprzewodowymi zestawami słuchawkowymi.

Stos protokołu bezprzewodowego przesyłania danych BlueTooth:

Rysunek 1.3.1.1 Stos protokołów Bluetooth

Technologia BlueTooth obsługuje połączenia punkt-punkt i punkt-wielopunkt. Co najmniej dwa urządzenia korzystające z tego samego kanału tworzą piconet. Jedno z urządzeń pracuje jako master (master), a reszta - jako slave (slave). W jednej sieci piconet może znajdować się do siedmiu aktywnych urządzeń podrzędnych, a pozostałe urządzenia podrzędne znajdują się w stanie „zaparkowanym”, pozostając zsynchronizowane z urządzeniem nadrzędnym. Współdziałające pikonety tworzą „sieć rozproszoną” (scatternet). Każda sieć piconet ma tylko jedno urządzenie nadrzędne, ale urządzenia podrzędne mogą należeć do różnych sieci piconet. Ponadto urządzenie nadrzędne jednej sieci piconet może być urządzeniem podrzędnym w innej.

W większości przypadków technologia BlueTooth jest wykorzystywana przez programistów do zastępowania przewodowego połączenia szeregowego między dwoma urządzeniami połączeniem bezprzewodowym. Aby uprościć zadanie nawiązywania połączenia i wykonywania transferu danych, opracowano wersję firmware dla modułów BlueTooth, która stanowi kompletną implementację programową całego stosu protokołów BlueTooth (rys. 1), a także SPP (Serial Port Profile ) i SDP (profil wykrywania usług). Takie rozwiązanie pozwala programiście sterować modułem, nawiązywać bezprzewodowe połączenie szeregowe i wykonywać przesyłanie danych za pomocą specjalnych poleceń znakowych. Nakłada jednak pewne ograniczenia na wykorzystanie możliwości technologii BlueTooth. Wpływa to głównie na zmniejszenie maksymalnej przepustowości oraz liczby jednoczesnych połączeń asynchronicznych obsługiwanych przez moduł BlueTooth.

W połowie 2004 r. specyfikacja BlueTooth w wersji 1.1, która została opublikowana w 2001 r., została zastąpiona specyfikacją BlueTooth w wersji 1.2. Główne różnice między specyfikacją 1.2 i 1.1 obejmują:

    Wdrożenie technologii adaptacyjnego przeskakiwania częstotliwości kanału w celu uniknięcia kolizji (Adaptive Friquency hopping, AFH).

    Skrócenie czasu potrzebnego do nawiązania połączenia między dwoma modułami BlueTooth.

Wiadomo, że BlueTooth i Wi-Fi korzystają z tego samego nielicencjonowanego pasma 2,4 GHz. Dlatego w przypadkach, gdy urządzenia BlueTooth znajdują się w zasięgu urządzeń Wi-Fi i komunikują się ze sobą, może to prowadzić do kolizji i wpływać na wydajność urządzeń. Technologia AFH pozwala uniknąć kolizji: podczas wymiany informacji w celu zwalczania zakłóceń technologia BlueTooth wykorzystuje przeskok częstotliwości kanału, co nie uwzględnia kanałów częstotliwości, na których komunikują się urządzenia Wi-Fi.

Schemat rozwoju technologii BlueTooth opracowany przez konsorcjum SIG został zaprojektowany przez:

Rysunek 1.3.1.2 Etapy rozwoju technologii Bluetooth

Obecnie na rynku istnieje wiele firm oferujących moduły BlueTooth, a także komponenty do samodzielnego wdrażania sprzętu urządzenia BlueTooth. Praktycznie wszyscy producenci oferują moduły, które obsługują specyfikacje BlueTooth w wersji 1.1 i 1.2 i są zgodne z klasą 2 (zasięg 10 m) i klasą 1 (zasięg 100 m). Jednak chociaż wersja 1.1 jest w pełni zgodna z wersją 1.2, wszystkie ulepszenia wprowadzone w wersji 1.2 omówione powyżej można uzyskać tylko wtedy, gdy oba urządzenia są zgodne z wersją 1.2.

W listopadzie 2004 r. przyjęto specyfikację BlueTooth w wersji 2.0, obsługującą technologię Enhanced Data Rate (EDR). Specyfikacja 2.0 z obsługą EDR umożliwia wymianę danych z prędkością do 3 Mb/s. Pierwsze seryjnie produkowane próbki modułów odpowiadających wersji 2.0 i wspierających technologię EDR producenci zaoferowali pod koniec 2005 roku. Zasięg takich modułów wynosi 10 m przy braku linii wzroku, co odpowiada klasie 2, aw obecności linii wzroku może osiągnąć 30 m.

Jak wspomniano wcześniej, głównym celem technologii BlueTooth jest zastąpienie przewodowego połączenia szeregowego. Technologia BlueTooth definiuje następujące profile: profil LAN (Profil dostępu do sieci LAN), profil wymiany danych (Generic Object Exchange), profil transferu danych (Profile Object Push Profile), profil wymiany plików (Profil transferu plików), profil synchronizacji (Profil synchronizacji).

Do funkcjonowania Sieć bezprzewodowa Wi-Fi wykorzystuje fale radiowe, podobnie jak telefony komórkowe, telewizory i radia. Wymiana informacji w sieci bezprzewodowej jest pod wieloma względami podobna do komunikacji z wykorzystaniem komunikacji radiowej.

Większość urządzeń Wi-Fi można podzielić na dwie duże grupy:

    Routery WiFi (routery) i punkty dostępowe

    urządzenia końcowe użytkowników wyposażone w adaptery Wi-Fi.

Bezprzewodowy adapter komputera konwertuje dane na sygnał radiowy i przesyła je bezprzewodowo za pomocą anteny. Router bezprzewodowy odbiera i dekoduje ten sygnał. Informacje z routera są przesyłane do Internetu przewodowym kablem Ethernet.

W rzeczywistości zarówno routery WiFi, jak i punkty dostępowe WiFi pełnią te same funkcje - tworzą zasięg radiowy (tryb AP), w którym każde urządzenie wyposażone w adapter może połączyć się z siecią w trybie AP-Client. Na tym kończą się podobieństwa urządzeń. Urządzenia te różnią się zarówno wizualnie, jak i strukturalnie. Klasyczny hotspot WiFi ma tylko jeden port Ethernet. Klasyczny Routery WiFi jest ich 5. Jednocześnie port WAN jest przydzielany osobno, który służy do podłączenia kabla dostawcy. Pozostałe porty Ethernet są oznaczone jako LAN — służą do łączenia się przez skręconą parę klientów sieci lokalnej, którą tworzy router.

W ustawieniach fabrycznych punkt dostępowy ma wyłączony serwer DHCP, a aby połączyć się z nim przez Ethernet lub WiFi, karta sieciowa musi mieć przypisany statyczny adres IP. W przypadku routerów serwer DHCP jest włączony w ustawieniach fabrycznych, a każdy klient routera może automatycznie otrzymać adres IP z tego serwera. W tym celu należy skonfigurować usługę klienta DHCP karty, która służy do łączenia się z routerem, aby automatycznie uzyskiwała adresy IP. Poza włączonym w ustawieniach fabrycznych serwerem DHCP routery wyposażone są w zaporę sprzętową i programową, która minimalizuje prawdopodobieństwo ataków hakerskich i kradzieży poufnych informacji od klientów sieci lokalnej, którą tworzy, ale nie gwarantuje 100% ochrona.

Zwykle schemat Sieci Wi-Fi zawiera co najmniej jeden punkt dostępowy i co najmniej jednego klienta. Punkt dostępowy przesyła swój identyfikator sieci (SSID) za pomocą specjalnych pakietów sygnalizacyjnych z szybkością 0,1 Mb/s co 100 ms. Znając identyfikator SSID sieci, klient może dowiedzieć się, czy jest możliwe połączenie z tym punktem dostępowym. Gdy dwa punkty dostępowe z identycznymi identyfikatorami SSID wejdą w obszar zasięgu, odbiornik może wybrać jeden z nich na podstawie danych o sile sygnału.

Podczas korzystania ze sprzętu Wi-Fi można wyróżnić kilka głównych trybów pracy: punkt-punkt, tryb infrastruktury, praca w trybie mostu i tryb wzmacniaka. Przyjrzyjmy się bliżej każdemu z tych trybów działania.

W trybie punkt-punkt klienci bezprzewodowi są połączeni bezpośrednio ze sobą, w tym przypadku punkty dostępowe nie są używane. Ten tryb można wykorzystać np. do połączenia ze sobą dwóch komputerów wyposażonych w adaptery Wi-Fi bez żadnych dodatkowych urządzeń.

Rysunek 1.3.2.1 Połączenie punkt-punkt

W trybie infrastruktury (punkt-wielopunkt) wszystkie urządzenia podłączone do sieci bezprzewodowej komunikują się ze sobą za pośrednictwem urządzenia pośredniczącego zwanego punktem dostępowym (AP, punkt dostępu).

Rysunek 1.3.2.2 Infrastrukturalny tryb działania

Tryb mostka bezprzewodowego jest używany, gdy konieczne jest połączenie dwóch przewodowych sieci lokalnych znajdujących się w niewielkiej odległości od siebie (20-250 m), ale nie ma możliwości ułożenia kabli. W takim przypadku klienci bezprzewodowi nie mogą łączyć się z punktami dostępu, a same punkty dostępu są używane tylko do przesyłania ruchu z jednej lokalnej sieci przewodowej do drugiej.

Używany do Działa Wi-Fi adaptery (nadajniki-odbiorniki, nadajniki-odbiorniki) są bardzo podobne do tych stosowanych w przenośnych radiotelefonach dupleksowych, telefonach komórkowych i innych podobnych urządzeniach. Mogą nadawać i odbierać fale radiowe, a także zamieniać jedynki i zera sygnału cyfrowego na fale radiowe i odwrotnie. Jednocześnie istnieją pewne znaczące różnice między odbiornikami i nadajnikami WiFi a innymi podobnymi urządzeniami. Najważniejszą różnicą jest to, że działają w innych zakresach częstotliwości. Większość nowoczesnych laptopów i wiele komputerów stacjonarnych jest sprzedawanych z wbudowanymi bezprzewodowymi nadajnikami-odbiornikami. Jeśli laptop nie ma takiego urządzenia, istnieją adaptery, które podłącza się do gniazda rozszerzeń na karty PC lub portu USB. Po zainstalowaniu karty sieci bezprzewodowej i odpowiednich sterowników umożliwiających jej prawidłowe działanie, komputer może automatycznie wyszukiwać dostępne sieci.

Transceivery WiFi mogą działać w jednym z trzech pasm częstotliwości. Możliwe też, że następuje szybki „przeskok” z jednego zakresu do drugiego. Technika ta pozwala zmniejszyć efekt zakłóceń i jednocześnie wykorzystać możliwości komunikacji bezprzewodowej wielu urządzeń. Większość obecnych standardów technologii WiFi wykorzystuje pasmo częstotliwości 2,4 GHz, a dokładniej pasmo częstotliwości 2400–2483,5 MHz. Oprócz zakresu częstotliwości 2,4 GHz, obecne standardy WiFi wykorzystują zakres 5 GHz w pasmach częstotliwości 5,180-5,240 GHz i 5,745-5,825 GHz. Częstotliwości te są znacznie wyższe niż te używane w telefonach komórkowych, przenośnych radiach dupleksowych i telewizji. Przy wyższej częstotliwości można przesłać więcej danych.

Wi-Fi wykorzystuje standardy sieciowe 802.11 w kilku wersjach:

    Zgodnie ze standardem 802.11a dane są przesyłane w paśmie 5 GHz z prędkością do 54 megabitów na sekundę. Zapewnia również multipleksowanie z ortogonalnym podziałem częstotliwości OFDM, bardziej wydajną technikę kodowania, która dzieli oryginalny sygnał po stronie nadajnika na wiele sygnałów podrzędnych. Takie podejście zmniejsza wpływ zakłóceń.

    802.11b to najwolniejszy i najtańszy standard. Przez jakiś czas, ze względu na swój koszt, stał się powszechny, ale teraz jest zastępowany przez więcej szybkie standardy gdy stają się tańsze. Standard 802.11b został zaprojektowany do pracy w paśmie 2,4 GHz. Szybkość przesyłania danych wynosi do 11 megabitów na sekundę, gdy jest używana do zwiększenia szybkości manipulacji kodem komplementarnym (komplementarne kluczowanie kodu, CCK).

    Standard 802.11g, podobnie jak 802.11b, zapewnia pracę w paśmie 2,4 GHz, ale zapewnia znacznie wyższą szybkość przesyłania danych - do 54 megabitów na sekundę. 802.11g jest szybszy, ponieważ używa tego samego kodowania OFDM co 802.11a.

    Najnowszym standardem jest 802.11n. To znacznie zwiększyło szybkość przesyłania danych i rozszerzyło zakres częstotliwości. Jednocześnie, chociaż standard 802.11g teoretycznie jest w stanie zapewnić transfer danych z szybkością 54 megabitów na sekundę, rzeczywista prędkość wynosi około 24 megabitów na sekundę z powodu przeciążenia sieci. Standard 802.11n może zapewnić transfer danych z szybkością 140 megabitów na sekundę. Norma została zatwierdzona 11 września 2009 r. przez Instytut Inżynierów Elektryków i Elektroników (IEEE), światowego lidera w opracowywaniu i wdrażaniu nowych norm.

Najpopularniejszymi obecnie standardami sieci bezprzewodowych są IEEE 802.11bi 802.11g. Sprzęt takich sieci, zgodnie z IEEE, pracuje w zakresie 2400-2483,5 MHz i jest w stanie przesyłać dane z maksymalną prędkością odpowiednio 11 i 54 Mb/s.

Rozkład fal w rozważanym zakresie ma szereg oryginalnych cech. Pomimo podobieństwa funkcjonalnego urządzeń bezprzewodowych i przewodowych, różnica w ich instalacji, instalacji i konfiguracji jest znaczna. Przyczyna leży we właściwościach fizycznych nośników używanych do przesyłania informacji. W przypadku urządzeń bezprzewodowych należy wziąć pod uwagę prawa propagacji fal radiowych. Radio jest bardziej wrażliwe na różnego rodzaju zakłócenia. Dlatego obecność przegród, ścian i stropów żelbetowych może wpływać na szybkość przesyłania danych. Warunki odbioru i transmisji sygnału radiowego pogarszają nie tylko przeszkody fizyczne, ale także różne urządzenia emitujące fale radiowe powodują zakłócenia.

Kiedyś standardem bezpieczeństwa w regionalnych sieciach komunikacyjnych była technologia Wired Equivalency Privacy (WEP). Jednak hakerzy odkryli luki w zabezpieczeniach WEP i teraz łatwo jest znaleźć aplikacje i programy przeznaczone do hakowania sieci z taką ochroną. WEP jest oparty na szyfrze strumieniowym RC4, wybranym ze względu na jego dużą szybkość i zmienną długość klucza. CRC32 służy do obliczania sum kontrolnych.

WPA zastąpiło technologię bezpieczeństwa bezprzewodowego WEP. Zaletami WPA są zwiększone bezpieczeństwo danych i ściślejsza kontrola dostępu do sieci bezprzewodowych. Obecnie sieć bezprzewodową uważa się za bezpieczną, jeśli posiada trzy główne elementy systemu bezpieczeństwa: uwierzytelnianie użytkownika, poufność i integralność transmisji danych. Zabezpieczony dostęp WiFi (WPA) jest obecnie częścią protokołu bezpieczeństwa sieci bezprzewodowej 802.11i. Technologia ta obsługuje podstawowe uwierzytelnianie protokołów 802.1x, takich jak Extensible Authentication Protocol (EAP), który angażuje w uwierzytelnianie trzy strony - dzwoniącego (klienta), wywoływanego (punkt dostępowy) oraz serwer uwierzytelniający, co znacznie zwiększa bezpieczeństwo połączenie. Ponadto WPA zapewnia poufność transmisji danych poprzez szyfrowanie ruchu za pomocą kluczy tymczasowych z wykorzystaniem protokołu TKIP oraz integralność informacji poprzez weryfikację sumy kontrolnej MIC (Message Integrity Check). Podobnie jak w przypadku WEP, WPA umożliwia logowanie za pomocą hasła. Większość publicznych hotspotów jest albo otwarta, albo korzysta z WPA lub 128-bitowego WEP, chociaż niektóre nadal używają starego, wrażliwego systemu WEP. WPA i WPA2 są obecnie rozwijane i promowane przez Wi-Fi Alliance.

Aby zapewnić jeszcze większe bezpieczeństwo, czasami stosuje się filtrowanie adresów MAC (Media Access Control). Nie używa hasła do identyfikacji użytkowników, wykorzystuje fizyczny sprzęt komputera. Każdy komputer ma swój unikalny adres MAC. Filtrowanie adresów MAC zapewnia, że ​​tylko komputery z określonymi adresami MAC mogą uzyskać dostęp do sieci. Podczas konfigurowania routera należy określić, które adresy mają dostęp do sieci. System nie jest w 100% niezawodny. Haker z odpowiednim poziomem wiedzy może sfałszować adres MAC, to znaczy skopiować znany dozwolony adres MAC i nakłonić system do imitowania tego adresu na swoim komputerze, umożliwiając mu wejście do sieci.

Korzyści z Wi-Fi

    Umożliwia wdrożenie sieci bez prowadzenia kabla, co może obniżyć koszty wdrożenia i/lub rozbudowy sieci. Lokalizacje, w których nie można zainstalować kabla, takie jak na zewnątrz i w budynkach zabytkowych, mogą być obsługiwane przez sieci bezprzewodowe.

    Umożliwia urządzeniom mobilnym dostęp do sieci.

    Urządzenia Wi-Fi są szeroko rozpowszechnione na rynku. Zgodność sprzętu jest gwarantowana przez obowiązkową certyfikację sprzętu z logo Wi-Fi.

    W strefie Wi-Fi kilku użytkowników może uzyskać dostęp do Internetu z komputerów, laptopów, telefonów itp.

    promieniowanie z Urządzenia Wi-Fi w czasie transmisji danych o rząd wielkości (10 razy) mniej niż w przypadku telefonu komórkowego.

Technologia bezprzewodowej transmisji danych ZigBee została wprowadzona na rynek po pojawieniu się technologii bezprzewodowej transmisji danych BlueTooth i Wi-Fi. Pojawienie się technologii ZigBee wynika przede wszystkim z faktu, że w przypadku niektórych zastosowań (np. do zdalnego sterowania oświetleniem lub bramą garażową, czy odczytywania informacji z czujników) głównym kryterium wyboru technologii transmisji bezprzewodowej jest niski pobór mocy sprzęt i jego niski koszt. Oznacza to niską przepustowość, gdyż w większości przypadków czujniki zasilane są z wbudowanej baterii, której czas pracy powinien przekraczać kilka miesięcy, a nawet lat. Istniejące w tamtym czasie technologie bezprzewodowej transmisji danych BlueTooth i Wi-Fi nie spełniały tych kryteriów, zapewniając transmisję danych z dużą prędkością, przy wysokim zużyciu energii i kosztach sprzętu. W 2001 roku Grupa Robocza nr 4 IEEE 802.15 rozpoczęła prace nad stworzeniem nowego standardu spełniającego następujące wymagania:

    bardzo niski pobór mocy sprzętu realizującego technologię bezprzewodowej transmisji danych (żywotność baterii powinna wynosić od kilku miesięcy do kilku lat);

    przekazywanie informacji powinno odbywać się z małą prędkością;

    niski koszt sprzętu.

W rezultacie powstał standard IEEE 802.15.4. Na ryc. Rysunek 5 przedstawia model interakcji standardu IEEE 802.15.4, technologii bezprzewodowej transmisji danych ZigBee i użytkownika końcowego.

Rysunek 1.3.3.1 Model interakcji standardu IEEE 802.15.4, technologii bezprzewodowej transmisji danych ZigBee i użytkownika końcowego

Standard IEEE 802.15.4 definiuje interakcję tylko dwóch najniższych warstw modelu interakcji: warstwy fizycznej (PHY) i warstwy kontroli dostępu radiowego dla trzech nielicencjonowanych pasm częstotliwości: 2,4 GHz, 868 MHz i 915 MHz.

Warstwa MAC odpowiada za kontrolę dostępu do kanału radiowego z wykorzystaniem metody Carrier Sense Multiple Access with Collision Avoidance (CSMA-CA), a także zarządzanie połączeniem i odłączeniem od sieci danych oraz zapewnienie ochrony przesyłanych informacji za pomocą klucza symetrycznego ( AES-128).

Z kolei technologia bezprzewodowej transmisji danych ZigBee zaproponowana przez sojusz ZigBee definiuje pozostałe poziomy modelu interakcji, które obejmują warstwę sieciową, warstwę bezpieczeństwa, warstwę struktury aplikacji oraz warstwę profilu aplikacji. Warstwa sieciowa, technologia bezprzewodowej transmisji danych ZigBee, jest odpowiedzialna za wykrywanie urządzeń i konfigurację sieci oraz obsługuje trzy opcje topologii sieci.

Aby zapewnić niski koszt integracji technologii transmisji bezprzewodowej ZigBee z różnymi aplikacjami, sprzętowa implementacja standardu IEEE 802.15.4 ma dwie formy: urządzenia z ograniczeniami (RFD) i urządzenia w pełni funkcjonalne (FFD).

Oprócz podziału urządzeń na RFD i FFD, ZigBee Alliance definiuje trzy typy urządzeń logicznych: koordynator (koordynator) ZigBee, router ZigBee i urządzenie końcowe ZigBee. Koordynator wykonuje inicjalizację sieci, zarządzanie węzłem, a także przechowuje informacje o ustawieniach każdego węzła podłączonego do sieci. Router ZigBee jest odpowiedzialny za routing wiadomości przesyłanych przez sieć z jednego węzła do drugiego. Urządzenie końcowe oznacza każde urządzenie końcowe podłączone do sieci. Omówione powyżej urządzenia RFD i FFD są właśnie urządzeniami końcowymi. Typ urządzenia logicznego podczas budowy sieci jest określany przez użytkownika końcowego poprzez wybór konkretnego profilu proponowanego przez sojusz ZigBee. Przy budowie sieci o topologii „każdy z każdym” transmisja komunikatów z jednego węzła sieci do drugiego może odbywać się różnymi drogami, co pozwala na budowanie sieci rozproszonych (łączenie kilku małych sieci w jedną dużą – klaster drzewo) z instalacją jednego węzła od drugiego na wystarczająco dużej odległości i zapewnić niezawodne dostarczanie wiadomości.

Ruch przesyłany przez sieć ZigBee z reguły dzieli się na okresowy, przerywany i powtarzalny (charakteryzuje się małym odstępem czasu pomiędzy wysyłaniem wiadomości informacyjnych).

Okresowy ruch jest typowy dla aplikacji, które muszą odbierać informacje zdalnie, na przykład z bezprzewodowych czujników lub liczników. W takich aplikacjach pozyskiwanie informacji z czujników lub mierników odbywa się w następujący sposób. Jak wspomniano wcześniej, każde urządzenie końcowe, które w tym przykładzie jest czujnikiem bezprzewodowym, powinno znajdować się w trybie uśpienia przez zdecydowaną większość czasu działania, zapewniając tym samym bardzo niskie zużycie energii. W celu przesłania informacji urządzenie końcowe budzi się w określonych momentach i wyszukuje w powietrzu specjalny sygnał (beacon) przesyłany przez urządzenie zarządzające siecią (koordynator ZigBee lub router ZigBee), do którego podłączony jest licznik bezprzewodowy. Jeżeli w radiu pojawi się specjalny sygnał (beacon), urządzenie końcowe przesyła informacje do urządzenia sterującego siecią i natychmiast przechodzi w tryb „uśpienia” do następnej sesji komunikacyjnej.

Ruch przerywany jest typowy na przykład dla urządzeń zdalnego sterowania oświetleniem. Wyobraź sobie sytuację, w której konieczne jest, gdy zadziała czujnik ruchu zainstalowany przy drzwiach wejściowych, aby wysłać polecenie włączenia oświetlenia w korytarzu. Transmisja polecenia w tym przypadku odbywa się w następujący sposób. Gdy menedżer sieci otrzyma sygnał, że czujnik ruchu został wyzwolony, wysyła do urządzenia końcowego (przełącznika bezprzewodowego) polecenie połączenia się z siecią bezprzewodową ZigBee. Następnie nawiązywane jest połączenie z urządzeniem końcowym (przełącznikiem bezprzewodowym) i przesyłany jest komunikat informacyjny zawierający polecenie włączenia oświetlenia. Po odebraniu polecenia połączenie zostaje rozłączone, a przełącznik bezprzewodowy odłączany od sieci ZigBee. Podłączanie i odłączanie urządzenia końcowego do sieci ZigBee tylko w niezbędnych do tego momentach pozwala znacząco wydłużyć czas przebywania urządzenia końcowego w trybie „uśpienia”, zapewniając tym samym minimalne zużycie energii. Sposób wykorzystania specjalnego sygnału (beacon) jest znacznie bardziej energochłonny.

W niektórych aplikacjach, takich jak systemy bezpieczeństwa, przekazywanie informacji o działaniu czujników musi odbywać się niemal natychmiast i bez opóźnień. Musimy jednak liczyć się z tym, że w pewnym momencie kilka czujników może „wyzwolić” na raz, generując tzw. ruch powtarzalny w sieci. Prawdopodobieństwo takiego zdarzenia jest niskie, ale niedopuszczalne jest nieuwzględnianie go w systemach bezpieczeństwa. W sieci bezprzewodowej ZigBee, dla wiadomości przesyłanych do sieci bezprzewodowej, gdy kilka czujników bezpieczeństwa (urządzeń końcowych) jest wyzwalanych jednocześnie, transmisja danych z każdego czujnika odbywa się w specjalnie przydzielonym przedziale czasowym. W technologii ZigBee wydzielona szczelina czasowa nazywana jest gwarantowaną szczeliną czasową (GTS). Obecność w technologii ZigBee możliwości zapewnienia gwarantowanego przedziału czasowego na transmisję pilnych wiadomości pozwala nam mówić o implementacji metody QoS (jakości usługi) w ZigBee. Przydział gwarantowanego przedziału czasowego na transmisję pilnych komunikatów jest realizowany przez koordynatora sieci (rys. 6, Koordynator PAN).

Aby zbudować sieć bezprzewodową (np. sieć o topologii gwiazdy) w oparciu o technologię ZigBee, deweloper musi zakupić co najmniej jednego koordynatora sieci oraz wymaganą liczbę urządzeń końcowych. Planując sieć należy pamiętać, że maksymalna liczba aktywnych urządzeń końcowych podłączonych do koordynatora sieci nie powinna przekraczać 240. Dodatkowo narzędzia programowe do tworzenia, konfigurowania sieci oraz tworzenia niestandardowych aplikacji i profili należy zakupić z chipa ZigBee producent.

Wysoki koszt zestawu do debugowania, który obejmuje zestaw oprogramowania i sprzętu do budowy sieci bezprzewodowych ZigBee o dowolnej złożoności, jest jednym z czynników ograniczających masową dystrybucję technologii ZigBee na rynku rosyjskim.

Krótki przegląd technologii bezprzewodowej transmisji danych BlueTooth, Wi-Fi i ZigBee podany w tej sekcji pokazuje, że każda technologia ma swoje charakterystyczne cechy, które polegają na osiągnięciu tego samego celu na różne sposoby (z różnymi stratami). Charakterystykę porównawczą technologii BlueTooth, Wi-Fi i ZigBee przedstawiono w tabeli.

Tabela 1.3.3.1

Charakterystyka porównawcza technologii BlueTooth, Wi-Fi i ZigBee

Ta tabela pokazuje, że najszybsza i najdłuższa transmisja jest możliwa przy wykorzystaniu technologii Wi-Fi. Technologia Wi-Fi służy do wysyłania poczty, wideo i innych danych przez Internet. Technologia ZigBee jest idealna do szybkiej wymiany informacji o niewielkich rozmiarach między dużą liczbą węzłów, do zdalnego monitorowania i sterowania. Technologia BlueTooth znalazła swoje największe zastosowanie w wymianie danych między urządzeniami mobilnymi.

Technologia sieciowa to uzgodniony zestaw standardowych protokołów oraz sprzęt i oprogramowanie, które je implementuje (na przykład karty sieciowe, sterowniki, kable i złącza) wystarczające do zbudowania sieci komputerowej. Epitet „wystarczający” podkreśla fakt, że ten zestaw jest minimalnym zestawem narzędzi, za pomocą którego można zbudować działającą sieć.

Protokoły, na podstawie których budowana jest sieć określonej technologii (w wąskim znaczeniu), zostały opracowane specjalnie do wspólnej pracy, dlatego deweloper sieci nie wymaga dodatkowych wysiłków, aby zorganizować ich interakcję. Czasami technologie sieciowe nazywane są technologiami podstawowymi, co oznacza, że ​​na ich podstawie budowana jest podstawa każdej sieci. Przykłady podstawowych technologii sieciowych obejmują dobrze znane technologie LAN, takie jak Ethernet, Token Ring i FDDI lub technologie sieci rozległych X.25 i Frame Relay. Aby w takim przypadku uzyskać działającą sieć, wystarczy zakupić oprogramowanie i sprzęt związany z jedną podstawową technologią - karty sieciowe ze sterownikami, koncentratorami, przełącznikami, systemem kablowym itp. - i podłączyć je zgodnie z wymaganiami normy dla tę technologię.

Do tej pory najpopularniejszym standardem sieci lokalnej jest technologia transmisji danych pakietowych Ethernet. Standardy Ethernet definiują połączenia przewodowe i sygnały elektryczne w warstwie fizycznej, format ramki i protokoły kontroli dostępu do mediów - w warstwie łącza danych modelu OSI. Ethernet jest opisany głównie przez standardy grupy IEEE 802.3. Medium transmisyjnym jest kabel koncentryczny, skrętka lub kabel optyczny. Komputery są podłączone do współdzielonego środowiska zgodnie z typową strukturą „wspólnej magistrali”. W przypadku magistrali współdzielonej w czasie, dowolne dwa komputery mogą się komunikować.

Wszystkie typy standardów Ethernet (w tym Fast Ethernet i Gigabit Ethernet) wykorzystują tę samą metodę separacji mediów - CSMA/CD (Carrier Sense Multiple Access with Collision Detection) Istota metody dostępu swobodnego jest następująca. Komputer w sieci Ethernet może przesyłać dane przez sieć tylko wtedy, gdy sieć jest wolna, to znaczy, jeśli żaden inny komputer aktualnie się nie komunikuje. Dlatego ważną częścią technologii Ethernet jest procedura określania dostępności medium. Gdy komputer jest przekonany, że sieć jest wolna, rozpoczyna transfer, jednocześnie „przechwytując” nośnik. Czas wyłącznego korzystania ze współdzielonego środowiska przez jeden węzeł jest ograniczony do czasu transmisji jednej ramki. Ramka to jednostka danych wymieniana między komputerami w sieci Ethernet. Ramka ma ustalony format i wraz z polem danych zawiera różne informacje serwisowe, takie jak adres odbiorcy i adres nadawcy. Sieć Ethernet została zaprojektowana w taki sposób, że kiedy ramka wchodzi do współdzielonego nośnika transmisji danych, wszystkie karty sieciowe jednocześnie zaczynają odbierać tę ramkę. Wszystkie z nich analizują adres docelowy, znajdujący się w jednym z początkowych pól ramki i jeśli ten adres pasuje do ich własnego adresu, ramka jest umieszczana w wewnętrznym buforze karty sieciowej. W ten sposób komputer docelowy otrzymuje przeznaczone dla niego dane. Czasami może zaistnieć sytuacja, gdy dwa lub więcej komputerów jednocześnie zdecyduje, że sieć jest wolna i zacznie przesyłać informacje. Taka sytuacja, zwana kolizją, uniemożliwia poprawną transmisję danych w sieci. Standard Ethernet zapewnia algorytm wykrywania i poprawnej obsługi kolizji. Prawdopodobieństwo kolizji zależy od natężenia ruchu w sieci. Po wykryciu kolizji karty sieciowe, które próbowały przesłać swoje ramki, przestają je przesyłać, a po losowej przerwie ponownie próbują uzyskać dostęp do nośnika i przesłać ramkę, która spowodowała kolizję.

Główną zaletą sieci Ethernet, dzięki której stały się one tak popularne, jest ich opłacalność. Aby zbudować sieć wystarczy mieć jedną kartę sieciową dla każdego komputera oraz jeden fizyczny odcinek kabla o wymaganej długości. Inne podstawowe technologie, takie jak Token Ring, wymagają dodatkowego urządzenia - koncentratora - do stworzenia nawet małej sieci. Ponadto w sieciach Ethernet zaimplementowane są dość proste algorytmy dostępu do medium, adresowania i przesyłania danych. Prosta logika sieci prowadzi do uproszczenia, a tym samym do obniżenia kosztów kart sieciowych i ich sterowników. Z tego samego powodu karty sieciowe Ethernet są wysoce niezawodne. I wreszcie, kolejną niezwykłą właściwością sieci Ethernet jest ich dobra rozszerzalność, czyli łatwość łączenia nowych węzłów. Inne podstawowe technologie sieciowe - Token Ring, FDDI - choć posiadają wiele indywidualnych cech, to jednocześnie posiadają wiele cech wspólnych z Ethernetem. Znaczące różnice między jedną technologią a drugą są związane ze specyfiką stosowanej metody dostępu do współdzielonego środowiska. Zatem różnice pomiędzy technologią Ethernet a technologią Token Ring w dużej mierze determinowane są specyfiką wbudowanych w nie metod separacji mediów – algorytmu dostępu losowego w sieci Ethernet oraz metody dostępu poprzez przekazanie tokena w Token Ring.

Magistrala CAN służy do łączenia wszystkich bloków systemu zarządzania bezpieczeństwem pociągu Vityaz. Rozważmy ten interfejs bardziej szczegółowo.

CAN (Control Area Network) – magistrala szeregowa zapewniająca lokalną sieć „inteligentnych” urządzeń wejścia/wyjścia, czujników i elementów wykonawczych mechanizmu, a nawet przedsiębiorstwa. Charakteryzuje się protokołem zapewniającym możliwość znalezienia kilku urządzeń nadrzędnych na autostradzie, zapewniającym transmisję danych w czasie rzeczywistym i korekcję błędów, wysoką odporność na zakłócenia. System CAN składa się z dużej liczby mikroukładów zapewniających działanie urządzeń podłączonych do magistrali, które pierwotnie zostały opracowane przez firmę BOSH do użytku w samochodach, a obecnie są szeroko stosowane w automatyce przemysłowej. Szybkość transmisji jest ustawiana programowo i może wynosić do 1 Mb/s.

Jednak w praktyce sieć CAN oznacza zwykle sieć o topologii magistrali z warstwą fizyczną w postaci pary różnicowej, zdefiniowanej w standardzie ISO 11898. Transmisja odbywa się w ramkach, które odbierane są przez wszystkie węzły sieci. Aby uzyskać dostęp do magistrali, produkowane są specjalistyczne chipy - sterowniki magistrali CAN.

System CAN działa bardzo niezawodnie. Ewentualne usterki są koniecznie zapisywane w odpowiedniej pamięci usterek i mogą być następnie odczytane za pomocą przyrządu diagnostycznego.

Rysunek 1.5.1 System CAN

Sieć łączy kilka jednostek sterujących. Jednostki sterujące są z nim połączone za pomocą nadajników-odbiorników (nadajników). W ten sposób wszystkie poszczególne stacje sieci znajdują się w tych samych warunkach. Oznacza to, że wszystkie bloki sterujące są równoważne i żaden z nich nie ma priorytetu. W tym przypadku mówią o tak zwanej architekturze wielu abonentów. Wymiana informacji odbywa się poprzez przesyłanie sygnałów szeregowych.

Proces wymiany informacji polega na wymianie pojedynczych komunikatów, ramek. Te wiadomości mogą być wysyłane i odbierane przez każdą z jednostek sterujących. Każdy z komunikatów zawiera dane o jakimś fizycznym parametrze systemu. W tym przypadku wartość jest reprezentowana w postaci binarnej, tj. jako ciąg zer i jedynek lub bitów. Na przykład prędkość obrotową silnika 1800 obr/min można przedstawić jako liczbę binarną 00010101. W sygnalizacji każda liczba binarna jest przekształcana w strumień impulsów szeregowych (bitów). Impulsy te są podawane przez przewód TX (przewód nadawczy) do wejścia transceivera (wzmacniacza). Transceiver przetwarza sekwencje impulsów prądowych na odpowiednie sygnały napięciowe, które są następnie przesyłane szeregowo do przewodu magistrali. Podczas odbierania sygnałów, nadajnik-odbiornik przekształca impulsy napięcia na sekwencje bitów i przesyła je przez przewód RX (przewód odbiorczy) do jednostki sterującej. W jednostce sterującej sekwencje sygnałów binarnych są ponownie konwertowane na dane komunikatów. Na przykład liczba binarna 00010101 jest konwertowana na prędkość 1800 obr./min.

Przesłany komunikat może zostać odebrany przez każdą z jednostek sterujących. Ta zasada transmisji danych nazywana jest rozgłaszaniem, ponieważ jest podobna do zasady działania nadawczej stacji radiowej, której sygnały odbiera każdy użytkownik sieci radiowej. Ta zasada przesyłania danych zapewnia, że ​​wszystkie jednostki sterujące podłączone do sieci otrzymują te same informacje w dowolnym momencie. Każda wiadomość jest opatrzona identyfikatorem, który określa miejsce docelowe przesyłanych danych, ale nie adres odbiorcy. Każdy odbiorca może odpowiedzieć zarówno na jeden identyfikator, jak i na kilka. Kilku odbiorców może odpowiedzieć na jeden identyfikator.

Rysunek 1.5.2 Zasada przesyłania komunikatów CAN

Jednostka sterująca odbiera sygnały z czujników, przetwarza je i przesyła odpowiednie sygnały sterujące do elementów wykonawczych. Najistotniejszymi elementami jednostki sterującej są mikrokontroler z pamięciami wejściowymi i wyjściowymi oraz pamięcią do przechowywania oprogramowania. Sygnały czujników odbierane przez jednostkę sterującą, np. czujnik temperatury lub czujnik prędkości wału korbowego, są regularnie wywoływane i zapisywane sekwencyjnie w pamięci wejściowej. W mikrokontrolerze sygnały wejściowe przetwarzane są zgodnie z wbudowanymi w niego programami. Sygnały generowane w wyniku tego przetwarzania przesyłane są do komórek wyjściowego urządzenia pamięciowego, skąd docierają do odpowiednich urządzeń wykonawczych. Aby przetwarzać wiadomości przychodzące i wysyłane do magistrali CAN, każda jednostka sterująca jest wyposażona w dodatkowe urządzenie pamięci, które przechowuje zarówno wiadomości przychodzące, jak i wychodzące.

Moduł systemu CAN służy do wymiany danych za pośrednictwem magistrali CAN. Jest podzielony na dwie strefy: strefę odbioru i strefę nadawania. Moduł systemu CAN jest połączony z jednostką sterującą za pośrednictwem skrzynek pocztowych dla wiadomości przychodzących i wychodzących. Zwykle jest wbudowany w układ mikrokontrolera jednostki sterującej.

Transceiver to urządzenie nadawczo-odbiorcze, które jednocześnie pełni funkcje wzmacniacza. Przetwarza sekwencję sygnałów binarnych pochodzących z modułu systemu CAN (na poziomie logicznym) na impulsy napięcia elektrycznego i odwrotnie. Dzięki temu za pomocą impulsów elektrycznych dane mogą być przesyłane przewodami miedzianymi. Transceiver komunikuje się z modułem systemu CAN poprzez przewody TX (przewód nadawczy) i RX (przewód odbiorczy). Przewód RX jest podłączony do magistrali CAN przez wzmacniacz. Pozwala na ciągłe „słuchanie” sygnałów cyfrowych przesyłanych przez magistralę.

Dzięki bezpłatnej magistrali każdy węzeł może rozpocząć transmisję w dowolnym momencie. W przypadku jednoczesnej transmisji ramek przez dwa lub więcej węzłów, dostęp do arbitrażu: Przekazując adres źródłowy, węzeł jednocześnie sprawdza stan magistrali. Jeżeli bit dominujący jest odbierany podczas transmisji bitu recesywnego, uważa się, że drugi węzeł transmituje wiadomość o wyższym priorytecie i transmisja jest odkładana do czasu zwolnienia magistrali. Tak więc, w przeciwieństwie do np. Ethernetu, w CAN nie ma narzutu utraty przepustowości kanału podczas kolizji. Kosztem tego rozwiązania jest szansa, że ​​wiadomości o niskim priorytecie nigdy nie zostaną przesłane.

Wszystkie stacje podłączone do magistrali odbierają wiadomość wysłaną przez centralę. Ta wiadomość jest wysyłana do obszarów odbiorczych odpowiednich modułów systemu CAN za pośrednictwem przewodów RX. Następnie mogą określić na poziomie kontroli za pomocą sumy CRC (Cycling Redundancy Check), czy w komunikacie występują błędy transmisji.

Zalety

    Umiejętność ciężkiej pracy w czasie rzeczywistym.

    Łatwość wdrożenia i minimalny koszt użytkowania.

    Wysoka odporność na zakłócenia.

    Arbitraż dostępu do sieci bez utraty przepustowości.

    Niezawodna kontrola błędów transmisji i odbioru.

    Szerokie rozpowszechnienie technologii, dostępność szerokiej gamy produktów różnych dostawców.

    Łatwiejsze podłączenie dodatkowego wyposażenia.

Wady

    Niewielka ilość danych, które można przesłać w jednym pakiecie (do 8 bajtów).

    Duży rozmiar danych serwisowych w pakiecie (w stosunku do danych payloadu).

    Zaletą jest jednak również brak jednego ogólnie akceptowanego standardu dla protokołu wysokiego poziomu. Standard sieciowy zapewnia szerokie możliwości praktycznie bezbłędnego przesyłania danych między węzłami, pozostawiając programiście swobodę inwestowania w ten standard wszystkiego, co może się tam zmieścić.

      Interfejs USB

W czwartym rozdziale tej pracy dyplomowej zostanie przeprowadzone pisanie RFP dla stanowiska badawczego RPDP. Stanowisko to połączy się z CAN przez USB, więc postanowiono przestudiować interfejs USB.

USB (Universal Serial Bus) to branżowy standard rozszerzający architekturę komputera PC.

Architekturę USB określają następujące kryteria:

Łatwe do wdrożenia rozszerzenie urządzeń peryferyjnych do komputera PC;

Szybkość transmisji do 12 Mb/s (wersja 1.1), do 480 Mb/s (wersja 2.0), do 4,8 Gb/s (wersja 3.0);

Możliwość integracji z komputerami PC o dowolnej wielkości i konfiguracji;

Łatwe tworzenie urządzeń-rozszerzeń komputerów PC.

Z punktu widzenia użytkownika ważnymi parametrami USB są:

Łatwość podłączenia do komputera PC, tj. niemożliwe jest nieprawidłowe podłączenie urządzenia;

Ze względu na konstrukcję złączy nie jest wymagane wyłączenie zasilania przed podłączeniem;

Ukrywanie szczegółów połączeń elektrycznych przed użytkownikiem końcowym;

Samoidentyfikujące się urządzenia peryferyjne (Plug & Play);

Możliwość dynamicznego łączenia urządzeń peryferyjnych;

Urządzenia małej mocy (do 500mA) mogą być zasilane bezpośrednio z magistrali USB.

Fizyczne połączenie urządzeń odbywa się zgodnie z topologią gwiazdy wielopoziomowej. Środek każdej gwiazdy jest piastą (zapewnia dodatkowe punkty połączeń). Każdy segment kabla łączy dwa punkty - koncentrator z innym koncentratorem lub funkcją (reprezentuje końcowe urządzenie peryferyjne). System posiada i tylko jeden kontroler hosta umieszczony na szczycie piramidy funkcji i koncentratorów oraz zarządzający pracą całego systemu. Kontroler hosta integruje się z koncentratorem głównym (Root Hub), który zapewnia jeden lub więcej punktów połączenia - porty. Kontroler USB zawarty w chipsetach zwykle ma wbudowany dwuportowy koncentrator główny.

Logicznie rzecz biorąc, urządzenie podłączone do dowolnego portu koncentratora USB można uznać za podłączone bezpośrednio do kontrolera hosta. Dlatego punkt połączenia urządzenia nie jest ważny.

Kontroler hosta rozdziela przepustowość magistrali między urządzeniami. Magistrala USB umożliwia podłączanie, konfigurowanie, używanie i odłączanie urządzeń, gdy host i same urządzenia są uruchomione.

Funkcje to urządzenia zdolne do przesyłania lub odbierania danych lub informacji sterujących przez magistralę. Zazwyczaj funkcje są oddzielnymi urządzeniami peryferyjnymi podłączonymi do portu koncentratora za pomocą kabla USB. Każda funkcja zawiera informacje o konfiguracji, które opisują możliwości urządzenia i wymagania dotyczące zasobów. Przed użyciem funkcja musi zostać skonfigurowana przez hosta - musi być przydzielona przepustowość w kanale i wybrane opcje konfiguracyjne.

Koncentrator to koncentrator kablowy. Punkty połączeń nazywane są portami koncentratora. Każdy koncentrator przekształca jeden punkt połączenia w wiele. Architektura umożliwia połączenie kilku koncentratorów. Każdy koncentrator ma jeden port upstream (port upstream) przeznaczony do łączenia z koncentratorem wyższego poziomu i jeden lub więcej portów downstream (port downstream) przeznaczony do łączenia funkcji lub koncentratorów niższego poziomu. Koncentrator rozpoznaje podłączanie i odłączanie urządzeń oraz steruje zasilaniem kolejnych segmentów.

Aby oszczędzić programiście rutynowej pracy nad pisaniem sterownika, niektóre systemy operacyjne celowo zawierają sterowniki niskiego poziomu. W skład systemu Windows wchodzą:

    sterownik kontrolera hosta (USB Bus Driver) jest odpowiedzialny za zarządzanie transakcjami, zasilaniem i rozpoznawaniem urządzeń;

    sterownik magistrali (USB Bus Driver) jest odpowiedzialny za zarządzanie transakcjami, zasilaniem i rozpoznawaniem urządzeń;

    kierowca klasy.

Z punktu widzenia programisty najbardziej interesujące są sterownik klasy i interfejs do wywoływania tego sterownika. Tutaj system operacyjny robi krok w kierunku ujednolicenia interfejsów. Wszystkie urządzenia USB są podzielone na grupy (koncentratory, urządzenia HID, audio, urządzenia pamięci masowej, drukarki, urządzenia komunikacyjne) według wspólnych właściwości, wykonywanych funkcji i wymagań dotyczących zasobów. Dla każdej grupy urządzeń system Windows zapewnia osobny sterownik, który jest automatycznie instalowany, gdy urządzenie zostanie znalezione jako należące do jednej z grup. Dlatego w większości przypadków nie są wymagane żadne sterowniki.

Klasa USB HID (human interface device) - klasa urządzeń USB do interakcji z człowiekiem. Ta klasa obejmuje urządzenia, takie jak klawiatura, mysz, kontroler gier. To jedna z pierwszych klas USB obsługiwanych przez system operacyjny. system Windows. Urządzenie HID oprócz wprowadzania danych do komputera może je również odbierać. Jeśli chcesz wysłać dane do urządzenia HID, musisz zainicjować połączenie z tym urządzeniem, a następnie pracować z nim jak ze zwykłym plikiem.

W tym rozdziale dokonano przeglądu głównych technologii transmisji danych. Aby przeprowadzić proces wymiany informacji między komputerem a pociągiem, postanowiono zbadać istniejące technologie bezprzewodowej transmisji danych, aby następnie wybrać najbardziej odpowiednią (rozdział 2). Oprócz technologii bezprzewodowych warstwy fizycznej uwzględniono technologie warstwy łącza (Ethernet, Frame Relay, ATM).

W tej sekcji rozważono również główne technologie identyfikacji obiektów. Wśród nich szczególną uwagę zwrócono na RFID i identyfikację optyczną, które można wykorzystać do zainicjowania połączenia stałej dyspozytorni z rejestratorem ruchu pociągów (TRDR).

Większość mieszkańców nowoczesnych miast codziennie przesyła lub odbiera jakiekolwiek dane. Mogą to być pliki komputerowe, obraz telewizyjny, audycja radiowa - wszystko, co reprezentuje określoną część przydatna informacja. Istnieje ogromna liczba technologicznych metod transmisji danych. Jednocześnie w wielu segmentach rozwiązań informatycznych modernizacja odpowiednich kanałów odbywa się w niezwykle dynamicznym tempie. Konwencjonalne technologie, które, jak się wydaje, mogą dobrze zaspokajać ludzkie potrzeby, zastępowane są nowymi, bardziej zaawansowanymi. Od niedawna dostęp do sieci przez telefon komórkowy była uważana za prawie egzotyczną, ale dziś ta opcja jest znana większości ludzi. Nowoczesne szybkości przesyłania plików przez Internet, mierzone w setkach megabitów na sekundę, wydawały się czymś fantastycznym dla pierwszych użytkowników sieci WWW. Za pośrednictwem jakich rodzajów infrastruktur można przesyłać dane? Jaki może być powód wyboru jednego lub drugiego kanału?

Podstawowe mechanizmy przesyłania danych

Pojęcie transmisji danych można powiązać z różnymi zjawiskami technologicznymi. Na ogół kojarzy się z branżą komunikacji komputerowej. Transfer danych w tym aspekcie to wymiana plików (wysyłanie, odbieranie), folderów i innych implementacji kodu maszynowego.

Rozważany termin może również korelować z pozacyfrową sferą komunikacji. Na przykład transmisja sygnału telewizyjnego, radiowego, obsługa linii telefonicznych - jeśli nie mówimy o nowoczesnych narzędziach high-tech - może odbywać się na zasadach analogowych. W tym przypadku transmisja danych to przesyłanie sygnałów elektromagnetycznych za pośrednictwem jednego lub drugiego kanału.

Pośrednia pozycja pomiędzy dwoma technologicznymi wdrożeniami transmisji danych – cyfrową i analogową – może zająć połączenie mobilne. Faktem jest, że niektóre z odpowiednich technologii komunikacyjnych należą do pierwszego typu - na przykład komunikacja GSM, Internet 3G lub 4G, inne są mniej skomputeryzowane i dlatego można je uznać za analogowe - na przykład komunikacja głosowa w standardach AMPS lub NTT.

Jednak współczesny trend w rozwoju technologii komunikacyjnych polega na tym, że kanały transmisji danych, bez względu na rodzaj przesyłanych przez nie informacji, są aktywnie „digitalizowane”. W dużych rosyjskich miastach trudno znaleźć linie telefoniczne działające zgodnie ze standardami analogowymi. Technologie takie jak AMPS stopniowo tracą na znaczeniu i są zastępowane przez bardziej zaawansowane. Telewizja i radio stają się cyfrowe. Dlatego możemy rozważyć nowoczesne technologie transmisja danych głównie w kontekście cyfrowym. Chociaż historyczny aspekt zaangażowania niektórych decyzji, oczywiście, będzie bardzo przydatny do zbadania.

Nowoczesne systemy transmisji danych można podzielić na 3 główne grupy: wdrażane w sieciach komputerowych, wykorzystywane w sieci komórkowe, które są podstawą organizacji audycji telewizyjnych i radiowych. Rozważmy bardziej szczegółowo ich specyfikę.

Technologie transmisji danych w sieciach komputerowych

Głównym przedmiotem transferu danych w sieciach komputerowych, jak wspomnieliśmy powyżej, jest zbiór plików, folderów i innych produktów implementacji kodu maszynowego (np. tablice, stosy itp.). Nowoczesna komunikacja cyfrowa może działać w oparciu o różne standardy. Wśród najczęstszych jest TCP-IP. Jego główną zasadą jest przypisanie komputerowi unikalnego adresu IP, który może służyć jako główny punkt odniesienia w transmisji danych.

Wymiana plików w nowoczesnych sieciach cyfrowych może odbywać się z wykorzystaniem technologii przewodowych lub takich, które nie wymagają użycia kabla. Klasyfikację odpowiednich infrastruktur pierwszego typu można przeprowadzić na podstawie określonego rodzaju przewodów. W nowoczesnych sieciach komputerowych najczęściej stosowane są:

skręcone pary;

przewody światłowodowe;

kable koncentryczne;

kable USB;

Przewody telefoniczne.

Każdy z wymienionych typów kabli ma zarówno zalety, jak i wady. Na przykład skrętka jest tanim, uniwersalnym i łatwym w instalacji rodzajem przewodu, ale jest znacznie gorsza od światłowodu pod względem przepustowości (ten parametr rozważymy bardziej szczegółowo nieco później). Kable USB są najmniej odpowiednie do przesyłania danych w sieciach komputerowych, ale są kompatybilne z prawie każdym nowoczesnym komputerem - niezwykle rzadko można znaleźć komputer, który nie jest wyposażony w porty USB. Kable koncentryczne są wystarczająco chronione przed zakłóceniami i umożliwiają transmisję danych na bardzo duże odległości.

Charakterystyka komputerowych sieci danych

Przydatne będzie zbadanie niektórych kluczowych cech sieci komputerowych, w których wymieniane są pliki. Wśród najważniejsze parametry odpowiednia infrastruktura - przepustowość. Ta cecha pozwala ocenić, jakie mogą być maksymalne wskaźniki szybkości i ilości danych przesyłanych w sieci. W rzeczywistości oba te parametry są również kluczowe. Szybkość przesyłania danych jest rzeczywistą miarą tego, ile plików można przesłać z jednego komputera na drugi w określonym czasie. Rozważany parametr jest najczęściej wyrażany w bitach na sekundę (w praktyce z reguły w kilo-, mega-, gigabitach, w potężnych sieciach - w terabitach).

Klasyfikacja komputerowych kanałów transmisji danych

Wymiana danych przy wykorzystaniu infrastruktury komputerowej może odbywać się trzema głównymi rodzajami kanałów: duplex, simplex i half-duplex. Kanał pierwszego typu zakłada, że ​​urządzenie do transmisji danych do komputera może być jednocześnie odbiornikiem. Z kolei urządzenia simpleksowe mogą jedynie odbierać sygnały. Urządzenia półdupleksowe zapewniają wykorzystanie funkcji kolejno odbierania i przesyłania plików.

Bezprzewodowa transmisja danych w sieciach komputerowych realizowana jest najczęściej poprzez standardy:

- "mały promień" (Bluetooth, porty podczerwieni);

- "średni promień" - Wi-Fi;

- "daleki zasięg" - 3G, 4G, WiMAX.

Szybkość przesyłania plików może się znacznie różnić w zależności od konkretnego standardu komunikacji, a także stabilności połączenia i jego odporności na zakłócenia. Wi-Fi jest uważane za jedno z optymalnych rozwiązań do organizowania domowych wewnątrzkorporacyjnych sieci komputerowych. Jeśli konieczna jest transmisja danych na duże odległości, wykorzystywane są technologie 3G, 4G, WiMax lub inne konkurujące z nimi technologie. Wciąż popytem jest Bluetooth, aw mniejszym stopniu porty podczerwieni, ponieważ ich aktywacja praktycznie nie wymaga od użytkownika dostrajania urządzeń, za pośrednictwem których następuje wymiana plików.

Najpopularniejsze standardy „krótkiego zasięgu” dotyczą branży urządzeń mobilnych. Tak więc przesyłanie danych do Androida z innego podobnego systemu operacyjnego lub kompatybilnego często odbywa się tylko za pomocą przez Bluetooth. Jednak urządzenia mobilne mogą z powodzeniem integrować się z sieciami komputerowymi, na przykład za pomocą Wi-Fi.

Sieć komputerowej transmisji danych funkcjonuje dzięki wykorzystaniu dwóch zasobów - sprzętu i niezbędnego oprogramowania. Oba są niezbędne do organizacji pełnoprawnej wymiany plików między komputerami. Programy do przesyłania danych mogą być używane na różne sposoby. Można je warunkowo sklasyfikować według takiego kryterium, jak zakres.

Istnieje niestandardowe oprogramowanie dostosowane do korzystania z zasobów internetowych – takimi rozwiązaniami są przeglądarki. Istnieją programy wykorzystywane jako narzędzie do komunikacji głosowej, uzupełnione o możliwość organizowania rozmów wideo - na przykład Skype.

Istnieje oprogramowanie należące do kategorii systemowej. Odpowiednie rozwiązania mogą być praktycznie niezaangażowane przez użytkownika, jednak ich działanie może być niezbędne do zapewnienia wymiany plików. Z reguły takie oprogramowanie działa na poziomie programów działających w tle w strukturze systemu operacyjnego. Tego typu oprogramowanie umożliwia podłączenie komputera PC do infrastruktury sieciowej. W oparciu o takie połączenia można już korzystać z narzędzi użytkownika - przeglądarek, programów do czatów wideo itp. Rozwiązania systemowe są również ważne dla zapewnienia stabilności połączeń sieciowych między komputerami.

Istnieje oprogramowanie przeznaczone do diagnozowania połączeń. Tak więc, jeśli jeden lub drugi błąd przesyłania danych zakłóca niezawodne połączenie między komputerem PC, można go obliczyć za pomocą odpowiedniego programu diagnostycznego. Stosowanie różnego rodzaju oprogramowania jest jednym z kluczowych kryteriów odróżniania technologii cyfrowych od analogowych. W przypadku korzystania z tradycyjnej infrastruktury danych rozwiązania programowe mają z reguły nieporównywalnie mniejszą funkcjonalność niż przy budowaniu sieci opartych na koncepcjach cyfrowych.

Technologie transmisji danych w sieciach komórkowych

Przeanalizujmy teraz, w jaki sposób dane mogą być przesyłane w innych infrastrukturach o dużej skali − sieci komórkowe. Biorąc pod uwagę ten segment technologiczny, warto zwrócić uwagę na historię rozwoju odpowiednich rozwiązań. Faktem jest, że standardy przesyłania danych w sieciach komórkowych rozwijają się bardzo dynamicznie. Niektóre z omówionych powyżej rozwiązań stosowanych w sieciach komputerowych pozostają aktualne przez wiele dziesięcioleci. Jest to szczególnie widoczne na przykładzie technologii przewodowych – kabel koncentryczny, skrętka, światłowody zostały wprowadzone do praktyki komunikacji komputerowej bardzo dawno temu, ale zasoby do ich wykorzystania są dalekie od wyczerpania. Z kolei w branży mobilnej niemal co roku pojawiają się nowe koncepcje, które z różnym nasileniem można realizować w praktyce.

Tak więc ewolucja technologii komórkowych rozpoczyna się wraz z wprowadzeniem na początku lat 80. najwcześniejszych standardów - takich jak NMT. Można zauważyć, że jego możliwości nie ograniczały się do zapewnienia komunikacji głosowej. Możliwy był również transfer danych przez sieci NMT, ale z bardzo niską prędkością - około 1,2 Kbps.

Kolejny krok ewolucji technologicznej na rynku telefonii komórkowej był związany z wprowadzeniem standardu GSM. Założono, że szybkość transmisji danych przy jej użyciu jest znacznie wyższa niż w przypadku korzystania z NMT - około 9,6 Kbps. Następnie standard GSM został uzupełniony o technologię HSCSD, której aktywacja umożliwiła abonentom telefonii komórkowej transmisję danych z prędkością 57,6 Kbps.

Później pojawił się standard GPRS, dzięki któremu możliwe stało się oddzielenie ruchu typowo „komputerowego” transmitowanego w kanałach komórkowych od ruchu głosowego. Szybkość przesyłania danych przy korzystaniu z GPRS może osiągnąć około 171,2 Kb/s. Kolejnym rozwiązaniem technologicznym wdrożonym przez operatorów komórkowych było: KRAWĘDZI standard. Umożliwił transmisję danych z prędkością 326 Kbps.

Rozwój Internetu wymagał od twórców technologii komunikacji komórkowej wprowadzenia rozwiązań, które mogłyby stać się konkurencyjne w stosunku do standardów przewodowych – przede wszystkim pod względem szybkości przesyłania danych, a także stabilności połączenia. Znaczącym krokiem naprzód było wprowadzenie na rynek standardu UMTS. Ta technologia umożliwiła wymianę danych pomiędzy abonentami operatora telefonii komórkowej z prędkością do 2 Mb/s.

Później pojawił się standard HSDPA, w którym transmisja i odbiór plików może odbywać się z prędkością do 14,4 Mb/s. Wielu ekspertów z branży cyfrowej uważa, że ​​od czasu wprowadzenia technologii HSDPA operatorzy komórkowi zaczęli bezpośrednio konkurować z dostawcami usług kablowych.

Pod koniec 2000 roku pojawił się standard LTE i jego konkurencyjne odpowiedniki, dzięki którym abonenci operatorów komórkowych mogli wymieniać pliki z prędkością kilkuset megabitów. Można zauważyć, że takie zasoby nie zawsze są dostępne nawet dla użytkowników nowoczesnych kanałów przewodowych. Większość rosyjskich dostawców zapewnia swoim abonentom kanał transmisji danych z prędkością nieprzekraczającą 100 Mbit/s, w praktyce najczęściej kilkukrotnie mniej.

Generacje technologii komórkowej

Standard NMT ogólnie odnosi się do generacji 1G. Technologie GPRS i EDGE są często klasyfikowane jako 2G, HSDPA jako 3G, a LTE jako 4G. Należy zauważyć, że każde z wymienionych rozwiązań ma konkurencyjne odpowiedniki. Na przykład niektórzy eksperci odnoszą WiMAX do tych związanych z LTE. Inne konkurencyjne rozwiązania w stosunku do LTE na rynku technologii 4G to 1xEV-DO, IEEE 802.20. Istnieje punkt widzenia, zgodnie z którym standard LTE nadal nie jest do końca poprawny do zaklasyfikowania jako 4G, ponieważ według prędkość maksymalna jest nieco poniżej 1 Gb/s zdefiniowanego dla koncepcji 4G. Możliwe więc, że w niedalekiej przyszłości na światowym rynku komunikacji komórkowej pojawi się nowy standard, być może nawet bardziej zaawansowany niż 4G i zapewniający transfer danych z tak imponującą prędkością. Tymczasem wśród rozwiązań, które są wdrażane najdynamiczniej, znajduje się LTE. Czołowi rosyjscy operatorzy aktywnie modernizują swoją infrastrukturę na terenie całego kraju — zapewnienie wysokiej jakości transmisji danych w standardzie 4G staje się jedną z kluczowych przewag konkurencyjnych na rynku telefonii komórkowej.

Technologie transmisji telewizyjnej

Koncepcje cyfrowej transmisji danych mogą być również wykorzystywane w branży medialnej. Przez długi czas Technologia informacyjna w organizacji audycji telewizyjnych i radiowych nie były wprowadzane zbyt aktywnie - głównie ze względu na ograniczoną rentowność odpowiednich usprawnień. Często stosowano rozwiązania łączące technologie cyfrowe i analogowe. Tak więc infrastruktura centrum telewizyjnego mogłaby być w pełni „skomputeryzowana”. Natomiast programy analogowe były nadawane dla abonentów sieci telewizyjnych.

W miarę rozprzestrzeniania się Internetu i coraz tańszych kanałów transmisja komputerowa Ci gracze z branży telewizyjnej i radiowej zaczęli aktywnie „digitalizować” swoją infrastrukturę, integrując ją z rozwiązaniami IT. W różnych krajach świata zostały zatwierdzone standardy nadawania telewizji w formacie cyfrowym. Spośród nich najpopularniejsze to DVB, przystosowany do rynku europejskiego, ATSC, używany w USA, ISDB, używany w Japonii.

Rozwiązania cyfrowe w branży radiowej

Technologia informacyjna jest również aktywnie zaangażowana w branżę radiową. Można zauważyć, że takie rozwiązania charakteryzują się pewnymi zaletami w porównaniu ze standardami analogowymi. Dzięki temu w cyfrowych audycjach radiowych można uzyskać znacznie wyższą jakość dźwięku niż w przypadku kanałów FM. Cyfrowa sieć danych teoretycznie daje stacjom radiowym możliwość przesyłania nie tylko ruchu głosowego do radiotelefonów abonenckich, ale także wszelkich innych treści multimedialnych - zdjęć, filmów, tekstów. Odpowiednie rozwiązania można wdrożyć w infrastrukturze do organizacji transmisji telewizji cyfrowej.

Satelitarne kanały danych

W osobnej kategorii należy przydzielić kanały satelitarne, przez które można przesyłać dane. Formalnie mamy prawo zaklasyfikować je jako bezprzewodowe, ale skala ich wykorzystania jest taka, że ​​nie do końca słuszne byłoby łączenie odpowiednich rozwiązań w jedną klasę z Wi-Fi i Bluetooth. Satelitarne kanały transmisji danych można wykorzystać – w praktyce tak się dzieje – przy budowie niemal każdego rodzaju infrastruktury komunikacyjnej spośród tych, które wymieniliśmy powyżej.

Za pomocą „płytek” można zorganizować połączenie komputerów w sieć, podłączyć je do Internetu, zapewnić funkcjonowanie audycji telewizyjnych i radiowych oraz podnieść poziom produkcyjności usług mobilnych. Główną zaletą kanałów satelitarnych jest inkluzywność. Transmisja danych może odbywać się, gdy są zaangażowane, w prawie każdym miejscu na planecie – jak również odbiór – z dowolnego miejsca na świecie. Rozwiązania satelitarne mają też pewne wady technologiczne. Na przykład podczas przesyłania plików komputerowych za pomocą „płyty” może wystąpić zauważalne opóźnienie w odpowiedzi lub „ping” - odstęp czasu między wysłaniem pliku z jednego komputera a odebraniem go na innym.

Niemal każda nowoczesna firma ma potrzebę poprawy wydajności sieci i technologii systemów komputerowych. Jeden z niezbędne warunki w tym celu - bezproblemowy transfer informacji między serwerami, magazynami danych, aplikacjami i użytkownikami. Jest to sposób przesyłania danych do systemy informacyjne często staje się „wąskim gardłem” pod względem wydajności, niwelując wszystkie zalety nowoczesnych serwerów i systemów pamięci masowej. Deweloperzy i administratorzy systemu próbując wyeliminować najbardziej oczywiste wąskie gardła, chociaż wiedzą, że po wyeliminowaniu wąskiego gardła w jednej części systemu pojawia się w innej.

Przez wiele lat wąskie gardła występowały głównie w serwerach, ale wraz z ewolucją funkcjonalną i technologiczną serwerów przeniosły się one do sieci i sieciowych systemów pamięci masowej. Ostatnio powstały bardzo duże macierze pamięci masowej, co przywraca wąskie gardła w sieci. Wzrost i centralizacja danych, a także wymagania dotyczące przepustowości aplikacji nowej generacji często pochłaniają całą dostępną przepustowość.

Kiedy menedżer usług informacyjnych staje przed zadaniem stworzenia nowego lub rozbudowy istniejącego systemu przetwarzania informacji, jedną z najważniejszych dla niego kwestii będzie wybór technologii transmisji danych. Problem ten obejmuje wybór nie tylko technologii sieciowej, ale także protokołu do podłączania różnych urządzeń peryferyjnych. Najpopularniejszymi rozwiązaniami szeroko stosowanymi do budowy sieci SAN (Storage Area Networks) są Fibre Channel, Ethernet i InfiniBand.

Technologia Ethernet

Obecnie technologia Ethernet znajduje się w czołówce sektora wysokowydajnych sieci LAN. Przedsiębiorstwa na całym świecie inwestują w okablowanie i sprzęt Ethernet oraz w szkolenia personelu. Szerokie zastosowanie tej technologii pozwala zachować niskie ceny na rynku, a koszt wdrożenia każdej nowej generacji sieci ma tendencję do zmniejszania się. Stały wzrost ruchu w nowoczesnych sieciach wymusza na operatorach, administratorach i architektach sieci korporacyjne szukać szybszych technologii sieciowych, aby rozwiązać problem braku przepustowości. Dodanie 10-Gigabit Ethernet do rodziny Ethernet umożliwia obsługę nowych aplikacji intensywnie korzystających z zasobów w sieciach LAN.

Pojawiająca się ponad ćwierć wieku temu technologia Ethernet szybko stała się dominującą w budowaniu sieci lokalnych. Ze względu na łatwość instalacji i konserwacji, niezawodność oraz niski koszt wdrożenia, jego popularność wzrosła tak bardzo, że dziś możemy śmiało powiedzieć, że prawie cały ruch w Internecie zaczyna się i kończy w sieciach Ethernet. Zatwierdzony w czerwcu 2002 roku standard IEEE 802.3ae 10-Gigabit Ethernet wyznaczył punkt zwrotny w rozwoju tej technologii. Wraz z jej pojawieniem się obszar wykorzystania Ethernetu rozszerza się na skalę sieci miejskich (MAN) i rozległych (WAN).

Istnieje wiele czynników rynkowych, które zdaniem analityków branżowych wysuwają technologię 10-Gigabit Ethernet na pierwszy plan. W rozwoju technologii sieciowych pojawienie się sojuszu firm deweloperskich, którego głównym zadaniem jest promowanie nowych sieci, stało się już tradycją. 10-Gigabit Ethernet nie był wyjątkiem. Początkiem tej technologii była organizacja 10-Gigabit Ethernet Alliance (10 GEA), w skład której weszli tacy giganci branży jak 3Com, Cisco, Nortel, Intel, Sun i wiele innych firm (łącznie ponad sto). Jeśli w poprzednich wersjach Fast Ethernet lub Gigabit Ethernet programiści pożyczali pewne elementy innych technologii, to specyfikacje nowego standardu były tworzone niemal od zera. Ponadto projekt 10-Gigabit Ethernet koncentrował się na dużych sieciach transportowych i szkieletowych, na przykład obejmujących całe miasto, podczas gdy nawet Gigabit Ethernet został opracowany wyłącznie do użytku w sieciach lokalnych.

Standard 10-Gigabit Ethernet zapewnia transmisję przepływu informacji z prędkością do 10 Gb/s po jedno- i wielomodowym kablu optycznym. W zależności od medium transmisyjnego odległość może wynosić od 65 m do 40 km. Nowa norma miała spełniać następujące podstawowe wymagania techniczne:

  • dwukierunkowa wymiana danych w trybie dupleks w sieciach o topologii punkt-punkt;
  • obsługa szybkości transmisji danych 10 Gb/s na poziomie MAC;
  • specyfikacja warstwy fizycznej LAN PHY do łączenia się z sieciami lokalnymi działającymi w warstwie MAC z szybkością transmisji danych 10 Gb/s;
  • specyfikację warstwy fizycznej WAN PHY do łączenia się z sieciami SONET/SDH pracującymi w warstwie MAC z szybkością transmisji danych zgodną ze standardem OC-192;
  • określanie mechanizmu do dostosowywania szybkości transmisji danych warstwy MAC do szybkości transmisji danych WAN PHY;
  • obsługa dwóch rodzajów kabla światłowodowego - jednomodowego (SMF) i wielomodowego (MMF);
  • niezależna od mediów specyfikacja interfejsu XGMII*;
  • wstecznie kompatybilny z poprzednimi wersjami Ethernetu (zachowanie formatu pakietu, rozmiaru itp.).

* XG oznacza tutaj 10 Gigabit, a MII oznacza Media Independent Interface.

Przypomnijmy, że standard Ethernet 10/100 definiuje dwa tryby: półdupleks i pełny dupleks. Half-duplex w wersji klasycznej przewiduje wykorzystanie współdzielonego medium transmisyjnego oraz protokołu CSMA/CD (Carrier-Sense Multiple Access / Collision Detection). Główne wady tego trybu to utrata wydajności przy wzroście liczby jednocześnie pracujących stacji oraz ograniczenia odległości związane z minimalną długością pakietu (która wynosi 64 bajty). Technologia Gigabit Ethernet wykorzystuje technikę rozszerzania nośnika, aby zachować jak najkrótszą długość pakietu, zwiększając go do 512 bajtów. Ponieważ standard 10-Gigabit Ethernet jest przeznaczony do połączeń szkieletowych punkt-punkt, tryb half-duplex nie jest uwzględniony w jego specyfikacji. Dlatego też w tym przypadku długość kanału jest ograniczona jedynie właściwościami medium fizycznego, urządzeniami używanymi do odbioru/nadawania, mocą sygnału i metodami modulacji. Niezbędną topologię można zapewnić na przykład za pomocą przełączników. Tryb transmisji dupleksowej umożliwia również utrzymanie minimalnego rozmiaru pakietu 64 bajty bez stosowania technik rozszerzania nośnej.

Zgodnie z modelem referencyjnym połączeń systemów otwartych (OSI), technologię sieciową określają dwie niższe warstwy: fizyczna (Warstwa 1, Fizyczna) i kanałowa (Warstwa 2, Łącze Danych). W tym schemacie warstwa urządzenia fizycznego Ethernet (PHY) odpowiada warstwie 1, a warstwa kontroli dostępu do nośnika (MAC) odpowiada warstwie 2. Z kolei każda z tych warstw, w zależności od zaimplementowanej technologii, może zawierać kilka podwarstw.

Warstwa MAC (Media Access Control) zapewnia logiczne połączenie pomiędzy klientami MAC równorzędnych stacji roboczych. Jego główne funkcje to inicjowanie, zarządzanie i utrzymywanie połączenia z peerem w sieci. Oczywiście normalna szybkość przesyłania danych z warstwy MAC do warstwy fizycznej PHY dla standardu 10 Gigabit Ethernet wynosi 10 Gb/s. Jednak warstwa WAN PHY musi przesyłać dane z nieco mniejszą szybkością, aby dostosować się do sieci SONET OC-192. Osiąga się to za pomocą mechanizmu dynamicznej adaptacji interwału międzyramkowego, który zapewnia jego zwiększenie o zadany okres czasu.

Podwarstwa Reconciliation (Rysunek 1) jest interfejsem między szeregowym strumieniem danych warstwy MAC a równoległym strumieniem podwarstwy XGMII. Odwzorowuje oktety danych warstwy MAC na równoległe ścieżki XGMII. XGMII to niezależny od mediów interfejs 10 Gigabit. Jego główną funkcją jest zapewnienie prostego i łatwego w implementacji interfejsu między łączem a warstwami fizycznymi. Izoluje warstwę łącza od specyfiki warstwy fizycznej, dzięki czemu pierwsza może pracować na jednym poziomie logicznym z różnymi implementacjami drugiej. XGMII składa się z dwóch niezależnych kanałów nadawczych i odbiorczych, z których każdy przenosi 32 bity danych na czterech 8-bitowych ścieżkach.

Ryż. 1. Warstwy 10-Gigabit Ethernet.

Kolejna część stosu protokołów jest związana z warstwą fizyczną 10 Gigabit Ethernet. Architektura Ethernet dzieli warstwę fizyczną na trzy podwarstwy. Fizyczna podwarstwa kodowania PCS (Physical Coding Sublayer) wykonuje kodowanie/dekodowanie strumienia danych przychodzącego zi do warstwy łącza danych. Podwarstwa PMA (Physical Media Attachment) jest konwerterem równoległym do szeregowego (do przodu i do tyłu). Wykonuje transformację grupy kodów na strumień bitów dla transmisji szeregowej zorientowanej na bity i transformacji odwrotnej. Ta sama podwarstwa zapewnia synchronizację odbioru/nadawania. Podwarstwa PMD (Physical Media Dependent) odpowiada za sygnalizację w danym medium fizycznym. Typowe funkcje tego podpoziomu to kształtowanie i wzmacnianie sygnału, modulacja. Różne urządzenia PMD obsługują różne nośniki fizyczne. Z kolei Media Dependent Interface (MDI) definiuje typy złączy dla różnych nośników fizycznych i urządzeń PMD.

Technologia 10-Gigabit Ethernet zapewnia niski koszt posiadania w porównaniu z alternatywami, w tym koszty zakupu i obsługi, ponieważ istniejąca infrastruktura sieci Ethernet klientów bezproblemowo z nią współpracuje. Ponadto 10 Gigabit Ethernet przemawia do administratorów ze znaną organizacją zarządzania i możliwością zastosowania wyciągniętych wniosków, ponieważ wykorzystuje procesy, protokoły i mechanizmy kontrolne już wdrożone w istniejącej infrastrukturze. Warto przypomnieć, że ten standard zapewnia elastyczność w projektowaniu połączeń między serwerami, przełącznikami i routerami. Tak więc technologia Ethernet oferuje trzy główne zalety:

  • łatwość użycia,
  • wysoka przepustowość,
  • niska cena.

Ponadto jest prostsze niż niektóre inne technologie, ponieważ umożliwia łączenie sieci znajdujących się w różnych miejscach w ramach jednej sieci. Przepustowość sieci Ethernet jest skalowalna w krokach od 1 do 10 Gb/s, co pozwala lepiej wykorzystać przepustowość sieci. Wreszcie, sprzęt Ethernet jest ogólnie bardziej opłacalny niż tradycyjny sprzęt telekomunikacyjny.

Aby zilustrować możliwości technologii, podamy jeden przykład. Korzystając z sieci 10-Gigabit Ethernet, zespół naukowców pracujących nad projektem Japanese Data Reservoir (http://data-reservoir.adm.su-tokyo.ac.jp) przesłał dane z Tokio do Research Center for Elementary Physics w Genewa Cząstki CERN-u. Łącze danych przebiegało przez 17 stref czasowych i obejmowało 11 495 mil (18 495 km). Łącze 10-Gigabit Ethernet łączyło komputery w Tokio i Genewie w ramach tej samej sieci lokalnej. W sieci wykorzystano sprzęt optyczny i przełączniki Ethernet firm Cisco Systems, Foundry Networks i Nortel Networks.

W ostatnich latach Ethernet stał się również szeroko stosowany przez operatorów telekomunikacyjnych do łączenia obiektów w mieście. Ale sieć Ethernet może rozciągać się jeszcze dalej, obejmując całe kontynenty.

kanał światłowodowy

Technologia Fibre Channel umożliwia fundamentalną zmianę architektury sieci komputerowej każdej dużej organizacji. Faktem jest, że doskonale nadaje się do wdrożenia scentralizowanego systemu przechowywania danych SAN, w którym napędy dysków i taśm znajdują się we własnej, oddzielnej sieci, w tym geograficznie dość oddalonej od głównych serwerów korporacyjnych. Fibre Channel to standard komunikacji szeregowej przeznaczony do szybkiej komunikacji między serwerami, dyskami pamięci masowej, stacjami roboczymi oraz koncentratorami i przełącznikami. Zwróć uwagę, że ten interfejs jest prawie uniwersalny, służy nie tylko do łączenia poszczególnych dysków i magazynów danych.

Kiedy pojawiły się pierwsze sieci, zaprojektowane w celu łączenia komputerów w celu wspólnej pracy, wygodne i skuteczne okazało się przybliżanie zasobów do grup roboczych. W ten sposób, próbując zminimalizować obciążenie sieci, nośniki pamięci zostały równo podzielone między wiele serwerów i komputerów stacjonarnych. W sieci funkcjonują jednocześnie dwa kanały transmisji danych: sama sieć, za pośrednictwem której następuje wymiana między klientami a serwerami, oraz kanał, za pośrednictwem którego następuje wymiana danych między magistralą systemową komputera a urządzeniem pamięci masowej. Może to być łącze między kontrolerem a dyskiem twardym lub między kontrolerem RAID a zewnętrzną macierzą dyskową.

Ta separacja kanałów wynika w dużej mierze z różnych wymagań dotyczących przesyłania danych. W sieci na pierwszym miejscu jest dostarczanie niezbędnych informacji do jednego klienta spośród wielu możliwych, dla których konieczne jest stworzenie pewnych i bardzo złożonych mechanizmów adresowania. Ponadto, kanał sieciowy wiąże się ze znacznymi odległościami, dlatego do przesyłania danych preferowane jest połączenie szeregowe. Ale kanał przechowywania wykonuje niezwykle proste zadanie, zapewniając możliwość wymiany z wcześniej znanym urządzeniem do przechowywania danych. Jedyne, czego się od niego wymaga, to zrobić to tak szybko, jak to możliwe. Odległości są zwykle niewielkie.

Jednak dzisiejsze sieci stają w obliczu wyzwań związanych z przetwarzaniem coraz większej ilości danych. Szybkie aplikacje multimedialne, przetwarzanie obrazu wymagają znacznie większej liczby operacji we/wy niż kiedykolwiek wcześniej. Organizacje są zmuszone do przechowywania coraz większych ilości danych w trybie online, co wymaga większej pojemności zewnętrznej pamięci masowej. Konieczność kopiowania ubezpieczeniowego ogromnych ilości danych wymaga separacji urządzeń pamięci wtórnej w coraz większych odległościach od serwerów przetwarzających. W niektórych przypadkach okazuje się, że połączenie zasobów serwera i pamięci masowej w jedną pulę dla centrum danych przy użyciu Fibre Channel jest znacznie wydajniejsze niż przy użyciu standardowego zestawu Ethernet z interfejsem SCSI.

Instytut ANSI zarejestrował grupę roboczą w celu opracowania metody szybkiej wymiany danych między superkomputerami, stacjami roboczymi, komputerami PC, napędami i urządzeniami wyświetlającymi w 1988 roku. A w 1992 roku trzy największe firmy komputerowe - IBM (http://www. ibm.com ), Sun Microsystems (http://www.sun.com) i HP (http://www.hp.com) utworzyły grupę inicjatywną FSCI (Fiber Channel Systems Initiative), której zadaniem było opracowanie metody do szybkiej transmisji danych cyfrowych. Grupa opracowała szereg wstępnych specyfikacji - profili. Ponieważ kable światłowodowe miały stać się fizycznym medium wymiany informacji, w nazwie technologii pojawiło się słowo fiber. Jednak kilka lat później do odpowiednich zaleceń dodano możliwość zastosowania drutów miedzianych. Następnie komisja ISO (Międzynarodowej Organizacji Normalizacyjnej) zaproponowała zastąpienie włókna angielskiego pisowni światłowodem francuskim, aby jakoś zredukować skojarzenia z medium światłowodowym, zachowując prawie oryginalną pisownię. Po zakończeniu wstępnych prac nad profilami, dalsze prace nad wsparciem i rozwojem Nowa technologia została przejęta przez Fibre Channel Association (FCA), które zostało członkiem organizacyjnym komitetu ANSI. Oprócz FCA niezależny Grupa robocza FCLC (Fibre Channel Loop Community), która zaczęła promować jeden z wariantów technologii Fibre Channel – FC-AL (Fibre Channel Arbitrated Loop). Obecnie FCIA (Fibre Channel Industry Association, http://www.fibrechannel.org) przejęło wszystkie prace koordynacyjne w celu promowania technologii Fibre Channel. W 1994 roku standard FC-PH (Physical Connection and Data Transfer Protocol) został zatwierdzony przez komisję T11 ANSI i otrzymał oznaczenie X3.203-1994.

Technologia Fibre Channel ma szereg zalet, które sprawiają, że ten standard jest wygodny przy organizacji wymiany danych w grupach komputerów, a także jako interfejs dla urządzeń pamięci masowej, w sieciach lokalnych oraz przy wyborze sposobów dostępu do sieci globalnych. Jedną z głównych zalet tej technologii jest duża szybkość przesyłania danych.

FC-AL to tylko jedna z trzech możliwych topologii Fibre Channel, które są szczególnie używane w systemach pamięci masowej. Oprócz tego możliwa jest topologia punkt-punkt oraz topologia gwiazdy w oparciu o przełączniki i koncentratory. Sieć zbudowana na bazie przełączników łączących wiele węzłów (rys. 2) nazywana jest fabryką w terminologii Fibre Channel.

Ryż. 2. Fabryka oparta na Fibre Channel.

W pętli FC-AL można umieścić do 126 urządzeń z możliwością wymiany podczas pracy. Przy zastosowaniu kabla koncentrycznego odległość między nimi może sięgać 30 m, natomiast w przypadku kabla światłowodowego wzrasta do 10 km. Technologia opiera się na metodzie prostego przenoszenia danych z bufora nadajnika do bufora odbiornika z pełną kontrolą tej i tylko tej operacji. Dla FC-AL zupełnie nie ma znaczenia, w jaki sposób dane są przetwarzane przez poszczególne protokoły przed i po buforowaniu, w wyniku czego rodzaj przesyłanych danych (polecenia, pakiety czy ramki) nie odgrywa żadnej roli.

Model architektoniczny Fibre Channel szczegółowo opisuje parametry połączenia i protokoły wymiany pomiędzy poszczególnymi węzłami. Model ten można przedstawić jako pięć warstw funkcjonalnych, które definiują interfejs fizyczny, protokół transmisji, protokół sygnalizacyjny, ogólne procedury i protokół mapowania. Numeracja idzie od najniższego poziomu sprzętowego FC-0, który odpowiada za parametry fizycznego połączenia, do najwyższego oprogramowania FC-4, które współdziała z aplikacjami wyższego poziomu. Protokół mapowania zapewnia komunikację z interfejsami I/O (SCSI, IPI, HIPPI, ESCON) oraz protokołami sieciowymi (802.2, IP). W takim przypadku wszystkie obsługiwane protokoły mogą być używane jednocześnie. Na przykład interfejs FC-AL, który współpracuje z protokołami IP i SCSI, nadaje się zarówno do wymiany między systemami, jak i między systemami. Eliminuje to potrzebę stosowania dodatkowych kontrolerów we/wy, znacznie zmniejsza złożoność okablowania i oczywiście całkowity koszt.

Ponieważ Fibre Channel jest protokołem niskiego poziomu, który nie zawiera poleceń I/O, komunikację z urządzeniami zewnętrznymi i komputerami zapewniają protokoły wyższego poziomu, takie jak SCSI i IP, dla których FC-PH służy jako transport. Protokoły sieciowe i we/wy (takie jak polecenia SCSI) są konwertowane na ramki protokołu FC-PH i dostarczane do miejsca docelowego. Każde urządzenie (komputer, serwer, drukarka, napęd), które może komunikować się za pomocą technologii Fibre Channel, nazywane jest portem węzła lub po prostu węzłem. Dlatego głównym celem Fibre Channel jest możliwość manipulowania protokołami wysokiego poziomu przy użyciu różnych mediów transmisyjnych i istniejących systemów kablowych.

Wysoka niezawodność wymiany podczas korzystania z Fibre Channel wynika z dwuportowej architektury urządzeń dyskowych, cyklicznej kontroli przesyłanych informacji oraz urządzeń hot-swap. Protokół obsługuje prawie każdy używany obecnie system okablowania. Jednak najczęściej używane są dwa media - optyka i skrętka. Łącza optyczne służą do łączenia urządzeń w sieci Fibre Channel, natomiast skrętka służy do łączenia poszczególnych elementów urządzenia (na przykład dysków w podsystemie dyskowym).

Standard zapewnia wiele przepustowości i zapewnia kurs wymiany 1, 2 lub 4 Gb/s. Biorąc pod uwagę, że dwa kable optyczne są używane do łączenia urządzeń, z których każde działa w tym samym kierunku, ze zrównoważonym zestawem operacji zapisu-odczytu, szybkość wymiany danych podwaja się. Innymi słowy, Fibre Channel działa w trybie pełnego dupleksu. Pod względem megabajtów prędkość paszportowa Fibre Channel wynosi odpowiednio 100, 200 i 400 MB/s. W rzeczywistości, przy 50% współczynniku zapisu do odczytu, prędkość interfejsu osiąga 200, 400 i 800 MB/s. Rozwiązania Fibre Channel 2 Gb/s są obecnie najbardziej popularne, ponieważ oferują najlepszy stosunek jakości do ceny.

Należy pamiętać, że sprzęt Fibre Channel można z grubsza podzielić na cztery główne kategorie: adaptery, koncentratory, przełączniki i routery, a te ostatnie nie zostały jeszcze szeroko rozpowszechnione.

Rozwiązania Fibre Channel są zazwyczaj projektowane dla organizacji, które muszą przechowywać duże ilości informacji w trybie online, przyspieszyć operacje podstawowej i dodatkowej zewnętrznej pamięci masowej w sieciach intensywnie korzystających z danych oraz tych, które mają zewnętrzną pamięć masową z dala od serwerów w większej odległości. . Typowe zastosowania rozwiązań Fibre Channel to bazy danych i banki danych, systemy analizy i wspomagania decyzji big data, systemy przechowywania i przetwarzania informacji multimedialnych dla telewizji, studiów filmowych, a także systemy, w których ze względów bezpieczeństwa dyski muszą być usuwane z serwerów na znaczne odległości.

Fibre Channel umożliwia oddzielenie wszystkich przepływów danych między serwerami korporacyjnymi, archiwizację danych itp. z sieci lokalnej użytkownika. W tej opcji możliwości konfiguracyjne są ogromne - każdy serwer ma dostęp do dowolnego zasobu dyskowego, na który zezwala administrator systemu, możliwy jest dostęp do tego samego dysku kilku urządzeń jednocześnie i to z bardzo dużą prędkością. W tej opcji archiwizacja danych również staje się łatwym i przejrzystym zadaniem. Klaster można utworzyć w dowolnym momencie, zwalniając dla niego zasoby w dowolnym systemie pamięci masowej Fibre Channel. Skalowanie jest również dość jasne i zrozumiałe – w zależności od tego, jakich funkcji brakuje, można dodać albo serwer (który będzie kupowany wyłącznie na podstawie jego możliwości obliczeniowych), albo nowy system przechowywanie.

Jedną z bardzo ważnych i niezbędnych cech Fibre Channel jest możliwość segmentacji lub, jak to się mówi, podziału na strefy. Podział na strefy jest podobny do podziału na sieci wirtualne (Virtual LAN) w sieci lokalnej – urządzenia znajdujące się w różnych strefach nie „widzą” się nawzajem. Podział na strefy możliwy jest zarówno za pomocą tkaniny przełączanej (Switch Fabric) jak i na podstawie wskazania adresu WWN (World Wide Name). Adres WWN jest podobny do adresu MAC w Sieci Ethernet, każdy kontroler FC ma swój unikalny adres WWN, który jest mu przypisany przez producenta, a każdy poprawny system przechowywania pozwala na wprowadzenie adresów tych kontrolerów lub portów macierzy, z którymi to urządzenie może pracować. Podział na strefy ma przede wszystkim na celu poprawę bezpieczeństwa i wydajności sieci SAN. W przeciwieństwie do normalnej sieci, nie możesz uzyskać dostępu do urządzenia, które jest zamknięte dla tej strefy ze świata zewnętrznego.

Technologia FICON

Technologia FICON (Fiber CONnection) zapewnia zwiększoną wydajność, zwiększoną funkcjonalność i komunikację na duże odległości. Jako protokół przesyłania danych jest oparty na standardzie ANSI dla systemów Fibre Channel (FC-SB-2). Pierwszy uniwersalny standard IBM do komunikacji między komputerami mainframe i urządzeniami zewnętrznymi (takimi jak dyski, drukarki i napędy taśmowe) opierał się na połączeniach równoległych, nie różniąc się zbytnio od kabli wielożyłowych i złączy wielostykowych, które były używane w tamtych latach do podłączania drukarek biurkowych do komputerów PC. Wiele równoległych przewodów służyło do przenoszenia większej ilości danych „na raz” (równolegle); w komputerach mainframe nazywano to autobusem i tagiem.

Ogromne fizyczne złącza i okablowanie były jedynym sposobem komunikacji, dopóki nie pojawiły się na rynku w latach 90. XX wieku. Technologie ESCON. Była to zasadniczo inna technologia: po raz pierwszy zamiast miedzi zastosowano w niej światłowód, a dane były przesyłane nie równolegle, ale szeregowo. Wszyscy doskonale zdawali sobie sprawę, że ESCON był znacznie lepszy i szybszy, przynajmniej na papierze, ale wymagało to wielu testów i przekonania kupujących, zanim technologia została powszechnie przyjęta. Uważa się, że technologia ESCON pojawiła się podczas spowolnienia rynku; dodatkowo urządzenia obsługujące ten standard zostały wprowadzone z zauważalnym opóźnieniem, więc technologia spotkała się z letnim przyjęciem i prawie cztery lata zajęło jej powszechne przyjęcie.

Dzięki FICON historia w dużej mierze się powtórzyła. IBM po raz pierwszy wprowadził tę technologię na serwery S/390 w 1997 roku. Wielu analityków od razu zrozumiało, że jest to pod wieloma względami bardziej zaawansowane technicznie rozwiązanie. Jednak od kilku lat FICON jest używany prawie wyłącznie do podłączania napędów taśmowych (znacznie ulepszone rozwiązanie do tworzenia kopii zapasowych i odzyskiwania) i drukarek. Dopiero w 2001 roku IBM w końcu wyposażył FICON w swój serwer Enterprise Storage Server o nazwie kodowej Shark. Wydarzenie to ponownie zbiegło się w czasie z poważnym spowolnieniem gospodarczym i spowolnieniem wprowadzania nowych technologii w przedsiębiorstwach. Dosłownie rok później zaistniał szereg okoliczności, które przyczyniły się do przyspieszonego przyjęcia FICON. Tym razem koncepcja światłowodu nie była już nowa, a technologie sieci pamięci masowej (SAN) były wszechobecne zarówno w świecie komputerów mainframe, jak i poza nim.

Rynek pamięci masowej stale się rozwija. Dzisiejsze urządzenia, zwane Directors, zaprojektowane od początku do obsługi ESCON, teraz obsługują standard Fibre Channel i wdrażają rozwiązania FICON oparte na tych samych urządzeniach. Według twórców, FICON zapewnia znacznie większą funkcjonalność niż Fibre Channel.

InfiniBand

Architektura InfiniBand definiuje wspólny standard obsługi operacji we/wy w podsystemach komunikacyjnych, sieciowych i pamięci masowej. Ten nowy standard doprowadził do powstania InfiniBand Trade Association (IBTA, http://www.infinibandta.org). Mówiąc najprościej, InfiniBand to standard architektury I/O nowej generacji, który wykorzystuje podejście sieciowe do łączenia serwerów centrum danych, pamięci masowej i urządzeń sieciowych.

Technologia InfiniBand została opracowana jako otwarte rozwiązanie, który mógłby zastąpić wszystkie inne technologie sieciowe w różnych obszarach. Dotyczyło to powszechnych technologii LAN (wszystkie typy sieci Ethernet i sieci pamięci masowej, w szczególności Fibre Channel) oraz wyspecjalizowanych sieci klastrowych (Myrinet, SCI itp.), a nawet podłączania urządzeń I/O do komputerów PC jako ewentualnej wymiany magistral PCI i kanały we/wy, takie jak SCSI. Ponadto infrastruktura InfiniBand mogłaby służyć do łączenia fragmentów wykorzystujących różne technologie w jeden system. Przewagą InfiniBand nad wyspecjalizowanymi, wysokowydajnymi technologiami sieciowymi zorientowanymi na klastry jest jego wszechstronność. Na przykład firma Oracle Corporation wspiera InfiniBand w swoich rozwiązaniach klastrowych. Rok temu HP i Oracle ustanowiły rekord wydajności w testach TPC-H (dla baz danych 1 TB) na klastrze ProLiant DL585 InfiniBand z systemem Oracle 10g w systemie Linux. Latem 2005 r. IBM osiągnął rekordowe wartości dla TPC-H (dla baz danych 3 TB) na DB2 i SuSE Linux Enterprise Server 9 w klastrze InfiniBand opartym na xSeries 346. Jednocześnie osiągnięty koszt transakcji był prawie o połowę niższy. od najbliższych konkurentów.

Korzystanie z techniki zwanej przełączaną struktura sieci, czyli przełączanie siatki, InfiniBand przenosi ruch we/wy z procesorów serwerowych na urządzenia brzegowe i inne procesory lub serwery w całym przedsiębiorstwie. Jako kanał fizyczny wykorzystywany jest specjalny kabel (link), zapewniający szybkość transmisji danych 2,5 Gb/sw obu kierunkach (InfiniBand 1x). Architektura jest zorganizowana jako architektura warstwowa, zawiera cztery warstwy sprzętowe i wyższe warstwy zaimplementowane w oprogramowaniu. W każdym kanale fizycznym można zorganizować wiele kanałów wirtualnych, przypisując im różne priorytety. Aby zwiększyć prędkość, istnieją wersje InfiniBand 4x i 12x, które wykorzystują odpowiednio 16 i 48 przewodów, a szybkości przesyłania danych na nich wynoszą 10 Gb / s (InfiniBand 4x) i 30 Gb / s (InfiniBand 12x).

Rozwiązania oparte na architekturze InfiniBand są poszukiwane na czterech głównych rynkach: korporacyjne centra danych (w tym hurtownie danych), wysokowydajne klastry komputerowe, aplikacje wbudowane i komunikacja. Technologia InfiniBand umożliwia łączenie standardowych serwerów w systemy klastrowe aby zapewnić centrom danych wydajność, skalowalność i odporność na awarie, zazwyczaj zapewniane tylko przez platformy klasa wyższa warte miliony dolarów. Ponadto pamięć masową InfiniBand można dołączyć do klastrów serwerów, umożliwiając bezpośrednie połączenie wszystkich zasobów pamięci masowej z zasobami obliczeniowymi. Rynek wysokowydajnych klastrów zawsze intensywnie poszukuje nowych sposobów na rozszerzenie możliwości obliczeniowych i dlatego może znacznie skorzystać z wysokiej przepustowości, małych opóźnień i doskonałej skalowalności oferowanych przez niedrogie produkty InfiniBand. Wbudowane aplikacje, takie jak systemy wojskowe, systemy czasu rzeczywistego, przetwarzanie strumienia wideo itp., znacznie skorzystają na niezawodności i elastyczności połączeń InfiniBand. Ponadto rynek telekomunikacyjny stale domaga się zwiększonej przepustowości połączenia, co jest osiągane dzięki połączeniom InfiniBand o przepustowości 10 i 30 Gb/s.

Warstwa fizyczna protokołu InfiniBand definiuje właściwości elektryczne i mechaniczne, w tym kable światłowodowe i miedziane, złącza, parametry, które definiują właściwości hot-swap. Na poziomie połączeń określane są parametry przesyłanych pakietów, operacje łączenia punkt-punkt, cechy przełączania w podsieci lokalnej. Na poziomie sieci określone są zasady routingu pakietów między podsieciami; w obrębie podsieci ten poziom nie jest wymagany. Warstwa transportowa zapewnia łączenie pakietów do wiadomości, multipleksowanie kanałów i usługi transportowe.

Zwróćmy uwagę na kilka kluczowych cech architektury InfiniBand. We/Wy i klastrowanie wykorzystują jedną kartę InfiniBand w serwerze, eliminując potrzebę stosowania oddzielnych kart do komunikacji i przechowywania (jednak w typowym serwerze zalecane jest posiadanie dwóch takich kart skonfigurowanych do redundancji). Potrzebujesz tylko jednego połączenia z przełącznikiem InfiniBand na serwer, sieć IP lub SAN (redundancja sprowadza się do prostego zduplikowania połączenia do innego przełącznika). Wreszcie, architektura InfiniBand rozwiązuje problemy z łącznością i ograniczenia przepustowości w obrębie serwera, zapewniając jednocześnie wymaganą przepustowość i możliwości komunikacji dla zewnętrznych systemów pamięci masowej.

Architektura InfiniBand składa się z następujących trzech głównych komponentów (rysunek 3). HCA (Host Channel Adapter) jest instalowany wewnątrz serwera lub stacji roboczej, która pełni rolę głównego (hosta). Działa jako interfejs między kontrolerem pamięci a światem zewnętrznym i służy do łączenia hostów z infrastrukturą sieciową opartą na technologii InfiniBand. HCA implementuje protokół przesyłania wiadomości i podstawowy mechanizm DMA. Łączy się z co najmniej jednym przełącznikiem InfiniBand i może komunikować się z co najmniej jednym TCA. Adapter TCA (Target Channel Adapter) jest przeznaczony do podłączania urządzeń takich jak dyski, macierze dyskowe lub kontrolery sieciowe do sieci InfiniBand. To z kolei służy jako interfejs między przełącznikiem InfiniBand a kontrolerami I/O urządzeń peryferyjnych. Kontrolery te nie muszą być tego samego typu ani należeć do tej samej klasy, co pozwala na łączenie ich w jeden system. różne urządzenia. W ten sposób TCA działa jako pośrednia warstwa fizyczna między ruchem danych w strukturze InfiniBand a bardziej tradycyjnymi kontrolerami we/wy dla innych podsystemów, takich jak Ethernet, SCSI i Fibre Channel. Należy zauważyć, że TCA może również bezpośrednio oddziaływać z HCA. Przełączniki i routery InfiniBand zapewniają centralne punkty dokowania, a do głównej karty HCA można podłączyć wiele TCA. Przełączniki InfiniBand stanowią rdzeń infrastruktury sieciowej. Za pomocą wielu kanałów są one połączone ze sobą iz TCA; można zaimplementować mechanizmy, takie jak grupowanie łączy i równoważenie obciążenia. Jeśli przełączniki działają w tej samej podsieci utworzonej przez bezpośrednio połączone urządzenia, routery InfiniBand łączą te podsieci, tworząc połączenie między kilkoma przełącznikami.


Ryż. 3. Główne elementy sieci SAN opartej o InfiniBand.

Wiele zaawansowanych funkcji logicznych systemu InfiniBand jest wbudowanych w adaptery łączące węzły z systemem we/wy. Każdy typ adaptera odciąża hosta od zadań transportowych przy użyciu adaptera kanału InfiniBand odpowiedzialnego za organizowanie komunikatów we/wy w pakiety w celu dostarczania danych przez sieć. W rezultacie system operacyjny hosta i procesor serwera są zwolnione z tego zadania. Warto zauważyć, że taka organizacja zasadniczo różni się od tego, co dzieje się z komunikacją opartą na protokole TCP/IP.

InfiniBand definiuje wysoce elastyczny zestaw łączy i mechanizmów warstwy transportowej w celu dostrojenia wydajności sieci SAN InfiniBand w oparciu o wymagania aplikacji, w tym:

  • opakowania o zmiennej wielkości;
  • maksymalny rozmiar jednostki transferu: 256, 512 bajtów, 1, 2, 4 KB;
  • nagłówki tras lokalnych warstwy 2 (LRH, Local Route Header) do kierowania pakietów do żądanego portu adaptera kanału;
  • dodatkowy nagłówek warstwy 3 dla globalnego routingu (GRH, Global Route Header);
  • obsługa multiemisji;
  • wariantowe i niezmienne sumy kontrolne (VCRC i ICRC) w celu zapewnienia integralności danych.

Maksymalny rozmiar jednostki transmisji określa cechy systemu, takie jak fluktuacja pakietów, narzut enkapsulacji i opóźnienia, które są używane podczas projektowania systemów wieloprotokołowych. Możliwość pominięcia globalnych informacji o trasie podczas przekazywania do lokalnej podsieci zmniejsza obciążenie komunikacji lokalnej. Kod VCRC jest przeliczany za każdym razem, gdy przechodzi następne łącze kanału komunikacyjnego, a kod ICRC jest przeliczany po odebraniu pakietu przez miejsce docelowe, co gwarantuje integralność transmisji przez łącze i przez cały kanał komunikacyjny.

InfiniBand definiuje kontrolę przepływu opartą na uprawnieniach, aby zapobiec blokowaniu linii i utracie pakietów, a także kontrolę przepływu w warstwie łącza i kontrolę przepływu end-to-end. Kontrola warstwy łącza oparta na uprawnieniach przewyższa szeroko stosowany protokół XON/XOFF pod względem swoich możliwości, eliminując ograniczenie maksymalnego zasięgu komunikacji i zapewniając lepsze wykorzystanie łącza. Odbiorczy koniec łącza wysyła uprawnienia do nadajnika, wskazując ilość danych, które można niezawodnie odebrać. Dane nie są przesyłane, dopóki odbiorca nie wyśle ​​zezwolenia wskazującego na obecność wolna przestrzeń w buforze odbioru. Mechanizm transferu uprawnień między urządzeniami jest wbudowany w protokoły połączeń i łączy, aby zapewnić niezawodną kontrolę przepływu. Kontrola przepływu w warstwie łącza jest zorganizowana na zasadzie per-VC, co zapobiega rozprzestrzenianiu się konfliktów transmisji, tak jak robią to inne technologie.

Dzięki InfiniBand komunikacja ze zdalnymi modułami pamięci masowej, funkcje sieciowe i połączenia między serwerami będą osiągane poprzez połączenie wszystkich urządzeń za pośrednictwem centralnej, ujednoliconej struktury przełączników i kanałów. Architektura InfiniBand pozwala na umieszczenie urządzeń we/wy w odległości do 17 m od serwera przy użyciu przewodu miedzianego, do 300 m przy użyciu kabla światłowodowego wielomodowego oraz do 10 km przy użyciu światłowodu jednomodowego.

Dziś InfiniBand stopniowo ponownie zyskuje na popularności jako technologia szkieletowa dla klastrów serwerów i systemów pamięci masowej oraz w centrach danych jako podstawa połączeń między serwerami i systemami pamięci masowej. Dużo pracy w tym kierunku wykonuje organizacja o nazwie OpenIB Alliance (Open InfiniBand Alliance, http://www.openib.org). W szczególności sojusz ten ma na celu opracowanie standardowego stosu oprogramowania obsługującego InfiniBand z otwarte źródło dla Linuksa i Windowsa. Rok temu wsparcie dla technologii InfiniBand zostało oficjalnie włączone do jądra Linux. Ponadto pod koniec 2005 roku przedstawiciele OpenIB zademonstrowali możliwość wykorzystania technologii InfiniBand na duże odległości. Najważniejszym punktem demonstracji był transfer danych 10 Gb/s na odległość 80,5 km. W eksperymencie uczestniczyły centra przetwarzania danych wielu firm i organizacji naukowych. W każdym punkcie końcowym protokół InfiniBand był enkapsulowany w interfejsach SONET OC-192c, ATM lub 10 Gigabit Ethernet bez pogorszenia przepustowości.

Nowoczesne systemy transmisji informacji - ϶ᴛᴏ sieci komputerowe. Zbiór wszystkich abonentów sieci komputerowej nazywany jest siecią abonencką. Środki komunikacji i transmisji danych tworzą sieć transmisji danych (rys. 2.1).

Ryż. 2.1- Schemat strukturalny sieć komputerowa.

Sieć transmisji danych składa się z wielu rozproszonych geograficznie węzłów komutacyjnych połączonych ze sobą oraz z abonentami sieci wykorzystującymi różne kanały komunikacyjne.

Węzeł przełączający to zespół narzędzi sprzętowych i programowych, które zapewniają przełączanie kanałów, wiadomości lub pakietów. Pod pojęciem przełączania rozumie się w tym przypadku procedurę dystrybucji informacji, w której strumień danych docierający do węzła jednym kanałem komunikacyjnym jest transmitowany z węzła innymi kanałami komunikacyjnymi, z uwzględnieniem wymaganej trasy transmisji.

Koncentrator w sieci danych to urządzenie, które łączy obciążenie kilku kanałów transmisji danych w celu późniejszej transmisji na mniejszej liczbie kanałów. Zastosowanie koncentratorów pozwala na obniżenie kosztów organizacji kanałów komunikacji łączących abonentów z siecią transmisji danych.

Kanał komunikacyjny to zespół środków technicznych i nośnika dystrybucji, który zapewnia transmisję dowolnego przekazu od źródła do odbiorcy za pomocą sygnałów telekomunikacyjnych.

Struktura sieci komputerowej, zbudowana na zasadzie organizacji wymiany informacji poprzez węzły komutacyjne sieci transmisji danych, zakłada, że ​​abonenci sieci nie mają między sobą bezpośrednich (dedykowanych) kanałów komunikacyjnych, lecz są połączeni z najbliższym węzłem komutacyjnym i poprzez go (i inne węzły pośrednie) z dowolnym innym abonentem tej lub nawet innej sieci komputerowej.

Zaletami budowania sieci komputerowych z wykorzystaniem węzłów komutacyjnych sieci transmisji danych są: znaczne zmniejszenie łącznej liczby kanałów komunikacyjnych i ich długości ze względu na brak największego znaczenia organizowania kanałów bezpośrednich pomiędzy różnymi abonentami sieci; wysoki stopień wykorzystania przepustowości kanałów komunikacyjnych dzięki wykorzystaniu tych samych kanałów do przesyłania różnego rodzaju informacji między abonentami sieci; możliwość ujednolicenia rozwiązań technicznych narzędzi wymiany oprogramowania i sprzętu dla różnych abonentów sieci, w tym stworzenie integralnych węzłów usługowych zdolnych do przełączania przepływów informacji zawierających sygnały danych, głosu, telefaksu i wideo.

Obecnie w sieciach danych stosuje się trzy metody przełączania: przełączanie obwodów, przełączanie komunikatów i przełączanie pakietów.

Podczas przełączania kanałów w sieci tworzone jest bezpośrednie połączenie poprzez utworzenie kanału transmisji danych typu end-to-end (bez pośredniego gromadzenia informacji podczas transmisji). Fizyczne znaczenie przełączania kanałów polega zasadniczo na tym, że przed rozpoczęciem transmisji informacji w sieci przez węzły przełączające zostaje ustanowione bezpośrednie połączenie elektryczne między abonentem-nadawcą a odbiorcą wiadomości. Takie połączenie jest nawiązywane przez wysłanie przez nadawcę specjalnej wiadomości-wywołanie, ĸᴏᴛᴏᴩᴏᴇ zawiera numer (adres) wywoływanego abonenta͵ i podczas przechodzenia przez sieć zajmuje kanały komunikacyjne na całej ścieżce późniejszej transmisji wiadomości . Oczywiście podczas przełączania kanałów wszystkie elementy utworzonego kanału komunikacji od końca do końca muszą być wolne. Jeżeli połączenie nie jest realizowane w żadnej części sieci (np. nie ma wolnych kanałów między węzłami komutacyjnymi tworzącymi tor transmisji komunikatów), abonent wywołujący odmawia nawiązania połączenia i dla sieci jego połączenie jest uważana za utraconą transmisję wiadomości, nadawca-abonent musi powtórzyć połączenie

Po nawiązaniu połączenia abonent wysyłający otrzymuje wiadomość, że może rozpocząć transmisję danych. Podstawową cechą przełączania łączy jest to, że wszystkie kanały zajęte podczas nawiązywania połączenia są wykorzystywane w procesie transmisji danych jednocześnie i są zwalniane dopiero po zakończeniu transferu danych między abonentami. Typowym przykładem sieci z komutacją łączy jest sieć telefoniczna.

Podczas przełączania komunikatów komunikat jest odbierany i akumulowany w węźle komutacyjnym, a następnie przeprowadzana jest jego kolejna transmisja. Z tej definicji wynika główna różnica między przełączaniem komunikatów a przełączaniem obwodów, ĸᴏᴛᴏᴩᴏᴇ zasadniczo polega na tym, że podczas przełączania komunikatów komunikaty są przechowywane pośrednio w węzłach przełączających i przetwarzane (określanie priorytetu komunikatów, propagacja multiemisji, nagrywanie i archiwizacja komunikatów itp. ). Aby przetwarzać wiadomości, muszą mieć format akceptowalny w sieci, czyli taki sam rodzaj rozmieszczenia poszczególnych elementów wiadomości. Wiadomość od abonenta najpierw dociera do węzła przełączającego sieci, do którego jest podłączony ten subskrybent. Ponadto węzeł przetwarza wiadomość i określa kierunek jej dalszej transmisji, biorąc pod uwagę adres. Jeżeli wszystkie kanały w wybranym kierunku transmisji są zajęte, to wiadomość czeka w kolejce na moment zwolnienia żądanego kanału. Po dotarciu wiadomości do węzła sieci, do którego podłączony jest subskrybent odbiorcy, wiadomość zostaje mu przekazana w całości za pośrednictwem kanału komunikacyjnego między tym węzłem a subskrybentem. Τᴀᴋᴎᴍ , podczas przechodzenia przez sieć wiadomość zajmuje w danym momencie tylko jeden kanał komunikacyjny.

Przełączanie pakietów jest definiowane jako rodzaj przełączania komunikatów, w którym komunikaty są dzielone na części zwane pakietami i przesyłane, odbierane i przechowywane jako takie pakiety danych.

Pakiety te są numerowane i opatrywane adresami, co pozwala na jednoczesne i niezależne przesyłanie ich w sieci.

Podobał Ci się artykuł? Podziel się z przyjaciółmi!
Czy ten artykuł był pomocny?
tak
Nie
Dziekuję za odpowiedź!
Coś poszło nie tak i Twój głos nie został policzony.
Dziękuję Ci. Twoja wiadomość została wysłana
Znalazłeś błąd w tekście?
Wybierz, kliknij Ctrl+Enter a my to naprawimy!