Konfiguracja sprzętu i oprogramowania

Klasyfikacja przełączników według możliwości zarządzania. Rodzaje przełączników

Przełącznik niezarządzalny odpowiedni do zabudowy sieć domowa lub małe sieci biurowe. Różni się od reszty wersją „pudełkową”. Oznacza to, że po zakupie wystarczy skonfigurować połączenie z serwerem dostawcy i możesz rozpowszechniać Internet.

Pracując z takim przełącznikiem należy mieć na uwadze, że przy korzystaniu z pagerów komunikacji głosowej (Skype, Vo-IP) możliwe są krótkotrwałe opóźnienia oraz brak możliwości rozłożenia szerokości kanału internetowego. Oznacza to, że gdy włączysz program Torrent na jednym z komputerów w sieci, zużyje on prawie całą przepustowość, a pozostałe komputery w sieci wykorzystają resztę przepustowości.

Przełącznik zarządzany to najlepsze rozwiązanie do budowy sieci w biurach i klubach komputerowych. Ten typ sprzedawane jako standardowe i standardowe ustawienia.

Aby skonfigurować taki przełącznik, będziesz musiał się pocić - duża liczba ustawienia mogą odwrócić głowę, ale przy odpowiednim podejściu przynoszą wspaniałe rezultaty. główna cecha- rozkład szerokości kanału i ustawienie przepustowości każdego portu. Jako przykład weźmy kanał internetowy 50 Mb/s, 5 komputerów w sieci, dekoder IP-TV i ATC. Możemy zrobić kilka opcji, ale rozważę tylko jedną.

Dalej - tylko twoja wyobraźnia i niestandardowe myślenie. W sumie mamy stosunkowo duży kanał. Dlaczego stosunkowo? Dowiesz się tych informacji dalej, jeśli dokładnie zagłębisz się w esencję. Zapomniałem wyjaśnić - buduję sieć dla małego biura. IP-TV służy do telewizora w poczekalni, komputerów - do poczty e-mail, przesyłania dokumentów, przeglądania stron internetowych, ATC - do podłączenia telefonów stacjonarnych do linii głównej w celu odbierania połączeń ze Skype, QIP, telefonów komórkowych itp.

Przełącznik zarządzany to modyfikacja konwencjonalnego przełącznika niezarządzanego.

Oprócz układu ASIC zawiera mikroprocesor zdolny do wykonywania dodatkowych operacji na ramkach, takich jak filtrowanie, modyfikacja i ustalanie priorytetów, a także innych działań niezwiązanych z przekazywaniem ramek. Na przykład podaj interfejs użytkownika.

W praktyce różnice między przełącznikami zarządzanymi a niezarządzanymi sprowadzają się po pierwsze do listy obsługiwanych standardów – jeśli zwykły przełącznik niezarządzany obsługuje tylko standard Ethernet (IEEE 802.3) w różnych jego odmianach, to przełączniki zarządzane obsługują znacznie szerszy lista standardów: 802.1Q.802.1X, 802.1AE, 802.3ad (802.1AX) itd., które wymagają konfiguracji i zarządzania.

Jest jeszcze inny typ - przełączniki SMART.

Pojawienie się inteligentnych przełączników było wynikiem chwytu marketingowego - urządzenia obsługują znacznie mniejszą liczbę funkcji niż ich starsze odpowiedniki, ale mimo to są łatwe w zarządzaniu.

Aby nie mylić i nie wprowadzać konsumentów w błąd, pierwsze modele zostały wyprodukowane z oznaczeniem inteligentny lub zarządzany przez Internet.

Urządzenia te w znacznie niższej cenie oferowały podstawową funkcjonalność zarządzanych przełączników - organizację VLAN, administracyjne włączanie i wyłączanie portów, filtrowanie po adresach MAC czy ograniczanie przepustowości. Tradycyjnie jedyną metodą zarządzania był interfejs sieciowy, więc nazwa web-emanaged mocno przylgnęła do inteligentnych przełączników.

Przełącznik przechowuje tablicę przełączania w pamięci asocjacyjnej, która wskazuje zgodność adresu MAC hosta z portem przełącznika. Gdy przełącznik jest włączony, ta tabela jest pusta i rozpoczyna się w trybie uczenia. W tym trybie dane przychodzące z dowolnego portu są przesyłane do wszystkich pozostałych portów przełącznika. W tym przypadku przełącznik analizuje ramki (ramkę) i po ustaleniu adresu MAC hosta wysyłającego wpisuje go do tabeli.

Następnie, jeśli jeden z portów przełącznika odbierze ramkę przeznaczoną dla hosta, którego adres MAC jest już w tabeli, to ta ramka zostanie przesłana tylko przez port określony w tabeli. Jeśli adres MAC hosta docelowego nie jest powiązany z żadnym portem przełącznika, ramka zostanie wysłana do wszystkich portów.

Z biegiem czasu przełącznik tworzy kompletną tabelę dla wszystkich swoich portów, w wyniku czego ruch jest lokalizowany.

Warto zwrócić uwagę na niskie opóźnienia (opóźnienie) i wysoką prędkość przekazywania na każdym porcie interfejsu.

Metody przełączania w przełączniku.

Istnieją trzy sposoby przełączania. Każdy z nich jest kombinacją parametrów, takich jak opóźnienie „decyzji o przełączeniu” (opóźnienie) i niezawodność transmisji.

Z magazynem pośrednim (Store and Forward).

„Wzdłuż” (przecięcie).

„Bez fragmentów” lub hybrydowy.

Z magazynem pośrednim (Store and Forward). Przełącznik odczytuje wszystkie informacje otrzymane w ramce, sprawdza je pod kątem błędów, wybiera port przełączania, a następnie wysyła do niego zweryfikowaną ramkę.

„Wzdłuż” (przecięcie). Przełącznik odczytuje tylko adres docelowy w ramce, a następnie przełącza. Ten tryb zmniejsza opóźnienia transmisji, ale nie ma metody wykrywania błędów.

„Bez fragmentów” lub hybrydowy. Ten tryb jest modyfikacją trybu „Przebieg”. Transmisja odbywa się po przefiltrowaniu fragmentów kolizji (ramki o rozmiarze 64 bajty przetwarzane są w technologii store-and-forward, reszta w technologii cut-through). Opóźnienie „decyzji przełącznika” jest dodawane do czasu potrzebnego na wejście i wyjście ramki z portu przełącznika i razem z nim określa całkowite opóźnienie przełącznika.

Przełącz charakterystykę wydajności.

Główne cechy przełącznika mierzące jego wydajność to:

  • - szybkość filtracji (filtrowania);
  • - prędkość routingu (przekazywanie);
  • - przepustowość (przepustowość);
  • - opóźnienie transmisji ramki.

Ponadto istnieje kilka charakterystyk przełączników, które mają największy wpływ na te charakterystyki wydajności. Obejmują one:

  • - rozmiar bufora(ów) ramki;
  • - wydajność magistrali wewnętrznej;
  • - wydajność procesora lub procesorów;
  • - rozmiar wewnętrznej tablicy adresów.

Szybkość filtrowania i zaawansowania klatek to dwie główne cechy wydajności przełącznika. Te cechy są integralnymi wskaźnikami, nie zależą od tego, jak przełącznik jest technicznie zaimplementowany.

Szybkość filtrowania określa szybkość, z jaką przełącznik wykonuje następujące etapy przetwarzania ramek:

  • - odbieranie ramki w swoim buforze;
  • - Zniszczenie ramki, ponieważ jej port docelowy jest taki sam jak port źródłowy.

Szybkość do przodu określa szybkość, z jaką przełącznik wykonuje następujące etapy przetwarzania ramek:

  • - odbieranie ramki w swoim buforze;
  • - przeglądanie tablicy adresów w celu znalezienia portu dla adresu docelowego ramki;
  • - transmisja ramki do sieci przez port docelowy znaleziony w tablicy adresowej.

Zarówno szybkość filtrowania, jak i szybkość zaawansowania są zwykle mierzone w klatkach na sekundę.

Jeżeli charakterystyka przełącznika nie precyzuje dla jakiego protokołu i dla jakiego rozmiaru ramki podane są wartości szybkości filtrowania i przekazywania, to domyślnie przyjmuje się, że wskaźniki te są podane dla protokołu Ethernet i ramek 64 bajtowych długi (bez preambuły), z polem danych o wielkości 46 bajtów .

Wykorzystanie ramek o minimalnej długości jako głównego wskaźnika szybkości przełącznika tłumaczy się tym, że takie ramki zawsze tworzą najtrudniejszy tryb pracy przełącznika w porównaniu do ramek innego formatu z równą przepustowością przesyłanych danych użytkownika .

Dlatego podczas testowania przełącznika najtrudniejszym testem jest tryb minimalnej długości ramki, który powinien sprawdzić zdolność przełącznika do pracy z najgorszą dla niego kombinacją parametrów ruchu.

Dodatkowo, dla pakietów o minimalnej długości, szybkość filtrowania i przekazywania ma wartość maksymalną, co ma niemałe znaczenie przy anonsowaniu przełącznika.

Przepustowość przełącznika jest mierzona ilością danych użytkownika przesyłanych w jednostce czasu przez jego porty.

Ponieważ przełącznik działa w warstwie łącza, danymi użytkownika są dla niego dane, które są przenoszone w polu danych ramek protokołów warstwy łącza - Ethernet, Token Ring, FDDI itp.

Maksymalna wartość przepustowości przełącznika jest zawsze osiągana na ramkach o maksymalnej długości, ponieważ w tym przypadku udział kosztów ogólnych dla informacje serwisowe liczba klatek jest znacznie mniejsza niż w przypadku ramek o minimalnej długości, a czas, w którym przełącznik wykonuje operacje przetwarzania ramek na bajt Informacje o użytkowniku, o wiele mniej.

Zależność przepustowości przełącznika od wielkości przesyłanych ramek dobrze ilustruje przykład protokołu Ethernet, dla którego przy transmisji ramek o minimalnej długości prędkość transmisji wynosi 14880 ramek na sekundę i przepustowość 5,48 Mb/s jest osiągana, a przy transmisji ramek o maksymalnej długości osiągana jest szybkość transmisji 812 ramek na sekundę i przepustowość 9,74 Mb/s.

Przepustowość spada prawie o połowę przy przełączaniu na ramki o minimalnej długości i to bez uwzględnienia czasu traconego na przetwarzanie ramek przez przełącznik.

Opóźnienie transmisji ramki jest mierzone jako czas, jaki upłynął od momentu dotarcia pierwszego bajtu ramki do portu wejściowego przełącznika do momentu dotarcia tego bajtu do portu wyjściowego przełącznika.

Opóźnienie to suma czasu spędzonego na buforowaniu bajtów ramki, a także czasu spędzonego na przetwarzaniu ramki przez przełącznik - przeszukiwaniu tablicy adresów, podejmowaniu decyzji o filtrowaniu lub przesyłaniu dalej i uzyskiwaniu dostępu do nośnika portu wyjściowego . Wielkość opóźnienia wprowadzanego przez wyłącznik zależy od trybu jego pracy. Jeżeli przełączanie odbywa się „w locie”, to opóźnienia są zwykle niewielkie i wahają się od 10 µs do 40 µs, a przy buforowaniu pełnoklatkowym od 50 µs do 200 µs (dla ramek o minimalnej długości). Switch jest urządzeniem wieloportowym, w związku z tym zwyczajowo wszystkie powyższe cechy (poza opóźnieniem transmisji ramek) podaje w dwóch wersjach:

  • - pierwsza opcja - całkowita wydajność przełącznika z jednoczesną transmisją ruchu przez wszystkie jego porty;
  • - druga opcja to wydajność na jeden port.

Ponieważ gdy ruch jest transmitowany jednocześnie przez kilka portów, występuje ogromna liczba opcji ruchu różniących się wielkością ramek w strumieniu, rozkładem średniej intensywności strumieni ramek pomiędzy portami docelowymi, współczynnikami zmienności intensywności strumienie ramek itp. itp.

Następnie, porównując przełączniki pod względem wydajności, należy wziąć pod uwagę, dla którego wariantu ruchu uzyskano publikowane dane wydajnościowe. Niektóre laboratoria, które stale testują sprzęt komunikacyjny, opracowały szczegółowe opisy warunków testowych dla przełączników i wykorzystują je w swojej praktyce, ale testy te nie stały się jeszcze ogólnoprzemysłowe. W idealnym przypadku przełącznik zainstalowany w sieci przesyła ramki pomiędzy węzłami podłączonymi do jego portów z szybkością, z jaką węzły generują te ramki, bez wprowadzania dodatkowych opóźnień i bez utraty pojedynczej ramki.

W praktyce przełącznik zawsze wprowadza pewne opóźnienia w przesyłaniu ramek, a także może je gubić, czyli nie dostarczać ich do miejsc docelowych. Ze względu na różnice w organizacji wewnętrznej różne modele przełączników, trudno jest przewidzieć, w jaki sposób konkretny przełącznik będzie transmitować ramki o określonym wzorcu ruchu. Najlepszym kryterium jest nadal praktyka, gdy przełącznik jest umieszczony w prawdziwa sieć i mierzone są wprowadzane przez nie opóźnienia oraz liczba utraconych ramek. Ogólną wydajność przełącznika zapewnia odpowiednio wysoka wydajność każdego z jego poszczególnych elementów - procesora portu, matrycy przełączającej, modułów łączących wspólną magistralę itp.

Niezależnie od wewnętrznej organizacji przełącznika i sposobu potokowania jego operacji, możliwe jest określenie dość prostych wymagań wydajnościowych dla jego elementów, które są niezbędne do obsługi danej macierzy ruchu. Ponieważ producenci przełączników starają się, aby ich urządzenia były jak najszybsze, ogólna przepustowość wewnętrzna przełącznika jest często nieznacznie wyższa niż średnia ruchu, który może być kierowany do portów przełącznika zgodnie z ich protokołami.

Ten typ przełączników nazywany jest non-blocking, czyli każdy rodzaj ruchu jest transmitowany bez zmniejszania jego natężenia. Oprócz przepustowości poszczególne elementy przełącznika, takiego jak procesory portów lub współdzielona magistrala, na wydajność przełącznika mają wpływ parametry przełącznika, takie jak rozmiar tablicy adresów, rozmiar współdzielonego bufora lub poszczególnych buforów portów.

Rozmiar tablicy adresów wpływa na maksymalną pojemność tablicy adresów i określa maksymalną liczbę adresów MAC, które Switch może obsłużyć w tym samym czasie.

Ponieważ przełączniki najczęściej używają dedykowanej jednostki procesora z własną pamięcią do przechowywania instancji tablicy adresów w celu wykonywania operacji każdego portu, rozmiar tablicy adresów dla przełączników jest zwykle podawany na port.

Instancje tablicy adresowej różnych modułów procesora niekoniecznie zawierają te same informacje o adresie - najprawdopodobniej nie będzie tylu zduplikowanych adresów, chyba że rozkład ruchu na każdym porcie jest całkowicie jednakowo prawdopodobny wśród pozostałych portów. Każdy port przechowuje tylko zestawy adresów, których ostatnio używał. Wartość maksymalnej liczby adresów MAC, jaką może zapamiętać procesor portu, zależy od zastosowania przełącznika. Przełączniki grup roboczych zazwyczaj obsługują tylko kilka adresów na port, ponieważ są zaprojektowane do tworzenia mikrosegmentów. Przełączniki wydziałowe powinny obsługiwać kilkaset adresów, a przełączniki sieci szkieletowej do kilku tysięcy, zwykle od 4000 do 8000 adresów. Niewystarczająca pojemność tablicy adresów może spowolnić działanie przełącznika i zalać sieć nadmiernym ruchem. Jeśli tablica adresów procesora portowego jest pełna i napotka nowy adres źródłowy w przychodzącym pakiecie, musi usunąć stary adres z tablicy i umieścić nowy w jego miejscu. Ta operacja zajmie procesorowi trochę czasu, ale główna utrata wydajności zostanie zauważona, gdy nadejdzie ramka z adresem docelowym, który musiał zostać usunięty z tabeli adresów.

Ponieważ adres docelowy ramki jest nieznany, przełącznik musi przekazać ramkę do wszystkich innych portów. Ta operacja spowoduje niepotrzebną pracę dla wielu procesorów portów, dodatkowo kopie tej ramki będą również przypadać na te segmenty sieci, w których są całkowicie opcjonalne. Niektórzy producenci przełączników rozwiązują ten problem, zmieniając algorytm obsługi ramek o nieznanym adresie docelowym. Jeden z portów przełącznika jest skonfigurowany jako port trunk, do którego domyślnie wysyłane są wszystkie ramki o nieznanym adresie.

Wewnętrzna pamięć buforowa przełącznika jest potrzebna do tymczasowego przechowywania ramek danych w przypadkach, gdy nie można ich natychmiast przesłać do portu wyjściowego. Bufor ma na celu wygładzenie krótkoterminowych tętnień ruchu.

W końcu nawet jeśli ruch jest dobrze zbilansowany, a wydajność procesorów portowych, a także innych elementów przetwarzających przełącznika jest wystarczająca do przesyłania średnich wartości ruchu, nie gwarantuje to, że ich wydajność będzie wystarczająca na bardzo wysokie szczyty wartości obciążenia. Na przykład ruch może docierać jednocześnie do wszystkich wejść przełącznika przez kilkadziesiąt milisekund, uniemożliwiając mu przesyłanie odebranych ramek do portów wyjściowych. Aby zapobiec utracie ramek w przypadku krótkotrwałego wielokrotnego przekroczenia średniej wartości natężenia ruchu (i dla sieci lokalne często występują wartości współczynnika tętnienia ruchu w przedziale 50-100) jedynym lekarstwem jest duży bufor. Podobnie jak w przypadku tablic adresów, każdy moduł procesora portu zwykle ma własną pamięć buforową do przechowywania ramek. Im większa ilość tej pamięci, tym mniejsze prawdopodobieństwo utraty ramek podczas przeciążenia, chociaż jeśli średnie ruchu są niezrównoważone, bufor prędzej czy później będzie się przepełniał.

Zazwyczaj przełączniki zaprojektowane do pracy w krytycznych częściach sieci mają pamięć buforową o wielkości kilkudziesięciu lub setek kilobajtów na port.

Dobrze, że ta pamięć buforowa może być realokowana między wieloma portami, ponieważ jednoczesne przeciążenia wielu portów są mało prawdopodobne. Dodatkową funkcją bezpieczeństwa może być wspólny bufor dla wszystkich portów w module zarządzania przełącznikiem. Taki bufor ma zwykle rozmiar kilku megabajtów.

Ogólna klasyfikacja przełączników

Komputer Sieć to grupa komputerów połączonych ze sobą kanałem komunikacyjnym. Kanał zapewnia wymianę danych w sieci, czyli wymianę danych pomiędzy komputerami w danej grupie. Sieć może składać się z dwóch lub trzech komputerów lub łączyć kilka tysięcy komputerów. Fizycznie wymiana danych między komputerami może odbywać się za pomocą specjalnego kabla, kabla światłowodowego lub skrętki komputerowej.

Sprzęt sieciowy oraz sprzęt i oprogramowanie pomagają łączyć komputery w sieci i zapewniać ich interakcję. Zasoby te można podzielić na następujące grupy zgodnie z ich głównym przeznaczeniem funkcjonalnym:

bierny sprzęt sieciowy złącza, kable, patchcordy, patch panele, gniazda telekomunikacyjne itp.;

Aktywne konwertery/adaptery urządzeń sieciowych, modemy, repeatery, mosty, switche, routery itp.

Obecnie rozwój sieci komputerowych następuje w następujących obszarach:

Wzrost prędkości;

Wdrożenie przełączania opartego na segmentacji;

Łączenie sieci za pomocą routingu.

Przełączanie w warstwie 2

Biorąc pod uwagę właściwości drugiego poziomu modelu referencyjnego ISO/OSI i jego klasyczną definicję, widać, że: ten poziom należy do głównej części nieruchomości dojazdowych.

Warstwa łącza zapewnia niezawodne przesyłanie danych przez kanał fizyczny. W szczególności odnosi się do kwestii adresowania fizycznego (w przeciwieństwie do adresowania sieciowego lub logicznego), topologii sieci, dyscypliny liniowej (jak system końcowy stosowanie kanał sieciowy), powiadamianie o błędach, uporządkowane dostarczanie bloków danych i sterowanie przepływem informacji.

W rzeczywistości funkcjonalność zdefiniowana przez warstwę łączy modelu OSI służy jako platforma dla niektórych z najpotężniejszych współczesnych technologii. O dużym znaczeniu funkcjonalności warstwy 2 świadczy fakt, że producenci sprzętu nadal dużo inwestują w rozwój urządzeń o takiej funkcjonalności, czyli przełączników.

Przełączanie w warstwie 3

Przełączanie na trzecim poziomie? jest to routing sprzętowy. Tradycyjne routery realizują swoje funkcje za pomocą procesorów sterowanych programowo, które nazwiemy routingiem programowym. Tradycyjne routery zazwyczaj przesyłają pakiety z prędkością około 500 000 pakietów na sekundę. Przełączniki warstwy 3 działają obecnie z prędkością do 50 milionów pakietów na sekundę. Jego dalszy wzrost jest możliwy, ponieważ każdy moduł interfejsu, podobnie jak w przełączniku drugiej warstwy, jest wyposażony we własny procesor przesyłania pakietów oparty na ASIC. Tak więc zwiększenie liczby modułów prowadzi do wzrostu wydajności routingu. Zastosowanie szybkiej, wielkoskalowej technologii niestandardowych układów scalonych (ASIC) jest główną cechą odróżniającą przełączniki warstwy 3 od tradycyjnych routerów.

Przełącznik to urządzenie, które działa w drugiej/trzeciej warstwie modelu referencyjnego ISO/OSI i jest przeznaczone do łączenia segmentów sieci działających w oparciu o pojedynczy protokół warstwy łącza/sieci. Przełącznik kieruje ruch tylko przez jeden port wymagany do dotarcia do miejsca docelowego.

Rysunek (patrz rysunek 1) przedstawia klasyfikację przełączników według możliwości zarządzania i zgodnie z modelem referencyjnym ISO/OSI.

Rysunek 1 Klasyfikacja przełączników

Rozważmy bardziej szczegółowo cel i możliwości każdego typu przełącznika.

Przełącznik niezarządzany? to urządzenie przeznaczone do łączenia wielu węzłów śieć komputerowa w jednym lub kilku segmentach sieci. Przesyła dane tylko bezpośrednio do odbiorcy, z wyjątkiem ruchu rozgłoszeniowego do wszystkich węzłów sieci. Przełącznik niezarządzany nie może wykonywać żadnych innych funkcji.

Switche zarządzalne to bardziej złożone urządzenia, które pozwalają na realizację zestawu funkcji drugiej i trzeciej warstwy modelu ISO/OSI. Można nimi zarządzać przez interfejs WWW, wiersz poleceń przez port konsoli lub zdalnie przez protokół SSH, a także za pomocą protokołu SNMP.

Konfigurowalne przełączniki zapewniają użytkownikom możliwość konfiguracji niektórych ustawień poprzez proste narzędzia zarządzanie, interfejs WWW, uproszczony interfejs wiersza poleceń i protokół SNMP.

Przełączniki warstwy 2 analizują przychodzące ramki, decydują o ich przekazaniu i przekazują je do miejsc docelowych w oparciu o adresy MAC warstwy łącza modelu OSI. Główną zaletą przełączników warstwy 2 jest przezroczystość protokołów wyższych warstw. Ponieważ przełącznik działa w drugiej warstwie, nie musi analizować informacji z wyższych warstw modelu OSI.

Przełączniki warstwy 3 wykonują przełączanie i filtrowanie na podstawie adresów warstwy łącza (warstwa 2) i sieci (warstwa 3) modelu OSI. Takie przełączniki dynamicznie decydują, czy przełączać (warstwa 2), czy kierować (warstwa 3) ruch przychodzący. Przełączniki warstwy 3 przełączają się wewnątrz Grupa robocza oraz routing między różnymi podsieciami lub wirtualnymi sieciami lokalnymi (VLAN).

Przełączniki dzielą się na zarządzane i niezarządzane (najprostsze). Bardziej złożone przełączniki umożliwiają sterowanie przełączaniem na poziomie kanału (drugi) i sieci (trzeci) modelu OSI. Zazwyczaj są one odpowiednio nazwane, na przykład przełącznik warstwy 2 lub po prostu w skrócie L2. Przełącznikiem można zarządzać za pomocą protokołu interfejsu internetowego, SNMP, RMON itp. Wiele zarządzanych przełączników pozwala na wykonywanie dodatkowych funkcji: VLAN, QoS, agregacja, mirroring. Złożone przełączniki można łączyć w jedno urządzenie logiczne - stos, w celu zwiększenia liczby portów (np. można połączyć 4 przełączniki z 24 portami i otrzymać przełącznik logiczny z 96 portami).

router

Router lub router - specjalistyczny komputer sieciowy, posiadający co najmniej dwa interfejsy sieciowe i przesyłający pakiety danych między różnymi segmentami sieci, podejmujący decyzje o przekazywaniu na podstawie informacji o topologii sieci i określonych regułach ustalonych przez administratora.

Router działa w wyższej warstwie „sieci” 3 modelu sieci OSI niż przełącznik (lub most sieciowy) i koncentrator (koncentrator), które działają odpowiednio w warstwie 2 i warstwie 1 modelu OSI.

Zasada działania routera

Zazwyczaj router używa adresu docelowego określonego w danych pakietowych i określa na podstawie tablicy routingu ścieżkę, którą dane powinny być przesyłane. Jeśli nie ma opisanej trasy w tablicy routingu dla adresu, pakiet jest odrzucany.

Istnieją inne sposoby określenia ścieżki przekazywania pakietów, takie jak użycie adresu źródłowego, używanych protokołów wyższej warstwy i innych informacji zawartych w nagłówkach pakietów warstwy sieciowej. Często routery potrafią tłumaczyć adresy nadawcy i odbiorcy, filtrować przepływ danych tranzytowych w oparciu o określone reguły w celu ograniczenia dostępu, szyfrować/odszyfrowywać przesyłane dane itp.

Maska podsieci

W terminologii sieci TCP/IP maska ​​sieci lub maska ​​podsieci (maska ​​sieci) to maska ​​bitowa (maska ​​bitowa), która określa, do której części adresu IP (adresu ip) hosta (hosta) sieci się odnosi adres sieciowy, a część z adresem samego hosta w tej sieci. Aby uzyskać adres sieciowy, znając adres IP i maskę podsieci, musisz zastosować do nich operację bitowej kombinacji. Na przykład w przypadku bardziej złożonej maski (operacje bitowe w IPv6 wyglądają tak samo):

Adres IP: 11000000 10101000 00000001 00000010 (192.168.1.2)

Maska podsieci: 11111111 11111111 11111111 00000000 (255.255.255.0)

Adres sieciowy: 11000000 10101000 00000001 00000000 (192.168.1.0)

Adresowanie bezklasowe to metoda adresowania IP, która umożliwia elastyczne zarządzanie przestrzenią adresową IP bez korzystania ze sztywnej struktury adresowania klasowego. Korzystanie z tej metody pozwala na ekonomiczne wykorzystanie ograniczonych zasobów adresów IP, ponieważ różne maski podsieci mogą być stosowane do różnych podsieci. Maski podsieci są podstawą routingu bezklasowego (CIDR). W tym podejściu maska ​​podsieci jest zapisywana wraz z adresem IP w formacie „adres IP/liczba 1 bitów w masce”. Liczba po ukośniku wskazuje liczbę jedynek w masce podsieci.

Przypisanie maski podsieci

Maska jest przypisywana zgodnie z następującym schematem (dla sieci klasy C), gdzie jest liczba komputerów w podsieci + 2, zaokrąglona w górę do najbliższej wyższej potęgi dwójki (wzór ten obowiązuje dla ≤ 254, dla > 254 tam będzie inna formuła).

Przykład: W sieci klasy C znajduje się 30 komputerów, maska ​​dla takiej sieci jest obliczana w następujący sposób:

28 - 32 = 224 (0E0h)< = >255.255.255.224 (0xFFFFFFE0)

Projekt sieci lokalnej utworzony w programie Cisco Packet Tracer:

Obrazek 1

Rysunek 1 pokazuje logiczna konstrukcja sieć lokalna zawierająca 16 stacji roboczych, 3 przełączniki, 2 routery z funkcją serwerów DHCP, 2 punkty dostępowe oraz kilka urządzeń końcowych podłączonych do punktów dostępowych.

Ustawienia routera:

Rysunek 2

Rysunek 3

Ustawienia przełącznika:

Rysunek 4

Rysunek 5

Rysunek 6

Ustawienia punktu dostępu:

Rysunek 7

Cyfra 8


Wniosek

W nowoczesne komputery procesory wykonane są w postaci kompaktowego modułu (o wymiarach ok. 5×5×0,3 cm) wsuwanego w gniazdo ZIF (AMD) lub na sprężynowej konstrukcji - LGA (Intel). Cechą złącza LGA jest to, że piny są przenoszone z obudowy procesora do samego złącza - gniazdo znajdujące się na płyta główna. Większość nowoczesnych procesorów jest zaimplementowana jako pojedynczy układ półprzewodnikowy zawierający miliony, a ostatnio nawet miliardy tranzystorów. Nowoczesne procesory wykorzystują od 1 do 16 bloków sterujących i od 4 do 64 bloków operacyjnych. W przejściu na układy asynchroniczne uzasadnione będzie zastosowanie kilkudziesięciu bloków sterujących i kilkuset bloków operacyjnych. Takie przejście, wraz z odpowiednim wzrostem liczby bloków, zwiększy szczytową wydajność o więcej niż dwa rzędy wielkości i średnią wydajność o więcej niż rząd wielkości.

Wraz z materiałami opisującymi możliwe perspektywy produkcji wielogigabitowych chipów PCM w procesie 45 lub 32 nm, ST zaprezentowało prototyp 128-Mbitowego chipa PCM wyprodukowanego w technologii 90 nm. Zaletami PRAM są mała powierzchnia ogniw, dobra wydajność elektryczna i wysoka niezawodność.

W ciągu najbliższych 10-20 lat istotna część procesorów najprawdopodobniej zmieni się ze względu na fakt, że proces technologiczny osiąga fizyczne granice produkcji. Być może będą to:

Komputery optyczne - w których zamiast sygnały elektryczne Strumienie światła (fotony, a nie elektrony) są przetwarzane.

Komputery kwantowe, których praca w całości opiera się na efektach kwantowych. Obecnie trwają prace nad stworzeniem działających wersji procesorów kwantowych.

Komputery molekularne - systemy komputerowe, wykorzystując możliwości obliczeniowe cząsteczek (głównie organicznych). Komputery molekularne wykorzystują ideę możliwości obliczeniowych do rozmieszczenia atomów w przestrzeni.

dysk SSD

Dysk półprzewodnikowy (SSD, dysk półprzewodnikowy) to komputerowe niemechaniczne urządzenie pamięci masowej oparte na układach pamięci. Oprócz nich dysk SSD zawiera kontroler sterujący.

Istnieją dwa rodzaje dysków półprzewodnikowych: SSD oparte na pamięci, takie jak pamięć o dostępie swobodnym komputery i pamięci flash oparte na dyskach SSD.

Obecnie dyski półprzewodnikowe stosowane są w urządzeniach kompaktowych: laptopach, netbookach, komunikatorach i smartfonach, ale można je również stosować w komputery stacjonarne w celu poprawy wydajności. Niektórzy znani producenci przeszli już całkowicie na produkcję dysków półprzewodnikowych, na przykład Samsung sprzedał działalność produkcyjną dyski twarde Firma Seagate. Istnieją również tak zwane hybrydy dyski twarde, który pojawił się m.in. ze względu na obecny, proporcjonalnie wyższy koszt dysków półprzewodnikowych. Takie urządzenia łączą dysk twardy w jednym urządzeniu. dyski magnetyczne(dysk twardy) i dysk SSD stosunkowo niewielka objętość, jako pamięć podręczna (aby zwiększyć wydajność i żywotność urządzenia, zmniejszyć zużycie energii).

Te dyski są zbudowane w oparciu o pamięć ulotną (taką samą jak używana w pamięci RAM) komputer osobisty) charakteryzują się ultraszybkim czytaniem, pisaniem i wyszukiwaniem informacji. Ich główną wadą jest niezwykle wysoki koszt. Służą głównie do przyspieszenia pracy dużych systemów zarządzania bazami danych oraz potężnych stacji graficznych. Takie dyski są zwykle wyposażone w baterie, aby oszczędzać dane w przypadku utraty zasilania, a droższe modele są wyposażone w systemy backupu i/lub backupu online. Przykładem takich dysków jest I-RAM. Użytkownicy z wystarczającą ilością pamięci RAM mogą się organizować maszyna wirtualna i zlokalizuj dysk twardy w pamięci RAM i oceń wydajność.

W pierwszym numerze magazynu LAN, w dziale „Pierwsze lekcje” opublikowaliśmy artykuł S. Steinke „Przełączanie Ethernet” o podstawach tej technologii i dokonaliśmy właściwego wyboru: w ciągu następnych trzech lat przełączanie Ethernet stała się jedną z „najgorętszych” technologii. Później wróciliśmy do tego tematu więcej niż raz (zob. w szczególności artykuł D. Ganzhi „Przełączniki w sieciach lokalnych” w wydaniu LAN z kwietnia 1997 r.). Pierwszy artykuł pojawił się w czasie, gdy Fast Ethernet wciąż walczył o swoje miejsce w słońcu dzięki 100VG-AnyLAN, a wynik zmagań nie był jasny, więc był poświęcony przede wszystkim przełączaniu z prędkością 10 Mb/s. Drugi z tych artykułów dotyczył głównie ogólnych aspektów zmiany dostawcy. Biorąc pod uwagę powyższe okoliczności, a także wagę przełączania jako takiego, uznaliśmy za możliwy, a nawet konieczny powrót do tego tematu, zwłaszcza że seria artykułów na temat Ethernetu nie byłaby kompletna bez jej rozważenia.

CO TO JEST PRZEŁĄCZNIK?

Przełącznik jest zasadniczo mostem wieloportowym, więc podobnie jak most, przyjmuje przychodzące pakiety, tymczasowo je przechowuje, a następnie przekazuje na inny port w oparciu o adres docelowy pakietu. Przełączniki mogą być używane do łączenia różnych sieci LAN, segmentowania sieci LAN (tj. zmniejszania liczby węzłów rywalizujących o media w tej samej domenie kolizyjnej) oraz do przezwyciężania ograniczeń średnicy segmentu. To ostatnie zastosowanie jest szczególnie ważne w przypadku sieci Fast Ethernet, gdzie średnica segmentu nie może przekraczać 205 m dla skrętki.

Przełączniki wykorzystują koncepcję „wirtualnego łącza” do ustanowienia tymczasowego połączenia między nadawcą a odbiorcą. Po przesłaniu pakietu połączenie wirtualne zostaje zakończone. Przełącznik utrzymuje tabelę, w której zapamiętuje, które stacje (dokładniej, które adresy MAC) są podłączone do którego portu fizycznego. Na rysunku 1 abonent o adresie A wysyła pakiet do odbiorcy o adresie D. Z tabeli przełącznik określa, że ​​stacja o adresie A jest podłączona do portu 1, a stacja o adresie D jest podłączona do portu 4. Na podstawie tych danych ustanawia wirtualne połączenie w celu wysłania wiadomości między portami 1 i 4.

Obrazek 1.
Na podstawie adresu docelowego przełącznik określa, do którego portu przekierować przychodzący pakiet.

W przełączniku Ethernet transmisja danych między nienakładającymi się parami portów może odbywać się jednocześnie. Na przykład węzeł A może wysyłać pakiet do węzła D w tym samym czasie, gdy węzeł B wysyła pakiet do węzła C. Obie konwersacje odbywają się w tym samym czasie, więc w przypadku Ethernetu całkowita przepustowość (przepustowość) przełącznik w naszym przykładzie to 20 Mb/s. Określa się ją przez zsumowanie przepustowości dostępnej dla każdego połączenia, powiedzmy w przypadku 12-portowego przełącznika Ethernet, teoretycznie jest to 60 Mb/s. Dla porównania, wzmacniacz Ethernet ma zawsze taką samą sumę wydajność z prędkością 10 Mb/s, niezależnie od liczby portów. Ponadto rzeczywista przepustowość koncentratora może być znacznie mniejsza, gdy wiele urządzeń konkuruje o dostęp do multimediów. Jednak rzeczywista całkowita przepustowość przełącznika może być niższa niż obliczona teoretycznie z powodu wad konstrukcyjnych przełącznika, takich jak niewystarczająca przepustowość magistrali wewnętrznej. W tym przypadku mówi się, że przełącznik ma architekturę blokującą.

PRZEŁĄCZNIK ARCHITEKTURY

Architektura przełącznika jest określana przez cztery główne czynniki — typ portu, rozmiary buforów, mechanizm przekazywania pakietów i magistralę wewnętrzną (patrz Rysunek 2).

Rysunek 2.
Przy całej różnorodności konstrukcji przełączników podstawowa architektura tych urządzeń jest określona przez cztery elementy: porty, bufory, magistralę wewnętrzną i mechanizm przekazywania pakietów.

Porty mogą mieć prędkość 10 lub 100 Mb/s i mogą działać w trybie półdupleksowym lub pełnodupleksowym. Wiele modeli z wyższej półki może również zawierać porty dla FDDI, ATM, Gigabit Ethernet itp., ale nie poruszymy tutaj tego tematu, zwłaszcza że pokrótce omówiliśmy to już wcześniej.

Obecność buforów o dostatecznej pojemności ma duże znaczenie dla przełączania, w szczególności w przypadku korzystania z protokołów w sieci jako okna przesuwnego, gdy abonent potwierdza odbiór nie każdego pakietu, ale serii pakietów. Ogólnie rzecz biorąc, im większa pojemność bufora, tym lepiej, ale tym drożej. Dlatego deweloperzy muszą wybierać między wydajnością a ceną. Ale mają też inne rozwiązanie - kontrolę przepływu (patrz poniżej).

Mechanizm przekazywania pakietów może być jednym z następujących trzech: przełączanie buforowane do przodu, przełączanie od końca do końca i hybrydowe przełączanie od końca do końca. Rozważaliśmy je już kilka razy, więc przypomnimy sobie tylko, jakie one są. W pierwszym przypadku pakiet jest całkowicie buforowany przed przekazaniem, więc Ta metoda wprowadza największe opóźnienie, ale także nie pozwala błędnym pakietom wyjść poza segment. W drugim przypadku po odczytaniu adresu docelowego przełącznik natychmiast przekazuje ramkę dalej. Jak łatwo zrozumieć, ma dokładnie odwrotne zalety i wady – małe opóźnienia i brak odpowiedniego sprawdzania klatek.

W trzecim przypadku przełącznik odczytuje pierwsze 64 bajty pakietu przed przekazaniem go dalej. W związku z tym działa jako pośredni przełącznik buforowany w odniesieniu do krótkich ramek i jako przełącznik od końca do końca w odniesieniu do długich ramek. Metody promocji ramek ilustruje rysunek 3.

(1x1)

Rysunek 3
Mechanizmy przekazywania pakietów różnią się momentem, w którym pakiet jest przekazywany.

Architektura magistrali wewnętrznej określa sposób przesyłania ramek z jednego portu do drugiego przy użyciu wewnętrznej elektroniki przełącznika. Ma to kluczowe znaczenie dla wydajności przełącznika: producent może twierdzić, że magistrala wewnętrzna ma przepustowość 1-2 Gb/s, ale jednocześnie milczy, że osiąga się ją tylko przy określonym rodzaju ruchu. Na przykład przełącznik z małymi buforami może działać najlepiej tylko wtedy, gdy wszystkie porty działają z taką samą szybkością, a ruch jest równomiernie rozłożony na wszystkie porty.

Magistrala może obsługiwać porty cyklicznie lub priorytetowo. W trybie round robin bezczynny port jest pomijany. Ta architektura najlepiej nadaje się do przypadków, w których ruch przez każdy port jest w przybliżeniu taki sam. W usłudze priorytetowej aktywne porty konkurują ze sobą o magistralę wewnętrzną. Ten rodzaj architektury najlepiej nadaje się do pracy z przełącznikami, których porty mają różne prędkości. Niektórzy producenci oferują przełączniki z możliwością zmiany typu architektury magistrali.

PEŁNY DUPLEKS ETHERNET

Normalny Ethernet (i Fast Ethernet) jest współdzielonym medium transmisyjnym, a wszystkie współdzielone sieci są z definicji półdupleksowe: w danym czasie tylko jedna stacja może nadawać, a wszyscy inni muszą nasłuchiwać. Innymi słowy, stacja może albo nadawać, albo odbierać, ale nie obie jednocześnie.

Powszechne stosowanie okablowania czteroparowego otworzyło fundamentalną możliwość przesyłania i odbierania danych oddzielnymi ścieżkami (różnymi parami), co nie miało miejsca, gdy fizycznym medium transmisyjnym był kabel koncentryczny.

W przypadku, gdy do każdego portu przełącznika podłączony jest tylko jeden węzeł (podkreślamy jeden), nie ma rywalizacji o dostęp do medium transmisyjnego, więc w zasadzie nie mogą wystąpić kolizje i schemat wielodostępu CSMA/CD nie jest już potrzebny .

Zatem jeśli dwa węzły są podłączone bezpośrednio do portów przełącznika, mogą jednocześnie odbierać i przesyłać dane na różnych parach, w efekcie teoretyczna przepustowość takiego połączenia wynosi 20 Mbps w przypadku Ethernetu i 200 Mbps w przypadku Szybki Ethernet. Dodatkowo, ze względu na brak konkurencji, rzeczywista średnia przepustowość łącza zbliża się do nominalnej i wynosi ponad 80% powyższych wartości.

AUTOMATYCZNE NEGOCJACJE

Niektóre przełączniki mają zarówno porty 10 Mb/s, jak i 100 Mb/s (zobacz sekcję Zapobieganie przeciążeniom, aby dowiedzieć się, jak może to powodować problemy). Ponadto są w stanie automatycznie określić, z jaką prędkością pracują podłączone do niej stacje, huby itp.).

To samo standardowe złącze RJ-45 może przenosić sygnały 10BaseT, 10BaseT full duplex, 100BaseTX, 100BaseTX full duplex i 100BaseT4. Dlatego też organizacja IEEE zaproponowała schemat automatycznej negocjacji zwany nWAY, aby określić, w jakim standardzie działa urządzenie na drugim końcu kabla. Kolejność priorytetów trybów pracy jest następująca:

  • pełny dupleks 100BaseTX;
  • 100BaseT4;
  • 100BaseTX;
  • pełny dupleks 10BaseT;
  • 10BaseT.

W automatycznych negocjacjach „umawiające się strony” używają analogu 10BaseT impulsów integralności łącza zwanego Fast Link Pulse. Oba urządzenia wysyłają takie impulsy, a każde z nich określa, w którym z trybów transmisji może pracować druga strona.

Wiele przełączników obsługuje wszystkie pięć możliwych trybów, więc nawet jeśli podłączony węzeł nie ma automatycznej negocjacji, port przełącznika będzie się z nim na tym komunikować prędkość maksymalna do czego jest zdolny. Dodatkowo realizacja tej funkcji jest bardzo prosta i nie prowadzi do zauważalnego wzrostu kosztów sprzętu. Wreszcie, standard zapewnia opcję wyłączenia automatycznej negocjacji, dzięki czemu użytkownik może ustawić żądany tryb w razie potrzeby prześlij ręcznie.

ZAPOBIEGANIE PRZECIĄŻENIOM

Przełączniki często muszą działać jako pomost między portami od 10 do 100 Mb/s, na przykład gdy przełącznik ma jeden port szybkiego serwera i kilka portów 10 Mb/s dla stacji roboczych. W przypadku, gdy ruch jest przesyłany z portu z szybkością 10 Mb/s do portu z szybkością 100 Mb/s, nie ma problemów, ale jeśli ruch idzie w przeciwnym kierunku... Przepływ danych z szybkością 100 Mb/s

jest o rząd wielkości większy niż port 10 Mb/s, więc przełącznik musi przechowywać nadmiar danych w swoich wewnętrznych buforach, jeśli ma do tego wystarczającą ilość pamięci. Załóżmy na przykład, że pierwszy port jest połączony z serwerem za pomocą karty 100 Mb/s, a drugi port jest połączony z klientem za pomocą karty 10 Mb/s. Jeżeli serwer wyśle ​​do klienta 16 kolejnych pakietów jeden po drugim, to razem stanowią one średnio 24 KB danych. Transmisja ramki 1,5 KB zajmuje 122 µs dla Fast Ethernet i 1220 µs dla Ethernetu. W ten sposób pierwszy port otrzyma dziesięć ramek, zanim jedna ramka będzie mogła zostać wysłana przez drugi port, tj. pierwszy port musi mieć bufor o wielkości co najmniej 24 KB. Jeśli jednak strumień jest wystarczająco długi, nie wystarczą żadne bufory. Jednym ze sposobów uniknięcia zatorów jest zarządzanie wątkami. Koncepcja kontroli przepływu (lub unikania przeciążenia) polega na wywołaniu sztucznej kolizji na porcie o dużej szybkości, w wyniku której nadawca zawiesza na pewien czas transmisję danych zgodnie z algorytmem wykładniczego odczekiwania. W naszym przykładzie pierwszy port wykryje, że jego bufor jest pełny i wyśle ​​wiadomość o przeciążeniu z powrotem do nadawcy. Ten ostatni przyjmie tę wiadomość jako kolizję i zatrzyma transmisję. Przełącznik będzie nadal wysyłać komunikaty o przeciążeniu, dopóki bufor nie zostanie zwolniony. Ten rodzaj sterowania przepływem jest wykonywany tylko przez przełączniki z portami half-duplex.

ZARZĄDZANIE PRZEŁĄCZNIKAMI

Sterowanie przełącznikami to jedno z największych wyzwań, przed którymi stoją zarówno producenci sprzętu, jak i administratorzy sieci. W przypadku sieci współdzielonych zarządzanie nie jest szczególnie trudne, ponieważ ruch przez jeden port jest przekazywany do wszystkich pozostałych portów koncentratora. W przypadku przełącznika ruch pomiędzy parami portów każdego wirtualnego połączenia jest inny, więc zadanie zbierania danych statystycznych o pracy routera jest znacznie bardziej skomplikowane. Producenci generalnie wspierają następujące dwie metody zbierania statystyk.

Jednym z nich jest włączenie zarządzania do architektury backplane przełącznika. Statystyki są gromadzone na temat każdego pakietu przesyłanego przez magistralę i przechowywane w hoście zgodnie z jego adresem MAC. Program sterujący może uzyskać dostęp do tego urządzenia w celu uzyskania statystyk sieci LAN. Jedynym problemem związanym z tą metodą jest to, że każdy producent przełączników wdraża swoją własną własny schemat, więc kompatybilność jest zwykle ograniczona do statystyk SNMP.

Druga metoda jest znana jako dublowanie portów. W takim przypadku cały ruch przez określony port jest kopiowany do dedykowanego portu zarządzania. Ten port jest zwykle połączony z terminalem kontrolnym, który już zbiera statystyki dla każdego konkretnego portu. Jednak ta metoda ma ograniczenie polegające na tym, że nie pozwala zobaczyć, co dzieje się w tym czasie na innych portach przełącznika.

Niektórzy producenci przełączników zazwyczaj dołączają do swoich modeli wysokiej klasy bazę MIB Remote Monitor (RMON), aby gromadzić statystyki dotyczące działania każdego portu przełącznika. Ale bardzo często zawierają one daleko od wszystkich grup zdefiniowanych przez standard, a dodatkowo obsługa RMON MIB znacznie podnosi koszt przełącznika.

ODMIANY PRZEŁĄCZNIKÓW

Przełączniki można klasyfikować na różne sposoby. W zależności od przeznaczenia wszystkie można podzielić na dwie duże grupy - przełączniki dla grup roboczych i przełączniki dla sieci szkieletowej.

Cechą wyróżniającą wiele przełączników grup roboczych jest niewielka liczba adresów obsługiwanych na każdym porcie. Każdy port działa jak most, więc musi wiedzieć, do których adresów może uzyskać dostęp przez inne porty. Takie mapowania adresów z portu na adres MAC mogą być bardzo długie i zajmować znaczną ilość drogiej pamięci. Dlatego przełączniki grup roboczych zwykle nie obsługują zbyt wielu adresów MAC. Niektóre z nich pamiętają nawet tylko jeden adres dla każdego portu - w tym przypadku do portu może być podłączony jeden i tylko jeden węzeł.

Przełączniki szkieletowe wyróżniają się dużą liczbą szybkich portów, w tym pełnodupleksowych, obecność dodatkowe funkcje zarządzanie siecią, takie jak wirtualne sieci LAN i zaawansowane filtrowanie pakietów itp. Ogólnie rzecz biorąc, przełącznik szkieletowy jest znacznie droższy i bardziej wydajny niż jego odpowiednik dla grup roboczych.

ZALETY PRZEŁĄCZANIA

Przełączanie stało się tak popularną technologią, ponieważ pozwala zwiększyć rzeczywistą przepustowość dostępną dla każdego węzła. W rezultacie bez zmian podstawowa technologia i znaczące przekształcenie topologii sieci, firmy były w stanie usunąć zatory w ruchu i rozszerzyć wąskie gardła. Ponadto pozwala zwiększyć długość sieci. Ta okoliczność jest szczególnie cenna w przypadku Fast Ethernetu – np. instalując most (z punktu widzenia niektórych producentów dwuportowy switch) pomiędzy dwoma koncentratorami, odległość pomiędzy stacjami końcowymi można zwiększyć nawet do 400 m.

Dmitry Ganzha jest redaktorem wykonawczym LAN. Można się z nim skontaktować pod adresem: .


Z sieci współdzielonych na przełączane


Zaprojektowane do pracy z niewielką liczbą użytkowników przełączniki biurkowe mogą służyć jako zamiennik koncentratorów 10Base-T. Zazwyczaj przełączniki biurkowe mają 24 porty, z których każdy obsługuje kanał osobisty (prywatny) o przepustowości 10 Mb/s do podłączenia jednego węzła (na przykład stacji roboczej). Dodatkowo taki przełącznik może mieć jeden lub więcej portów 100Base-T lub FDDI do łączenia ze szkieletem lub serwerem.

Łącząc możliwości technologii 10 Mb/s i 100 Mb/s, przełączniki do komputerów stacjonarnych minimalizują blokowanie podczas próby jednoczesne połączenie kilka węzłów do jednego szybkiego portu (100 Mb/s). W środowisku klient-serwer wiele węzłów może jednocześnie uzyskać dostęp do serwera podłączonego przez port 100 Mb/s.

Przełączniki biurkowe są łatwe w instalacji i utrzymaniu, często zawierają wbudowane programy typu plug-and-play i mają uproszczony interfejs konfiguracji. Koszt portu to 150 USD, czyli mniej niż dwukrotność kosztu portu w koncentratorach 10Base-T.

Przełączniki szkieletowe

Na szczycie hierarchii przełączników Ethernet znajdują się przełączniki szkieletowe — urządzenia do łączenia sieci lub segmentów, które obsługują multihoming dla swoich portów. Takie przełączniki służą do łączenia koncentratorów 10Base-T, przełączników stacjonarnych i grupowych, serwerów.

Dla użytkowników, którzy chcą zwiększyć dostępną przepustowość poprzez segmentację, przełączniki szkieletowe stanowią prostą, wydajną i ekonomiczną alternatywę dla routerów. Przełączniki szkieletowe mogą jednocześnie przesyłać ruch między wieloma segmentami za pomocą pełne wykorzystanie szerokość pasma medium.

Ponadto przełączniki szkieletowe mogą filtrować pakiety na podstawie atrybutów innych niż adresy. Na przykład administrator może uniemożliwić stacjom roboczym Unix wysyłanie rozgłoszeń NetWare poprzez filtrowanie protokołów.

Przełączniki Backbone charakteryzują się modułową konstrukcją i możliwością obsługi do kilku tysięcy adresów MAC na port. Instalowanie tych przełączników jest bardziej skomplikowane niż przełączników stacjonarnych, głównie ze względu na konieczność skonfigurowania funkcji routingu. Nadmiarowe zasilacze, moduły hot-swap, obsługa protokołu Spanning Tree to obowiązkowe elementy dla przełączników szkieletowych, które zapewniają wszystkie funkcje technologii przełączania, w tym sieci wirtualnych.

W przypadku używania z przełącznikami stacjonarnymi (zamiast koncentratorów 10Base-T), przełączniki szkieletowe zapewniają przełączanie typu end-to-end, które pozwala uniknąć większości problemów związanych z korzystaniem ze współdzielonego środowiska (duża liczba kolizji, mnożenie błędnych pakietów, obniżony poziom bezpieczeństwa) . Bardzo potężne aplikacje Przełączniki szkieletowe 100 Mb/s mogą służyć jako szybka sieć szkieletowa między przełącznikami stacjonarnymi 100/10 Mb/s a serwerami połączonymi łączem 100 Mb/s.

Koszt przełączników szkieletowych na port wynosi 750-1500 USD.

Przełączniki grup roboczych

Przełączniki grup roboczych są używane głównie do łączenia izolowanych przełączników biurkowych lub koncentratorów 10Base-T z resztą sieci. Urządzenia te łączą w sobie cechy przełączników stacjonarnych i szkieletowych.

Podobnie jak przełączniki szkieletowych grup roboczych, mogą obsługiwać multihoming (do kilku tysięcy adresów MAC na przełącznik) i mogą być używane jako routery. Podobnie jak przełączniki stacjonarne, mogą być używane do łączenia się z poszczególnymi portami węzłów.

Chociaż przełączniki grup roboczych zazwyczaj nie obsługują filtrowania protokołów i innych funkcji routingu, niektóre z przełączników tego typu obsługują drzewo opinające, SNMP i sieci wirtualne.

Połączenie 10 Mb/s między przełącznikiem a węzłem użytkownika ( stanowisko pracy) jest najczęściej wykonywany za pomocą skrętki nieekranowanej (UTP), podczas gdy skrętka lub kabel optyczny jest używany do portu o dużej szybkości. Przełączniki multicast mogą obsługiwać kilka tysięcy adresów MAC na urządzenie z portami używanymi do podłączenia niewielkiej liczby koncentratorów lub szkieletów. Przełączniki multiemisji powinny wtedy obsługiwać Spanning Tree, aby uprościć konfigurację sieci i umożliwić nadmiarowość kanałów bez pętli w sieci.

Kluczowym zastosowaniem przełączników dla grup roboczych jest zastąpienie koncentratorów i routerów 10Base-T, umożliwiając użytkownikom przejście ze środowisk współdzielonych do obwodów prywatnych przy jednoczesnej obsłudze współdzielonych i osobistych połączeń 10 Mb/s. Niektóre przełączniki multiemisji mają funkcje odporne na błędy, ale przełączniki multiemisji nigdy nie obsługują filtrowania protokołów.

Koszt na port w przypadku przełączników grup roboczych wynosi 250–1000 USD.

Podobał Ci się artykuł? Podziel się z przyjaciółmi!
Czy ten artykuł był pomocny?
TAk
Nie
Dziękuję za opinię!
Coś poszło nie tak i Twój głos nie został policzony.
Dzięki. Twoja wiadomość została wysłana
Znalazłeś błąd w tekście?
Wybierz, kliknij Ctrl+Enter a my to naprawimy!