Konfiguracja sprzętu i oprogramowania

Procesor PC, co z tym zrobić. Co musisz wiedzieć o jednostce centralnej komputera?

W rzeczywistości to, co dzisiaj nazywamy procesorem, jest właściwie nazywane mikroprocesorem. Jest różnica i zależy od rodzaju urządzenia i jego historycznego rozwoju.

Pierwszy procesor (Intel 4004) pojawił się w 1971 rok.

Zewnętrznie jest to krzemowa płytka z milionami i miliardami (dziś) tranzystorów i kanałów do przekazywania sygnałów.

Celem procesora jest automatyczne wykonanie programy. Innymi słowy, jest głównym elementem każdego komputera.

Urządzenie procesorowe

Kluczowymi elementami procesora są jednostka arytmetyczno-logiczna(ALU), rejestry I urządzenie sterujące. Jednostki ALU będą wykonywać podstawowe operacje matematyczne i logiczne. Wszystkie obliczenia wykonywane są w systemie binarnym. Spójność działania części samego procesora i jego połączenie z innymi (zewnętrznymi) urządzeniami zależy od urządzenia sterującego. Rejestry przechowują tymczasowo aktualne polecenie, dane początkowe, pośrednie i końcowe (wynik obliczeń ALU). Pojemność wszystkich rejestrów jest taka sama.

Pamięć podręczna danych i instrukcji przechowuje często używane dane i polecenia. Dostęp do pamięci podręcznej jest znacznie szybszy niż dostęp do pamięci RAM, więc im jest większy, tym lepiej.

Schemat procesora

Działanie procesora

Procesor działa pod kontrolą programu znajdującego się w pamięci RAM.

(Praca procesora jest bardziej skomplikowana niż pokazano na powyższym schemacie. Na przykład dane i polecenia wchodzą do pamięci podręcznej nie natychmiast z pamięci RAM, ale przez blok pobierania wstępnego, który nie jest pokazany na schemacie. Również dekodowanie blok konwertujący dane i polecenia do postaci binarnej, dopiero po czym procesor może z nimi pracować.)

Blok sterujący odpowiada między innymi za wywołanie kolejnego polecenia i określenie jego typu.

Jednostka arytmetyczno-logiczna, po otrzymaniu danych i polecenia, wykonuje określoną operację i zapisuje wynik do jednego z wolnych rejestrów.

Obecny zespół znajduje się w specjalnie wyznaczonym rejestr instrukcji. W trakcie pracy z obecna drużyna znaczenie tzw Licznik programu, który teraz wskazuje na następne polecenie (o ile oczywiście nie było polecenia skoku lub zatrzymania).

Często polecenie przedstawiane jest jako struktura składająca się z zapisu operacji (do wykonania) oraz adresów komórek danych źródłowych i wyniku. Dane pobierane są z adresów podanych w poleceniu i umieszczane w zwykłych rejestrach (w sensie nie w rejestrze poleceń), wynikowy wynik również najpierw pojawia się w rejestrze, a dopiero potem jest przenoszony pod jego adres podany w poleceniu.

Specyfikacje procesora

Częstotliwość zegara Procesor jest dziś mierzony w gigahercach (GHz), wcześniej mierzonym w megahercach (MHz). 1 MHz = 1 milion cykli na sekundę.

Procesor komunikuje się z innymi urządzeniami ( Baran) przez magistrale danych, adresowe i sterujące. Szerokość magistrali jest zawsze wielokrotnością 8 (jasne jest dlaczego, skoro mamy do czynienia z bajtami), zmienną w trakcie rozwoju historycznego technologia komputerowa i inne dla różne modele, a także nie jest taki sam dla magistrali danych i magistrali adresowej.

Szerokość magistrali danych mówi, ile informacji (ile bajtów) można przesłać jednocześnie (na zegar). Od szerokość szyny adresowej zależy od maksymalnej ilości pamięci RAM, z jaką procesor może w ogóle pracować.

Na moc (wydajność) procesora wpływa nie tylko częstotliwość zegara i szerokość magistrali danych, ale także znaczenie ma pamięć podręczną.

Współczesnego konsumenta elektroniki bardzo trudno zaskoczyć. Przyzwyczailiśmy się już do tego, że naszą kieszeń legalnie zajmuje smartfon, laptop w torbie, „inteligentny” zegarek posłusznie liczy kroki na dłoni, a słuchawkowe pieszczoty aktywny system redukcja szumów.

To zabawna rzecz, ale jesteśmy przyzwyczajeni do przenoszenia nie jednego, ale dwóch, trzech lub więcej komputerów naraz. W końcu tak można zadzwonić do urządzenia, które ma procesor. I nie ma znaczenia, jak wygląda konkretne urządzenie. Za jego pracę odpowiada miniaturowy chip, który pokonał burzliwą i szybką ścieżkę rozwoju.

Dlaczego poruszyliśmy temat procesorów? Wszystko jest proste. W ciągu ostatnich dziesięciu lat na świecie nastąpiła prawdziwa rewolucja urządzenia mobilne.

Między tymi urządzeniami jest tylko 10 lat różnicy. Ale Nokia N95 wydawała nam się wtedy urządzeniem kosmicznym, a dziś patrzymy na ARKit z pewną nieufnością

Ale wszystko mogło potoczyć się inaczej, a poobijany Pentium IV pozostałby ostatecznym marzeniem zwykłego kupca.

Próbowaliśmy obejść się bez skomplikowanych terminów technicznych i opowiedzieć, jak działa procesor i dowiedzieć się, jaka architektura jest przyszłością.

1. Jak to się wszystko zaczęło

Pierwsze procesory były zupełnie inne od tego, co widać po otwarciu pokrywy. blok systemowy Twój komputer.

Zamiast mikroukładów w latach 40. XX wieku przekaźniki elektromechaniczne uzupełniony lampami próżniowymi. Lampy działały jak dioda, której stan można było regulować obniżając lub zwiększając napięcie w obwodzie. Konstrukcje wyglądały tak:

Do działania jednego gigantycznego komputera potrzebne były setki, a czasem tysiące procesorów. Ale jednocześnie nie byłby w stanie uruchomić na takim komputerze nawet prostego edytora, takiego jak NotePad lub TextEdit ze standardowego zestawu Windows i macOS. Komputer po prostu nie miałby wystarczającej mocy.

2. Pojawienie się tranzystorów

Pierwszy FET pojawił się w 1928 roku. Ale świat zmienił się dopiero po pojawieniu się tzw tranzystory bipolarne otwarty w 1947 roku.

Pod koniec lat czterdziestych fizyk eksperymentalny Walter Brattain i teoretyk John Bardeen opracowali pierwszy tranzystor punktowy. W 1950 roku został zastąpiony przez pierwszy tranzystor złączowy, a w 1954 roku znany producent Texas Instruments ogłosił tranzystor krzemowy.

Ale prawdziwa rewolucja nastąpiła w 1959 roku, kiedy naukowiec Jean Henri opracował pierwszy krzemowy płaski (płaski) tranzystor, który stał się podstawą monolitycznych układów scalonych.

Tak, jest to trochę skomplikowane, więc pokopmy trochę głębiej i zajmijmy się częścią teoretyczną.

3. Jak działa tranzystor

Tak więc zadanie takiego elementu elektrycznego, jak tranzystor jest kontrolowanie prądu. Mówiąc najprościej, ten mały skomplikowany przełącznik kontroluje przepływ prądu.

Główna przewaga tranzystora nad konwencjonalny przełącznik w tym, że nie wymaga obecności osoby. Tych. taki element jest w stanie niezależnie kontrolować prąd. Ponadto działa znacznie szybciej niż sam włączasz lub wyłączasz obwód elektryczny.

Ze szkolnego kursu informatyki zapewne pamiętasz, że komputer „rozumie” ludzki język poprzez kombinację tylko dwóch stanów: „włączony” i „wyłączony”. W rozumieniu maszyny jest to stan „0” lub „1”.

Zadaniem komputera jest reprezentowanie Elektryczność w postaci liczb.

I jeśli wcześniej zadanie przełączania stanów wykonywały niezgrabne, nieporęczne i nieefektywne przekaźniki elektryczne, to teraz rutynową pracę przejął tranzystor.

Od początku lat 60. zaczęto wytwarzać tranzystory z krzemu, co pozwoliło nie tylko na bardziej zwarte procesory, ale także na znaczne zwiększenie ich niezawodności.

Ale najpierw zajmijmy się diodą

Krzem(aka Si - „krzem” w układzie okresowym) należy do kategorii półprzewodników, co oznacza, że ​​z jednej strony lepiej przewodzi prąd niż dielektryk, z drugiej gorzej niż metal.

Czy nam się to podoba, czy nie, ale aby zrozumieć pracę i dalszą historię rozwoju procesorów, będziemy musieli zagłębić się w strukturę jednego atomu krzemu. Nie bójmy się, zwięźle i przejrzyście.

Zadaniem tranzystora jest wzmocnienie słabego sygnału dzięki dodatkowemu źródłu zasilania.

Atom krzemu ma cztery elektrony, dzięki czemu tworzy wiązania (a konkretnie - wiązania kowalencyjne) z tymi samymi pobliskimi trzema atomami, tworząc sieć krystaliczną. Podczas gdy większość elektronów jest związana, niewielka ich część jest w stanie poruszać się przez sieć krystaliczną. To właśnie z powodu tego częściowego przeniesienia elektronów krzem został sklasyfikowany jako półprzewodnik.

Ale tak słaby ruch elektronów nie pozwoliłby na zastosowanie tranzystora w praktyce, dlatego naukowcy postanowili zwiększyć wydajność tranzystorów o doping lub prościej, dodatki do sieci krystalicznej krzemu przez atomy pierwiastków z charakterystycznym układem elektronów.

Zaczęli więc używać 5-wartościowego zanieczyszczenia fosforem, dzięki któremu otrzymali tranzystory typu n. Obecność dodatkowego elektronu umożliwiła przyspieszenie ich ruchu, zwiększając przepływ prądu.

Podczas domieszkowania tranzystorów typ p Takim katalizatorem stał się bor, który zawiera trzy elektrony. Ze względu na brak jednego elektronu w sieci krystalicznej pojawiają się dziury (spełniają one rolę ładunku dodatniego), ale ze względu na fakt, że elektrony są w stanie wypełnić te dziury, znacznie wzrasta przewodność krzemu.

Załóżmy, że wzięliśmy wafel krzemowy i domieszkowaliśmy jedną jego część zanieczyszczeniem typu p, a drugą zanieczyszczeniem typu n. Więc mamy diodaelement bazowy tranzystor.

Teraz elektrony znajdujące się w części n będą zmierzać do otworów znajdujących się w części p. W tym przypadku strona n będzie miała lekki ładunek ujemny, a strona p będzie miała ładunek dodatni. Powstające w wyniku tej „grawitacji” pole elektryczne – bariera – uniemożliwi dalszy ruch elektronów.

Jeśli podłączysz źródło zasilania do diody w taki sposób, że „-” styka się ze stroną p płytki, a „+” ze stroną n, przepływ prądu nie będzie możliwy ze względu na to, że otwory będą być przyciągane do ujemnego kontaktu źródła zasilania, a elektrony do dodatniego, a wiązanie między elektronami p i n zostanie utracone z powodu rozszerzania się połączonej warstwy.

Ale jeśli podłączysz zasilanie o wystarczającym napięciu odwrotnie, tj. „+” od źródła do strony p i „-” na stronę n, elektrony umieszczone po stronie n będą odpychane przez biegun ujemny i wypychane w stronę p, zajmując otwory w region.

Ale teraz elektrony są przyciągane do dodatniego bieguna źródła zasilania i nadal poruszają się przez otwory p. Zjawisko to zostało nazwane dioda spolaryzowana do przodu.

dioda + dioda = tranzystor

Tranzystor sam w sobie może być traktowany jako dwie diody połączone ze sobą. W takim przypadku region p (ten, w którym znajdują się dziury) staje się dla nich wspólny i nazywany jest „bazą”.

Na Tranzystor N-P-N dwa n-obszary z dodatkowymi elektronami - są one jednocześnie "emiterem" i "kolektorem" oraz jeden słaby obszar z dziurami - p-obszar zwany "bazą".

Jeśli podłączysz zasilacz (nazwijmy go V1) do n regionów tranzystora (niezależnie od bieguna), jedna dioda będzie spolaryzowana wstecznie, a tranzystor będzie w stan zamknięty .

Ale jak tylko podłączymy kolejne źródło zasilania (nazwijmy to V2), ustawiając styk „+” na „centralny” region p (baza), a styk „-” na region n (emiter), część elektronów przepłynie przez ponownie utworzony łańcuch (V2), a część zostanie przyciągnięta przez dodatni region n. W rezultacie elektrony wpłyną do obszaru kolektora i wzmocniony zostanie słaby prąd elektryczny.

Wydychać!

4. Więc jak właściwie działa komputer?

I teraz Najważniejszą rzeczą.

W zależności od przyłożonego napięcia tranzystor może być: otwarty, lub Zamknięte. Jeśli napięcie jest niewystarczające do pokonania bariery potencjału (tej na styku płytek p i n) - tranzystor będzie w stanie zamkniętym - w stanie wyłączonym lub, w języku system binarny – "0".

Przy wystarczającym napięciu tranzystor włącza się i otrzymujemy binarnie wartość „on” lub „1”.

Ten stan, 0 lub 1, nazywany jest w branży komputerowej „bitem”.

Tych. otrzymujemy główną właściwość samego przełącznika, który otworzył ludzkości drogę do komputerów!

W pierwszym elektronicznym komputerze cyfrowym ENIAC, a mówiąc prościej, w pierwszym komputerze zastosowano około 18 tys. lamp triodowych. Komputer był wielkością porównywalną z kortem tenisowym, a jego waga wynosiła 30 ton.

Aby zrozumieć, jak działa procesor, należy zrozumieć jeszcze dwa kluczowe punkty.

Moment 1. Tak więc zdecydowaliśmy, co jest fragment. Ale z jego pomocą możemy uzyskać tylko dwie cechy czegoś: albo „tak” albo „nie”. Aby komputer nauczył się lepiej nas rozumieć, wymyślili kombinację 8 bitów (0 lub 1), którą nazwali bajt.

Za pomocą bajtu możesz zakodować liczbę od zera do 255. Używając tych 255 liczb - kombinacji zer i jedynek, możesz zakodować wszystko.

Moment 2. Obecność cyfr i liter bez żadnej logiki nic by nam nie dała. Dlatego koncepcja operatory logiczne.

Łącząc tylko dwa tranzystory w określony sposób, możesz jednocześnie osiągnąć kilka logicznych działań: „i”, „lub”. Połączenie ilości napięcia na każdym tranzystorze i rodzaju ich połączenia pozwala uzyskać różne kombinacje zer i jedynek.

Dzięki wysiłkom programistów wartości zer i jedynek, system binarny, zaczęto tłumaczyć na dziesiętny, abyśmy mogli zrozumieć, co dokładnie „mówi” komputer. Aby wprowadzić polecenia, nasze zwykłe działania, takie jak wprowadzanie liter z klawiatury, są przedstawiane jako binarny ciąg poleceń.

Po prostu wyobraź sobie, że istnieje tabela korespondencji, powiedzmy ASCII, w której każda litera odpowiada kombinacji 0 i 1. Nacisnąłeś przycisk na klawiaturze iw tym momencie na procesorze, dzięki programowi, tranzystory przełączyły się w taki sposób, że na ekranie pojawiła się: najbardziej napisana litera na kluczu.

To dość prymitywne wyjaśnienie działania procesora i komputera, ale to zrozumienie pozwala nam iść dalej.

5. I rozpoczął się wyścig tranzystorów

Po tym, jak brytyjski inżynier radiowy Geoffrey Dahmer zaproponował w 1952 roku umieszczenie najprostszych elementów elektronicznych w monolitycznym krysztale półprzewodnikowym, przemysł komputerowy zrobił krok do przodu.

Z układów scalonych zaproponowanych przez Dahmera inżynierowie szybko przeszli na mikroczipy oparty na tranzystorach. Z kolei kilka takich żetonów już się uformowało procesor.

Oczywiście wymiary takich procesorów nie są zbytnio podobne do współczesnych. Ponadto do 1964 roku wszystkie procesory miały jeden problem. Wymagały indywidualnego podejścia - własnego języka programowania dla każdego procesora.

  • 1964 IBM System/360. Uniwersalny kompatybilny komputer kod programu. Zestaw instrukcji dla jednego modelu procesora może być użyty dla innego.
  • Lata 70. Pojawienie się pierwszych mikroprocesorów. Procesor jednoukładowy firmy Intel. Intel 4004 - 10 µm TPU, 2300 tranzystorów, 740 kHz.
  • 1973 Intel 4040 i Intel 8008. 3000 tranzystorów, 740 kHz dla Intel 4040 i 3500 tranzystorów przy 500 kHz dla Intel 8008.
  • 1974 Intel 8080. 6 mikronów TPU i 6000 tranzystorów. Częstotliwość zegara wynosi około 5000 kHz. To właśnie ten procesor był używany w komputerze Altair-8800. Domową kopią Intel 8080 jest procesor KR580VM80A, opracowany przez Kijowski Instytut Badawczy Mikrourządzeń. 8 bitów
  • 1976 Intel 8080. 3 mikrony TPU i 6500 tranzystorów. Częstotliwość zegara 6 MHz. 8 bitów
  • 1976 Zilog Z80. 3 mikrony TPU i 8500 tranzystorów. Częstotliwość taktowania do 8 MHz. 8 bitów
  • 1978 Intel 8086. 3 mikrony TPU i 29 000 tranzystorów. Częstotliwość zegara wynosi około 25 MHz. Zestaw instrukcji x86, który jest nadal używany. 16 bitów
  • 1980 Intel 80186. 3 mikrony TPU i 134 000 tranzystorów. Częstotliwość taktowania - do 25 MHz. 16 bitów
  • 1982 Intel 80286. 1,5 mikrona TPU i 134 000 tranzystorów. Częstotliwość - do 12,5 MHz. 16 bitów
  • 1982 Motorola 68000. 3 µm i 84 000 tranzystorów. Ten procesor był używany w Komputer Apple Lisa.
  • 1985 Intel 80386. 1,5 mikrona tp i 275 000 tranzystorów Częstotliwość - do 33 MHz w wersji 386SX.

Wydawałoby się, że listę można by ciągnąć w nieskończoność, ale wtedy inżynierowie Intela stanęli przed poważnym problemem.

6. Prawo Moore'a, czyli jak żyją producenci chipów

W późnych latach 80-tych. Na początku lat 60. jeden z założycieli Intela, Gordon Moore, sformułował tak zwane „Prawo Moore'a”. Brzmi to tak:

Co 24 miesiące podwaja się liczba tranzystorów w układzie scalonym.

Trudno nazwać to prawo prawem. Bardziej trafnie byłoby nazwać to obserwacją empiryczną. Porównując tempo rozwoju technologii, Moore doszedł do wniosku, że podobny trend może powstać.

Ale już w trakcie rozwoju czwartej generacji Procesory Intel Inżynierowie i486 stają w obliczu faktu, że osiągnęli już pułap wydajności i nie mogą już się pomieścić duża ilość procesory w tym samym obszarze. W tamtym czasie technologia na to nie pozwalała.

Jako rozwiązanie znaleziono wariant wykorzystujący szereg dodatkowych elementów:

  • pamięć podręczna;
  • przenośnik;
  • wbudowany koprocesor;
  • mnożnik.

Część obciążenia obliczeniowego spadła na ramiona tych czterech węzłów. W rezultacie pojawienie się pamięci podręcznej z jednej strony skomplikowało konstrukcję procesora, z drugiej stało się znacznie potężniejsze.

Procesor Intel i486 składał się już z 1,2 miliona tranzystorów, a maksymalna częstotliwość jego pracy sięgała 50 MHz.

W 1995 roku AMD dołączyło do rozwoju i wypuściło najszybszy w tamtym czasie procesor Am5x86 zgodny z i486 na 32-bitowej architekturze. Został już wyprodukowany zgodnie z technologią procesu 350 nanometrów, a liczba zainstalowanych procesorów sięgnęła 1,6 miliona sztuk. Częstotliwość zegara wzrosła do 133 MHz.

Jednak producenci chipów nie odważyli się dalej zwiększać liczby procesorów zainstalowanych w chipie i rozwijać już utopijną architekturę CISC (Complex Instruction Set Computing). Zamiast tego amerykański inżynier David Patterson zaproponował optymalizację działania procesorów, pozostawiając tylko najbardziej niezbędne instrukcje obliczeniowe.

Producenci procesorów przeszli więc na platformę RISC (Reduced Instruction Set Computing), ale nawet to nie wystarczyło.

W 1991 roku został wydany 64-bitowy procesor R4000, działający z częstotliwością 100 MHz. Trzy lata później pojawia się procesor R8000, a dwa lata później R10000 o taktowaniu do 195 MHz. Równolegle rozwijał się rynek procesorów SPARC, których cechą architektury był brak instrukcji mnożenia i dzielenia.

Zamiast walczyć o liczbę tranzystorów, producenci chipów zaczęli przemyśleć architekturę swojej pracy.. Odrzucenie „niepotrzebnych” poleceń, wykonywanie instrukcji w jednym cyklu, obecność rejestrów o wartości ogólnej i potokowanie umożliwiło szybkie zwiększenie częstotliwości taktowania i mocy procesorów bez zniekształcania liczby tranzystorów.

Oto tylko kilka architektur, które pojawiły się w latach 1980-1995:

  • SPARC;
  • RAMIĘ;
  • PowerPC;
  • Intel P5;
  • AMD K5;
  • Intel P6.

Opierały się one na platformie RISC, aw niektórych przypadkach na częściowym, łącznym wykorzystaniu platformy CISC. Jednak rozwój technologii po raz kolejny zmusił producentów chipów do dalszego budowania procesorów.

W sierpniu 1999 r. na rynek wszedł AMD K7 Athlon, wyprodukowany w technologii 250 nm i zawierający 22 miliony tranzystorów. Później poprzeczkę podniesiono do 38 milionów procesorów. Potem do 250 milionów.

Wzrósł procesor technologiczny, wzrosła częstotliwość taktowania. Ale, jak mówi fizyka, wszystko jest ograniczone.

7. Zbliża się koniec rywalizacji tranzystorowej

W 2007 roku Gordon Moore wypowiedział się bardzo dosadnie:

Prawo Moore'a wkrótce przestanie obowiązywać. Niemożliwe jest instalowanie nieograniczonej liczby procesorów w nieskończoność. Powodem tego jest atomowa natura materii.

Gołym okiem można zauważyć, że dwaj wiodący producenci układów, AMD i Intel, wyraźnie spowolnili tempo rozwoju procesorów w ciągu ostatnich kilku lat. Dokładność procesu technologicznego wzrosła do zaledwie kilku nanometrów, ale nie da się umieścić jeszcze większej liczby procesorów.

I podczas gdy producenci półprzewodników grożą wprowadzeniem na rynek tranzystorów wielowarstwowych, kreśląc paralelę z pamięcią 3DN i pamięcią, 30 lat temu na murowanej architekturze x86 pojawił się poważny konkurent.

8. Co czeka na „zwykłe” procesory?

Prawo Moore'a zostało unieważnione od 2016 roku. Zostało to oficjalnie ogłoszone przez największego producenta procesorów Intel. Podwojenie mocy obliczeniowej o 100% co dwa lata nie jest już możliwe dla producentów chipów.

A teraz producenci procesorów mają kilka mało obiecujących opcji.

Pierwsza opcja to komputery kwantowe. Podejmowano już próby zbudowania komputera, który wykorzystuje cząstki do reprezentowania informacji. Na świecie istnieje kilka podobnych urządzeń kwantowych, ale radzą sobie one tylko z algorytmami o małej złożoności.

Ponadto nie ma mowy o seryjnej premierze takich urządzeń w nadchodzących dziesięcioleciach. Drogie, nieefektywne i… powolne!

Tak, komputery kwantowe zużywają znacznie mniej energii niż ich współczesne odpowiedniki, ale będą też wolniejsze, dopóki programiści i producenci komponentów nie przestawią się na nową technologię.

Druga opcja - procesory z warstwami tranzystorów. Zarówno Intel, jak i AMD poważnie zastanawiały się nad tą technologią. Zamiast jednej warstwy tranzystorów planują użyć kilku. Wydaje się, że w najbliższych latach mogą pojawić się procesory, w których ważna będzie nie tylko liczba rdzeni i częstotliwość taktowania, ale także liczba warstw tranzystorowych.

Rozwiązanie ma prawo do życia, dzięki czemu monopoliści będą mogli doić konsumenta jeszcze przez kilkadziesiąt lat, ale w końcu technologia znów uderzy w sufit.

Dzisiaj, zdając sobie sprawę z szybkiego rozwoju architektury ARM, Intel po cichu ogłosił rodzinę chipów Ice Lake. Procesory będą produkowane w 10 nm proces technologiczny i stanie się podstawą smartfonów, tabletów i urządzeń mobilnych. Ale stanie się to w 2019 roku.

9. ARM to przyszłość

Tak więc architektura x86 pojawiła się w 1978 roku i należy do typu platformy CISC. Tych. sam w sobie oznacza istnienie instrukcji na każdą okazję. Wszechstronność to główna mocna strona x86.

Ale jednocześnie wszechstronność grała z tymi procesorami okrutny żart. x86 ma kilka kluczowych wad:

  • złożoność poleceń i ich szczere zamieszanie;
  • wysokie zużycie energii i wydzielanie ciepła.

Aby uzyskać wysoką wydajność, musiałem pożegnać się z energooszczędnością. Co więcej, dwie firmy pracują obecnie nad architekturą x86, którą można śmiało przypisać monopolistom. Są to Intel i AMD. Tylko oni mogą produkować procesory x86, co oznacza, że ​​tylko oni rządzą rozwojem technologii.

Jednocześnie w rozwój ARM (Arcon Risk Machine) zaangażowanych jest kilka firm. W 1985 roku programiści wybrali platformę RISC jako podstawę do dalszego rozwoju architektury.

W przeciwieństwie do CISC, RISC polega na zaprojektowaniu procesora z minimalną wymaganą liczbą instrukcji, ale maksymalną optymalizacją. Procesory RISC są znacznie mniejsze niż CISC, bardziej energooszczędne i prostsze.

Co więcej, ARM został pierwotnie stworzony wyłącznie jako konkurent dla x86. Deweloperzy postawili sobie za zadanie zbudowanie architektury wydajniejszej niż x86.

Już od lat 40. inżynierowie zrozumieli, że jednym z priorytetowych zadań jest praca nad zmniejszeniem rozmiarów komputerów, a przede wszystkim samych procesorów. Ale prawie 80 lat temu mało kto mógł sobie wyobrazić, że pełnoprawny komputer będzie mniejszy niż pudełko zapałek.

Architekturę ARM wspierał kiedyś Apple, który uruchomił produkcję tabletów Newton opartych na rodzinie procesorów ARM ARM6.

Sprzedaż komputerów stacjonarnych gwałtownie spada, podczas gdy liczba sprzedawanych rocznie urządzeń mobilnych sięga już miliardów. Często, oprócz wydajności, przy wyborze gadżetu elektronicznego użytkownika interesuje jeszcze kilka innych kryteriów:

  • Mobilność;
  • autonomia.

Architektura x86 jest mocna pod względem wydajności, ale jeśli zrezygnujesz z aktywnego chłodzenia, potężny procesor będzie wydawał się żałosny w porównaniu z architekturą ARM.

10. Dlaczego ARM jest niekwestionowanym liderem?

Trudno się dziwić, że Twój smartfon, czy to prosty Android, czy flagowiec Apple’a z 2016 roku, jest dziesiątki razy potężniejszy niż pełnoprawne komputery z końca lat 90-tych.

Ale o ile potężniejszy jest ten sam iPhone?

Samo porównanie dwóch różnych architektur jest bardzo trudne. Pomiary można tutaj wykonać tylko w przybliżeniu, ale można zrozumieć ogromną przewagę, jaką zapewniają procesory smartfonów zbudowane na architekturze ARM.

Uniwersalnym pomocnikiem w tej materii jest sztuczny test wydajności Geekbench. Narzędzie jest dostępne jako komputery stacjonarne a także na platformach Android i iOS.

Średni i klasa podstawowa laptopy wyraźnie pozostają w tyle za wydajnością iPhone'a 7. W górnym segmencie wszystko jest trochę bardziej skomplikowane, ale w 2017 roku rok Apple wprowadza na rynek iPhone'a X z nowym chipem A11 Bionic.

Tam architektura ARM jest już ci znana, ale liczby w Geekbench prawie się podwoiły. Laptopy z „wyższego szczebla” napięły się.

A minął dopiero rok.

Rozwój ARM jest w zawrotnym tempie. Podczas gdy Intel i AMD wykazują wzrost wydajności o 5-10% rok po roku, w tym samym okresie producentom smartfonów udaje się zwiększyć moc procesora od dwóch do dwóch i pół razy.

Sceptyczni użytkownicy, którzy przeglądają najważniejsze wiersze Geekbench, chcą tylko przypomnieć: in technologie mobilne rozmiar jest najważniejszy.

Połóż na stole batonik z potężnym 18-rdzeniowym procesorem, który „rozrywa architekturę ARM na strzępy”, a następnie umieść obok niego swojego iPhone'a. Poczuj różnicę?

11. Zamiast wyjścia

Nie da się w jednym materiale opisać 80-letniej historii rozwoju komputerów. Ale po przeczytaniu Ten artykuł, będziesz w stanie zrozumieć, jak układa się główny element każdego komputera - procesor i czego można oczekiwać od rynku w nadchodzących latach.

Oczywiście Intel i AMD będą pracować nad dalszym zwiększeniem liczby tranzystorów na pojedynczym chipie i promocją idei elementów wielowarstwowych.

Ale czy jako klient potrzebujesz takiej mocy?

Jest mało prawdopodobne, że nie jesteś zadowolony Wydajność iPada Pro lub flagowy iPhone X. Nie sądzę, że jesteś niezadowolony z wydajności multicookera w kuchni lub jakości obrazu na 65-calowym telewizorze 4K. Ale wszystkie te urządzenia używają procesorów w architekturze ARM.

Windows już oficjalnie ogłosił, że z zainteresowaniem patrzy na ARM. Firma włączyła obsługę tej architektury w Windows 8.1, a teraz aktywnie pracuje nad tandemem z wiodącym producentem chipów ARM Qualcomm.

Witajcie drodzy czytelnicy. Dziś pokażemy, z czego składa się procesor od środka. Wielu użytkowników miało oczywiście doświadczenie z instalowaniem procesora płyta główna, ale niewiele osób wie, jak to wygląda od środka. Postaramy się ci wystarczająco wyjaśnić zwykły język tak, aby było jasne, ale jednocześnie bez pomijania szczegółów. Zanim zaczniesz o tym mówić części składowe procesor, można zapoznać się z bardzo ciekawym rosyjskim prototypem Elbrus.

Wielu użytkowników uważa, że ​​procesor wygląda dokładnie tak, jak pokazano na zdjęciu.

Jest to jednak cały zespół, który składa się z mniejszych i ważniejszych części. Zobaczmy, z czego składa się procesor od środka. Procesor obejmuje:

Na powyższym rysunku numer 1 przedstawia osłonę ochronną, która zapewnia mechaniczną ochronę przed kurzem i innymi drobnymi cząstkami. Osłona wykonana jest z materiału o wysokim współczynniku przewodzenia ciepła, co pozwala na odprowadzenie nadmiaru ciepła z kryształu, zapewniając tym samym normalny zakres temperatur dla procesora.

Numer 2 pokazuje „mózg” procesora i komputera jako całości - to kryształ. To on jest uważany za najbardziej „inteligentny” element procesora, który wykonuje wszystkie przypisane mu zadania. Widać, że mikroukład jest nakładany na kryształ cienką warstwą, co zapewnia określone działanie procesora. Najczęściej kryształy procesora są wykonane z krzemu: wynika to z faktu, że pierwiastek ten ma dość złożone wiązania molekularne, które są wykorzystywane do tworzenia prądów wewnętrznych, co zapewnia tworzenie wielowątkowego przetwarzania informacji.

Numer 3 przedstawia platformę tekstolitu, do której przymocowana jest cała reszta: kryształ i wieczko. Platforma ta pełni również rolę dobrego przewodnika, który zapewnia dobry kontakt elektryczny z kryształem. Na Odwrotna strona w platformach w celu zwiększenia przewodności elektrycznej zastosowano wiele punktów wykonanych z metali szlachetnych (czasami używa się nawet złota).

Oto jak wyglądają przewodzące kropki na procesorze Intela.

Kształt styków zależy od tego, które gniazdo znajduje się na płycie głównej. Zdarza się też, że zamiast kropek z tyłu platformy widać piny pełniące tę samą rolę. Z reguły w przypadku procesorów z rodziny Intel piny znajdują się w samej płycie głównej. W takim przypadku kropki będą znajdować się na podłożu (inaczej platforma). Dla rodziny Procesory AMD kołki znajdują się bezpośrednio na samym podłożu. Takie procesory wyglądają tak.

Zastanów się teraz nad sposobem mocowania wszystkich szczegółów. Aby pokrowiec mocno przylegał do podłoża należy go „usiąść” za pomocą specjalnego kleju-uszczelniacza odpornego na wysokie temperatury. Pozwala to na trwałą więź konstrukcji bez naruszania jej integralności.

Aby zapobiec przegrzewaniu się kryształu, nakładana jest na niego specjalna uszczelka 1, na którą z kolei nakładana jest pasta termiczna 2, która zapewnia sprawne odprowadzanie ciepła do pokrywy. Osłona jest również „smarowana” od wewnątrz pastą termiczną.

Zobaczmy teraz, jak wygląda dwurdzeniowy procesor. Rdzeń jest oddzielnym funkcjonalnie niezależnym kryształem, który jest zainstalowany równolegle na podłożu. To wygląda tak.

W ten sposób 2 rdzenie zainstalowane obok siebie zwiększają całkowitą moc procesora. Jeśli jednak widzisz 2 matryce obok siebie, nie zawsze oznacza to, że masz procesor dwurdzeniowy. Na niektórych podstawkach zainstalowane są 2 kryształy, z których jeden odpowiada za część arytmetyczno-logiczną, a drugi za przetwarzanie grafiki (rodzaj wbudowanego GPU). Pomaga to w przypadkach, gdy masz wbudowaną kartę graficzną, której moc nie wystarcza, aby poradzić sobie na przykład z jakąś grą. W cichych przypadkach lwią część obliczeń przejmuje część graficzna procesora centralnego. Tak wygląda procesor z rdzeniem graficznym.

Tak więc, przyjaciele, zorientowaliśmy się, z czego składa się procesor. Teraz stało się jasne, że wszystkie urządzenia składające się na procesor odgrywają ważną i nieodzowną rolę w wysokiej jakości pracy. Nie zapomnij komentować artykułów na naszej stronie, zapisz się do naszego newslettera i dowiedz się wielu ciekawych rzeczy. Twoja opinia jest dla nas ważna!

Witajcie drodzy czytelnicy! Dosłownie każdy pewny siebie użytkownik Właściciel peceta lub laptopa niejednokrotnie zastanawiał się, jak układa się wewnątrz procesora? Prawdopodobnie wielu będzie zaskoczonych, gdy dowie się, że w sercu struktury każdego „kamienia” komputer osobisty lub laptop jest zdominowany przez prawdziwe kamienie i skały.

Dziś postaramy się dowiedzieć, jak wygląda struktura nowoczesnego procesora i dzięki której działa główny element każdego komputera.

Z czego wykonany jest nowoczesny mikroprocesor?

Dzisiejszą strukturę procesora reprezentują następujące główne elementy:

  • Tak właściwie, . Najważniejszy szczegół, serce urządzenia, zwane też kryształem lub kamieniem nowoczesny mikroprocesor. Podkręcanie i wydajność mikroprocesora zależą bezpośrednio od charakterystyki i nowości rdzenia.
  • Pamięć podręczna to mała, ale bardzo informacyjna pamięć podręczna umieszczona bezpośrednio w procesorze. Używany przez mikroprocesor do znacznego skrócenia czasu dostępu do pamięci głównej komputera.
  • Specjalny koprocesor, dzięki któremu wykonywane są złożone operacje. Taki koprocesor znacznie się rozszerza funkcjonalność dowolnego nowoczesnego mikroprocesora i jest jego integralną częścią. Zdarzają się sytuacje, gdy koprocesor jest oddzielnym mikroukładem, jednak w większości przypadków jest on wbudowany bezpośrednio w mikroprocesor komputera.

Dosłownie demontując procesor komputera, możemy zobaczyć następujące elementy konstrukcyjne pokazane na schemacie:

  1. Górna metalowa osłona służy nie tylko do ochrony „kamienia” przed uszkodzenie mechaniczne ale także do rozpraszania ciepła.
  2. Bezpośrednio kryształ lub kamień i kosztowna część dowolnego mikroprocesora komputerowego.Im bardziej złożony i doskonały taki kamień, tym szybsza praca „mózgu” dowolnego komputera.
  3. Specjalne podłoże ze stykami na odwrocie uzupełnia konstrukcję mikroprocesora, jak pokazano na zdjęciu. To dzięki takiej konstrukcji tylnej strony dochodzi do interakcji zewnętrznej z centralnym „kamieniem”, nie można bezpośrednio wpływać na sam kryształ. Klejenie całej konstrukcji odbywa się za pomocą specjalnego kleju-uszczelniacza.

Jak to wszystko działa?

Logika dowolnego procesora opiera się na tym, że wszystkie dane komputerowe są przechowywane w bitach, specjalnych komórkach informacji reprezentowanych przez 0 lub 1. Spróbujmy dowiedzieć się, co się dzieje, jak kolorowe filmy i ekscytujące gry komputerowe pojawiają się na ekranie od te zera i jedynek?

Przede wszystkim należy zrozumieć, że mając do czynienia z elektroniką otrzymujemy wszelkie informacje w postaci napięcia. Powyżej pewnej wartości otrzymujemy jeden, poniżej pewnej wartości otrzymujemy zero. Na przykład światło włączone w pokoju to jeden, a wyłączone światło zero. Kolejną hierarchią, dzięki której uzyskuje się bardziej złożone elementy, jest bajt składający się z ośmiu bitów. Dzięki tym właśnie bajtom możemy mówić nie tylko o włączaniu i wyłączaniu światła w pomieszczeniu, ale także o jego jasności, odcieniu koloru i tak dalej.

Napięcie przechodzi przez pamięć i przekazuje dane do procesora, który przede wszystkim wykorzystuje własną pamięć podręczną jako najszybszą jednak małą komórkę. Za pośrednictwem specjalnej jednostki sterującej dane są przetwarzane i dystrybuowane dalszą ścieżką.

Procesor wykorzystuje bajty i całe ich sekwencje, co z kolei nazywa się programem. To programy przetwarzane przez procesor powodują, że komputer wykonuje tę lub inną czynność: odtwarza wideo, uruchamia grę, włącza muzykę i tak dalej.

Walka gigantów mikroprocesorów komputerowych

Oczywiście mówimy o Intelu i AMD. Główną różnicą w zasadach działania tych firm jest podejście do produkcji nowych mikroprocesorów komputerowych.
Podczas gdy Intel naprzemiennie wprowadza nowe technologie wraz z małymi zmianami, AMD robi duże kroki w produkcji w regularnych odstępach czasu. Powyższe zdjęcie przedstawia modele wymienionych firm z charakterystycznym wygląd.

W zdecydowanej większości przypadków stanowiska kierownicze nadal zajmuje Intel. „Kamienie” AMD, choć ustępują procesorom Intela pod względem wydajności, często przewyższają je pod względem przystępności cenowej. Możesz przeczytać o tym, w której firmie lepiej się wybrać.

Co wybrać, każdy sam decyduje. Dzisiaj próbowaliśmy to rozgryźć układ wewnętrzny dowolny nowoczesny mikroprocesor i podstawowe zasady jego działania. Nie zapomnij zaktualizować bloga i podzielić się ciekawymi artykułami ze znajomymi w w sieciach społecznościowych! Wszystkiego najlepszego, przyjaciele!

Nowoczesne procesory mają kształt małego prostokąta, który reprezentuje płytka krzemowa. Sama płytka jest chroniona specjalną obudową wykonaną z tworzywa sztucznego lub ceramiki. Wszystkie główne obwody są chronione, dzięki nim realizowana jest pełna praca procesora. Jeśli z wyglądem wszystko jest niezwykle proste, to co z samym obwodem i układem procesora? Przyjrzyjmy się temu bardziej szczegółowo.

W skład procesora wchodzi niewielka liczba różnych elementów. Każdy z nich wykonuje własne działanie, przekazywane są dane i kontrola. Zwykli użytkownicy przyzwyczajeni do rozróżniania procesorów po ich częstotliwość zegara, ilość pamięci podręcznej i rdzeni. Ale to nie wszystko, co zapewnia niezawodne i szybka praca. Warto zwrócić szczególną uwagę na każdy element.

Architektura

Wewnętrzna konstrukcja procesora często różni się od siebie, każda rodzina ma swój własny zestaw właściwości i funkcji - nazywa się to jego architekturą. Przykładowy projekt procesora można zobaczyć na poniższym obrazku.

Ale wielu jest przyzwyczajonych do rozumienia nieco innego znaczenia architektury procesora. Jeśli rozważymy to z punktu widzenia programowania, to jest to zdeterminowane jego zdolnością do wykonania określonego zestawu kodów. Jeśli kupisz nowoczesny procesor, najprawdopodobniej należy on do architektury x86.

jądra

Główna część procesora nazywana jest rdzeniem, zawiera wszystkie niezbędne bloki, a także wykonywanie zadań logicznych i arytmetycznych. Jeśli spojrzysz na poniższy obrazek, możesz zobaczyć, jak wygląda każdy z nich. blok funkcjonalny jądra:

  1. Moduł pobierania instrukcji. Tutaj instrukcje są rozpoznawane pod adresem wskazanym w liczniku programu. Liczba równoczesnych odczytów poleceń zależy bezpośrednio od liczby zainstalowanych bloków deszyfrujących, co pomaga załadować każdy cykl pracy największa liczba instrukcje.
  2. predyktor przejścia odpowiedzialny za optymalna wydajność blok pobierania instrukcji. Określa sekwencję wykonywalne polecenia, ładowanie potoku jądra.
  3. Moduł dekodujący. Ta część jądra jest odpowiedzialna za zdefiniowanie niektórych procesów do wykonywania zadań. Samo zadanie dekodowania jest bardzo trudne ze względu na zmienny rozmiar instrukcji. W najnowszych procesorach w jednym rdzeniu jest kilka takich bloków.
  4. Moduły próbkowania danych. Pobierają informacje z pamięci operacyjnej lub pamięci podręcznej. Dokonują próbkowania danych, które w tym momencie jest niezbędne do wykonania instrukcji.
  5. blok kontrolny. Sama nazwa mówi o znaczeniu tego składnika. W rdzeniu jest głównym elementem, ponieważ rozdziela energię między wszystkie bloki, pomagając wykonać każdą akcję na czas.
  6. Moduł zapisu wyników. Przeznaczony do zapisu w pamięci RAM po przetworzeniu instrukcji. Adres zapisu jest określony w uruchomionym zadaniu.
  7. Element przerwania. Procesor jest w stanie wykonywać wiele zadań jednocześnie dzięki funkcji przerwania, co pozwala zatrzymać postęp jednego programu poprzez przełączenie na inną instrukcję.
  8. Rejestry. Tutaj przechowywane są tymczasowe wyniki instrukcji, ten składnik można nazwać małą szybką pamięcią RAM. Często jego rozmiar nie przekracza kilkuset bajtów.
  9. Licznik poleceń. Przechowuje adres instrukcji, która będzie używana w następnym cyklu procesora.

Magistrala systemowa

Urządzenia wchodzące w skład komputera PC są połączone magistralą systemową jednostki centralnej. Tylko on jest z nim bezpośrednio połączony, pozostałe elementy są połączone przez różne kontrolery. Sama magistrala ma wiele linii sygnałowych, przez które przesyłane są informacje. Każda linia ma swój własny protokół, który umożliwia komunikację sterowników z innymi podłączonymi elementami komputera. Autobus ma odpowiednio własną częstotliwość, im wyższa, tym szybsza wymiana informacji między elementami łączącymi systemu.

Pamięć podręczna

Szybkość procesora zależy od jego zdolności do pobierania instrukcji i danych z pamięci tak szybko, jak to możliwe. Pamięć podręczna skraca czas wykonywania operacji dzięki temu, że pełni rolę bufora tymczasowego, który zapewnia natychmiastowy transfer danych z procesora do pamięci RAM lub odwrotnie.

Główną cechą pamięci podręcznej jest jej różnica poziomów. Jeśli jest wysoki, pamięć jest wolniejsza i bardziej masowa. Najszybsza i najmniejsza pamięć to pierwszy poziom. Zasada działania tego elementu jest bardzo prosta - procesor odczytuje dane z pamięci RAM i wprowadza je do pamięci podręcznej dowolnego poziomu, jednocześnie usuwając informacje, do których uzyskiwano dostęp od dłuższego czasu. Jeśli procesor ponownie będzie potrzebował tych informacji, uzyska je szybciej dzięki tymczasowemu buforowi.

Gniazdo (złącze)

Dzięki temu, że procesor posiada własne gniazdo (socket lub slot), możesz go łatwo wymienić w przypadku awarii lub modernizacji komputera. Bez gniazda procesor byłby po prostu wlutowany w płytę główną, co utrudniałoby późniejszą naprawę lub wymianę. Warto zwrócić uwagę - każde gniazdo jest przeznaczone wyłącznie do instalacji określonych procesorów.

Często użytkownicy nieumyślnie kupują niezgodny procesor i płytę główną, co powoduje dodatkowe problemy.

Podobał Ci się artykuł? Podziel się z przyjaciółmi!
Czy ten artykuł był pomocny?
TAk
Nie
Dziękuję za opinię!
Coś poszło nie tak i Twój głos nie został policzony.
Dzięki. Twoja wiadomość została wysłana
Znalazłeś błąd w tekście?
Wybierz, kliknij Ctrl+Enter a my to naprawimy!
Autorzy artykułów: Gvindzhilia Grigory i Paszczenko Siergiej