Konfiguracja sprzętu i oprogramowania

Encyklopedia Informatyki. Wielka radziecka encyklopedia - informatyka

W krajach anglojęzycznych używany jest termin informatyka - informatyka.

Teoretyczne podstawy informatyki to grupa nauk podstawowych takich jak: teoria informacji, teoria algorytmów, logika matematyczna, teoria języków formalnych i gramatyk, analiza kombinatoryczna itp. Oprócz nich informatyka obejmuje takie działy jak architektura komputerów, systemy operacyjne, teoria baz danych, technologia programowania i wiele innych. Ważne przy definiowaniu informatyki jako nauki jest to, że z jednej strony zajmuje się ona badaniem urządzeń i zasad działania techniki komputerowej, a z drugiej usystematyzowaniem technik i metod pracy z programami, które kontrolować tę technologię.

Technologia informatyczna to zbiór określonych informacji technicznych i narzędzia programowe, które wykonują różne operacje na przetwarzanie informacji we wszystkich sferach naszego życia i działalności. Technologia informacyjna jest czasami określana jako technologia komputerowa lub informatyka stosowana.

Informacje analogowe i cyfrowe.

Termin „informacja” pochodzi z łacińskiego informatio, wyjaśnienie, ekspozycja, świadomość.

Informacje można sklasyfikować różne sposoby, a różne nauki robią to na różne sposoby. Na przykład w filozofii rozróżnia się informacje obiektywne i subiektywne. Obiektywne informacje odzwierciedlają zjawiska przyrody i społeczeństwa ludzkiego. Informacje subiektywne są tworzone przez ludzi i odzwierciedlają ich pogląd na obiektywne zjawiska.

W informatyce informacje analogowe i informacje cyfrowe są rozpatrywane oddzielnie. To ważne, bo człowiek dzięki swoim zmysłom jest przyzwyczajony do obcowania z informacją analogową, podczas gdy technika komputerowa przeciwnie, pracuje głównie z informacją cyfrową.

Osoba odbiera informacje za pomocą zmysłów. Światło, dźwięk, ciepło są sygnałami energetycznymi, a smak i zapach są wynikiem narażenia na związki chemiczne, które również są oparte na naturze energetycznej. Osoba doświadcza ciągłych oddziaływań energii i może nigdy nie spotkać się z tą samą ich kombinacją dwa razy. Nie ma dwóch identycznych zielonych liści na jednym drzewie i dwóch absolutnie identycznych dźwięków – to informacja analogowa. Jeśli podano liczby w różnych kolorach, oraz różne dźwięki- notatki, a następnie informacje analogowe można zamienić na cyfrowe.

Słuchana muzyka niesie ze sobą informacje analogowe, ale gdy jest notowana, staje się cyfrowa.

Różnica między informacją analogową a informacją cyfrową polega przede wszystkim na tym, że informacja analogowa jest ciągła, podczas gdy informacja cyfrowa jest dyskretna.

Urządzeniami cyfrowymi są komputery osobiste – pracują z informacjami przedstawionymi w postaci cyfrowej, a cyfrowe są również odtwarzacze muzyki z laserowych płyt kompaktowych.

Kodowanie informacji.

Kodowanie informacji to proces tworzenia określonej reprezentacji informacji. .

W węższym znaczeniu termin „kodowanie” jest często rozumiany jako przejście od jednej formy prezentacji informacji do innej, wygodniejszej do przechowywania, przesyłania lub przetwarzania.

Komputer może przetwarzać tylko informacje przedstawione w postaci liczbowej. Wszystkie inne informacje (dźwięki, obrazy, odczyty instrumentów itp.) należy przekonwertować do postaci liczbowej w celu przetworzenia na komputerze. Na przykład, aby określić ilościowo dźwięk muzyczny, można zmierzyć natężenie dźwięku przy określonych częstotliwościach w krótkich odstępach czasu, przedstawiając wyniki każdego pomiaru w postaci liczbowej. Przez programy komputerowe możesz przekształcić otrzymane informacje, na przykład „nałożyć” dźwięki z różnych źródeł jeden na drugi.

Podobnie informacje tekstowe mogą być przetwarzane na komputerze. Po wprowadzeniu do komputera, każda litera jest kodowana przez określoną liczbę, a po wyprowadzeniu do urządzenia zewnętrzne(sitodruk lub wydruk) dla ludzkiej percepcji obrazy liter są budowane na tych liczbach. Korespondencja między zestawem liter i cyfr nazywana jest kodowaniem znaków.

Z reguły wszystkie liczby w komputerze są reprezentowane za pomocą zer i jedynek (a nie dziesięciu cyfr, jak to jest w zwyczaju dla ludzi). Innymi słowy, komputery zwykle działają w trybie binarnym system liczbowy, ponieważ w tym przypadku urządzenia do ich przetwarzania są znacznie prostsze.

Jednostki miary informacji. Fragment. Bajt.

Bit to najmniejsza jednostka reprezentacji informacji. Bajt - najmniejsza jednostka przetwarzania i przesyłania informacji .

Rozwiązując różne problemy, człowiek wykorzystuje informacje o otaczającym nas świecie. Często słyszy się, że wiadomość niesie ze sobą niewiele informacji lub odwrotnie, zawiera informacje wyczerpujące, podczas gdy różne osoby, które otrzymują tę samą wiadomość (na przykład po przeczytaniu artykułu w gazecie), różnie oceniają ilość zawartych w nim informacji. Oznacza to, że wiedza ludzi o tych wydarzeniach (zjawiskach) przed otrzymaniem wiadomości była inna. Ilość informacji w wiadomości zależy więc od tego, jak nowa jest wiadomość dla odbiorcy. Jeżeli w wyniku odebrania komunikatu uzyskano pełną jasność w danej kwestii (czyli zniknęła niepewność), mówią, że otrzymali wyczerpujące informacje. Oznacza to, że nie ma potrzeby podawania dodatkowych informacji na ten temat. Wręcz przeciwnie, jeśli po otrzymaniu wiadomości niepewność pozostała taka sama (przekazywana informacja była już znana lub nieistotna), to nie otrzymano żadnej informacji (informacja zerowa).

Rzucanie monetą i patrzenie, jak spada, dostarcza pewnych informacji. Obie strony medalu są „równe”, więc obie strony mają jednakowe szanse na wyłonienie. W takich przypadkach mówi się, że zdarzenie przenosi informacje w 1 bitzie. Jeśli włożymy do woreczka dwie kulki w różnych kolorach, to rysując na ślepo jedną kulkę, w 1 bicie uzyskamy również informację o kolorze kulki.

Jednostką miary informacji jest bit (bit) - skrót od angielskich słów cyfra binarna, co oznacza cyfra binarna.

W technice komputerowej bit odpowiada fizycznemu stanowi nośnika informacji: namagnesowany - nienamagnesowany, jest dziura - dziury nie ma. W takim przypadku jeden stan jest zwykle oznaczany cyfrą 0, a drugi liczbą 1. Wybór jednej z dwóch możliwych opcji pozwala również odróżnić logiczną prawdę od fałszu. Sekwencja bitów może kodować tekst, obraz, dźwięk lub dowolną inną informację. Ta metoda przedstawiania informacji nazywana jest kodowaniem binarnym. (kodowanie binarne) .

W informatyce często używa się wielkości zwanej bajtem i jest ona równa 8 bitom. A jeśli bit pozwala wybrać jedną opcję z dwóch możliwych, to odpowiednio bajt wynosi 1 z 256 (2 8). Wraz z bajtami do pomiaru ilości informacji używane są większe jednostki:

1 KB (jeden kilobajt) = 2\up1210 bajtów = 1024 bajty;

1 MB (jeden megabajt) = 2\up1210 KB = 1024 KB;

1 GB (jeden gigabajt) = 2\up1210 MB = 1024 MB.

Na przykład książka zawiera 100 stron; 35 linii na stronę, 50 znaków na linię. Objętość informacji zawartych w księdze oblicza się w następujący sposób:

Strona zawiera 35 × 50 = 1750 bajtów informacji. Objętość wszystkich informacji w księdze (w różnych jednostkach):

1750 × 100 = 175 000 bajtów.

175 000/1024 = 170,8984 KB.

170,8984 / 1024 = 0,166893 MB.

Plik. Formaty plików.

Plik to najmniejsza jednostka przechowywania informacji, która zawiera sekwencję bajtów i ma unikalną nazwę.

Głównym celem plików jest przechowywanie informacji. Przeznaczone są również do przesyłania danych z programu do programu iz systemu do systemu. Innymi słowy, plik jest repozytorium stabilnych i mobilnych danych. Ale plik to coś więcej niż magazyn danych. Plik zwykle zawiera nazwa, atrybuty, czas modyfikacji i czas utworzenia.

Struktura plików to system przechowywania plików na urządzeniu pamięci masowej, takim jak dysk. Pliki są zorganizowane w katalogi (czasami nazywane katalogami lub folderami). Każdy katalog może zawierać dowolną liczbę podkatalogów, z których każdy może przechowywać pliki i inne katalogi.

Sposób, w jaki dane są zorganizowane w bajty, nazywa się formatem pliku. .

Aby odczytać plik, taki jak arkusz kalkulacyjny, musisz wiedzieć, jak bajty reprezentują liczby (wzory, tekst) w każdej komórce; aby odczytać plik edytora tekstu, trzeba wiedzieć, które bajty reprezentują znaki, a jakie czcionki lub pola oraz inne informacje.

Programy mogą przechowywać dane w pliku w sposób wybrany przez programistę. Często jednak oczekuje się, że pliki będą używane przez różne programy, dlatego wiele aplikacji obsługuje niektóre z bardziej popularnych formatów, aby inne programy mogły zrozumieć dane w pliku. Firmy programistyczne (które chcą, aby ich programy stały się „standardami”) często publikują informacje o tworzonych przez siebie formatach, aby można je było wykorzystać w innych aplikacjach.

Wszystkie pliki można warunkowo podzielić na dwie części - tekstową i binarną.

Pliki tekstowe są najczęstszym typem danych w świecie komputerów. Najczęściej jeden bajt jest przeznaczony do przechowywania każdego znaku, a pliki tekstowe są kodowane za pomocą specjalnych tabel, w których każdy znak odpowiada określonej liczbie nieprzekraczającej 255. Plik do kodowania, który wykorzystuje tylko 127 pierwszych liczb, jest nazywany ASCII- file (skrót od American Standard Code for Information Intercange - amerykański standardowy kod wymiany informacji), ale taki plik nie może zawierać liter innych niż łacińskie (w tym rosyjskie). Większość alfabetów narodowych można zakodować przy użyciu tabeli ośmiobitowej. W przypadku języka rosyjskiego obecnie najpopularniejsze są trzy kodowania: Koi8-R, Windows-1251 oraz tzw. kodowanie alternatywne (alt).

Języki takie jak chiński zawierają znacznie więcej niż 256 znaków, więc do kodowania każdego znaku używa się wielu bajtów. Aby zaoszczędzić miejsce, często stosuje się następującą sztuczkę: niektóre znaki są kodowane przy użyciu jednego bajtu, podczas gdy inne używają dwóch lub więcej bajtów. Jedną z prób uogólnienia tego podejścia jest standard Unicode, który używa do kodowania znaków zakresu liczb od zera do 65 536. Tak szeroki zakres pozwala na numeryczne reprezentowanie znaków języka z dowolnego zakątka planety.

Ale czyste pliki tekstowe stają się coraz rzadsze. Dokumenty często zawierają zdjęcia i diagramy, a używane są różne czcionki. W rezultacie pojawiają się formaty będące różnymi kombinacjami danych tekstowych, graficznych i innych.

Pliki binarne, w przeciwieństwie do plików tekstowych, nie są tak łatwe do przeglądania i zwykle nie zawierają znanych słów - tylko wiele niejasnych znaków. Pliki te nie są przeznaczone do bezpośredniego odczytu przez ludzi. Przykładami plików binarnych są programy wykonywalne i pliki graficzne.

Przykłady binarnego kodowania informacji.

Wśród różnorodnych informacji przetwarzanych na komputerze znaczącą część stanowią informacje numeryczne, tekstowe, graficzne i dźwiękowe. Zapoznajmy się z niektórymi sposobami kodowania tego typu informacji w komputerze.

Kodowanie liczb.

Istnieją dwa główne formaty przedstawiania liczb w pamięci komputera. Jedna z nich służy do kodowania liczb całkowitych, druga (tzw. zmiennoprzecinkowa reprezentacja liczby) służy do określenia pewnego podzbioru liczb rzeczywistych.

Zbiór liczb całkowitych, które mogą być reprezentowane w pamięci komputera, jest ograniczony. Zakres wartości zależy od wielkości obszaru pamięci używanego do przechowywania liczb. W k-bit komórka może przechowywać 2 k różne wartości liczb całkowitych .

Aby uzyskać wewnętrzną reprezentację dodatniej liczby całkowitej n przechowywane w k-bitowe słowo maszynowe, potrzebujesz:

1) przetłumacz liczbę N na system liczb binarnych;

2) otrzymany wynik uzupełnia się z lewej strony nieznaczącymi zerami do k cyfr.

Na przykład, aby uzyskać wewnętrzną reprezentację liczby całkowitej 1607 w 2-bajtowej komórce, liczba jest konwertowana na binarną: 1607 10 = 11001000111 2 . Wewnętrzna reprezentacja tej liczby w komórce to: 0000 0110 0100 0111.

Aby napisać wewnętrzną reprezentację ujemnej liczby całkowitej (–N), potrzebujesz:

1) uzyskaj wewnętrzną reprezentację liczby dodatniej n;

2) uzyskać kod zwrotny tego numeru, zastępując 0 na 1 i 1 na 0;

3) dodać 1 do otrzymanej liczby.

Wewnętrzna reprezentacja ujemnej liczby całkowitej to -1607. Korzystając z wyniku z poprzedniego przykładu, zapisujemy wewnętrzną reprezentację liczby dodatniej 1607: 0000 0110 0100 0111. Odwrotny kod otrzymujemy przez odwrócenie: 1111 1001 1011 1000. Dodawane jest jedno: 1111 1001 1011 1001 - to jest wewnętrzny binarna reprezentacja liczby -1607.

Format zmiennoprzecinkowy wykorzystuje reprezentację liczb rzeczywistych r jako produkt mantysy m na podstawie systemu liczbowego n do pewnego stopnia P, który nazywa się zamówieniem: R=m * np.

Reprezentacja liczby w postaci zmiennoprzecinkowej jest niejednoznaczna. Na przykład prawdziwe są następujące równości:

12,345 \u003d 0,0012345 × 10 4 \u003d 1234,5 × 10 -2 \u003d 0,12345 × 10 2

Najczęściej komputery używają znormalizowanej reprezentacji liczby w postaci zmiennoprzecinkowej. Mantysa w tym przedstawieniu musi spełniać warunek:

0,1 pJ m P . Innymi słowy, mantysa jest mniejsza niż 1, a pierwsza cyfra znacząca nie jest równa zero ( P jest podstawą systemu liczbowego).

W pamięci komputera mantysa jest reprezentowana jako liczba całkowita zawierająca tylko cyfry znaczące (0 liczb całkowitych i przecinek nie są przechowywane), więc dla liczby 12.345 w komórce pamięci przeznaczonej do przechowywania mantysy zostanie zapisana liczba 12.345. unikalnie przywrócić oryginalny numer, pozostaje tylko zapisać go w kolejności, w tym przykładzie jest 2.

Kodowanie tekstu.

Zestaw znaków używany do pisania tekstu nazywa się alfabetem. Liczba znaków w alfabecie nazywana jest jego kardynalnością.

Do przedstawienia informacji tekstowych w komputerze najczęściej używany jest alfabet o pojemności 256 znaków. Jeden znak z takiego alfabetu zawiera 8 bitów informacji, ponieważ 2 8 \u003d 256. Ale 8 bitów tworzy jeden bajt, dlatego kod binarny każdego znaku zajmuje 1 bajt pamięci komputera.

Wszystkie znaki takiego alfabetu są ponumerowane od 0 do 255, a każdej liczbie odpowiada 8-bitowy kod binarny od 00000000 do 11111111. Kod ten jest liczbą porządkową znaku w systemie liczb binarnych.

W przypadku różnych typów komputerów i systemów operacyjnych używane są różne tabele kodowania, które różnią się kolejnością umieszczania znaków alfabetycznych w tabeli kodowania. Wspomniana już tabela kodowania ASCII to międzynarodowy standard na komputerach osobistych.

Zasada sekwencyjnego kodowania alfabetu polega na tym, że w tabeli kodów ASCII litery łacińskie (duże i małe) są ułożone w kolejności alfabetycznej. Układ liczb jest również uporządkowany rosnąco według wartości.

Standardowo w tej tabeli są tylko pierwsze 128 znaków, czyli znaki z liczbami od zera (kod binarny 00000000) do 127 (01111111). Obejmuje to litery alfabetu łacińskiego, cyfry, znaki interpunkcyjne, nawiasy i kilka innych symboli. Pozostałe 128 kodów, począwszy od 128 (kod binarny 10000000), a kończąc na 255 (11111111), służy do kodowania liter alfabetów narodowych, pseudografiki i symboli naukowych.

Kodowanie informacji graficznej.

Pamięć wideo zawiera binarne informacje o obrazie wyświetlanym na ekranie. Niemal wszystkie obrazy tworzone, przetwarzane lub oglądane za pomocą komputera można podzielić na dwie duże części – grafikę rastrową i wektorową.

Obrazy rastrowe to jednowarstwowa siatka punktów zwanych pikselami (piksel z angielskiego elementu obrazu). Kod piksela zawiera informacje o jego kolorze.

W przypadku obrazu czarno-białego (bez półtonów) piksel może przyjmować tylko dwie wartości: białą i czarną (świeci się - nie świeci), a do zakodowania wystarczy jeden bit pamięci: 1 - biały, 0 - czarny.

Piksel na kolorowym wyświetlaczu może mieć różne kolory, więc jeden bit na piksel nie wystarczy. Do zakodowania 4-kolorowego obrazu wymagane są dwa bity na piksel, ponieważ dwa bity mogą przyjmować 4 różne stany. Na przykład można zastosować tę opcję kodowania kolorami: 00 - czarny, 10 - zielony, 01 - czerwony, 11 - brązowy.

Na monitorach RGB całą różnorodność kolorów uzyskuje się przez połączenie podstawowych kolorów - czerwonego (czerwonego), zielonego (zielonego), niebieskiego (niebieskiego), z których można uzyskać 8 podstawowych kombinacji:

Oczywiście, jeśli masz możliwość kontrolowania intensywności (jasności) blasku podstawowych kolorów, to zwiększa się ilość różnych opcji ich kombinacji, generujących różne odcienie. Liczba różnych kolorów - DO i ilość bitów do ich zakodowania - n są połączone prostą formułą: 2 n = DO.

W przeciwieństwie do grafiki rastrowej warstwowy obraz wektorowy. Każdy element grafika wektorowa– linia, prostokąt, koło lub fragment tekstu – znajduje się na własnej warstwie, której piksele są ustawione niezależnie od innych warstw. Każdy element obrazu wektorowego jest obiektem opisanym za pomocą specjalnego języka (równania matematyczne linii, łuków, okręgów itp.) Obiekty złożone (linie łamane, różne kształty geometryczne) są reprezentowane jako zbiór elementarnych obiektów graficznych.

Obiekty grafiki wektorowej, w przeciwieństwie do grafiki rastrowej, mogą zmieniać swój rozmiar bez utraty jakości (ziarnistość wzrasta, gdy obraz rastrowy jest powiększony).

Kodowanie dźwięku.

Wiemy z fizyki, że brzmią są wibracje powietrza. Jeśli przekształcisz dźwięk na sygnał elektryczny (na przykład za pomocą mikrofonu), zobaczysz płynnie zmieniające się w czasie napięcie. Do przetwarzania komputerowego taki sygnał analogowy musi zostać w jakiś sposób przekształcony w ciąg liczb binarnych.

Odbywa się to na przykład w ten sposób - napięcie jest mierzone w regularnych odstępach czasu, a wynikowe wartości są zapisywane w pamięci komputera. Proces ten nazywa się próbkowaniem (lub digitalizacją), a urządzenie, które go wykonuje, nazywa się przetwornikiem analogowo-cyfrowym (ADC).

Aby odtworzyć dźwięk zakodowany w ten sposób, należy wykonać odwrotną konwersję (w tym celu używany jest przetwornik cyfrowo-analogowy). - DAC), a następnie wygładzić wynikowy sygnał kroku.

Im wyższa częstotliwość próbkowania i im więcej bitów jest przydzielonych dla każdej próbki, tym dokładniej będzie reprezentowany dźwięk, ale rozmiar pliku dźwiękowego również się zwiększy. Dlatego w zależności od charakteru dźwięku, wymagań co do jego jakości oraz ilości zajętej pamięci dobierane są pewne wartości kompromisowe.

Opisany sposób kodowania informacja dźwiękowa dość wszechstronny, pozwala na wyobrażenie sobie dowolnego dźwięku i przekształcenie go na różne sposoby. Ale są chwile, kiedy bardziej korzystne jest działanie w inny sposób.

Od dawna stosowany jest dość zwarty sposób przedstawiania muzyki - notacja muzyczna. Wskazuje specjalnymi symbolami, jaka jest wysokość dźwięku, na jakim instrumencie i jak grać. W rzeczywistości można go uznać za algorytm dla muzyka, napisany w specjalnym języku formalnym. W 1983 roku wiodący producenci komputerów i syntezatorów muzycznych opracowali standard, który zdefiniował taki system kodów. Nazywa się MIDI.

Oczywiście taki system kodowania pozwala na nagranie nie każdego dźwięku, nadaje się tylko do muzyki instrumentalnej. Ale ma też niezaprzeczalne zalety: niezwykle kompaktowe nagranie, naturalność dla muzyka (prawie każdy edytor MIDI pozwala na pracę z muzyką w postaci zwykłych nut), łatwość zmiany instrumentów, zmiany tempa i tonacji melodii.

Istnieją inne, czysto komputerowe, formaty nagrywania muzyki. Wśród nich jest format MP3, który pozwala na kodowanie muzyki o bardzo wysokiej jakości i kompresji, przy czym zamiast 18–20 kompozycji muzycznych na standardowej płycie kompaktowej (CDROM) umieszcza się około 200. Jeden utwór zajmuje około 3,5 Mb, co umożliwia użytkownikom Internetu łatwą wymianę utworów muzycznych.

Komputer jest uniwersalną maszyną informacyjną.

Jednym z głównych celów komputera jest przetwarzanie i przechowywanie informacji. Wraz z pojawieniem się komputerów stało się możliwe operowanie na niewyobrażalnych wcześniej ilościach informacji. Biblioteki zawierające literaturę naukową i beletrystyczną są przekształcane do postaci elektronicznej. Stare archiwa fotograficzne i filmowe otrzymują nowe życie w postaci cyfrowej.

Anna Czugajnowa

INFORMACJA (informatyka angielska), nauka o wydobywaniu informacji z komunikatów, tworzeniu zasobów informacyjnych, programowaniu zachowania maszyn i innych podmiotów związanych z budową i wykorzystaniem środowiska człowiek-maszyna do rozwiązywania problemów modelowania, projektowania, interakcji, uczenia się, itd. Bada właściwości informacji, metody ich wydobywania z przekazów i prezentowania w określonej formie; właściwości, metody i środki interakcji informacyjnej; właściwości zasobów informacji, metody i środki ich tworzenia, prezentacji, przechowywania, gromadzenia, wyszukiwania, przekazywania i ochrony; właściwości, metody i środki konstruowania i wykorzystywania programowalnych maszyn i środowiska człowiek-maszyna do rozwiązywania problemów.

Naukowa produkcja informatyki

Naukowa produkcja informatyki służy jako podstawa metodologiczna do konstruowania środowiska człowiek-maszyna do rozwiązywania problemów (ryc. 1) związanych z różnymi dziedzinami działalności.

Wyniki badań bytów (w nauce zwykle zwanych przedmiotami) są reprezentowane przez ich symboliczne i/lub modele fizyczne. Modele symboliczne to opisy nabytej wiedzy [zob. Modelowanie symboliczne(s-modeling)], a fizyczne to prototypy badanych obiektów, odzwierciedlające ich właściwości, zachowanie itp. Wynikiem naukowym jest model systemu wiedzy (lub składnik wcześniej zdefiniowanego i opublikowanego modelu), który opisuje zbiór obiektów, w tym badany obiekt, oraz relacje między nimi . Opis modelu przedstawiony jest w formie komunikatu przeznaczonego do rozpoznania i interpretacji przez środowisko naukowe. Wartość wyniku zależy od mocy predykcyjnej, odtwarzalności i stosowalności modelu, a także od właściwości komunikatu zawierającego jego opis.

Przykładami wyników, które odegrały wybitną rolę w metodologicznym wsparciu budowania środowiska człowiek-maszyna do rozwiązywania problemów, mogą być: model cyfrowej maszyny elektronicznej wynaleziony przez J. von Neumanna z instrukcjami programu i danymi przechowywanymi w pamięci współdzielonej [ znany jako model von Neumanna] i architektura von Neumanna] ; wymyślony przez twórcę sieci (por. Sieć ogólnoświatowa) T. Berners Lee Protokół HTTP (ang. Hypertext transfer protocol - hypertext transfer protocol), czyli protokół warstwy aplikacji definiujący zasady przesyłania wiadomości w systemach hipermedialnych (patrz Multimedia) oraz jednolity identyfikator zasobu URI (ang. Uniform Resource Identifier), który stał się standardem rejestrowania adresu zasobu zamieszczanego w Internecie. Trudno dziś (2017 r.) znaleźć dziedzinę działalności, w której naukowe wytwory informatyki nie są stosowane. Na jej podstawie stworzono pocztę elektroniczną, sieć, wyszukiwarki, telefonię IP, Internet rzeczy i inne usługi internetowe (patrz Internet); cyfrowe nagrywanie dźwięku, zdjęć i wideo; systemy komputerowego wspomagania projektowania (CAD); symulatory komputerowe i roboty (zob. Modelowanie komputerowe), systemy komunikacja cyfrowa, systemy nawigacyjne, drukarki 3D itp.

Podstawowe koncepcje

Postępującemu kształtowaniu się informatyki towarzyszy rozwój jej aparatu pojęciowego i dopracowanie przedmiotu badań. W 2006 roku w Instytucie Problemów Informatyki Akademia Rosyjska Sciences (IPI RAS) powstał nowy obszar badań - symboliczne modelowanie dowolnych obiektów w środowisku człowiek-maszyna (w skrócie- od symulacja symboliczna lub s-symulacja). Jeden z pierwszych projektów naukowych w tym obszarze poświęcony był metodologii budowy symbolicznego modelu informatycznego systemu wiedzy w środowisku człowiek-maszyna. . W teorii modelowania symbolicznego (s-modeling) stworzonej w 2009 roku zaproponowano kolejną wersję symbolicznego modelu rdzenia systemu pojęć informatycznych, która obejmuje następujące koncepcje.

Wiadomość(komunikat w języku angielskim) jest uważany za skończony uporządkowany zestaw symboli (wizualnych, dźwiękowych itp.; patrz Symbol w informatyce) lub jego kod (patrz Kod w informatyce), który spełnia protokół interakcji między źródłem a odbiorcą. Istnienie wiadomości zakłada istnienie źródła wiadomości, odbiorcy, nośnika, medium transmisyjnego, sposobu dostarczania i protokołu interakcji między źródłem a odbiorcą. W środowisku człowiek-maszyna do rozwiązywania problemów (s-environment) ludzie za pomocą programowalnych maszyn (s-machines) tworzą komunikaty, prezentując je w językach zapytań, programowaniu itp.; wykonywać różne konwersje (np. z analogowego na cyfrowy i odwrotnie; z nieskompresowanego do skompresowanego i odwrotnie; z jednej formy reprezentacji dokumentu do innej); rozpoznawać, wykorzystywać wiadomości do konstruowania nowych wiadomości (programów, dokumentów itp.); interpretować na modelach systemów pojęciowych (które są przechowywane w pamięci tłumacza również w postaci komunikatów); wymieniać wiadomości za pomocą systemów reguł zaimplementowanych programowo i sprzętowo (protokoły sieciowe, patrz poniżej). Śieć komputerowa); zapisuj i gromadź wiadomości (poprzez tworzenie elektronicznych bibliotek, encyklopedii i innych zasobów informacyjnych), rozwiązuj problemy wyszukiwania i ochrony wiadomości.

Tłumacz wiadomości jest badany jako konstruktor komunikatu wyjściowego według danych wejściowych zgodnie z przyjętym systemem reguł interpretacji. Warunkiem koniecznym do skonstruowania interpretera komunikatów jest istnienie modeli języków wejściowych i wyjściowych oraz modeli systemów pojęciowych, na których należy interpretować komunikaty napisane w językach wejściowych i wyjściowych.

Dane(dane angielskie) - komunikat niezbędny do rozwiązania określonego problemu lub zestawu problemów, przedstawiony w formie przeznaczonej do rozpoznania, przekształcenia i interpretacji przez osobę rozwiązującą (program lub osobę). Osoba postrzega dane (tekst, obrazy itp.) w formie symbolicznej, podczas gdy program komputerowy lub urządzenie komputerowe (smartfon, aparat cyfrowy itp.) postrzega je w kodzie.

Informacja(informacja angielska) jest badana w wyniku interpretacji przekazu na modelu systemu pojęć [zob. Modelowanie symboliczne(s-symulacja)]. Aby wydobyć informacje z wiadomości, konieczne jest przedstawienie otrzymanej wiadomości w formie zaprojektowanej do rozpoznania i interpretacji przez odbiorcę wiadomości; modele systemu pojęciowego przechowywane w pamięci tłumacza, wśród których jest ten niezbędny do interpretacji odebranego komunikatu; mechanizmy wyszukiwania potrzebnego modelu, interpretacji przekazu, prezentowania wyniku interpretacji w formie przeznaczonej dla odbiorcy (rys. 2).

Na przykład wynikiem interpretacji komunikatu ma, przedstawionego w języku a, otrzymanego przez tłumacza (człowieka lub robota) w postaci komunikatu mb w języku b, jest informacja wydobyta z komunikatu ma.

Programowalne zadanie(s-problem) jest uważany za zbiór (Formul , Rulsys , Alg , Prog ), gdzie Formul jest opisem problemu; Rulsys - zestaw systemów obowiązkowych i ukierunkowanych reguł rozwiązywania problemu, zgodny z Formułą; Alg to połączenie zestawów algorytmów, z których każdy odpowiada jednemu elementowi z Rulsys ; Prog to połączenie zestawów programów, z których każdy jest przypisany do jednego z elementów Alg . Każdemu elementowi z Rulsys , Alg i Prog należy nadać opis zastosowania. Opisy wykorzystania elementów Rulsys zawierają określenie rodzaju rozwiązania problemu (autonomiczny s-machine, współpraca sieciowa s-maszyny, współpraca człowiek-s-maszyna itp.), wymagania bezpieczeństwa informacji itp. Opisy wykorzystania elementy z Alg obejmują dane o akceptowalnych trybach pracy rozwiązywania problemów (automatyczny lokalny, automatyczny rozproszony, interaktywny lokalny itp.), wymagania dla uzyskanego wyniku itp. Opisy zastosowań programów zawierają dane dotyczące języków implementacji, systemów operacyjnych itp.

Algorytm– sformalizowany opis skończonego zestawu kroków do rozwiązania problemu, odpowiadający jednemu z elementów Rulsys i pozwalający na zgodność jeden do jednego z danym zbiorem danych wejściowych z wynikowym zbiorem danych wyjściowych.

Program– algorytm zaimplementowany w języku programowania wysokiego poziomu, języku zorientowanym maszynowo i/lub w systemie instrukcji maszynowych. Przedstawione w formie komunikatu definiującego zachowanie rozwiązania problemu s-machine o zadanych właściwościach. Występuje w symbolicznych, kodowych i sygnałowych wcieleniach, połączonych relacjami translacji (patrz Kompilator w informatyce).

Symbol(symbol angielski) - substytut przedmiotu naturalnego lub wymyślonego, oznaczający ten przedmiot i będący elementem pewnego systemu konstruowania komunikatów symbolicznych (tekstów, notacji muzycznych itp.), przeznaczonych do odbioru przez człowieka lub robota. Na przykład alfabet rosyjski to system symboli tekstowych; litera A w tym systemie jest symbolem, który zastępuje odpowiedni dźwięk z systemu symboli dźwiękowych mowy języka rosyjskiego; Litera A odpowiada dotykowemu symbolowi tekstury (odbieranemu przez dotyk palcami) w systemie wiadomości tekstowych dla niewidomych, znanym jako Braille (patrz ryc. Brajl). Zestaw symboli wizualnych, dźwiękowych i innych wybranych do budowania wiadomości określonego typu jest uważany za zestaw elementarnych konstruktywnych obiektów, z których każdy jest wyposażony w zestaw atrybutów i zestaw dozwolonych operacji. O tworzeniu struktur z elementów tego zbioru decyduje system reguł konstruowania modeli symbolicznych [więcej szczegółów w artykule Symbol w informatyce (s-symbol)].

Kod(kod angielski) - substytut symbolu lub komunikatu symbolicznego używany do ich reprezentowania w komputerach, smartfonach i innych programowalnych maszynach i przeznaczony do budowania, zapisywania, przesyłania i interpretacji komunikatów symbolicznych [więcej szczegółów w artykule Kod w informatyce ( s-kod)].

Sygnał(ang. signal) - oddziaływanie optyczne, dźwiękowe lub inne odbierane przez zmysły ludzkie lub czujniki maszynowe lub przedstawienie kodu w postaci częstotliwości promieniowanie elektromagnetyczne, kompozycje wartości napięcia elektrycznego lub inne, zaprojektowane tak, aby były odbierane przez sprzęt maszyny (na przykład centralny procesor komputera, mikroprocesor nawigator samochodowy). Symbole, kody i sygnały są połączone relacjami transformacji. Każdemu symbolowi i konstrukcji symbolicznej, przeznaczonej do percepcji przez człowieka lub robota, można przypisać korespondencję jeden do jednego z kodami przeznaczonymi do manipulowania nimi za pomocą oprogramowania komputerowego i urządzeń komputerowych.

Koncepcyjny model systemu. Model S Wady systemu pojęć jest uważany za parę (ConsSet , ConsRel ), gdzie ConsSet jest zbiorem pojęć; ConsRel to rodzina relacji zdefiniowanych w ConsSet . Definicja systemu pojęć – opis jego modelu wraz ze wskazaniem zakresu. Opis przedstawiany jest w formie komunikatu przeznaczonego do interpretacji przez odbiorcę, prezentacji, przechowywania, dystrybucji, gromadzenia i przeszukiwania w środowisku człowiek-maszyna aktywności intelektualnej. System pojęć uznanych za określone nie powinien zawierać pojęć, które nie mają definicji (a jednocześnie nie są związane z pojęciami-aksjomatami). Określenie zakresu stosowalności modelu – opis rodzajów korespondentów (do których adresowana jest definicja), cel w procesie osiągania, którego definicja ma sens (klasy zadań w badaniu których definicja może być przydatna), etap, na którym wskazane jest posługiwanie się definicją (koncepcja, metodologia rozwiązania itp.) d.).

Model systemu wiedzy. Pojęcie „wiedzieć” w s-modelowaniu [zob. Modelowanie symboliczne(s-symulacja)] definiuje się jako stan odbiorcy komunikatu, gdy komunikat wyjściowy uzyskany w wyniku interpretacji komunikatu wejściowego jest rozpoznawany jako już znany i nie wymaga zmian w modelach systemów pojęciowych przechowywanych w pamięci odbiorca wiadomości. Pojęcie „wiedzy” definiuje się jako złożoną zdolność do wydobywania informacji z wiadomości zawierających warunki zadań określonej klasy (mogą to być zadania rozpoznawania wzorców, tłumaczenia z jednego języka na inny lub inne klasy zadań). Model S systemu wiedzy jest uważany za triadę (Cons , Lang , Interp ), gdzie Cons jest s-modelem systemu pojęć; Lang jest s-modelem zbioru języków komunikatów interpretowanych na Cons ; Interp to s-model zbioru tłumaczy na Wady wiadomości skomponowanych w językach z Lang.

Interpretacja przekazu na temat modelu Cons obejmuje:

1) budowanie komunikatu wyjściowego (wyodrębnianie informacji) zgodnie z zadanym komunikatem wejściowym (komunikaty prezentowane są w językach z ustawionego Lang );

2) analiza komunikatu wyjściowego (czy wymagane są zmiany w modelu Cons);

3) w razie potrzeby zmień model Wady; jeśli nie, zakończ.

Na przykład mózgiem nowoczesnego systemu projektowania wspomaganego komputerowo (CAD) jest system wiedzy. Wydajność projektowania zależy od tego, jak dobrze jest zbudowane.

Programowalna maszyna(s-machine) to struktura oprogramowania i sprzętu do rozwiązywania problemów. Superkomputery, komputery mainframe, komputery osobiste, laptopy, smartfony, nawigatory, aparaty cyfrowe i kamery wideo to s-samochody. Klawiatury, myszy, trackballe, touchpady i inne urządzenia wejściowe to elementy s-machine, które konwertują znaki na kody akceptowane przez sterowniki (patrz Kierowca w informatyce) odpowiednich urządzeń. Monitory komputerów osobistych, wyświetlacze laptopów, nawigatory itp. konwertują kody generowane przez kontrolery wideo na symboliczne kompozycje przeznaczone dla kanału wzrokowego człowieka.

(s-environment) - związek sieci komputerowych i indywidualnych programowalnych maszyn służących do rozwiązywania różnych problemów. Sposoby informatyzacji różnych rodzajów działalności. Środowisko S musi zapewniać reprezentację kodów cyfrowych modeli symbolicznych i manipulację takimi kodami za pomocą s-machines. W sercu nowoczesnych technologii komunikacji cyfrowej, projektowania wspomaganego komputerowo itp. stoi idea godna uwagi ze względu na konsekwencje jej wdrożenia - sprowadzić całą różnorodność symboliczną do kodów cyfrowych [a każdy z nich do jednego kodu (nadal mają kod binarny)] i instruują pracę z kodami programowalnym maszynom, połączonym w środowisko człowiek-maszyna do rozwiązywania problemów.

Interakcja informacyjna w s-medium(Rys. 3) jest rozpatrywany jako zestaw interfejsów, takich jak „człowiek – człowiek”, „człowiek – program”, „człowiek – sprzęt programowalnej maszyny”, „program – program”, „program – sprzęt” (patrz Interfejs Port w informatyce). Osoba odbiera wejściowe sygnały analogowe (światło, dźwięk itp.) Za pomocą wizualnych, słuchowych i innych urządzeń wejściowych biointeligencji (system biologiczny zapewniający funkcjonowanie intelektu). Zamienia interesujące go sygnały na symboliczne konstrukcje wizualne, dźwiękowe i inne wykorzystywane w procesach myślenia. Sygnały wyjściowe biointeligencji realizowane są za pomocą gestów (np. przy wchodzeniu z klawiatury i myszy), mowy itp. . Dane wejściowe i wyjściowe programów to dane wejściowe i kody wyników (patrz rys. Kod w informatyce), a wejścia i wyjścia sprzętu są sygnałami. Wejściowe sygnały analogowe są konwertowane na sygnały cyfrowe za pomocą przetworniki analogowo-cyfrowe(ADC), a wyjście cyfrowe na analogowe za pomocą przetworniki cyfrowo-analogowe(DAC).

We współczesnym (2017) środowisku s, naturalne sposoby percepcji, przetwarzania i przechowywania sygnałów człowieka są uzupełniane przez wymyślone: ​​cyfrowe kamery fotograficzne i wideo, smartfony itp. Znaną częścią technologii interakcji informacji jest szybko rozwijająca się Usługi internetowe. Używane do interakcji z ludźmi E-mail(angielski e-mail), różne rodzaje połączeń internetowych [ Telefonia internetowa(telefonia IP); na przykład zaimplementowane w usłudze internetowej Skype; posłańcy (angielski komunikator - połączony); na przykład usługa internetowa Telegram), sieci społecznościowe (angielskie sieci społecznościowe) itp. W celu interakcji rzeczy używanych przez ludzi (systemy oświetleniowe, utrzymanie temperatury itp.) między sobą i ze środowiskiem zewnętrznym technologie informacyjne „ Internet rzeczy” (patrz. Internet ).

Podstawowe klasy zadań

Na podstawie badania właściwości i wzorów modelowanie symboliczne(s-symulacja) definiuje się następujące klasy podstawowych problemów informatycznych.

Reprezentowanie arbitralnych modeli obiektowych, zaprojektowany z myślą o ludzkiej percepcji i programowalnych maszynach, wiąże się z wynalezieniem języków komunikatów spełniających określone wymagania. Ta klasa bada systemy symboli i kodów używane odpowiednio w językach zorientowanych na człowieka i maszynę. Pierwsza obejmuje języki specyfikacji, programowania, zapytań, druga – systemy instrukcji maszynowych. Ta klasa obejmuje również zadania prezentacji danych. Zawiera zadania reprezentowania modeli systemów pojęciowych, na których interpretowane są komunikaty. Na najwyższym poziomie hierarchii zadań tej klasy znajduje się reprezentacja modeli systemów wiedzy.

Konwersja typów i form reprezentacji modeli symbolicznych pozwala na ustalenie korespondencji między modelami. Zadania konwersji typów (na przykład mowy na tekst i odwrotnie) oraz formularzy (na przykład analogowych na cyfrowe i odwrotnie; nieskompresowane na skompresowane i odwrotnie; *.doc na *.pdf) są niezbędnym uzupełnieniem zadania reprezentowania modeli.

Rozpoznawanie wiadomości implikuje konieczność przedstawienia go w formacie znanym odbiorcy. Gdy ten warunek jest spełniony, aby rozpoznać komunikat, rozwiązywane są zadania dopasowania do modeli modeli lub dopasowania właściwości rozpoznanego modelu do właściwości modeli modeli. Na przykład w zadaniu biometrycznej identyfikacji osoby jej dane biometryczne (komunikat wejściowy) są porównywane z próbką biometryczną z bazy danych systemu biometrycznego.

Budowa modelu systemy pojęć, systemy wiedzy, interpretery wiadomości na modelach systemów pojęć; modele zadań, technologie programowania, interakcja w środowisku s; modele architektury maszyn-s, sieci komputerowych, architektury zorientowane na usługi; modele wiadomości i sposoby ich budowy, dokumenty i obieg. Na najwyższym poziomie hierarchii tej klasy znajdują się zadania konstruowania modeli s-środowiska i symbolicznych technologii modelowania.

Interpretacja wiadomości(wydobywanie informacji) zakłada istnienie odebranego komunikatu, modelu systemu pojęć, na podstawie którego należy go interpretować, oraz mechanizmu interpretacji. Rozwiązywanie problemów w środowisku człowiek-maszyna polega na interpretacji danych wyjściowych (komunikatu wejściowego) na przedstawionym w algorytmie modelu układu pojęć. Wynikiem rozwiązania jest komunikat wyjściowy (informacje wyodrębnione z komunikatu wejściowego). Jeśli interpreter jest programem wykonywalnym, wówczas dane początkowe, program i wynik rozwiązania problemu są reprezentowane przez odpowiednie kody (patrz Kod w informatyce). Dla mikroprocesora programowalnej maszyny interpretowane komunikaty i wyniki interpretacji są reprezentowane przez sygnały odpowiadające rozkazom maszyny i kodom danych. Np. podczas fotografowania aparatem cyfrowym komunikat (w postaci sygnału świetlnego) oddziałuje na matrycę światłoczułą, jest przez nią rozpoznawany, a następnie konwertowany na kod obrazu cyfrowego, który jest interpretowany przez program poprawiający obraz jakość. Otrzymany wynik jest konwertowany i zapisywany (na wbudowanej pamięci aparatu lub na karcie pamięci) jako plik graficzny.

Wymiana wiadomości: zadania konstruowania interfejsów typu "człowiek - człowiek", "człowiek - program", "człowiek - sprzęt programowalnej maszyny", "program - program", "program - sprzęt" (patrz Interfejs w informatyce), " sprzęt - sprzęt” (patrz Port w informatyce); zadania przesyłania wiadomości w środowisku człowiek-maszyna do rozwiązywania problemów (z typowaniem nadawców i odbiorców; sposoby wysyłania, przesyłania i odbierania wiadomości; środowiska przesyłania wiadomości). Wynaleziono systemy reguł wymiany wiadomości (protokoły sieciowe); architektury sieciowe; systemy zarządzania dokumentami. Na przykład wiadomości są wymieniane między procesami system operacyjny(OS), programy s-machine w sieci komputerowej, użytkownicy poczty e-mail itp.

Zapisywanie, gromadzenie i wyszukiwanie wiadomości: urządzenia pamięciowe i magazynujące, ich mechanizmy kontrolne są badane i typizowane; formy konserwacji i akumulacji; media, metody konserwacji, gromadzenia i wyszukiwania; bazy danych i biblioteki oprogramowania. Badane są modele przedmiotu przeszukiwania (według modelu, cech, opisu właściwości) oraz metody przeszukiwania.

Ochrona informacji: badane są problemy zapobiegania i wykrywania podatności, kontroli dostępu, ochrony przed włamaniami, złośliwym oprogramowaniem, przechwytywaniem wiadomości i nieautoryzowanym użyciem.

Obszary badawcze

Najważniejsze idee naukowe wpływające na rozwój informatyki ucieleśnione są w metodologicznym wsparciu budowy narzędzi wspierających procesy poznania, interakcji informacyjnej i automatycznego rozwiązywania różnych problemów. Na obecnym etapie (2017) rozwoju informatyki istotne są następujące powiązane ze sobą kompleksy obszarów badawczych.

Automatyzacja obliczeń(obliczenia za pomocą programowalnych maszyn): badane są modele, architektury i systemy dowodzenia programowalnych maszyn; algorytmizacja zadań programowalnych [algorytmy i struktury danych, algorytmy rozproszone (algorytmy rozproszone), algorytmy randomizowane (algorytmy losowe) itp.]; przetwarzanie rozproszone (Distributed Computing), przetwarzanie w chmurze (Cloud Computing); złożoność i zasobochłonność obliczeń.

Programowanie: badane są systemy symboli tekstowych i kodów; języki programowania i specyfikacje zadań; tłumacze; biblioteki programów; Programowanie systemu; System operacyjny; systemy programowania instrumentalnego; systemy zarządzania bazą danych; technologie programowania; usługi online do rozwiązywania problemów itp.

Środowisko człowiek-maszyna do rozwiązywania problemów(s-środowisko): badane są modele, metody i narzędzia budowy s-środowiska, sieci komputerowe, cyfrowe sieci komunikacyjne, Internet.

Percepcja i prezentacja komunikatów, interakcja w środowisku s: badane są modele, metody i środki percepcji i prezentacji komunikatów wizualnych, dźwiękowych, dotykowych i innych; komputerowe czujniki wzroku, słuchu i inne sztuczne czujniki; tworzenie komunikatów dźwiękowych, wizualnych, dotykowych i innych (w tym łączonych) przeznaczonych dla osoby i robota partnerskiego; rozpoznawanie komunikatów dźwiękowych, wizualnych i innych (mowy, gestów itp.); przetwarzanie obrazu, grafika komputerowa, wizualizacja itp.; wymiana komunikatów (modele komunikatów, metody i środki ich odbioru i transmisji); interfejsy użytkownika, programy, sprzęt, programy ze sprzętem; usługi interakcji online (komunikatory, sieci społecznościowe itp.).

Zasoby informacyjne i systemy rozwiązywania problemów w środowisku s: badane są modele, metody i środki konstruowania, przedstawiania, zachowywania, gromadzenia, wyszukiwania, przekazywania i ochrony zasobów informacyjnych; elektroniczne zarządzanie dokumentami; biblioteki elektroniczne i inne systemy informacyjne; sieć (patrz Sieć ogólnoświatowa).

Bezpieczeństwo informacji i kryptografia: badane są metody zapobiegania i wykrywania podatności; kontrola dostępu; ochrona systemów informatycznych przed włamaniami, złośliwym oprogramowaniem, przechwyceniem wiadomości; nieuprawnione korzystanie z zasobów informacyjnych, oprogramowania i sprzętu.

Sztuczna inteligencja: badane są modele, metody i narzędzia do budowy inteligentnych robotów wykorzystywanych jako ludzki partner (do rozwiązywania problemów bezpieczeństwa, sterowania sytuacyjnego itp.); eksperckie metody podejmowania decyzji.

Modelowanie symboliczne: badane są systemy symboli wizualnych, dźwiękowych, dotykowych i innych, uważanych za konstruktywne obiekty do budowania modeli dowolnych jednostek zaprojektowanych dla osoby (systemy pojęć i systemów wiedzy, obiekty środowiskowe i obiekty wymyślone przez ludzi); systemy kodów, umieszczone w korespondencji z systemami symboli, które są przeznaczone do budowy ekwiwalentów kodu modeli symbolicznych, przeznaczone do manipulacji za pomocą programów; języki opisu modeli symbolicznych; typowanie modeli symbolicznych i ich kodowych odpowiedników; metody konstruowania symbolicznych modeli systemów pojęć i systemów wiedzy (w tym systemów wiedzy o zadaniach programowalnych) [więcej szczegółów w artykule Modelowanie symboliczne(s-symulacja)].

Powstawanie informatyki

Modelowanie symboliczne badanych obiektów od dawna służy jako główne narzędzie prezentacji zdobytej wiedzy. Wynalezienie symboli (gestowych, graficznych itp.) i zbudowanych z nich symboli przekazu symbolicznego, reprezentacja i akumulacja takich modeli w środowisku zewnętrznym stały się kluczowymi środkami kształtowania i rozwoju zdolności intelektualnych. O dominującej roli wzorców symbolicznych w aktywności intelektualnej decyduje nie tylko ich zwartość i wyrazistość, ale także brak ograniczeń co do rodzajów nośników służących do ich przechowywania. Nośnikiem może być pamięć ludzka, kartka papieru, matryca aparatu cyfrowego, pamięć cyfrowego dyktafonu lub coś innego. Koszty budowy, kopiowania, przenoszenia, zapisywania i gromadzenia modeli symbolicznych są nieporównywalnie mniejsze niż podobne koszty związane z modelami niesymbolicznymi (np. modele statków, budynków itp.). Bez symbolicznych narzędzi modelowania trudno wyobrazić sobie rozwój nauki, inżynierii i innych działań.

We wczesnych stadiach rozwoju modelowania różnorodność modelowanych obiektów ograniczała się do tego, co powszechnie nazywa się obiektami środowiskowymi, a modele tych obiektów były fizyczne. Rozwój dźwięku, gestu i innych środków symbolicznego modelowania znaczeń, spowodowany koniecznością zgłaszania niebezpieczeństwa, umieszczania przedmiotów myśliwskich i innych przedmiotów obserwacji, przyczynił się do udoskonalenia mechanizmów poznania, wzajemnego zrozumienia i uczenia się. Zaczęły tworzyć się języki wiadomości, w tym symbole dźwięków i gestów. Chęć modelowania zachowania (w tym własnego) stawia nowe wyzwania. Można przypuszczać, że początkowo pragnienie to wiązało się z uczeniem racjonalnego zachowania na polowaniu, w życiu codziennym, podczas klęsk żywiołowych. Na pewnym etapie pomyśleli o stworzeniu takich narzędzi do modelowania, które pozwoliłyby na budowanie modeli pozwalających na ich przechowywanie, kopiowanie i przenoszenie.

Chęć zwiększenia skuteczności wyjaśnień towarzyszących pokazowi doprowadziła do udoskonalenia aparatu pojęciowego i środków jego wcielania mowy. Rozwój modeli symbolicznych w postaci schematów graficznych oraz doskonalenie mowy doprowadziły do ​​powstania graficznego modelu mowy. Pisanie zostało stworzone. Stał się nie tylko ważnym etapem w rozwoju modelowania symbolicznego, ale także potężne narzędzie w rozwoju aktywności intelektualnej. Teraz opisy obiektów modelowania i relacji między nimi można przedstawić za pomocą kompozycji tekstów, diagramów i rysunków. Stworzono zestaw narzędzi do wyświetlania obserwacji, rozumowań i planów w formie symbolicznych modeli, które można było przechowywać i przesyłać. Aktualne stały się zadania wynalezienia mediów, narzędzi do pisania i tworzenia obrazów, barwników itp. Były to pierwsze zadania na drodze do zbudowania symbolicznego środowiska modelowania.

Ważny etap modelowania graficznego związany jest z modelami obrazów schematycznych (przodkami rysunków) - podstawą projektowania. Prezentacja projektowanego obiekt trójwymiarowy w trzech dwuwymiarowych rzutach, które pokazują wymiary i nazwy części, odegrały decydującą rolę w rozwoju inżynierii. W drodze od odręcznych tekstów, rysunków i diagramów do typografii i modeli graficznych w projektowaniu, od nagrań dźwiękowych, fotografii i radia do kina i telewizji, od komputerów i sieci lokalnych do sieci globalnej, wirtualnych laboratoriów i edukacji na odległość, rola symbolu modele, które człowiek tworzy za pomocą maszyn.

Produktywność osób rozwiązujących problemy jest kluczowym problemem produktywności aktywności intelektualnej, która jest stale w centrum uwagi wynalazców. Potrzeba ilościowych ocen obiektów materialnych od dawna była bodźcem do wynalezienia systemów dźwiękowych, gestów, a następnie symboli graficznych. Przez jakiś czas radzili sobie z zasadą: każda wartość ma swój własny symbol. Liczenie za pomocą kamyków, patyków i innych przedmiotów (liczenie obiektywne) poprzedziło wynalezienie liczenia symbolicznego (opartego na reprezentacja graficzna wielkie ilości). Wraz ze wzrostem liczby przedmiotów, które należało wykorzystać, zadanie symbolicznego przedstawienia wielkości stawało się coraz pilniejsze. Powstanie pojęcia „liczby” i idea zapisywania symboli podczas modelowania liczb doprowadziła do wynalezienia systemów liczbowych. Na szczególną uwagę zasługuje idea systemów liczb pozycyjnych, z których jeden (binarny) powstał w XX wieku. miał odegrać kluczową rolę w wynalezieniu cyfrowych programowalnych maszyn i cyfrowego kodowania modeli postaci. Zmiana znaczenia symbolu wraz ze zmianą jego pozycji w sekwencji symboli to bardzo produktywny pomysł, który zapewnił postęp w wynalezieniu urządzeń obliczeniowych (od liczydła do komputera).

Narzędzia zwiększające produktywność osób rozwiązujących problemy. W latach 1622–33 angielski naukowiec William Otred zaproponował wariant suwak suwakowy, który stał się prototypem suwaków logicznych, z których inżynierowie i badacze na całym świecie korzystali od ponad 300 lat (zanim pojawiły się komputery osobiste). W 1642 r. B. Pascal, próbując pomóc ojcu w obliczeniach przy pobieraniu podatków, tworzy pięciocyfrowe urządzenie sumujące („Pascaline” ), zbudowany na bazie kół zębatych. W kolejnych latach stworzył urządzenia sześcio- i ośmiocyfrowe, które miały za zadanie dodawać i odejmować liczby dziesiętne. W 1672 r. niemiecki naukowiec G.W. Leibniz tworzy cyfrowy kalkulator mechaniczny do operacji arytmetycznych na dwunastocyfrowych liczbach dziesiętnych. Był to pierwszy kalkulator, który zrobił wszystko działania arytmetyczne. Mechanizm, zwany kołem Leibniza, do lat 70. XX wieku. reprodukowane w różnych kalkulatorach podręcznych. W 1821 r. rozpoczęto przemysłową produkcję maszyn sumujących. W latach 1836-48 C. Babbage zrealizował projekt mechanicznego komputera dziesiętnego (zwanego przez niego silnikiem analitycznym), który można uznać za mechaniczny prototyp przyszłych komputerów. Program obliczeniowy, dane i wynik zostały zapisane na kartach perforowanych. Automatyczne wykonanie dostarczone programy urządzenie sterujące. Samochód nie został zbudowany. W 1934 - 38 K. Zuse stworzył mechaniczny komputer binarny (długość słowa22 cyfry binarne; pamięć64 słowa; operacje zmiennoprzecinkowe). Początkowo program i dane były wprowadzane ręcznie. Około rok później (po rozpoczęciu projektowania) wykonano urządzenie do wprowadzania programu i danych z folii perforowanej, a mechaniczną jednostkę arytmetyczną (AU) zastąpiono AU zbudowaną na przekaźnikach telefonicznych. W 1941 roku Zuse, przy udziale austriackiego inżyniera H. Schreiera, stworzył pierwszy na świecie działający całkowicie przekaźnikowy komputer binarny ze sterowaniem programowym (Z3). W 1942 roku Zuse stworzył również pierwszy na świecie komputer sterujący (S2), który służył do sterowania samolotami pociskowymi. Ze względu na tajność prac wykonywanych przez Zuse ich wyniki stały się znane dopiero po zakończeniu II wojny światowej. Pierwszy na świecie język programowania wysokiego poziomu Plankalkül (niemiecki Plankalkül - plan rachunku różniczkowego) został stworzony przez Zuse w latach 1943-45, opublikowany w 1948 roku. Pierwsze cyfrowe komputery elektroniczne, począwszy od amerykańskiego komputera ENIAC [(ENIAC - Electronic Numerical Integrator and Computer - elektroniczny integrator numeryczny i kalkulator); początek rozwoju - 1943, zaprezentowany publicznie w 1946], powstały jako środek automatyzacji obliczeń matematycznych.

Tworzenie nauki o obliczeniach za pomocą programowalnych maszyn. Wszystkie R. XX wiek rozpoczęła się produkcja komputerów cyfrowych, które w USA i Wielkiej Brytanii nazywano komputerami (komputerami), aw ZSRR - komputerami elektronicznymi (komputerami). Od lat 50. XX wieku w Wielkiej Brytanii, a od lat 60. w USA zaczęła się rozwijać nauka informatyczna za pomocą programowalnych maszyn, zwana informatyką (computer science). W 1953 Uniwersytet Cambridge powstał program na specjalności Informatyka; w USA podobny program został wprowadzony w 1962 roku na Purdue University.

W Niemczech informatykę nazywano Informatik (informatyka). W ZSRR dziedzinę badań i inżynierii poświęconą budowie i zastosowaniu programowalnych maszyn nazywano „technologią komputerową”. W grudniu 1948 r. I. S. Bruk i B. I. Rameev otrzymali pierwszy w ZSRR certyfikat praw autorskich na wynalezienie automatycznej maszyny cyfrowej. W latach pięćdziesiątych stworzył pierwszą generację komputerów domowych ( podstawa elementu- lampy próżniowe): 1950 - MESM (pierwszy sowiecki komputer elektroniczny, opracowany pod kierownictwem S.A. Lebiediew ); 1952 - M-1, BESM (do 1953 najszybszy komputer w Europie); 1953 - „Strzałka” (pierwszy komputer masowo produkowany w ZSRR); 1955 - Ural-1 z rodziny Ural komputerów cyfrowych ogólnego przeznaczenia (główny projektant B.I. Rameev).

Doskonalenie metod i środków automatyzacji. Wraz z rosnącą dostępnością komputerów dla użytkowników z różnych dziedzin działalności, która rozpoczęła się w latach 70., zmniejsza się udział problemów matematycznych rozwiązywanych za pomocą komputerów (pierwotnie stworzonych jako środek do automatyzacji obliczeń matematycznych), a wzrost udział problemów niematematycznych (komunikacja, wyszukiwanie itp.). Kiedy w drugiej połowie lat sześćdziesiątych. rozpoczęto produkcję terminali komputerowych z ekranami, rozpoczęto opracowywanie programów do edycji ekranów do wprowadzania, zapisywania i poprawiania tekstu z wyświetlaniem go na pełnym ekranie [jednym z pierwszych edytorów ekranowych był O26, stworzony w 1967 roku dla operatorów konsol serii CDC 6000 komputery; w 1970 roku powstał vi, standardowy edytor ekranów dla systemów operacyjnych Unix i Linux]. Zastosowanie edytorów ekranowych nie tylko zwiększyło produktywność programistów, ale także stworzyło warunki do istotnych zmian w narzędziach do zautomatyzowanej budowy modeli symbolicznych dowolnych obiektów. Na przykład używanie edytorów ekranowych do generowania tekstów do różnych celów(artykuły i książki naukowe, podręczniki itp.) już w latach 70. XX wieku. pozwoliło znacznie zwiększyć produktywność tworzenia zasobów informacji tekstowych. W czerwcu 1975 roku amerykański badacz Alan Kay [twórca obiektowego języka programowania Smalltalk i jeden z autorów idei komputera osobistego] w artykule „Personal Computing” (« Komputery osobiste» ) napisał: „Wyobraź sobie siebie jako właściciela autonomicznej maszyny wiedzy w przenośny futerał, który jest wielkością i kształtem zwykłego notatnika. Jak byś go używał, gdyby jego czujniki były lepsze od wzroku i słuchu, a jego pamięć pozwalała przechowywać i w razie potrzeby wydobyć tysiące stron materiałów źródłowych, wierszy, listów, przepisów, a także rysunków, animacji, muzyki , grafiki, dynamiczne modele i coś jeszcze, co chciałbyś stworzyć, zapamiętać i zmienić? . Stwierdzenie to odzwierciedlało zwrot, jaki dokonał się do tego czasu w podejściu do budowy i zastosowania maszyn programowalnych: od narzędzi automatyzacji, głównie obliczeń matematycznych, po narzędzia do rozwiązywania problemów z różnych dziedzin działalności. W 1984 Kurzweil Music Systems (KMS), stworzony przez amerykańskiego wynalazcę Raymonda Kurzweila, wyprodukował pierwszy na świecie cyfrowy syntezator muzyczny, Kurzweil 250. Był to pierwszy na świecie dedykowany komputer, który konwertował znaki gestów wprowadzane z klawiatury na dźwięki muzyczne.

Doskonalenie metod i środków interakcji informacyjnej. W 1962 roku amerykańscy badacze J. Licklider i W. Clark opublikowali raport na temat interakcji człowiek-maszyna online. Raport zawierał uzasadnienie celowości budowy globalnej sieci jako platformy infrastrukturalnej zapewniającej dostęp do zasobów informacyjnych znajdujących się na komputerach podłączonych do tej sieci. Teoretyczne uzasadnienie komutacji pakietów w transmisji wiadomości w sieciach komputerowych zostało podane w artykule opublikowanym w 1961 roku przez amerykańskiego naukowca L. Kleinrocka.W 1971 r. R. Tomlinson (USA) wynalazł e-mail, w 1972 r. usługa ta została wdrożona. Kluczowym wydarzeniem w historii powstania Internetu było wynalezienie w 1973 roku przez amerykańskich inżynierów V. Cerfa i R. Kahna protokołu kontroli transmisji - TCP. W 1976 roku zademonstrowali transmisję pakietu sieciowego przez protokół TCP. W 1983 roku rodzina protokołów TCP/IP została ustandaryzowana. W 1984 r. utworzono system nazw domen (DNS) (zob. Domena w informatyce). W 1988 r. opracowano protokół czatu [Internet Real Time Text Messaging Service (IRC - Internet Relay Chat)]. W 1989 r. wdrożono projekt sieciowy (zob. Sieć ogólnoświatowa) opracowany przez T. Berners Lee. 6.6.2012 - znaczący dzień w historii Internetu: najwięksi dostawcy Internetu, producenci sprzętu dla sieć komputerowa a firmy internetowe zaczęły używać protokołu IPv6 (wraz z protokołem IPv4), praktycznie rozwiązując problem niedoboru adresów IP (patrz Internet). Wysokiemu tempu rozwoju Internetu sprzyja fakt, że od początku jego istnienia profesjonaliści zajmujący się naukowymi i technicznymi zadaniami budowy Internetu bez zwłoki wymieniają się pomysłami i rozwiązaniami wykorzystując jego możliwości. Internet stał się platformą infrastrukturalną dla środowiska człowiek-maszyna do rozwiązywania problemów. Służy jako infrastruktura komunikacyjna E-mail, sieci, wyszukiwarki, Telefonia internetowa(telefonia IP) i inne usługi internetowe wykorzystywane w informatyzacji edukacji, nauki, ekonomii, administracji publicznej i innych działalności. Usługi elektroniczne stworzone na bazie Internetu umożliwiły skuteczne funkcjonowanie różnych komercyjnych i niekomercyjnych podmiotów internetowych: sklepów internetowych, sieci społecznościowych [Facebook (Facebook), VKontakte, Twitter (Twitter) itp.], wyszukiwarka silniki [Google (Google), Yandex (Yandex) i inne], encyklopedyczne zasoby internetowe [Wikipedia (Wikipedia), Webopedia itp.], biblioteki elektroniczne [Światowa Biblioteka Cyfrowa (Światowa Biblioteka Cyfrowa), Elektroniczna biblioteka naukowa eLibrary itp.] , korporacyjne i rządowe portale informacyjne itd.

Od 2000 roku intensywnie rośnie liczba rozwiązań internetowych – „inteligentny dom” (Smart House), „inteligentny system zasilania” (Smart Grid) itp. Pomyślnie rozwijają się rozwiązania M2M (M2M - Machine-to-Machine) oparte na technologiach informacyjnych interakcji maszyna-maszyna i przeznaczone do monitorowania czujników temperatury, liczników energii elektrycznej, wodomierzy itp.; śledzenie lokalizacji poruszających się obiektów w oparciu o systemy GLONASS i GPS (patrz. Satelitarny system pozycjonowania); kontrola dostępu do chronionych obiektów itp.

Oficjalna rejestracja informatyki w ZSRR. Informatyka została oficjalnie sformalizowana w ZSRR w 1983 roku, kiedy w ramach Akademii Nauk ZSRR utworzono Wydział Informatyki, Inżynierii Komputerowej i Automatyki. W jej skład weszły powstały w tym samym roku Instytut Problemów Informatyki Akademii Nauk ZSRR, Instytut Matematyki Stosowanej Akademii Nauk ZSRR, Centrum Informatyczne Akademii Nauk ZSRR, Instytut Przesyłu Informacji Problemy Akademii Nauk ZSRR i szeregu innych instytutów. W pierwszym etapie za główne uznano badania w zakresie sprzętu i oprogramowania do masowych obliczeń i systemów na nich opartych. Uzyskane wyniki miały stać się podstawą do stworzenia rodziny domowych komputerów osobistych (PC) i ich zastosowania do informatyzacji działalności naukowej, edukacyjnej i innych istotnych działań.

Problemy i perspektywy

Metodyczne wsparcie budowy osobistego s-środowiska. W najbliższych latach jednym z tematycznych obszarów wsparcia metodologicznego poprawy środowiska s będzie tworzenie spersonalizowanych systemów rozwiązywania problemów, których sprzęt jest umieszczany w sprzęcie użytkownika. Prędkości zaawansowane technologieŁączność bezprzewodowa jest już wystarczająca do rozwiązywania wielu problemów opartych na usługach internetowych. Oczekuje się, że do 2025 r. szybkość i rozpowszechnienie technologii komunikacji bezprzewodowej osiągną poziom, na którym część dzisiejszych interfejsów przewodowych zostanie zastąpiona interfejsami bezprzewodowymi. Obniżenie cen usług internetowych przyczyni się również do promocji technologii personalizacji s-środowiska użytkownika. Faktyczne problemy związane z personalizacją środowiska s to: tworzenie bardziej zaawansowanych systemów symbolicznych i kodowych; sprzętowo-programowa konwersja komunikatów dźwiękowych i dotykowych wysyłanych przez osobę na grafikę, reprezentowaną przez kompozycję tekstu, hipertekstu, znaków specjalnych i obrazów; udoskonalenie technologiczne i ujednolicenie interfejsów bezprzewodowych [przede wszystkim interfejsów wideo (wyjście do wyboru użytkownika: na specjalnych okularach, ekranach monitorów, telewizorze lub innym urządzeniu wyjściowym wideo)].

Wsparcie metodologiczne budowania osobistego s-środowiska powinno opierać się na wynikach badań z zakresu sztucznej inteligencji, których celem jest zbudowanie nie maszynowego symulatora ludzkiej inteligencji, ale inteligentnego partnera sterowanego przez człowieka. Rozwój technologii budowania osobistego s-środowiska obejmuje doskonalenie metodologii nauczania na odległość, interakcji itp.

Lista artykułów

1. Pomiar informacji – podejście alfabetyczne

2. Pomiar informacji – sensowne podejście

3. Procesy informacyjne

4. Informacje

5. Cybernetyka

6. Kodowanie informacji

7. Przetwarzanie informacji

8. Przekazywanie informacji

9. Reprezentacja liczb

10. Systemy liczbowe

11. Przechowywanie informacji

Głównymi przedmiotami badań nauki o informatyce są Informacja I procesy informacyjne. Informatyka jako samodzielna nauka powstała w połowie XX wieku, ale naukowe zainteresowanie informacją i badaniami w tej dziedzinie pojawiło się wcześniej.

Na początku XX wieku aktywnie rozwijały się techniczne środki komunikacji (telefon, telegraf, radio).
W związku z tym pojawia się kierunek naukowy „Teoria komunikacji”. Jej rozwój dał początek teorii kodowania i teorii informacji, której założycielem był amerykański naukowiec C. Shannon. Teoria informacji rozwiązała problem pomiary Informacja transmitowane przez kanały komunikacyjne. Istnieją dwa podejścia do pomiaru informacji: znaczący I alfabetyczny.

Najważniejszym zadaniem stawianym przez teorię komunikacji jest walka z utratą informacji w kanałach transmisji danych. W trakcie rozwiązywania tego problemu powstała teoria kodowanie , w ramach którego wynaleziono metody przedstawiania informacji umożliwiające przekazanie treści wiadomości adresatowi bez zniekształceń, nawet w przypadku ubytków w przesyłanym kodzie. Te wyniki naukowe mają ogromne znaczenie nawet dzisiaj, kiedy ilość informacji przepływających w technicznych kanałach komunikacyjnych wzrosła o wiele rzędów wielkości.

Prekursorem współczesnej informatyki była nauka „Cybernetyka”, założona przez prace N. Wienera na przełomie lat czterdziestych i pięćdziesiątych. W cybernetyce nastąpiło pogłębienie pojęcia informacji, określono miejsce informacji w systemach sterowania w organizmach żywych, w systemach społecznych i technicznych. Cybernetyka zbadała zasady kontroli programów. Powstająca równocześnie z pojawieniem się pierwszych komputerów cybernetyka położyła podwaliny naukowe zarówno pod ich konstruktywny rozwój, jak i liczne zastosowania.

EVM (komputer) - automatyczne urządzenie przeznaczone do rozwiązywania problemów informacyjnych poprzez wdrażanie procesy informacyjne : przechowywanie, przetwarzanie I przekazywanie informacji. Opis podstawowych zasad i schematów procesów informacyjnych nawiązuje również do teoretycznych podstaw informatyki.

Komputer nie pracuje z treścią informacji, którą tylko osoba może odbierać, ale z danymi reprezentującymi informacje. Dlatego najważniejszym zadaniem dla technologii komputerowej jest: prezentacja informacji w postaci danych nadających się do ich przetwarzania. Dane i programy są zakodowane w forma binarna. Przetwarzanie dowolnego typu danych w komputerze sprowadza się do obliczeń na liczbach binarnych. Dlatego technologia komputerowa jest również nazywana cyfrową. Pojęcie systemów liczbowych, około reprezentacja liczb w komputerze należą do podstawowych pojęć informatyki.

Pojęcie „języka” pochodzi z językoznawstwa. Język - ten system symbolicznej reprezentacji informacji służących do jej przechowywania i przesyłania. Pojęcie języka jest jednym z podstawowe koncepcje informatyka, ponieważ zarówno dane, jak i programy w komputerze są reprezentowane jako struktury symboliczne. Język komunikacji między komputerem a człowiekiem coraz bardziej zbliża się do form języka naturalnego.

DO podstawy informatyka odwołuje się do teorii algorytmów. pojęcie algorytm wprowadzony w artykule „Przetwarzanie informacji”. Ten temat został szczegółowo omówiony w piątej części encyklopedii.

1. Pomiar informacji. Podejście alfabetyczne

Do pomiaru stosuje się podejście alfabetyczne ilość informacji w tekście reprezentowanym jako ciąg znaków jakiegoś alfabetu. To podejście nie jest związane z treścią tekstu. Ilość informacji w tym przypadku nazywa się informacyjna objętość tekstu, który jest proporcjonalny do rozmiaru tekstu - liczba znaków, z których składa się tekst. Czasami takie podejście do pomiaru informacji nazywa się podejściem wolumetrycznym.

Każdy znak tekstu zawiera pewną ilość informacji. Jest on nazywany symbol informacja waga. Dlatego objętość informacyjna tekstu jest równa sumie wag informacyjnych wszystkich znaków, które składają się na tekst.

Tutaj zakłada się, że tekst jest kolejnym ciągiem ponumerowanych znaków. W formule (1) i 1 oznacza wagę informacyjną pierwszego znaku tekstu, i 2 - waga informacyjna drugiego znaku tekstu itp.; K- rozmiar tekstu, tj. łączna liczba znaków w tekście.

Cały zestaw różnych znaków używanych do pisania tekstów nazywa się alfabetycznie. Wielkość alfabetu to liczba całkowita zwana moc alfabetu. Należy pamiętać, że alfabet zawiera nie tylko litery określonego języka, ale wszystkie inne znaki, które można użyć w tekście: cyfry, znaki interpunkcyjne, różne nawiasy, spacje itp.

Wyznaczanie wag informacyjnych symboli może odbywać się w dwóch przybliżeniach:

1) przy założeniu równego prawdopodobieństwa (tej samej częstości występowania) dowolnego znaku w tekście;

2) uwzględnienie różnego prawdopodobieństwa (różnej częstotliwości występowania) różnych znaków w tekście.

Aproksymacja równego prawdopodobieństwa znaków w tekście

Jeżeli przyjmiemy, że wszystkie znaki alfabetu w dowolnym tekście pojawiają się z tą samą częstotliwością, to waga informacyjna wszystkich znaków będzie taka sama. Zostawiać n- potęga alfabetu. Wtedy proporcja dowolnego znaku w tekście wynosi 1/ n część tekstu. Zgodnie z definicją prawdopodobieństwa (por. „Pomiar informacji. Podejście do treści”) wartość ta jest równa prawdopodobieństwu wystąpienia znaku w każdej pozycji tekstu:

Zgodnie z formułą K. Shannona (zob. „Pomiar informacji. Podejście do treści”), ilość informacji zawartych w symbolu oblicza się w następujący sposób:

i = log2(1/ P) = log2 n(fragment) (2)

Dlatego waga informacyjna symbolu ( i) i moc alfabetu ( n) są połączone formułą Hartleya (patrz „ Pomiar informacji. Podejście do treści” )

2 i = N.

Znajomość wagi informacyjnej jednego znaku ( i) oraz rozmiar tekstu wyrażony liczbą znaków ( K), objętość informacyjną tekstu można obliczyć za pomocą wzoru:

I= K · i (3)

Formuła ta jest szczególną wersją formuły (1) w przypadku, gdy wszystkie symbole mają taką samą wagę informacyjną.

Ze wzoru (2) wynika, że ​​w n= 2 (alfabet binarny) waga informacji jednego znaku wynosi 1 bit.

Z punktu widzenia alfabetycznego podejścia do pomiaru informacji 1 bit -jest informacyjną wagą znaku z alfabetu binarnego.

Większą jednostką informacji jest bajt.

1 bajt -jest wagą informacyjną znaku z alfabetu o potędze 256.

Od 256 \u003d 2 8 połączenie między bitem a bajtem wynika ze wzoru Hartleya:

2 i = 256 = 2 8

Stąd: i= 8 bitów = 1 bajt

Do reprezentacji tekstów przechowywanych i przetwarzanych w komputerze najczęściej używany jest alfabet o pojemności 256 znaków. W konsekwencji,
1 znak takiego tekstu "waży" 1 bajt.

Oprócz bitu i bajtu do pomiaru informacji używane są również większe jednostki:

1 KB (kilobajt) = 2 10 bajtów = 1024 bajty,

1 MB (megabajt) = 2 10 KB = 1024 KB,

1 GB (gigabajt) = 2 10 MB = 1024 MB.

Aproksymacja różnych prawdopodobieństw występowania znaków w tekście

To przybliżenie uwzględnia fakt, że w tekście rzeczywistym różne znaki występują z różną częstotliwością. Wynika z tego, że prawdopodobieństwa pojawienia się różnych znaków w określonym miejscu tekstu są różne, a co za tym idzie ich wagi informacyjne są różne.

Analiza statystyczna tekstów rosyjskich pokazuje, że częstotliwość litery „o” wynosi 0,09. Oznacza to, że na każde 100 znaków litera „o” występuje średnio 9 razy. Ta sama liczba wskazuje na prawdopodobieństwo pojawienia się litery „o” w określonej pozycji tekstu: P o = 0,09. Wynika z tego, że waga informacyjna litery „o” w tekście rosyjskim jest równa:

Najrzadszą literą w tekstach jest litera „f”. Jego częstotliwość wynosi 0,002. Stąd:

Wynika z tego jakościowy wniosek: waga informacyjna rzadkich liter jest większa niż waga często występujących liter.

Jak obliczyć objętość informacyjną tekstu, biorąc pod uwagę różne wagi informacyjne symboli alfabetu? Odbywa się to według następującego wzoru:

Tutaj n- wielkość (moc) alfabetu; nj- ilość powtórzeń numeru znaku J w tekście; ja ja- waga informacyjna numeru symbolu J.

Podejście alfabetyczne na kursie informatyki u podstaw szkoły

W toku informatyki w szkole głównej uczniowie zapoznają się z podejście alfabetyczne Do pomiaru informacji najczęściej dochodzi w kontekście komputerowej reprezentacji informacji. Główne zdanie brzmi tak:

Ilość informacji jest mierzona rozmiarem kodu binarnego, za pomocą którego ta informacja jest reprezentowana.

Ponieważ każdy rodzaj informacji jest reprezentowany w pamięci komputera w postaci kodu binarnego, definicja ta jest uniwersalna. Dotyczy informacji symbolicznych, liczbowych, graficznych i dźwiękowych.

Jeden znak ( wypisać)kod binarny przenosi 1trochę informacji.

Wyjaśniając sposób pomiaru objętości informacyjnej tekstu na kursie informatyki podstawowej, zagadnienie to ujawnia się poprzez następującą sekwencję pojęć: alfabet-rozmiar kodu binarnego znaku-objętość informacyjna tekstu.

Logika rozumowania rozwija się od konkretnych przykładów do uzyskania ogólnej reguły. Niech w alfabecie jakiegoś języka będą tylko 4 znaki. Oznaczmy je: , , , . Symbole te można zakodować za pomocą czterech dwucyfrowych kodów binarnych: - 00, - 01, - 10, - 11. W tym przypadku stosowane są wszystkie opcje rozmieszczenia dwóch znaków po dwa, których liczba wynosi 2 2 = 4. A Alfabet czteroznakowy jest równy dwóm bitom.

Kolejnym szczególnym przypadkiem jest 8-znakowy alfabet, którego każdy znak może być zakodowany 3-bitowym kodem binarnym, ponieważ liczba rozmieszczeń dwóch znaków w grupach po 3 wynosi 2 3 = 8. W związku z tym waga informacji znak z 8-znakowego alfabetu to 3 bity. Itp.

Uogólniając poszczególne przykłady, otrzymujemy ogólną zasadę: używając b- bitowy kod binarny, można zakodować alfabet składający się z n = 2 b- symbole.

Przykład 1. Do napisania tekstu używane są tylko małe litery alfabetu rosyjskiego, a do oddzielania słów używana jest „spacja”. Jaka jest objętość informacyjna tekstu składającego się z 2000 znaków (jedna strona drukowana)?

Rozwiązanie. W alfabecie rosyjskim są 33 litery. Zmniejszając go o dwie litery (na przykład „ё” i „й”) i wprowadzając znak spacji, otrzymujemy bardzo wygodną liczbę znaków - 32. Korzystając z przybliżenia równego prawdopodobieństwa znaków, piszemy formułę Hartleya:

2i= 32 = 2 5

Stąd: i= 5 bitów - waga informacyjna każdego znaku alfabetu rosyjskiego. Wtedy objętość informacyjna całego tekstu jest równa:

I = 2000 5 = 10 000 fragment

Przykład 2. Oblicz objętość informacyjną tekstu o wielkości 2000 znaków, w zapisie którego używany jest alfabet komputerowej reprezentacji tekstów o pojemności 256.

Rozwiązanie. W tym alfabecie waga informacji każdego znaku wynosi 1 bajt (8 bitów). Dlatego objętość informacyjna tekstu wynosi 2000 bajtów.

W praktycznych zadaniach na ten temat ważne jest rozwijanie umiejętności uczniów w zakresie przeliczania ilości informacji na różne jednostki: bity - bajty - kilobajty - megabajty - gigabajty. Jeśli przeliczymy objętość informacyjną tekstu z przykładu 2 na kilobajty, otrzymamy:

2000 bajtów = 2000/1024 1,9531 KB

Przykład 3. Objętość wiadomości zawierającej 2048 znaków wynosiła 1/512 megabajta. Jaka jest wielkość alfabetu, za pomocą którego napisana jest wiadomość?

Rozwiązanie. Przetłumaczmy ilość informacji w wiadomości z megabajtów na bity. Aby to zrobić, mnożymy tę wartość dwa razy przez 1024 (otrzymujemy bajty) i raz przez 8:

I = 1/512 1024 1024 8 = 16384 bity.

Ponieważ ta ilość informacji zawiera 1024 znaki ( DO), wtedy jeden znak odpowiada za:

ja = i/K= 16 384/1024 = 16 bitów.

Wynika z tego, że wielkość (potęga) użytego alfabetu wynosi 2 16 = 65 536 znaków.

Podejście wolumetryczne w toku informatyki w liceum

Studiując informatykę w klasach 10-11 na podstawowym poziomie kształcenia ogólnego, uczniowie mogą pozostawić swoją wiedzę w zakresie wolumetrycznego podejścia do pomiaru informacji na takim samym poziomie jak opisany powyżej, tj. w kontekście ilości binarnego kodu komputerowego.

Studiując informatykę na poziomie profilu, podejście wolumetryczne należy rozpatrywać z bardziej ogólnych pozycji matematycznych, wykorzystując pomysły dotyczące częstotliwości znaków w tekście, prawdopodobieństw i relacji prawdopodobieństw z wagami informacyjnymi symboli.

Znajomość tych zagadnień jest ważna dla głębszego zrozumienia różnicy w stosowaniu jednolitego i niejednolitego kodowania binarnego (zob. „Kodowanie informacji”), aby zrozumieć niektóre techniki kompresji danych (zob. "Kompresja danych") i algorytmy kryptograficzne (patrz „Kryptografia” ).

Przykład 4. W alfabecie plemienia MUMU są tylko 4 litery (A, U, M, K), jeden znak interpunkcyjny (kropka) i spacja służy do oddzielania wyrazów. Obliczono, że popularna powieść „Mumuka” zawiera tylko 10 000 znaków, z czego: litery A – 4000, litery U – 1000, litery M – 2000, litery K – 1500, kropki – 500, spacje – 1000. Ile informacji zawiera książka?

Rozwiązanie. Ponieważ objętość książki jest dość duża, można przyjąć, że częstość występowania w tekście każdego z wyliczonych z niej symboli alfabetu jest typowa dla każdego tekstu w języku MUMU. Obliczmy częstotliwość występowania każdego znaku w całym tekście książki (czyli prawdopodobieństwo) oraz wagi informacyjne znaków

Całkowita ilość informacji w księdze jest obliczana jako suma iloczynów wagi informacji każdego symbolu i liczby powtórzeń tego symbolu w księdze:

2. Pomiar informacji. Podejście do treści

1) osoba otrzymuje wiadomość o jakimś zdarzeniu; póki wiadomo z góry niepewność wiedzy osoba o oczekiwanym zdarzeniu. Niepewność wiedzy może być wyrażona albo liczbą możliwych wariantów zdarzenia, albo prawdopodobieństwem oczekiwanych wariantów zdarzenia;

2) w wyniku odebrania wiadomości usuwa się niepewność wiedzy: z pewnej możliwej liczby opcji wybrano jedną;

3) formuła oblicza ilość informacji w odebranej wiadomości wyrażoną w bitach.

Formuła używana do obliczenia ilości informacji zależy od sytuacji, które mogą być dwie:

1. Wszystkie możliwe warianty zdarzenia są jednakowo prawdopodobne. Ich liczba jest skończona i równa n.

2. Prawdopodobieństwo ( P) możliwe warianty imprezy są różne i są z góry znane:

(pi ), i = 1.. n. Tutaj jest nadal n- ilość możliwych wariantów imprezy.

Niesamowite wydarzenia. Jeśli jest oznaczony przez i ilość informacji w wiadomości, że jeden z n zdarzenia prawdopodobne, to ilości i I n są połączone formułą Hartleya:

2i=n (1)

Wartość i mierzone w bitach. Z tego wynika wniosek:

1 bit to ilość informacji w wiadomości o jednym z dwóch równie prawdopodobnych zdarzeń.

Wzór Hartleya jest równaniem wykładniczym. Jeśli i jest wielkością nieznaną, to rozwiązaniem równania (1) będzie:

i = log 2 n (2)

Wzory (1) i (2) są identyczne. Czasami w literaturze formuła Hartleya nazywana jest (2).

Przykład 1. Ile informacji zawiera komunikat, że dama pik została pobrana z talii kart?

W talii są 32 karty. W przetasowanej talii utrata jakiejkolwiek karty jest równie prawdopodobnym wydarzeniem. Jeśli i- ilość informacji w komunikacie, że dana karta padła (np. dama pik), a następnie z równania Hartleya:

2 i = 32 = 2 5

Stąd: i= 5 bitów.

Przykład 2. Ile informacji zawiera wiadomość o rzucie twarzą z cyfrą 3 na kostce sześciościennej?

Traktując utratę jakiejkolwiek twarzy jako zdarzenie równie prawdopodobne, piszemy wzór Hartleya: 2 i= 6. Stąd: i= log 2 6 = 2,58496 fragment.

Zdarzenia nieprawdopodobne (podejście probabilistyczne)

Jeśli prawdopodobieństwo jakiegoś zdarzenia wynosi P, ale i(bit) to ilość informacji w komunikacie, że to zdarzenie miało miejsce, wtedy wartości te są powiązane wzorem:

2 i = 1/P (3)

Rozwiązywanie równania wykładniczego (3) względem i, otrzymujemy:

i = log 2 (1/ P) (4)

Formuła (4) została zaproponowana przez K. Shannona, dlatego nazywa się ją formułą Shannona.

Omówienie relacji między ilością informacji w komunikacie a jego treścią może odbywać się na różnych poziomach głębi.

Podejście jakościowe

Podejście jakościowe, które można wykorzystać na poziomie propedeutyki przedmiotu informatyka podstawowa (klasy 5–7) lub kursu podstawowego (klasy 8–9).

Na tym poziomie studiów omawiany jest następujący łańcuch pojęć: informacja - przekaz - informacyjność przekazu.

oryginalne opakowanie: Informacja- to jest wiedza ludzi otrzymana przez nich z różnych przekazów. Kolejne pytanie brzmi: czym jest przekaz? Wiadomość- jest to przepływ informacji (przepływ danych), który w procesie przekazywania informacji dociera do podmiotu, który ją odbiera. Komunikatem jest zarówno mowa, której słuchamy (przekaz radiowy, wyjaśnienie nauczyciela), jak i odbierane przez nas obrazy wizualne (film w telewizji, sygnalizacja świetlna), tekst czytanej książki itp.

pytanie o wiadomość informacyjna Powinienem omówić przykłady podane przez nauczyciela i uczniów. Reguła: informacyjnyzadzwońmywiadomość, który uzupełnia ludzką wiedzę, tj. niesie dla niego informacje. Dla różnych osób ten sam przekaz pod względem informacyjnym może być inny. Jeśli informacja jest „stara”, tj. osoba już o tym wie lub treść wiadomości nie jest dla niej jasna, wtedy ta wiadomość nie jest dla niej informacyjna. Informacyjna jest wiadomość, która zawiera nowe i zrozumiałe inteligencja.

Przykłady nieinformacyjnych wiadomości dla ucznia klasy ósmej:

1) „Stolica Francji - Paryż” (nie nowy);

2) „Chemia koloidów bada stany dyspersji układów o wysokim stopniu fragmentacji” (niejasne).

Przykład przekazu informacyjnego (dla tych, którzy tego nie wiedzieli): „Wieża Eiffla ma wysokość 300 metrów i wagę 9000 ton”.

Wprowadzenie pojęcia „treści informacyjnej komunikatu” jest pierwszym podejściem do badania zagadnienia pomiaru informacji w ramach pojęcia treści. Jeśli wiadomość nie jest informacyjna dla osoby, to ilość informacji w niej zawartych, z punktu widzenia tej osoby, jest równa zeru. Ilość informacji w komunikacie informacyjnym jest większa od zera.

Podejście ilościowe w przybliżeniu równoważności prawdopodobieństwa

Takie podejście można studiować albo w zaawansowanej wersji kursu podstawowego w szkole podstawowej, albo podczas nauki informatyki w klasach 10-11 na poziomie podstawowym.

Rozważany jest następujący łańcuch pojęć: prawdopodobne zdarzenia - niepewność wiedzy - bit jako jednostka informacji - Wzór Hartleya - rozwiązanie równania wykładniczego dla N równego potęgom całkowitym dwójki.

Ujawnienie koncepcji równe prawdopodobieństwo, należy budować na intuicyjnej reprezentacji dzieci, popierając ją przykładami. Wydarzenia są równie prawdopodobnejeśli żaden z nich nie ma przewagi nad innymi.

Po wprowadzeniu określonej powyżej definicji bitu należy ją uogólnić:

Przesłanie, które zmniejsza niepewność wiedzy o współczynnik 2 niesie 1 bitInformacja.

Ta definicja jest poparta przykładami komunikatów o jednym zdarzeniu z czterech (2 bity), z ośmiu (3 bity) i tak dalej.

Na tym poziomie nie można dyskutować o opcjach wartości n, nie równe potęgom całkowitym dwójki, aby nie stawić czoła problemowi obliczania logarytmów, które nie były jeszcze badane w matematyce. Jeśli dzieci mają pytania, na przykład: „Ile informacji zawiera wiadomość o wyniku rzucenia sześcienną kostką”, wówczas wyjaśnienie można skonstruować w następujący sposób. Z równania Hartleya: 2 i= 6. Od 2 2< 6 < 2 3 , следовательно, 2 < i < 3. Затем сообщить более точное значение (с точностью до пяти знаков после запятой), что i= 2,58496 bitów. Zauważ, że przy tym podejściu ilość informacji może być wyrażona jako wartość ułamkowa.

Probabilistyczne podejście do pomiaru informacji

Można go studiować w klasach 10-11 w ramach kształcenia ogólnego na poziomie specjalistycznym lub w ramach zajęć fakultatywnych z matematycznych podstaw informatyki. W tym miejscu należy wprowadzić matematycznie poprawną definicję prawdopodobieństwa. Ponadto studenci powinni znać funkcję logarytmiczną i jej własności, umieć rozwiązywać równania wykładnicze.

Wprowadzając pojęcie prawdopodobieństwa należy podać, że prawdopodobieństwo zdarzenia jest wartością, która może przyjmować wartości od zera do jednego. Prawdopodobieństwo niemożliwego zdarzenia wynosi zero(na przykład: „jutro słońce nie wzejdzie ponad horyzont”), prawdopodobieństwo wystąpienia określonego zdarzenia jest równe jeden(na przykład: „Jutro słońce wzejdzie nad horyzontem”).

Zastrzeżenie: prawdopodobieństwo jakiegoś zdarzenia jest określane przez wielokrotne obserwacje (pomiary, testy). Takie pomiary nazywane są statystycznymi. A im więcej pomiarów jest wykonywanych, tym dokładniej określa się prawdopodobieństwo zdarzenia.

Matematyczna definicja prawdopodobieństwa to: prawdopodobieństwojest równy stosunkowi liczby wyników, które faworyzują to wydarzenie, do całkowitej liczby równie możliwych wyników.

Przykład 3. Na przystanku zatrzymują się dwie linie autobusowe: nr 5 i nr 7. Uczeń otrzymuje zadanie: określić, ile informacji zawiera komunikat, że autobus nr 5 zbliżył się do przystanku, a ile informacja jest w komunikacie, że autobus nr 5 podjechał 7.

Student zrobił badania. W ciągu całego dnia pracy wyliczył, że autobusy podjeżdżały do ​​przystanku 100 razy. Spośród nich autobus nr 5 podjechał 25 razy, a autobus nr 7. 75 razy. Zakładając, że autobusy kursują z tą samą częstotliwością w pozostałe dni, uczeń obliczył prawdopodobieństwo, że autobus nr 5 na przystanku: P 5 = 25/100 = 1/4, a prawdopodobieństwo odrodzenia się autobusu nr 7 wynosi: P 7 = 75/100 = 3/4.

Stąd ilość informacji w komunikacie o autobusie numer 5 to: i 5 = log 2 4 = 2 bity. Ilość informacji w komunikacie o autobusie numer 7 to:

i 7 \u003d log 2 (4/3) \u003d log 2 4 - log 2 3 \u003d 2 - 1,58496 \u003d 0,41504 fragment.

Zwróć uwagę na następujące wyniki jakościowe: im mniejsze prawdopodobieństwo zdarzenia, tym większa ilość informacji w komunikacie o nim. Ilość informacji o określonym zdarzeniu wynosi zero. Na przykład komunikat „Jutro nadejdzie rano” jest wiarygodny, a jego prawdopodobieństwo jest równe jedności. Ze wzoru (3) wynika: 2 i= 1/1 = 1. Stąd i= 0 bitów.

Wzór Hartleya (1) jest szczególnym przypadkiem wzoru (3). Jeśli możliwe n zdarzeniami równie prawdopodobnymi (wynik rzucenia monetą, kostką itp.), to prawdopodobieństwo każdego możliwego wariantu jest równe P = 1/n. Podstawiając do (3), ponownie otrzymujemy wzór Hartleya: 2 i = N. Gdyby w przykładzie 3 autobusy #5 i #7 zatrzymywały się 100 razy co 50 razy, to prawdopodobieństwo pojawienia się każdego z nich byłoby równe 1/2. Dlatego ilość informacji w wiadomości o przyjeździe każdego autobusu wynosi i= log 2 2 = 1 bit. Doszliśmy do znanego wariantu treści informacyjnej komunikatu o jednym z dwóch równie prawdopodobnych zdarzeń.

Przykład 4. Rozważ inną wersję problemu z autobusem. Na przystanku zatrzymują się autobusy nr 5 i nr 7. Komunikat, że autobus nr 5 zbliżył się do przystanku zawiera 4 bity informacji. Prawdopodobieństwo pojawienia się autobusu numer 7 na przystanku jest dwa razy mniejsze niż prawdopodobieństwo pojawienia się autobusu numer 5. Ile bitów informacji zawiera komunikat o pojawieniu się autobusu numer 7 na przystanku?

Stan problemu zapisujemy w postaci:

ja 5 = 4 bity, P 5 = 2 P 7

Przypomnij sobie zależność między prawdopodobieństwem a ilością informacji: 2 i = 1/P

Stąd: P = 2 –i

Zastępując równość ze stanu problemu, otrzymujemy:

Z otrzymanego wyniku wynika wniosek: dwukrotne zmniejszenie prawdopodobieństwa zdarzenia zwiększa zawartość informacyjną komunikatu o nim o 1 bit. Odwrotna zasada jest również oczywista: dwukrotny wzrost prawdopodobieństwa zdarzenia zmniejsza o 1 bit zawartość informacyjną komunikatu o nim. Znając te zasady, poprzedni problem można rozwiązać „w umyśle”.

3. Procesy informacyjne

Przedmiotem studiów nauk o informatyce jest Informacja I procesy informacyjne. Ponieważ nie ma jednej ogólnie przyjętej definicji informacji (por. "Informacja"), nie ma też jedności w interpretacji pojęcia „procesów informacyjnych”.

Podejdźmy do rozumienia tego pojęcia z pozycji terminologicznej. Słowo proces oznacza jakieś wydarzenie mające miejsce w czasie: spory sądowe, proces produkcyjny, proces edukacyjny, proces wzrostu żywych organizmów, proces rafinacji ropy naftowej, proces spalania paliwa, proces lotu statku kosmicznego itp. Każdy proces wiąże się z pewnymi działania wykonywane przez człowieka, siły natury, urządzenia techniczne, a także w wyniku ich wzajemnego oddziaływania.

Każdy proces ma obiekt wpływu Słowa kluczowe: oskarżony, studenci, ropa, paliwo, statek kosmiczny. Jeśli proces jest związany z celową działalnością osoby, wówczas taką osobę można nazwać wykonawca procesu: sędzia, nauczyciel, astronauta. Jeżeli proces odbywa się za pomocą automatycznego urządzenia, to jest on wykonawcą procesu: reaktor chemiczny, automatyczna stacja kosmiczna.

Oczywiście w procesach informacyjnych przedmiotem wpływu jest informacja. W podręczniku S.A. Beszenkowa, E.A. Rakitina podaje następującą definicję: „W najogólniejszej formie proces informacyjny definiuje się jako zestaw sekwencyjnych działań (operacji) wykonywanych na informacjach (w postaci danych, informacji, faktów, pomysłów, hipotez, teorii itp.) aby uzyskać dowolny wynik (osiągnięcia). cele)".

Dalsza analiza pojęcia „procesy informacyjne” zależy od podejścia do pojęcia informacji, od odpowiedzi na pytanie: „Czym jest informacja?”. Jeśli akceptujesz atrybutywny punkt widzenia informacji (por. "Informacja"), to należy uznać, że procesy informacyjne zachodzą zarówno w przyrodzie ożywionej, jak i nieożywionej. Na przykład w wyniku fizycznej interakcji między Ziemią a Słońcem, między elektronami a jądrem atomu, między oceanem a atmosferą. Z pozycji funkcjonalny pojęciowe procesy informacyjne zachodzą w żywych organizmach (roślinach, zwierzętach) iw ich interakcji.

OD antropocentryczny z punktu widzenia wykonawcą procesów informacyjnych jest osoba. Procesy informacyjne są funkcją ludzkiej świadomości (myślenia, intelektu). Osoba może je realizować samodzielnie, jak również przy pomocy stworzonych przez siebie narzędzi aktywności informacyjnej.

Każda, arbitralnie złożona aktywność informacyjna osoby sprowadza się do trzech głównych rodzajów działań z informacją: zapisywania, odbierania / przesyłania, przetwarzania. Zwykle zamiast „odbiór-nadawanie” mówią po prostu „nadawanie”, rozumiejąc ten proces jako dwukierunkowy: transmisja od źródła do odbiorcy (jednoznaczne z „transportem”).

Przechowywanie, przesyłanie i przetwarzanie informacji to główne rodzaje procesów informacyjnych.

Realizacja tych działań informacją wiąże się z jej prezentacją w postaci danych. Do przechowywania, przetwarzania i przesyłania wykorzystywane są wszelkiego rodzaju narzędzia ludzkiej aktywności informacyjnej (np. papier i długopis, techniczne kanały komunikacji, urządzenia komputerowe itp.). dane.

Jeśli przeanalizujemy działalność jakiejkolwiek organizacji (dział personalny przedsiębiorstwa, księgowość, laboratorium naukowe), która pracuje z informacjami „w staromodny sposób”, bez użycia komputerów, wymagane są trzy rodzaje środków, aby zapewnić jej zajęcia:

Papier i przybory do pisania (długopisy, maszyny do pisania, przybory kreślarskie) do utrwalania informacji w celu przechowywania;

Urządzenia komunikacyjne (kurierzy, telefony, poczta) do odbierania i przesyłania informacji;

Narzędzia komputerowe(liczba, kalkulatory) do przetwarzania informacji.

W dzisiejszych czasach wszystkie tego typu działania informacyjne są wykonywane z wykorzystaniem technologii komputerowej: dane są przechowywane na nośnikach cyfrowych, transmisja odbywa się za pomocą poczty elektronicznej i innych usług sieci komputerowej, obliczenia i inne rodzaje przetwarzania wykonywane są na komputerze.

Skład głównych urządzeń komputera jest dokładnie określony przez fakt, że komputer jest przeznaczony do wykonywania przechowywanie, przetwarzanie I transmisja danych. Aby to zrobić, zawiera pamięć, procesor, kanały wewnętrzne i zewnętrzne urządzenia wejścia / wyjścia (patrz. "Komputer").

W celu terminologicznego oddzielenia procesów pracy z informacjami zachodzącymi w ludzkim umyśle od procesów pracy z danymi zachodzącymi w systemach komputerowych, A.Ya. Friedland proponuje nazywać je inaczej: po pierwsze - procesy informacyjne, po drugie - procesy informacyjne.

Inne podejście do interpretacji procesów informacyjnych oferuje cybernetyka. Procesy informacyjne zachodzą w różnych systemach kontroli, które zachodzą w dzikiej przyrodzie, w ludzkim ciele, w systemach społecznych, w systemy techniczne ah (w tym w komputerze). Na przykład podejście cybernetyczne jest stosowane w neurofizjologii (por. "Informacja"), gdzie zarządzanie procesami fizjologicznymi zachodzącymi w ciele zwierzęcia i człowieka, zachodzącymi na poziomie nieświadomym, jest traktowane jako proces informacyjny. W neuronach (komórkach mózgowych) przechowywane I obrobiony informacja jest przenoszona wzdłuż włókien nerwowych audycja informacje w postaci sygnałów o charakterze elektrochemicznym. Genetyka ustaliła, że ​​informacje dziedziczne przechowywane w cząsteczkach DNA, które tworzą jądra żywych komórek. Określa program rozwoju organizmu (tzn. kontroluje ten proces), który realizowany jest na poziomie nieświadomym.

W interpretacji cybernetycznej procesy informacyjne sprowadzają się więc do przechowywania, przesyłania i przetwarzania informacji prezentowanych w postaci sygnałów, kodów o różnym charakterze.

Na każdym etapie nauki informatyki w szkole idee dotyczące procesów informacyjnych pełnią funkcję metodyczną systematyzującą. Studiując urządzenie, jakim jest komputer, uczniowie powinni jasno zrozumieć, jakie urządzenia są używane do przechowywania, przetwarzania i przesyłania danych. Podczas nauki programowania studenci powinni zwrócić uwagę na fakt, że program działa na danych przechowywanych w pamięci komputera (podobnie jak sam program), że instrukcje programu określają działania procesora w zakresie przetwarzania danych oraz działanie urządzeń wejścia-wyjścia do odbierania i przesyłania danych. Opanowując technologie informatyczne, należy zwrócić uwagę na to, że technologie te nastawione są również na przechowywanie, przetwarzanie i przesyłanie informacji.

Zobacz artykuły „ Przechowywanie danych”, “Przetwarzanie danych”, “Przekazywanie informacji” 2.

4. Informacje

Pochodzenie terminu „informacja”

Słowo „informacja” pochodzi z łaciny Informacja, co tłumaczy się jako wyjaśnienie, prezentacja. W słownik wyjaśniający W I. Dahl nie ma słowa „informacja”. Termin „informacja” zaczął być używany w rosyjskiej mowie od połowy XX wieku.

Pojęcie informacji w największym stopniu zawdzięcza swoje rozprzestrzenienie się dwóm obszarom naukowym: teoria komunikacji I cybernetyka. Efektem rozwoju teorii komunikacji było: teoria informacji założona przez Claude'a Shannona. Jednak K. Shannon nie podał definicji informacji, jednocześnie określając ilość informacji. Teoria informacji poświęcona jest rozwiązaniu problemu pomiaru informacji.

W nauce cybernetyka założona przez Norberta Wienera, pojęcie informacji ma kluczowe znaczenie (por. "Cybernetyka" 2). Powszechnie przyjmuje się, że to N. Wiener wprowadził pojęcie informacji do użytku naukowego. Niemniej jednak w swojej pierwszej książce o cybernetyce N. Wiener nie definiuje informacji. “ Informacja to informacja, a nie materia czy energia”, napisał Wiener. Zatem pojęcie informacji z jednej strony przeciwstawia się pojęciom materii i energii, z drugiej zaś stawia je na równi z tymi pojęciami pod względem ich ogólności i fundamentalności. Stąd przynajmniej jasne jest, że informacji nie można przypisać ani materii, ani energii.

Informacje w filozofii

Filozofia zajmuje się rozumieniem informacji jako podstawowym pojęciem. Według jednej z koncepcji filozoficznych informacja jest własnością wszystkiego, wszystkie materialne przedmioty świata. Ta koncepcja informacji nazywa się atrybutywny (informacja jest atrybutem wszystkich obiektów materialnych). Informacje na świecie powstały wraz ze Wszechświatem. W tym sensie informacja jest miarą uporządkowania, uporządkowania dowolnego materialnego systemu. Procesy rozwoju świata od początkowego chaosu, który nastąpił po „Wielkim Wybuchu” do powstania układów nieorganicznych, następnie organicznych (żywych) wiążą się ze wzrostem Treść informacji. Ta treść jest obiektywna, niezależna od ludzkiej świadomości. Kawałek węgla zawiera informacje o wydarzeniach, które miały miejsce w starożytności. Jednak tylko dociekliwy umysł może wydobyć te informacje.

Inna filozoficzna koncepcja informacji nosi nazwę funkcjonalny. Zgodnie z podejściem funkcjonalnym, informacje pojawiły się wraz z pojawieniem się życia, ponieważ wiąże się to z funkcjonowaniem złożonych systemów samoorganizujących się, do których należą organizmy żywe i społeczeństwo ludzkie. Możesz też powiedzieć tak: informacja jest atrybutem nieodłącznym tylko żywej przyrodzie. Jest to jedna z zasadniczych cech oddzielających naturę żywą od nieożywionej.

Trzecia filozoficzna koncepcja informacji to: antropocentryczny, według którego informacja istnieje tylko w ludzkiej świadomości, w ludzkiej percepcji. Działalność informacyjna jest nieodłączna tylko człowiekowi, występuje w systemach społecznych. Tworząc technologię informacyjną, człowiek tworzy narzędzia do swojej działalności informacyjnej.

Można powiedzieć, że użycie pojęcia „informacja” w życiu codziennym występuje w kontekście antropocentrycznym. To naturalne, że każdy z nas postrzega informacje jako wiadomości wymieniane między ludźmi. Na przykład środki masowego przekazu – środki masowego przekazu są przeznaczone do rozpowszechniania wiadomości, wiadomości wśród ludności.

Informacje w biologii

W XX wieku pojęcie informacji przenika do nauki wszędzie. Procesy informacyjne w żywej przyrodzie bada biologia. Neurofizjologia (dział biologii) zajmuje się badaniem mechanizmów aktywności nerwowej zwierząt i ludzi. Nauka ta buduje model procesów informacyjnych zachodzących w organizmie. Informacje przychodzące z zewnątrz przekształcane są w sygnały o charakterze elektrochemicznym, które są przekazywane z narządów zmysłów wzdłuż włókien nerwowych do neuronów (komórek nerwowych) mózgu. Mózg przekazuje informacje kontrolne w postaci sygnałów o tej samej naturze do tkanek mięśniowych, kontrolując w ten sposób narządy ruchu. Opisany mechanizm jest zgodny z modelem cybernetycznym N. Wienera (zob. "Cybernetyka" 2).

W innej nauce biologicznej - genetyce stosuje się pojęcie informacji dziedzicznej wbudowanej w strukturę cząsteczek DNA obecnych w jądrach komórek organizmów żywych (roślin, zwierząt). Genetyka udowodniła, że ​​ta struktura jest rodzajem kodu, który determinuje funkcjonowanie całego organizmu: jego wzrost, rozwój, patologie itp. Poprzez cząsteczki DNA informacje dziedziczne przekazywane są z pokolenia na pokolenie.

Studiując informatykę w szkole podstawowej (przedmiot podstawowy), nie należy zagłębiać się w złożoność problemu ustalania informacji. Pojęcie informacji podane jest w znaczącym kontekście:

Informacja - takie jest znaczenie, treść wiadomości otrzymywanych przez osobę z świat zewnętrzny poprzez jego zmysły.

Pojęcie informacji ujawnia się poprzez łańcuch:

przekaz - znaczenie - informacja - wiedza

Człowiek odbiera komunikaty za pomocą zmysłów (głównie wzrokiem i słuchem). Jeśli dana osoba rozumie oznaczający zawarte w wiadomości, wtedy możemy powiedzieć, że ta wiadomość niesie ze sobą osobę Informacja. Na przykład komunikat w nieznanym języku nie zawiera informacji dla danej osoby, ale komunikat w języku ojczystym jest zrozumiały, a więc informacyjny. Informacje odbierane i przechowywane w pamięci uzupełniają się wiedza osoba. Nasz wiedza- to usystematyzowana (powiązana) informacja w naszej pamięci.

Ujawniając pojęcie informacji z punktu widzenia sensownego podejścia, należy zacząć od intuicyjnych wyobrażeń na temat informacji, które mają dzieci. Wskazane jest prowadzenie rozmowy w formie dialogu, zadając uczniom pytania, na które są w stanie odpowiedzieć. Na przykład pytania można zadawać w następującej kolejności.

Powiedz nam, skąd czerpiesz informacje?

Prawdopodobnie usłyszysz z powrotem:

Z książek, programów radiowych i telewizyjnych .

Rano usłyszałem w radiu prognozę pogody .

Korzystając z tej odpowiedzi, nauczyciel prowadzi uczniów do ostatecznego wniosku:

Więc na początku nie wiedziałeś, jaka będzie pogoda, ale po słuchaniu radia zacząłeś wiedzieć. Dlatego po otrzymaniu informacji otrzymałeś nową wiedzę!

W ten sposób nauczyciel wraz z uczniami dochodzi do definicji: Informacjadla osoby jest to informacja uzupełniająca wiedzę osoby, którą otrzymuje z różnych źródeł. Ponadto, na licznych przykładach znanych dzieciom, ta definicja powinna zostać poprawiona.

Ustaliwszy związek między informacją a wiedzą ludzi, nieuchronnie dochodzisz do wniosku, że informacja jest treścią naszej pamięci, ponieważ ludzka pamięć jest sposobem przechowywania wiedzy. Rozsądne jest nazywanie takich informacji wewnętrznymi, operacyjnymi informacjami, które dana osoba posiada. Jednak ludzie przechowują informacje nie tylko we własnej pamięci, ale także w zapisach na papierze, na nośnikach magnetycznych itp. Takie informacje można nazwać zewnętrznymi (w stosunku do osoby). Aby człowiek mógł z niego skorzystać (np. przygotować danie według przepisu), musi go najpierw przeczytać, tj. przekształć go w formę wewnętrzną, a następnie wykonaj kilka czynności.

Kwestia klasyfikacji wiedzy (a więc i informacji) jest bardzo złożona. W nauce są do tego różne podejścia. Szczególnie zaangażowani w tę kwestię są specjaliści z dziedziny sztucznej inteligencji. W ramach kursu podstawowego wystarczy ograniczyć się do podzielenia wiedzy na: deklaracyjny I proceduralny. Opis wiedzy deklaratywnej można rozpocząć od słów: „Wiem, że…”. Opis wiedzy proceduralnej – słowami: „Wiem jak…”. Łatwo jest podać przykłady dla obu rodzajów wiedzy i zaprosić dzieci do wymyślenia własnych przykładów.

Nauczyciel powinien zdawać sobie sprawę z propedeutycznego znaczenia omawiania tych zagadnień dla przyszłego poznawania przez uczniów urządzenia i obsługi komputera. Komputer, podobnie jak człowiek, ma pamięć wewnętrzną - operacyjną - i zewnętrzną - pamięć długotrwałą. Podział wiedzy na deklaratywną i proceduralną w przyszłości można połączyć z podziałem informacji komputerowej na dane - informacje deklaratywne i programy - informacje proceduralne. Zastosowanie dydaktycznej metody analogii pomiędzy funkcją informacyjną człowieka a komputerem pozwoli studentom lepiej zrozumieć istotę urządzenia i działanie komputera.

Opierając się na pozycji „ludzka wiedza jest przechowywaną informacją”, nauczyciel informuje uczniów, że zapachy, smaki i wrażenia dotykowe (dotykowe) również przenoszą informacje na osobę. Uzasadnienie tego jest bardzo proste: skoro pamiętamy znajome zapachy i smaki, rozpoznajemy znajome przedmioty dotykiem, to te wrażenia są przechowywane w naszej pamięci, a zatem są informacją. Stąd wniosek: za pomocą wszystkich zmysłów człowiek otrzymuje informacje ze świata zewnętrznego.

Zarówno z merytorycznego, jak i metodologicznego punktu widzenia bardzo ważne jest rozróżnienie znaczeń pojęć” Informacja" I " dane”. Do reprezentacji informacji w dowolnym systemie znakowym(w tym stosowane w komputerach) należy użyć terminudane”. ALE Informacja- ten znaczenie zawarte w danych, osadzone w nich przez osobę i zrozumiałe tylko dla osoby;.

Komputer pracuje z danymi: odbiera dane wejściowe, przetwarza je i przekazuje dane wyjściowe do osoby - wyniki. Semantycznej interpretacji danych dokonuje osoba. Niemniej w mowie potocznej, w literaturze, często mówią i piszą, że komputer przechowuje, przetwarza, przesyła i odbiera informacje. Dzieje się tak, gdy komputer nie jest oddzielony od osoby, traktując go jako narzędzie, za pomocą którego osoba przeprowadza procesy informacyjne.

5. Cybernetyka

Słowo „cybernetyka” ma pochodzenie greckie i dosłownie oznacza sztukę kontroli.

W IV wieku p.n.e. w pismach Platona termin ten był używany na określenie zarządzania w sensie ogólnym. W XIX wieku A. Ampère zaproponował nazwanie cybernetyki nauką o zarządzaniu społeczeństwem ludzkim.

W nowoczesnej interpretacji cybernetyka- nauka badająca ogólne prawa kontroli i relacji w zorganizowanych systemach (maszyny, organizmy żywe, w społeczeństwie).

Pojawienie się cybernetyki jako samodzielnej nauki wiąże się z publikacją książek amerykańskiego naukowca Norberta Wienera „Cybernetics, czyli Control and Communication in Animal and Machine” w 1948 roku oraz „Cybernetics and Society” w 1954 roku.

Głównym odkryciem naukowym cybernetyki było uzasadnienie jedność praw kontrolnych w systemach naturalnych i sztucznych,. Do takiego wniosku doszedł N. Wiener budując model informacyjny procesów zarządzania.

Norbert Wiener (1894-1964), USA

Podobny schemat znany był w teorii automatycznego sterowania. Wiener uogólnił ją na wszystkie typy systemów, abstrahując od określonych mechanizmów komunikacji, uznając to połączenie za informacyjne.

Schemat kontroli sprzężenia zwrotnego

Bezpośredni kanał komunikacyjny przesyła informacje sterujące - polecenia sterujące. Kanał sprzężenia zwrotnego przekazuje informacje o stanie kontrolowanego obiektu, o jego reakcji na działanie sterujące, a także o stanie otoczenia zewnętrznego, który często jest istotnym czynnikiem w zarządzaniu.

Cybernetyka rozwija pojęcie informacji jako treści sygnałów przesyłanych kanałami komunikacyjnymi. Cybernetyka rozwija koncepcję algorytmu jako informacji sterującej, którą obiekt sterujący musi posiadać, aby wykonać swoją pracę.

Pojawienie się cybernetyki następuje jednocześnie z tworzeniem komputerów elektronicznych. Związek między komputerami a cybernetyką jest tak bliski, że pojęcia te często identyfikowano w latach 50. XX wieku. Komputery nazywano maszynami cybernetycznymi.

Związek między komputerami a cybernetyką istnieje w dwóch aspektach. Po pierwsze, komputer jest samosterującym się automatem, w którym rolę menedżera pełni urządzenie sterujące będące częścią procesora, a wszystkie inne urządzenia są obiektami sterującymi. Komunikacja bezpośrednia i zwrotna odbywa się kanałami informacyjnymi, a algorytm prezentowany jest w postaci programu w języku maszynowym (języku „zrozumiałym” przez procesor) przechowywanego w pamięci komputera.

Po drugie, wraz z wynalezieniem komputera otworzyła się perspektywa wykorzystania maszyny jako obiektu kontrolnego w różnych systemach. Możliwe staje się tworzenie złożonych systemów ze sterowaniem programowym, przenoszenie wielu rodzajów ludzkiej aktywności na urządzenia automatyczne.

Rozwój linii „cybernetyka – komputery” doprowadził w latach 60. do powstania nauki Informatyka z bardziej rozwiniętym systemem pojęć związanych z badaniem informacji i procesów informacyjnych.

Obecnie ogólne przepisy cybernetyki teoretycznej nabierają coraz większego znaczenia filozoficznego. Jednocześnie aktywnie rozwijają się stosowane obszary cybernetyki, związane z badaniem i tworzeniem systemów sterowania w różnych obszarach tematycznych: cybernetyka techniczna, cybernetyka biomedyczna, cybernetyka ekonomiczna. Wraz z rozwojem komputerowych systemów uczenia się możemy mówić o pojawieniu się cybernetyki pedagogicznej.

Kwestie cybernetyki można włączać do ogólnego kursu kształcenia na różne sposoby. Jednym ze sposobów jest linia algorytmizacji. Algorytm traktować jako informacja sterująca w cybernetycznym modelu układu sterowania,. W tym kontekście ujawnia się wątek cybernetyki.

Innym sposobem jest włączenie tematu cybernetyki w sensowną linię modelowania. Rewidując proces zarządzania jako złożony proces informacyjny daje wyobrażenie o Schemat N. Wienera w jaki sposób modele takiego procesu. W wersji standardu edukacyjnego dla szkoły podstawowej (2004) temat ten występuje w kontekście modelowania: „cybernetyczny model procesów zarządzania”.

W pracy AA Kuzniecowa S.A. Beshenkova i wsp. „Ciągły kurs informatyki” wymienili trzy główne obszary szkolnego kursu informatyki: modelowanie informacji , procesy informacyjne I informacyjne bazy zarządzania. Linie treści opisują główne kierunki. Tym samym temat cybernetyczny - temat zarządzania, ma jeszcze większe znaczenie niż linia treści. To wieloaspektowy temat, który pozwala poruszyć następujące zagadnienia:

Elementy cybernetyki teoretycznej: cybernetyczny model sterowania ze sprzężeniem zwrotnym;

Elementy cybernetyki stosowanej: budowa komputerowych systemów automatyki (systemy ze sterowaniem programowym); wyznaczanie zautomatyzowanych systemów kontroli;

Podstawy teorii algorytmów.

Elementy cybernetyki teoretycznej

Mówiąc o cybernetycznym modelu sterowania, nauczyciel powinien zilustrować go przykładami znanymi i zrozumiałymi dla uczniów. W takim przypadku należy podkreślić główne elementy cybernetycznego systemu sterowania: obiekt kontrolny, zarządzany obiekt, kanały bezpośrednie i zwrotne.

Zacznijmy od oczywistych przykładów. Na przykład kierowca i samochód. Kierowca jest kierownikiem, samochód jest obiektem kontrolowanym. Kanał komunikacji bezpośredniej - system sterowania samochodem: pedały, kierownica, manetki, kluczyki itp. Kanały zwrotne: przyrządy na panelu sterowania, widok z okien, słuch kierowcy. Każdą czynność na elementach sterujących można uznać za przekazaną informację: „zwiększ prędkość”, „zwolnij”, „skręć w prawo” itp. Informacje przekazywane kanałami informacji zwrotnej są również niezbędne do skutecznego zarządzania. Zaproponuj uczniom zadanie: co się stanie, jeśli jeden z kanałów bezpośrednich lub sprzężenia zwrotnego zostanie wyłączony? Dyskusja o takich sytuacjach jest zwykle bardzo żywa.

Kontrola sprzężenia zwrotnego nazywa się sterowanie adaptacyjne. Działania kierownika są dostosowywane (tzn. dostosowywane) do stanu obiektu kontroli, otoczenia.

Najbliższy przykład studentom zarządzania w systemie społecznym: nauczyciel kierujący procesem uczenia się w klasie. Omów różne formy kontroli nauczyciela nad uczniami: mowa, gesty, mimika, notatki na tablicy. Niech uczniowie wymienią różne formy informacji zwrotnej; wyjaśnij, w jaki sposób nauczyciel dostosowuje przebieg lekcji na podstawie wyników informacji zwrotnej, podaj przykłady takiej adaptacji. Np. uczniowie nie poradzili sobie z zaproponowanym zadaniem – nauczyciel jest zmuszony powtórzyć wyjaśnienie.

Studiując ten temat w szkole średniej, można rozważyć sposoby zarządzania w dużych systemach społecznych: zarządzanie przedsiębiorstwem przez administrację, zarządzanie krajem przez organy państwowe itp. Tutaj przydaje się wykorzystanie materiału z toku nauk społecznych. Analizując mechanizmy sprzężenia zwrotnego i sprzężenia zwrotnego w takich systemach, należy zwrócić uwagę uczniów na to, że w większości przypadków istnieje wiele kanałów sprzężenia zwrotnego i sprzężenia zwrotnego. Są one duplikowane w celu zwiększenia niezawodności systemu sterowania.

Algorytmy i sterowanie

Ten temat pozwala ujawnić koncepcję algorytmu z cybernetycznego punktu widzenia. Logika rozszerzenia jest następująca. Zarządzanie to celowy proces. Musi zapewniać określone zachowanie obiektu sterującego, osiągnięcie określonego celu. A do tego musi istnieć plan zarządzania. Plan ten jest realizowany poprzez sekwencję poleceń sterujących przesyłanych przez łącze bezpośrednie. Taka sekwencja poleceń nazywana jest algorytmem sterowania.

Algorytm sterowania jest komponent informacyjny systemy kontrolne. Na przykład nauczyciel prowadzi lekcję według z góry ustalonego planu. Kierowca prowadzi samochód po z góry ustalonej trasie.

W systemach sterowania, w których rolę kierownika pełni człowiek, algorytm sterowania może się zmieniać, dopracowywać w procesie pracy. Kierowca nie może z wyprzedzeniem planować wszystkich swoich działań podczas jazdy; Nauczyciel dostosowuje plan lekcji na bieżąco. Jeżeli proces jest sterowany przez urządzenie automatyczne, to z góry musi być w nim osadzony szczegółowy algorytm sterowania w jakiejś sformalizowanej formie. W takim przypadku nazywa się to program zarządzania. Aby zapisać program, automatyka musi posiadać: pamięć programu.

Ten temat powinien zbadać koncepcję system samozarządzający. Jest to pojedynczy obiekt, organizm, w którym znajdują się wszystkie wymienione powyżej elementy systemów sterowania: sterowane i sterowane części (narządy), informacje bezpośrednie i zwrotne, informacje sterujące - algorytmy, programy i pamięć do ich przechowywania. Takie systemy to żywe organizmy. Najdoskonalszym z nich jest człowiek. Człowiek panuje nad sobą. Głównym organem kontrolnym jest ludzki mózg, kontrolowany - wszystkie części ciała. Jest świadome zarządzanie(robię co chcę) i jem podświadomy(zarządzanie procesami fizjologicznymi). Podobne procesy zachodzą u zwierząt. Jednak odsetek świadomej kontroli u zwierząt jest mniejszy niż u ludzi ze względu na wyższy poziom rozwoju intelektualnego człowieka.

Tworzenie sztucznych systemów samorządnych to jedno z najtrudniejszych zadań nauki i techniki. Przykładem takiego kierunku naukowo-technicznego jest robotyka. Łączy wiele dziedzin nauki: cybernetykę, sztuczną inteligencję, medycynę, modelowanie matematyczne itp.

Elementy Cybernetyki Stosowanej

Temat ten można ujawnić albo w pogłębionej wersji studium z podstawowego kierunku informatyka, albo na poziomie profilu w liceum.

Do zadań cybernetyka techniczna obejmuje rozwój i tworzenie systemów kontroli technicznej w przedsiębiorstwach produkcyjnych, w laboratoriach badawczych, w transporcie itp. Takie systemy nazywane są systemy z automatyczna kontrola - ACS . Komputery lub wyspecjalizowane sterowniki są używane jako urządzenie sterujące w ACS.

Model sterowania cybernetycznego w odniesieniu do ACS przedstawiono na rysunku.

Schemat automatycznego systemu sterowania

Jest to zamknięty system techniczny, który działa bez interwencji człowieka. Osoba (programista) przygotowana program zarządzania, przeniósł go do pamięci komputera. Wtedy system działa automatycznie.

Rozważając to zagadnienie, studenci powinni zwrócić uwagę na to, że spotkali się już z konwersją informacji z analogowej na cyfrową i odwrotnie (konwersja DAC – ADC) w innych tematach lub spotkają się ponownie. Na tej samej zasadzie modem działa w sieciach komputerowych, karta dźwiękowa podczas wprowadzania / wyprowadzania dźwięku (patrz. „ Prezentacja dźwiękowa” 2).W tym systemie analogowy sygnał elektryczny przechodzący przez kanał sprzężenia zwrotnego z czujników sterowanego urządzenia przez Analogowy do cyfrowego konwertera(ADC), zamienia się w dyskretne dane cyfrowe, wejście do komputera. Działa na linii bezpośredniej DAC - przetwornik cyfrowo-analogowy, który wykonuje odwracać konwersja - dane cyfrowe pochodzące z komputera na analogowy sygnał elektryczny dostarczany do węzłów wejściowych sterowanego urządzenia;.

Inny kierunek cybernetyki stosowanej: zautomatyzowane systemy sterowania (ACS). ACS to system człowiek-maszyna. Zautomatyzowane systemy sterowania z reguły nastawione są na zarządzanie działalnością zespołów produkcyjnych i przedsiębiorstw. Są to systemy komputerowego gromadzenia, przechowywania, przetwarzania różnych informacji niezbędnych do funkcjonowania przedsiębiorstwa. Na przykład dane o przepływach finansowych, dostępności surowców, wolumenach gotowych produktów, informacjach kadrowych itp. itp. Głównym celem takich systemów jest szybkie i dokładne dostarczenie menedżerom przedsiębiorstwa informacji niezbędnych do podejmowania decyzji zarządczych.

Zadania rozwiązywane za pomocą zautomatyzowanych systemów sterowania należą do obszaru cybernetyka ekonomiczna. Z reguły podstawą techniczną takich systemów są lokalne sieci komputerowe. ACS wykorzystuje różnorodne technologie informacyjne: bazy danych, grafikę komputerową, modelowanie komputerowe, systemy ekspertowe itp.

6. Kodowanie informacji

Kod -system konwencjonalnych znaków (symboli) do przekazywania, przetwarzania i przechowywania informacji (wiadomości).

Kodowanie - proces prezentowania informacji (komunikatów) w postaci kodu.

Cały zestaw znaków używanych do kodowania nazywa się kodowanie alfabetu. Na przykład w pamięci komputera wszelkie informacje są zakodowane za pomocą alfabetu binarnego zawierającego tylko dwa znaki: 0 i 1.

Naukowe podstawy kodowania opisał K. Shannon, który badał procesy przekazywania informacji na całym świecie kanały techniczne komunikacja ( teoria komunikacji, teoria kodowania). Z takim podejściem kodowanie rozumiane w węższym sensie: przejście od reprezentowania informacji w jednym systemie symboli do reprezentowania jej w innym systemie symboli. Na przykład konwersja pisanego tekstu rosyjskiego na kod Morse'a w celu transmisji przez telegraf lub radio. Takie kodowanie wiąże się z koniecznością dostosowania kodu do technicznych środków pracy z wykorzystywanymi informacjami (patrz „ Przekazywanie informacji” 2).

Dekodowanie - proces konwersji kodu z powrotem do postaci oryginalnego systemu znaków, tj. uzyskać oryginalną wiadomość. Na przykład: tłumaczenie z alfabetu Morse'a na tekst pisany w języku rosyjskim.

Mówiąc szerzej, dekodowanie to proces odzyskiwania zawartości zaszyfrowanej wiadomości. Dzięki takiemu podejściu proces pisania tekstu za pomocą alfabetu rosyjskiego można uznać za kodowanie, a czytanie go za dekodowanie.

Cele kodowania i metody kodowania

Kodowanie tej samej wiadomości może być różne. Na przykład jesteśmy przyzwyczajeni do pisania rosyjskiego tekstu za pomocą alfabetu rosyjskiego. Ale to samo można zrobić, używając alfabetu angielskiego. Czasami trzeba to zrobić, wysyłając SMS na telefon komórkowy, na którym nie ma rosyjskich liter, lub wysyłając e-mail po rosyjsku z zagranicy, jeśli na komputerze nie ma zrusyfikowanego oprogramowania. Na przykład zdanie: „Cześć, droga Sasza!” Muszę napisać tak: „Zdravstvui, droga Sasza!”.

Istnieją inne sposoby kodowania mowy. Na przykład, stenografia - szybki sposób na nagrywanie języka mówionego. Jej właścicielem jest tylko kilka specjalnie przeszkolonych osób - stenografów. Stenografowi udaje się zapisywać tekst synchronicznie z mową osoby mówiącej. W transkrypcji jedna ikona oznaczała całe słowo lub frazę. Tylko stenograf może odszyfrować (odszyfrować) transkrypcję.

Podane przykłady ilustrują następującą ważną zasadę: do zakodowania tych samych informacji można użyć różnych sposobów; ich wybór zależy od wielu czynników: cel kodowania, warunki, dostępne środki. Jeśli potrzebujesz zapisywać tekst w tempie mowy, używamy skrótu; w przypadku konieczności przeniesienia tekstu za granicę – posługujemy się alfabetem angielskim; jeśli konieczne jest przedstawienie tekstu w formie zrozumiałej dla piśmiennego Rosjanina, zapisujemy go zgodnie z zasadami gramatyki języka rosyjskiego.

Kolejna ważna okoliczność: wybór sposobu kodowania informacji może być związany z zamierzonym sposobem ich przetwarzania;. Pokażmy to na przykładzie reprezentacji liczb - informacja ilościowa. Używając alfabetu rosyjskiego, możesz wpisać liczbę „trzydzieści pięć”. Używając alfabetu arabskiego systemu liczb dziesiętnych piszemy: „35”. Druga metoda jest nie tylko krótsza niż pierwsza, ale także wygodniejsza do wykonywania obliczeń. Który wpis jest wygodniejszy do wykonywania obliczeń: „trzydzieści pięć razy sto dwadzieścia siedem” czy „35 x 127”? Oczywiście drugi.

Jeśli jednak ważne jest, aby zachować numer bez zniekształceń, lepiej napisać go w formie tekstowej. Na przykład w dokumentach pieniężnych kwota jest często zapisywana w formie tekstowej: „trzysta siedemdziesiąt pięć rubli”. zamiast „375 rubli”. W drugim przypadku zniekształcenie jednej cyfry zmieni całą wartość. Podczas korzystania z formy tekstowej nawet błędy gramatyczne mogą nie zmieniać znaczenia. Na przykład analfabeta napisał: „Trzysta siedemdziesiąt pięć rubli”. Jednak znaczenie zostało zachowane.

W niektórych przypadkach zachodzi potrzeba sklasyfikowania tekstu wiadomości lub dokumentu tak, aby nie mógł go przeczytać osoby, które nie powinny. Nazywa się to ochrona przed nieuprawnionym dostępem. W takim przypadku tajny tekst jest szyfrowany. W starożytności szyfrowanie nazywano kryptografią. Szyfrowanie to proces konwersji zwykłego tekstu na tekst zaszyfrowany, i deszyfrowanie- proces odwrotnej transformacji, w którym przywracany jest oryginalny tekst. Szyfrowanie to także kodowanie, ale tajną metodą znaną tylko źródłu i adresatowi. Metody szyfrowania zajmują się nauką zwaną kryptografia(cm . „Kryptografia” 2).

Historia technicznych sposobów kodowania informacji

Wraz z pojawieniem się technicznych środków przechowywania i przesyłania informacji pojawiły się nowe pomysły i techniki kodowania. Pierwszym technicznym sposobem przekazywania informacji na odległość był telegraf, wynaleziony w 1837 roku przez Amerykanina Samuela Morse'a. Wiadomość telegraficzna to sekwencja sygnałów elektrycznych przesyłanych z jednego aparatu telegraficznego przewodami do innego aparatu telegraficznego. Te okoliczności techniczne skłoniły S. Morse'a do pomysłu wykorzystania tylko dwóch rodzajów sygnałów – krótkiego i długiego – do kodowania wiadomości przesyłanej liniami telegraficznymi.

Samuel Finley Breeze Morse (1791-1872), USA

Ta metoda kodowania nazywana jest kodem Morse'a. W nim każda litera alfabetu jest zakodowana przez sekwencję krótkich sygnałów (kropek) i długich sygnałów (kresek). Litery są oddzielone od siebie pauzami - brakiem sygnałów.

Najbardziej znaną wiadomością telegraficzną jest sygnał SOS o niebezpieczeństwie ( S zdrowaśka O ur S dusze- Uratuj nasze dusze). Oto jak to wygląda w kodzie Morse'a zastosowanym do alfabetu angielskiego:

–––

Trzy kropki (litera S), trzy kreski (litera O), trzy kropki (litera S). Dwie pauzy oddzielają litery od siebie.

Rysunek przedstawia alfabet Morse'a w odniesieniu do alfabetu rosyjskiego. Nie było specjalnych znaków interpunkcyjnych. Zostały zapisane słowami: „kropka” - kropka, „spt” - przecinek itp.

Charakterystyczną cechą alfabetu Morse'a jest: kod o zmiennej długości różnych liter, więc alfabet Morse'a nazywa się nierówny kod. Litery, które występują w tekście częściej, mają krótszy kod niż litery rzadkie. Na przykład kod litery „E” to jedna kropka, a kod znaku pełnego składa się z sześciu znaków. Odbywa się to w celu skrócenia całej wiadomości. Jednak ze względu na zmienną długość kodu liter pojawia się problem oddzielania liter od siebie w tekście. Dlatego konieczne jest użycie pauzy (pominięcia) do separacji. Dlatego alfabet telegraficzny Morse'a jest trójargumentowy, ponieważ używa trzech znaków: kropki, myślnika, spacji.

Mundur kod telegraficzny został wynaleziony przez Francuza Jeana Maurice'a Baudota pod koniec XIX wieku. Używał tylko dwóch różnych rodzajów sygnałów. Nie ma znaczenia, jak je nazwiesz: kropka i kreska, plus i minus, zero i jeden. To są dwa różne sygnały elektryczne. Długość kodu wszystkich znaków jest taka sama i jest równy pięciu. W tym przypadku nie pojawia się problem oddzielenia liter od siebie: każde pięć sygnałów to znak tekstowy. Dlatego przepustka nie jest wymagana.

Jean Maurice Emile Baudot (1845-1903), Francja

Kod Baudota to pierwsza w historii technologii metoda kodowania informacji w postaci binarnej.. Dzięki temu pomysłowi udało się stworzyć aparat telegraficzny do druku bezpośredniego, który wygląda jak maszyna do pisania. Naciśnięcie klawisza z określoną literą generuje odpowiedni sygnał pięcioimpulsowy, który jest przesyłany linią komunikacyjną. Maszyna odbiorcza pod wpływem tego sygnału drukuje tę samą literę na taśmie papierowej.

Współczesne komputery używają również jednolitego kodu binarnego do kodowania tekstów (patrz „ Systemy kodowania tekstu” 2).

Tematykę kodowania informacji można przedstawić w programie nauczania na wszystkich etapach studiowania informatyki w szkole.

Na kursie propedeutycznym studentom często proponuje się zadania, które nie są związane z komputerowym kodowaniem danych i są w pewnym sensie formą gry. Na przykład w oparciu o tabelę kodu Morse'a można zaproponować zarówno zadania kodowania (kodowanie tekstu rosyjskiego alfabetem Morse'a), jak i zadania dekodowania (odszyfrowywanie tekstu zakodowanego alfabetem Morse'a).

Wykonanie takich zadań można interpretować jako pracę kryptografa, oferującego różne proste klucze szyfrujące. Na przykład alfanumeryczne, zastępując każdą literę jej liczbą porządkową w alfabecie. Dodatkowo do alfabetu należy dodać znaki interpunkcyjne i inne symbole w celu pełnego zakodowania tekstu. Poproś uczniów, aby wymyślili sposób na rozróżnienie małych i wielkich liter.

Podczas wykonywania takich zadań uczniowie powinni zwrócić uwagę na to, że wymagany jest znak oddzielający - spacja, ponieważ kod okazuje się być nierówny: niektóre litery są zaszyfrowane jedną cyfrą, inne dwiema.

Poproś uczniów, aby zastanowili się, jak sobie poradzić bez oddzielania liter w kodzie. Refleksje te powinny prowadzić do idei jednolitego kodu, w którym każdy znak jest zakodowany dwiema cyframi dziesiętnymi: A – 01, B – 02 itd.

Zbiory zadań do kodowania i szyfrowania informacji są dostępne w wielu podręcznikach dla szkoły.

W podstawowym kursie informatyki dla szkoły głównej temat kodowania jest bardziej związany z tematem przedstawiania różnych typów danych w komputerze: liczb, tekstów, obrazów, dźwięków (patrz „ Technologia informacyjna” 2).

W klasach starszych treści kształcenia ogólnego lub przedmiotu do wyboru mogą bardziej szczegółowo dotyczyć zagadnień związanych z teorią kodowania rozwiniętą przez K. Shannona w ramach teorii informacji. Tam istnieje cała linia ciekawe zadania, których zrozumienie wymaga podniesienia poziomu przygotowania matematycznego i programistycznego uczniów. Są to problemy kodowania ekonomicznego, uniwersalnego algorytmu kodowania, kodowania korekcji błędów. Wiele z tych zagadnień zostało szczegółowo omówionych w podręczniku „Matematyczne podstawy informatyki”.

7. Przetwarzanie informacji

Przetwarzanie danych - proces systematycznej zmiany treści lub formy prezentacji informacji.

Przetwarzanie informacji odbywa się zgodnie z określonymi zasadami przez jakiś podmiot lub przedmiot (na przykład osobę lub urządzenie automatyczne). Zadzwonimy do niego wykonawca przetwarzania informacji.

Wykonawca przetwarzania, wchodząc w interakcję ze środowiskiem zewnętrznym, otrzymuje od niego informacje wejściowe który jest przetwarzany. Wynikiem przetwarzania jest odcisk przekazywane do środowiska zewnętrznego. W ten sposób środowisko zewnętrzne działa jako źródło informacji wejściowych i konsument informacji wyjściowych.

Przetwarzanie informacji odbywa się według określonych reguł znanych wykonawcy. Reguły przetwarzania, które są opisem sekwencji poszczególnych kroków przetwarzania, nazywane są algorytmem przetwarzania informacji.

Wykonawca przetwarzania musi zawierać jednostkę przetwarzania, którą nazwiemy procesorem, oraz blok pamięci, w którym przechowywane są zarówno przetwarzane informacje, jak i reguły przetwarzania (algorytm). Wszystkie powyższe pokazano schematycznie na rysunku.

Schemat przetwarzania informacji

Przykład. Student, rozwiązując problem na lekcji, przeprowadza przetwarzanie informacji. Środowisko zewnętrzne to dla niego atmosfera lekcji. Informacja wejściowa to stan zadania, który jest zgłaszany przez nauczyciela prowadzącego lekcję. Student zapamiętuje stan problemu. Aby ułatwić zapamiętywanie, może korzystać z notatek w zeszycie – pamięci zewnętrznej. Z wyjaśnień nauczyciela poznał (zapamiętał) sposób rozwiązania problemu. Procesor jest aparatem umysłowym ucznia, za pomocą którego w celu rozwiązania problemu otrzymuje odpowiedź – informację wyjściową.

Schemat przedstawiony na rysunku jest ogólnym schematem przetwarzania informacji, który nie zależy od tego, kto (lub czym) jest wykonawcą przetwarzania: żywy organizm czy system techniczny. To jest wdrożony schemat środki techniczne w komputerze. Można zatem powiedzieć, że komputer jest technicznym modelem „żywego” systemu przetwarzania informacji. Obejmuje wszystkie główne elementy systemu przetwarzania: procesor, pamięć, urządzenia wejściowe, urządzenia wyjściowe (patrz „ Urządzenie komputerowe” 2).

Informacje wejściowe przedstawione w formie symbolicznej (znaki, litery, cyfry, sygnały) nazywa się dane wejściowe. W wyniku przetwarzania przez wykonawcę, wyjście. Dane wejściowe i wyjściowe mogą być zbiorem wartości – poszczególnych elementów danych. Jeżeli przetwarzanie polega na obliczeniach matematycznych, to dane wejściowe i wyjściowe są zbiorami liczb. Poniższy rysunek x: {x 1, x 2, …, xn) oznacza zbiór danych wejściowych, a Y: {tak 1, tak 2, …, ym) - zestaw danych wyjściowych:

Schemat przetwarzania danych

Przetwarzanie polega na przekształceniu zestawu x w tłum Y:

P( x) Y

Tutaj r oznacza zasady przetwarzania stosowane przez wykonawcę. Jeżeli wykonawcą przetwarzania informacji jest osoba, to zasady przetwarzania według których postępuje nie zawsze są formalne i jednoznaczne. Często człowiek działa twórczo, a nie formalnie. Nawet te same problemy matematyczne można rozwiązać na różne sposoby. Praca dziennikarza, naukowca, tłumacza i innych specjalistów to praca twórcza z informacją, że nie przestrzegają formalnych reguł.

Do wyznaczenia sformalizowanych reguł, które określają kolejność etapów przetwarzania informacji, informatyka wykorzystuje koncepcję algorytmu (patrz „ Algorytm" 2). Pojęcie algorytmu w matematyce wiąże się ze znaną metodą obliczania największego wspólnego dzielnika (NWD) dwóch liczb naturalnych, która nazywa się algorytmem Euklidesa. W formie słownej można to opisać w następujący sposób:

1. Jeśli dwie liczby są równe, weź ich wspólną wartość jako NWD, w przeciwnym razie przejdź do kroku 2.

2. Jeśli liczby są różne, zamień większą z nich na różnicę między większą a mniejszą z liczb. Wróć do kroku 1.

Tutaj dane wejściowe to dwie liczby naturalne - x 1 i x 2. Wynik Y jest ich największym wspólnym dzielnikiem. Reguła ( r) to algorytm Euklidesa:

Algorytm Euklidesa ( x 1, x 2) Y

Tak sformalizowany algorytm jest łatwy do zaprogramowania dla współczesnego komputera. Komputer jest uniwersalnym wykonawcą przetwarzania danych. Sformalizowany algorytm przetwarzania przedstawiony jest w postaci programu umieszczonego w pamięci komputera. W przypadku komputera reguły przetwarzania ( r) - Ten program.

Wytyczne

Wyjaśniając temat „Przetwarzanie informacji” należy podać przykłady przetwarzania, zarówno związanego z pozyskiwaniem nowych informacji, jak i związanego ze zmianą formy prezentacji informacji.

Pierwszy rodzaj przetwarzania: przetwarzanie związane z odbiorem Nowa informacja, nowa zawartość wiedzy. Ten rodzaj przetwarzania obejmuje rozwiązywanie problemów matematycznych. Ten sam rodzaj przetwarzania informacji obejmuje rozwiązywanie różnych problemów poprzez zastosowanie logicznego rozumowania. Na przykład śledczy na pewnym zestawie dowodów znajduje przestępcę; osoba, analizując okoliczności, podejmuje decyzję o swoich dalszych działaniach; naukowiec rozwiązuje zagadkę starożytnych rękopisów itp.

Drugi rodzaj przetwarzania: przetwarzanie związane ze zmianą formy, ale nie zmianą treści. Ten rodzaj przetwarzania informacji obejmuje na przykład tłumaczenie tekstu z jednego języka na inny: zmienia się forma, ale treść musi być zachowana. Ważnym rodzajem przetwarzania dla informatyki jest kodowanie. Kodowanie- ten przekształcanie informacji w symboliczną formę dogodną do jej przechowywania, przesyłania, przetwarzania(cm. " Kodowanie” 2).

Strukturyzację danych można również zaliczyć do drugiego rodzaju przetwarzania. Strukturyzacja wiąże się z wprowadzeniem pewnego porządku, pewnej organizacji w przechowywaniu informacji. Uporządkowanie danych w kolejności alfabetycznej, grupowanie według pewnych kryteriów klasyfikacji, użycie reprezentacji tabelarycznej lub graficznej to przykłady strukturyzacji.

Szczególnym rodzajem przetwarzania informacji jest: Szukaj. Zadanie wyszukiwania jest zwykle sformułowane w następujący sposób: istnieje pewne przechowywanie informacji - tablica informacyjna(książka telefoniczna, słownik, rozkład jazdy pociągów itp.), musisz znaleźć w niej niezbędne informacje, które spełniają pewne wyszukiwane hasła(numer telefonu tej organizacji, tłumaczenie tego słowa na język angielski, godzina odjazdu tego pociągu). Algorytm wyszukiwania zależy od sposobu organizacji informacji. Jeśli informacje są uporządkowane, wyszukiwanie jest szybsze, można je zoptymalizować (patrz „ Wyszukiwanie danych” 2).

Na kursie informatyki propedeutycznej popularne są problemy „czarnej skrzynki”. Wykonawca przetwarzania jest uważany za „czarną skrzynkę”, tj. system, którego wewnętrznej organizacji i mechanizmu nie znamy. Zadanie polega na odgadnięciu reguły przetwarzania danych (P), którą implementuje wykonawca.

Wykonawca przetwarzania oblicza średnią wartość wartości wejściowych: Y = (x 1 + x 2)/2

Na wejściu - słowo po rosyjsku, na wyjściu - liczba samogłosek.

Najgłębsze opanowanie zagadnień przetwarzania informacji pojawia się podczas studiowania algorytmów do pracy z wielkościami i programowania (w szkole podstawowej i średniej). Wykonawcą przetwarzania informacji jest w tym przypadku komputer, a wszystkie możliwości przetwarzania są osadzone w języku programowania. Programowanie jeść opis zasad przetwarzania danych wejściowych w celu uzyskania danych wyjściowych.

Uczniowie powinni otrzymać dwa rodzaje zadań:

Zadanie bezpośrednie: stworzyć algorytm (program) do rozwiązania problemu;

Problem odwrotny: dany algorytm wymaga określenia wyniku jego wykonania poprzez śledzenie algorytmu.

Rozwiązując problem odwrotny, uczeń stawia się w sytuacji realizatora przetwarzania, krok po kroku wykonując algorytm. Wyniki wykonania na każdym kroku powinny być odzwierciedlone w tabeli śledzenia.

8. Przekazywanie informacji

Elementy procesu przekazywania informacji

Przekazywanie informacji następuje od źródła do odbiorcy (odbiorcy) informacji. źródło informacja może być wszystkim: dowolnym przedmiotem lub zjawiskiem przyrody ożywionej lub nieożywionej. Proces przekazywania informacji odbywa się w pewnym materialnym środowisku oddzielającym źródło i odbiorcę informacji, co nazywa się kanał przekazywanie informacji. Informacje są przesyłane kanałem w postaci określonej sekwencji sygnałów, symboli, znaków, które nazywane są wiadomość. Odbiorca informacja to obiekt, który otrzymuje wiadomość, w wyniku której następują określone zmiany w jej stanie. Wszystkie powyższe pokazano schematycznie na rysunku.

Przekazywanie informacji

Człowiek otrzymuje informacje ze wszystkiego, co go otacza, poprzez zmysły: słuch, wzrok, węch, dotyk, smak. Najwięcej informacji człowiek otrzymuje przez słuch i wzrok. Komunikaty dźwiękowe odbierane są przez ucho - sygnały akustyczne w ciągłym medium (najczęściej w powietrzu). Wzrok odbiera sygnały świetlne, które niosą obraz przedmiotów.

Nie każda wiadomość ma charakter informacyjny dla osoby. Na przykład wiadomość w niezrozumiałym języku, chociaż przekazywana osobie, nie zawiera dla niej informacji i nie może powodować odpowiednich zmian w jej stanie (patrz „ Informacja").

Kanał informacyjny może mieć charakter naturalny (powietrze atmosferyczne, przez które przechodzą fale dźwiękowe, światło słoneczne odbite od obserwowanych obiektów) lub być sztucznie wytworzony. W tym drugim przypadku mówimy o technicznych środkach komunikacji.

Systemy transmisji informacji technicznych

Pierwszym technicznym sposobem przekazywania informacji na odległość był telegraf, wynaleziony w 1837 roku przez Amerykanina Samuela Morse'a. W 1876 roku Amerykanin A. Bell wynalazł telefon. Na podstawie odkrycia fal elektromagnetycznych przez niemieckiego fizyka Heinricha Hertza (1886), A.S. Popow w Rosji w 1895 i prawie równocześnie z nim w 1896 G. Marconi we Włoszech wynaleziono radio. Telewizja i Internet pojawiły się w XX wieku.

Wszystkie powyższe sposoby techniczne komunikacja informacyjna opiera się na transmisji sygnału fizycznego (elektrycznego lub elektromagnetycznego) na odległość i podlega pewnym ogólnym prawom. Badanie tych praw to: teoria komunikacji które pojawiły się w latach dwudziestych. Aparat matematyczny teorii komunikacji - matematyczna teoria komunikacji, opracowany przez amerykańskiego naukowca Claude'a Shannona.

Claude Elwood Shannon (1916–2001), USA

Claude Shannon zaproponował model procesu przekazywania informacji przez kanały komunikacji technicznej, reprezentowany przez diagram.

System przesyłania informacji technicznych

Kodowanie oznacza tu dowolne przekształcenie informacji pochodzącej ze źródła do postaci nadającej się do jej transmisji kanałem komunikacyjnym. Rozszyfrowanie - odwrotna transformacja sekwencji sygnałowej.

Działanie takiego schematu można wytłumaczyć znanym procesem rozmowy przez telefon. Źródłem informacji jest osoba mówiąca. Koder to mikrofon w słuchawce, który przekształca fale dźwiękowe (mowy) na sygnały elektryczne. Kanałem komunikacji jest sieć telefoniczna (przewody, przełączniki węzłów telefonicznych, przez które przechodzi sygnał). Urządzeniem dekodującym jest słuchawka (słuchawka) osoby słuchającej – odbiorcy informacji. Tutaj przychodzący sygnał elektryczny jest zamieniany na dźwięk.

Nowoczesny systemy komputerowe transmisja informacji - na tej samej zasadzie działają sieci komputerowe. Istnieje proces kodowania, który przekształca binarny kod komputerowy w sygnał fizyczny ten typ, który jest przesyłany przez kanał komunikacyjny. Dekodowanie to odwrotna transformacja przesyłanego sygnału na kod komputerowy. Na przykład podczas korzystania z linii telefonicznych w sieciach komputerowych funkcje kodowania i dekodowania wykonuje urządzenie zwane modemem.

Pojemność kanału i szybkość przesyłania informacji

Twórcy technicznych systemów transmisji informacji muszą rozwiązać dwa powiązane ze sobą zadania: jak zapewnić najwyższą prędkość przesyłania informacji oraz jak ograniczyć utratę informacji podczas transmisji. Claude Shannon był pierwszym naukowcem, który podjął się rozwiązania tych problemów i stworzył na tamte czasy nową naukę - teoria informacji.

K.Shannon określił metodę pomiaru ilości informacji przesyłanych kanałami komunikacyjnymi. Wprowadzili koncepcję przepustowość kanału,jako maksymalną możliwą szybkość przesyłania informacji. Ta prędkość jest mierzona w bitach na sekundę (a także kilobitach na sekundę, megabitach na sekundę).

Przepustowość kanału komunikacyjnego zależy od jego technicznej realizacji. Na przykład sieci komputerowe wykorzystują następujące środki komunikacji:

linie telefoniczne,

Podłączenie kabla elektrycznego,

okablowanie światłowodowe,

Komunikacja radiowa.

Przepustowość linii telefonicznych - dziesiątki, setki Kbps; przepustowość łączy światłowodowych i radiokomunikacyjnych mierzona jest w dziesiątkach i setkach Mb/s.

Hałas, ochrona przed hałasem

Termin „szum” odnosi się do różnego rodzaju zakłóceń, które zniekształcają przesyłany sygnał i prowadzą do utraty informacji. Takie zakłócenia występują przede wszystkim z przyczyn technicznych: słaba jakość linii komunikacyjnych, niepewność od siebie różnych przepływów informacji przesyłanych tymi samymi kanałami. Czasami podczas rozmowy telefonicznej słyszymy hałas, trzaski, które utrudniają zrozumienie rozmówcy, lub rozmowa zupełnie innych osób nakłada się na naszą rozmowę.

Obecność hałasu prowadzi do strat przesyłane informacje. W takich przypadkach konieczna jest ochrona przed hałasem.

Przede wszystkim stosowane są metody techniczne do ochrony kanałów komunikacyjnych przed skutkami hałasu. Na przykład użycie kabla ekranowanego zamiast gołego drutu; zastosowanie różnego rodzaju filtrów oddzielających sygnał użyteczny od szumu itp.

Claude Shannon rozwinął się teoria kodowania, który podaje metody radzenia sobie z hałasem. Jedną z ważnych idei tej teorii jest to, że kod przesyłany przez linię komunikacyjną musi być: zbędny. Dzięki temu można skompensować utratę części informacji podczas transmisji. Na przykład, jeśli jesteś słabo słyszalny podczas rozmowy telefonicznej, to powtarzając każde słowo dwa razy, masz większą szansę, że rozmówca zrozumie Cię poprawnie.

Nie można jednak sprawić, by nadmiarowość była zbyt duża. Doprowadzi to do opóźnień i wyższych kosztów komunikacji. Teoria kodowania pozwala uzyskać kod, który będzie optymalny. W takim przypadku redundancja przesyłanych informacji będzie minimalna, a wiarygodność odbieranych informacji maksymalna.

W nowoczesnych systemach komunikacji cyfrowej poniższa technika jest często używana do zwalczania utraty informacji podczas transmisji. Całość przekazu podzielona jest na części - pakiety. Dla każdego pakietu jest naliczana sprawdź sumę(suma cyfr binarnych), która jest przesyłana z tym pakietem. W miejscu odbioru suma kontrolna odebranego pakietu jest ponownie obliczana i jeśli nie zgadza się z sumą pierwotną, transmisja tego pakietu jest powtarzana. Będzie to trwało do momentu dopasowania początkowej i końcowej sumy kontrolnej.

Wytyczne

Rozważenie przekazywania informacji w zakresie propedeutycznym i kursy podstawowe Informatyka przede wszystkim należy omówić ten temat z pozycji osoby jako odbiorcy informacji. Umiejętność odbierania informacji z otaczającego świata jest najważniejszym warunkiem egzystencji człowieka. Ludzkie narządy zmysłów są kanałami informacyjnymi ludzkiego ciała, realizującymi połączenie osoby ze środowiskiem zewnętrznym. Na tej podstawie informacje dzieli się na wzrokowe, słuchowe, węchowe, dotykowe i smakowe. Uzasadnienie tego, że smak, zapach i dotyk niosą informacje dla człowieka, jest następujące: zapamiętujemy zapachy znajomych przedmiotów, smak znajomych potraw, rozpoznajemy znajome przedmioty dotykiem. A zawartość naszej pamięci to przechowywane informacje.

Należy powiedzieć uczniom, że w świecie zwierzęcym rola informacyjna zmysłów jest inna niż rola człowieka. Zmysł węchu pełni ważną funkcję informacyjną dla zwierząt. Podwyższony węch psów służbowych jest wykorzystywany przez organy ścigania do poszukiwania przestępców, wykrywania narkotyków itp. Wizualna i dźwiękowa percepcja zwierząt różni się od percepcji ludzi. Na przykład wiadomo, że nietoperze słyszą ultradźwięki, a koty widzą w ciemności (z perspektywy człowieka).

W ramach tego tematu studenci powinni umieć podać konkretne przykłady procesu przekazywania informacji, określić dla tych przykładów źródło, odbiorcę informacji oraz kanały wykorzystywane do przekazywania informacji.

Studiując informatykę w liceum należy zapoznać studentów z podstawowymi zapisami technicznej teorii komunikacji: pojęciami kodowania, dekodowania, szybkością przesyłania informacji, wydajność kanał, hałas, ochrona przed hałasem. Zagadnienia te można rozpatrywać w ramach tematu „Środki techniczne sieci komputerowych”.

9. Reprezentacja liczb

Liczby w matematyce

Liczba jest najważniejszym pojęciem matematyki, które ewoluowało i ewoluowało przez długi okres historii ludzkości. Ludzie pracowali z liczbami od czasów starożytnych. Początkowo człowiek operował tylko dodatnimi liczbami całkowitymi, które nazywamy liczbami naturalnymi: 1, 2, 3, 4,... Przez długi czas panowała opinia, że ​​jest ich największa liczba, „więcej niż to ludzki umysł może zrozumieć” (jak pisali w starosłowiańskich traktatach matematycznych).

Rozwój nauk matematycznych doprowadził do wniosku, że nie ma ich największej liczby. Z matematycznego punktu widzenia szereg liczb naturalnych jest nieskończony, tj. nie jest ograniczona. Wraz z pojawieniem się w matematyce pojęcia liczby ujemnej (R. Descartes, XVII wiek w Europie; znacznie wcześniej w Indiach) okazało się, że zbiór liczb całkowitych jest nieograniczony zarówno „lewo”, jak i „prawo”. Matematyczny zbiór liczb całkowitych jest dyskretny i nieograniczony (nieskończony).

Pojęcie liczby rzeczywistej (lub rzeczywistej) zostało wprowadzone do matematyki przez Izaaka Newtona w XVIII wieku. Z matematycznego punktu widzenia zbiór liczb rzeczywistych jest nieskończony i ciągły. Zawiera wiele liczb całkowitych i nieskończoną liczbę liczb niecałkowitych. Pomiędzy dowolnymi dwoma punktami na osi liczbowej znajduje się nieskończony zbiór liczb rzeczywistych. Pojęcie liczby rzeczywistej wiąże się z ideą ciągłej osi liczbowej, której dowolny punkt odpowiada liczbie rzeczywistej.

Reprezentacja liczb całkowitych

W pamięci komputera liczby są przechowywane w systemie liczb binarnych(cm. " Systemy liczbowe” 2). Istnieją dwie formy reprezentacji liczb całkowitych w komputerze: liczby całkowite bez znaku i liczby całkowite ze znakiem.

Liczby bez znaku - ten zbiór liczb dodatnich z zakresu, gdzie k- jest to głębia bitowa komórki pamięci przydzielonej dla numeru. Na przykład, jeśli komórka pamięci z 16 bitami (2 bajty) jest przydzielona dla liczby całkowitej, wówczas największą liczbą będzie:

Po przecinku odpowiada to: 2 16 - 1 \u003d 65 535

Jeśli wszystkie cyfry komórki są zerami, będzie to zero. Zatem 2 16 = 65 536 liczb całkowitych jest umieszczonych w 16-bitowej komórce.

Podpisane liczby całkowite jest zbiorem liczb dodatnich i ujemnych w zakresie[–2 k–1 , 2 k-jedenaście]. Na przykład, kiedy k= 16 liczb całkowitych zakres reprezentacji: [–32768, 32767]. Najwyższy rząd komórki pamięci przechowuje znak liczby: 0 - liczba dodatnia, 1 - liczba ujemna. Największa liczba dodatnia 32 767 ma następującą reprezentację:

Na przykład liczba dziesiętna 255 po przekształceniu na binarną i wstawieniu do 16-bitowej komórki pamięci będzie miała następującą wewnętrzną reprezentację:

Ujemne liczby całkowite są reprezentowane w uzupełnieniu do dwóch. Dodatkowy kod Liczba dodatnia n- ten jest jego binarną reprezentacją, która po dodaniu do kodu liczbowego n daje wartość 2 k. Tutaj k- liczba bitów w komórce pamięci. Na przykład dodatkowy kod dla numeru 255 to:

To jest reprezentacja liczby ujemnej -255. Dodajmy kody liczb 255 i -255:

Ten w najwyższym porządku „wypadł” z komórki, więc suma okazała się równa zero. Ale tak powinno być: n + (–n) = 0. Procesor komputera wykonuje operację odejmowania jako dodawania z dodatkowym kodem odejmowanej liczby. W takim przypadku przepełnienie komórki (przekroczenie wartości granicznych) nie powoduje przerwania wykonywania programu. Tę okoliczność programista musi znać i brać pod uwagę!

Format reprezentacji liczb rzeczywistych w komputerze nazywa się format zmiennoprzecinkowy. prawdziwy numer r reprezentowany jako produkt mantysy m na podstawie systemu liczbowego n do pewnego stopnia P, który nazywa się zamówieniem: r= m ? np.

Reprezentacja liczby w postaci zmiennoprzecinkowej jest niejednoznaczna. Na przykład dla liczby dziesiętnej 25.324 prawdziwe są następujące równości:

25,324 = 2,5324? 10 1 = 0,0025324? 10 4 \u003d 2532,4? 10 -2 itd.

Aby uniknąć niejasności, zgodziliśmy się na korzystanie z komputera znormalizowana reprezentacja liczby w postaci zmiennoprzecinkowej. Mantysa w znormalizowanej reprezentacji musi spełniać warunek: 0,1 nm < 1 n. Innymi słowy, mantysa jest mniejsza niż jeden, a pierwsza cyfra znacząca nie jest równa zero. W niektórych przypadkach warunek normalizacji przyjmuje się następująco: 1 n m < 10 n .

W pamięć komputera mantysa reprezentowana jako liczba całkowita zawierająca tylko cyfry znaczące(0 liczb całkowitych i przecinków nie są przechowywane). Dlatego wewnętrzna reprezentacja liczby rzeczywistej sprowadza się do reprezentacji pary liczb całkowitych: mantysy i wykładnika.

Stosowany w różnych typach komputerów różne opcje reprezentacje liczb w postaci zmiennoprzecinkowej. Rozważ jeden z wariantów wewnętrznej reprezentacji liczby rzeczywistej w czterobajtowej komórce pamięci.

Komórka musi zawierać następujące informacje o liczbie: znak liczby, wykładnik i cyfry znaczące mantysy.

Znak liczby jest przechowywany w najbardziej znaczącym bicie pierwszego bajtu: 0 oznacza plus, 1 oznacza minus. Pozostałe 7 bitów pierwszego bajtu zawiera zamówienie maszyny. Kolejne trzy bajty przechowują cyfry znaczące mantysy (24 bity).

Liczby binarne z zakresu od 0000000 do 1111111 umieszczone są w siedmiu cyfrach binarnych, co oznacza, że ​​kolejność maszyn waha się w zakresie od 0 do 127 (w systemie liczb dziesiętnych). Łącznie jest 128 wartości. Oczywiście kolejność może być dodatnia lub ujemna. Rozsądne jest podzielenie tych 128 wartości po równo pomiędzy wartościami rzędu dodatniego i ujemnego: od -64 do 63.

Zamówienie maszyny stronniczy w stosunku do matematycznego i ma tylko wartości dodatnie. Przesunięcie jest tak dobrane, aby minimalna matematyczna wartość zlecenia odpowiadała zeru.

Zależność między porządkiem maszynowym (Mp) a porządkiem matematycznym (p) w rozpatrywanym przypadku wyraża wzór: Mp = p + 64.

Wynikowa formuła jest zapisana w systemie dziesiętnym. Formuła binarna wygląda następująco: Mp 2 = p 2 + 100 0000 2 .

Aby napisać wewnętrzną reprezentację liczby rzeczywistej, musisz:

1) przełożyć moduł danej liczby na system liczb binarnych z 24 cyframi znaczącymi,

2) znormalizować liczbę binarną,

3) znaleźć kolejność maszyn w systemie binarnym,

4) biorąc pod uwagę znak liczby, wypisać jej reprezentację w czterobajtowym słowie maszynowym.

Przykład. Napisz wewnętrzną reprezentację liczby 250.1875 w formie zmiennoprzecinkowej.

1. Przetłumaczmy to na binarny system liczbowy z 24 cyframi znaczącymi:

250,1875 10 = 11111010,0011000000000000 2 .

2. Napiszmy w postaci znormalizowanej binarnej liczby zmiennoprzecinkowej:

0.111110100011000000000000 H 10 2 1000 .

Oto mantysa, podstawa systemu liczbowego
(2 10 \u003d 10 2) i kolejność (8 10 \u003d 1000 2) są zapisane binarnie.

3. Oblicz kolejność maszyn w systemie binarnym:

MP2 = 1000 + 100 0000 = 100 1000.

4. Zapiszmy reprezentację liczby w czterobajtowej komórce pamięci, biorąc pod uwagę znak liczby

Forma szesnastkowa: 48FA3000.

Zakres liczb rzeczywistych jest znacznie szerszy niż zakres liczb całkowitych. Liczby dodatnie i ujemne są ułożone symetrycznie wokół zera. Dlatego liczby maksymalna i minimalna są równe w wartości bezwzględnej.

Najmniejsza liczba bezwzględna to zero. Największa liczba zmiennoprzecinkowa w wartości bezwzględnej to liczba z największą mantysą i największym wykładnikiem.

Dla czterobajtowego słowa maszynowego ta liczba byłaby następująca:

0.11111111111111111111111 10 2 1111111 .

Po przeliczeniu na system liczb dziesiętnych otrzymujemy:

MAX = (1 - 2 -24) 2 63 10 19 .

Jeżeli podczas obliczania na liczbach rzeczywistych wynik jest poza dopuszczalnym zakresem, to wykonywanie programu zostaje przerwane. Dzieje się tak na przykład przy dzieleniu przez zero lub przez bardzo małą liczbę bliską zeru.

Liczby rzeczywiste, których długość bitowa mantysy przekracza liczbę bitów przydzielonych dla mantysy w komórce pamięci, są reprezentowane w komputerze w przybliżeniu (z „obciętą” mantysą). Na przykład wymierna liczba dziesiętna 0,1 w komputerze będzie reprezentowana w przybliżeniu (zaokrąglona), ponieważ w systemie dwójkowym mantysa ma nieskończoną liczbę cyfr. Konsekwencją tego przybliżenia jest błąd obliczeń maszynowych na liczbach rzeczywistych.

Komputer wykonuje obliczenia na liczbach rzeczywistych w przybliżeniu. Błąd takich obliczeń nazywa się błąd zaokrąglania maszyny.

Zbiór liczb rzeczywistych, które można dokładnie przedstawić w pamięci komputera w postaci zmiennoprzecinkowej, jest ograniczony i dyskretny. Dyskretność jest konsekwencją ograniczonej liczby cyfr mantysy, jak omówiono powyżej.

Liczbę liczb rzeczywistych, które można dokładnie przedstawić w pamięci komputera, można obliczyć za pomocą wzoru: n = 2 T · ( UL+ 1) + 1. Tutaj T- liczba cyfr binarnych mantysy; U- maksymalna wartość rzędu matematycznego; L- minimalna wartość zamówienia. Dla opcji reprezentacji rozważanej powyżej ( T = 24, U = 63,
L
= -64) okazuje się: n = 2 146 683 548.

Wytyczne

Temat przedstawiania informacji liczbowych w komputerze jest obecny zarówno w standardzie dla szkoły podstawowej, jak i dla liceum.

W szkole podstawowej (kurs podstawowy) wystarczy wziąć pod uwagę reprezentację liczb całkowitych w komputerze. Badanie tego zagadnienia jest możliwe dopiero po zapoznaniu się z tematem „Systemy liczbowe”. Ponadto z zasad architektury komputerowej studenci powinni mieć świadomość, że komputer działa z systemem liczb binarnych.

Rozważając reprezentację liczb całkowitych, główną uwagę należy zwrócić na ograniczony zakres liczb całkowitych, na powiązanie tego zakresu z pojemnością przydzielonej komórki pamięci - k. Dla liczb dodatnich (bez znaku): , dla liczb dodatnich i ujemnych (ze znakiem): [–2 k–1 , 2 k–1 – 1].

Uzyskanie wewnętrznej reprezentacji liczb należy przeanalizować przykładami. Następnie, przez analogię, uczniowie powinni samodzielnie rozwiązywać takie problemy.

Przykład 1 Uzyskaj podpisaną wewnętrzną reprezentację liczby całkowitej 1607 w dwubajtowej lokalizacji pamięci.

1) Przekształć liczbę na system binarny: 1607 10 = 11001000111 2 .

2) Dodając zera do 16 cyfr po lewej stronie, otrzymujemy wewnętrzną reprezentację tej liczby w komórce:

Pożądane jest pokazanie, w jaki sposób postać szesnastkowa jest używana do skompresowanej postaci tego kodu, który uzyskuje się przez zastąpienie czterech cyfr binarnych jedną cyfrą szesnastkową: 0647 (patrz „ Systemy liczbowe” 2).

Trudniejszy jest problem uzyskania wewnętrznej reprezentacji liczby całkowitej ujemnej (– n) - dodatkowy kod. Musisz pokazać uczniom algorytm tej procedury:

1) uzyskaj wewnętrzną reprezentację liczby dodatniej n;

2) uzyskać kod zwrotny tego numeru, zastępując 0 na 1 i 1 na 0;

3) dodaj 1 do otrzymanej liczby.

Przykład 2. Uzyskaj wewnętrzną reprezentację ujemnej liczby całkowitej -1607 w dwubajtowej lokalizacji pamięci.

Warto pokazać uczniom, jak wygląda wewnętrzna reprezentacja najmniejszej liczby ujemnej. W komórce dwubajtowej jest to -32 768.

1) łatwo jest przekonwertować liczbę 32 768 na system liczb binarnych, ponieważ 32 768 = 2 15. Dlatego w wersji binarnej jest to:

1000000000000000

2) wpisać kod odwrotny:

0111111111111111

3) dodać jeden do tej liczby binarnej, otrzymujemy

Ten w pierwszym bicie oznacza znak minus. Nie musisz myśleć, że otrzymany kod to minus zero. To jest -32 768 w formie uzupełnienia do dwóch. Są to zasady reprezentacji maszynowej liczb całkowitych.

Po pokazaniu tego przykładu niech uczniowie sami udowodnią, że dodanie kodów liczbowych 32767 + (-32768) daje kod liczbowy -1.

Zgodnie ze standardem reprezentację liczb rzeczywistych należy uczyć się w szkole średniej. Studiując informatykę w klasach 10-11 na poziomie podstawowym, wystarczy opowiedzieć uczniom o głównych cechach komputera z liczbami rzeczywistymi: o ograniczonym zakresie i przerywaniu programu, gdy go przekroczy; o błędzie obliczeń maszynowych na liczbach rzeczywistych, że komputer wykonuje obliczenia na liczbach rzeczywistych wolniej niż na liczbach całkowitych.

Nauka na poziomie profilu wymaga szczegółowej analizy sposobu przedstawiania liczb rzeczywistych w formacie zmiennoprzecinkowym, analizy możliwości wykonywania obliczeń na komputerze z liczbami rzeczywistymi. Bardzo ważnym problemem jest tu oszacowanie błędu obliczeniowego, ostrzeżenie przed utratą wartości, przed przerwaniem programu. Szczegółowy materiał na te tematy dostępny jest w podręczniku szkoleniowym.

10. System liczbowy

System liczbowy - jest to sposób przedstawiania liczb i odpowiadające mu zasady operowania na liczbach. Różne systemy liczbowe, które istniały wcześniej i są używane dzisiaj, można podzielić na: niepozycyjny I pozycyjny. Znaki używane podczas pisania liczb, są nazywane liczby.

W niepozycyjne systemy liczbowe wartość cyfry nie zależy od jej pozycji w liczbie.

Przykładem niepozycyjnego systemu liczbowego jest system rzymski (liczby rzymskie). W systemie rzymskim litery łacińskie są używane jako liczby:

Przykład 1. Liczba CCXXXII składa się z dwustu trzech dziesiątek i dwóch jednostek i jest równa dwustu trzydziestu dwóm.

Cyfry rzymskie są pisane od lewej do prawej w kolejności malejącej. W takim przypadku ich wartości są dodawane. Jeśli po lewej stronie jest napisana mniejsza liczba, a po prawej duża, to ich wartości są odejmowane.

VI = 5 + 1 = 6; IV \u003d 5 - 1 \u003d 4.

MCMXCVIII = 1000 + (-100 + 1000) +

+ (–10 + 100) + 5 + 1 + 1 + 1 = 1998.

W systemy liczb pozycyjnych wartość oznaczona cyfrą we wpisie liczby zależy od jej pozycji. Liczba użytych cyfr nazywana jest podstawą systemu liczb pozycyjnych.

System liczbowy używany we współczesnej matematyce to pozycyjny system dziesiętny. Jego podstawa to dziesięć, ponieważ Wszelkie liczby są zapisywane przy użyciu dziesięciu cyfr:

0, 1, 2, 3, 4, 5, 6, 7, 8, 9.

Pozycyjny charakter tego systemu jest łatwy do zrozumienia na przykładzie dowolnej liczby wielocyfrowej. Na przykład w liczbie 333 pierwsza trójka oznacza trzysta, druga - trzy dziesiątki, trzecia - trzy jednostki.

Aby zapisywać liczby w systemie pozycyjnym z podstawą n Muszę mieć alfabet od n cyfry. Zwykle do tego n < 10 используют n pierwsze cyfry arabskie i n> 10 liter dodaje się do dziesięciu cyfr arabskich. Oto przykłady alfabetów z kilku systemów:

Jeżeli wymagane jest wskazanie bazy systemu, do którego należy numer, to do tego numeru przypisywany jest indeks dolny. Na przykład:

1011012, 36718, 3B8F16.

W systemie liczb podstawowych Q (Q-arylny system liczbowy) jednostkami cyfr są kolejne potęgi liczby Q. Q jednostki dowolnej kategorii tworzą jednostkę następnej kategorii. Aby napisać liczbę do Q-wymagany -ary system liczbowy Q różne znaki (liczby) reprezentujące liczby 0, 1, ..., Q– 1. Pisanie liczby Q w Q-ary system liczbowy ma postać 10.

Rozszerzona forma wpisywania liczby

Zostawiać Aq- numer w systemie bazowym Q, ai- cyfry danego systemu liczbowego występujące w zapisie liczby A, n+ 1 - liczba cyfr części całkowitej liczby, m- liczba cyfr części ułamkowej liczby:

Rozszerzona forma liczby ALE nazywa się rekordem w postaci:

Na przykład dla liczby dziesiętnej:

Poniższe przykłady pokazują rozwiniętą formę liczb szesnastkowych i binarnych:

W dowolnym systemie liczbowym jego podstawa jest zapisana jako 10.

Jeżeli wszystkie wyrazy w rozwiniętej postaci liczby niedziesiętnej zostaną przedstawione w systemie dziesiętnym, a wynikowe wyrażenie zostanie obliczone zgodnie z zasadami arytmetyki dziesiętnej, to otrzymamy liczbę w systemie dziesiętnym równą podanej. Zgodnie z tą zasadą dokonywana jest konwersja z systemu niedziesiętnego na dziesiętny. Na przykład konwersja do systemu dziesiętnego liczb zapisanych powyżej odbywa się w następujący sposób:

Konwersja liczb dziesiętnych na inne systemy liczbowe

Tłumaczenie liczb całkowitych

liczba całkowita liczba dziesiętna x należy przenieść na system z bazą Q: x = (a n a n-1 a 1 a 0) q . Znajdź znaczące cyfry liczby: . Przedstawmy liczbę w rozwiniętej formie i wykonajmy identyczną transformację:

Stąd jest jasne, że a 0 to reszta po podzieleniu liczby x za liczbę Q. Wyrażenie w nawiasach jest ilorazem całkowitym tego dzielenia. Oznaczmy to jako x 1. Wykonując podobne przekształcenia, otrzymujemy:

W konsekwencji, a 1 to pozostała część podziału x 1 dnia Q. Kontynuując dzielenie z resztą, otrzymamy ciąg cyfr żądanej liczby. Numer jakiś w tym łańcuchu dywizji będzie ostatni prywatny, mniejszy Q.

Sformułujmy wynikową regułę: za to aby przekonwertować liczbę dziesiętną na system liczbowy o innej podstawie, potrzebujesz:

1) wyrazić podstawę nowego systemu liczbowego w systemie liczb dziesiętnych i wykonać wszystkie kolejne czynności zgodnie z zasadami arytmetyki dziesiętnej;

2) sekwencyjnie podzielić podaną liczbę i wynikające z niej ilorazy cząstkowe przez podstawę nowego systemu liczbowego, aż otrzymamy niepełny iloraz mniejszy niż dzielnik;

3) powstałe reszty, które są cyframi liczby w nowy system rachunek różniczkowy, dostosuj go do alfabetu nowego systemu liczbowego;

4) ułożyć numer w nowym systemie liczbowym, zapisując go od ostatniego numeru prywatnego.

Przykład 1. Przekształć liczbę 37 10 na system binarny.

Aby oznaczyć liczby w zapisie liczby, używamy symboliki: a 5 a 4 a 3 a 2 a 1 a 0

Stąd: 37 10 = l00l0l 2

Przykład 2. Przekształć liczbę dziesiętną 315 na system ósemkowy i szesnastkowy:

Wynika stąd: 315 10 = 473 8 = 13B 16. Przypomnijmy, że 11 10 = B 16 .

Dziesiętny x < 1 требуется перевести в систему с основанием Q: x = (0, a –1 a –2 … a–m+1 a–m) q . Znajdź znaczące cyfry liczby: a –1 ,a –2 , …, a-m. Reprezentujemy liczbę w rozwiniętej formie i mnożymy ją przez Q:

Stąd jest jasne, że a–1 x za liczbę Q. Oznacz przez x 1 część ułamkowa produktów i pomnóż przez Q:

W konsekwencji, a –2 jest cała część pracy x 1 na numer Q. Kontynuując mnożenie, otrzymamy ciąg cyfr. Teraz sformułujmy regułę: aby zamienić ułamek dziesiętny na system liczbowy o innej podstawie, potrzebujesz:

1) mnożyć kolejno podaną liczbę i wynikające z niej części ułamkowe iloczynów przez podstawę nowego układu, aż część ułamkowa iloczynu stanie się równa zeru lub zostanie osiągnięta wymagana dokładność reprezentacji liczby w nowym układzie liczbowym;

2) wynikające z nich części całkowite produktów, będące cyframi numeru w nowym systemie liczbowym, dostosowują je do alfabetu nowego systemu liczbowego;

3) uzupełnić część ułamkową liczby w nowym systemie liczbowym, zaczynając od części całkowitej pierwszego iloczynu.

Przykład 3. Konwersja dziesiętnej 0,1875 na binarną, ósemkową i szesnastkową.

Tutaj część całkowita liczb znajduje się w lewej kolumnie, a część ułamkowa znajduje się w prawej kolumnie.

Stąd: 0,1875 10 = 0,0011 2 = 0,14 8 = 0,3 16

Tłumaczenie liczb mieszanych zawierających części całkowite i ułamkowe odbywa się w dwóch etapach. Części całkowite i ułamkowe oryginalnej liczby są tłumaczone osobno zgodnie z odpowiednimi algorytmami. W końcowym rekordzie liczby w nowym systemie liczbowym część całkowita jest oddzielana od przecinka ułamkowego (kropki).

Wytyczne

Temat „Systemy liczbowe” jest bezpośrednio związany z matematyczną teorią liczb. Jednak w szkolnym toku matematyki z reguły się nie uczy. Konieczność studiowania tego tematu na kursie informatyki wiąże się z faktem, że liczby w pamięci komputera są reprezentowane w systemie liczb binarnych, a systemy szesnastkowe lub ósemkowe służą do zewnętrznego przedstawiania zawartości pamięci, adresów pamięci. Jest to jeden z tradycyjnych tematów kursu informatyki lub programowania. Ten temat, związany z matematyką, przyczynia się również do podstawowej edukacji matematycznej dzieci w wieku szkolnym.

W przypadku kursu informatyki głównym przedmiotem zainteresowania jest znajomość systemu liczb binarnych. Wykorzystanie systemu liczb binarnych w komputerze można rozpatrywać w dwóch aspektach: 1) numeracja binarna, 2) arytmetyka binarna, tj. wykonywanie obliczeń arytmetycznych na liczbach binarnych.

Numeracja binarna

Z numeracją binarną uczniowie spotykają się w temacie „Reprezentowanie tekstu w pamięci komputera”. Mówiąc o tablicy kodowania, nauczyciel musi poinformować uczniów, że wewnętrznym kodem binarnym znaku jest jego numer seryjny w binarnym systemie liczbowym. Na przykład liczba litery S w tabeli ASCII wynosi 83. Ośmiocyfrowy kod binarny litery S jest równy wartości tej liczby w systemie binarnym: 01010011.

Obliczenia binarne

Zgodnie z zasadą Johna von Neumanna komputer wykonuje obliczenia w systemie binarnym. W ramach kursu podstawowego wystarczy ograniczyć się do rozważenia obliczeń z binarnymi liczbami całkowitymi. Aby wykonać obliczenia na liczbach wielocyfrowych, musisz znać zasady dodawania i zasady mnożenia liczb jednocyfrowych. Oto zasady:

Zasada permutacji dodawania i mnożenia działa we wszystkich systemach liczbowych. Techniki wykonywania obliczeń na liczbach wielocyfrowych w systemie dwójkowym są podobne do dziesiętnych. Innymi słowy, procedury dodawania, odejmowania i mnożenia przez „kolumnę” i dzielenia przez „róg” w systemie dwójkowym są wykonywane w taki sam sposób, jak w systemie dziesiętnym.

Rozważ zasady odejmowania i dzielenia liczb binarnych. Operacja odejmowania jest odwrotnością dodawania. Z powyższej tabeli dodawania obowiązują zasady odejmowania:

0 - 0 = 0; 1 - 0 = 1; 10 - 1 = 1.

Oto przykład odejmowania wielocyfrowego:

Otrzymany wynik można sprawdzić, dodając różnicę z odliczeniem. Powinna to być liczba malejąca.

Dzielenie to odwrotna operacja mnożenia.
W dowolnym systemie liczbowym nie można dzielić przez 0. Wynik dzielenia przez 1 jest równy dywidendzie. Dzielenie liczby binarnej przez 102 przesuwa kropkę dziesiętną o jedno miejsce w lewo, podobnie jak dzielenie dziesiętne przez dziesięć. Na przykład:

Dzielenie przez 100 przesuwa punkt dziesiętny o 2 miejsca w lewo i tak dalej. W podstawowym kursie nie można rozważać skomplikowanych przykładów dzielenia liczb binarnych wielowartościowych. Chociaż zdolni uczniowie mogą sobie z nimi poradzić, rozumiejąc ogólne zasady.

Reprezentacja informacji przechowywanych w pamięci komputera w postaci binarnej jest bardzo kłopotliwa ze względu na dużą liczbę cyfr. Odnosi się to do zapisywania takich informacji na papierze lub wyświetlania ich na ekranie. Do tych celów zwyczajowo używa się mieszanych systemów binarno-ósemkowych lub binarno-szesnastkowych.

Istnieje prosta zależność między binarną i szesnastkową reprezentacją liczby. Podczas tłumaczenia liczby z jednego systemu na drugi jedna cyfra szesnastkowa odpowiada czterobitowemu kodowi binarnemu. Ta korespondencja jest odzwierciedlona w tabeli binarno-szesnastkowej:

Binarna tabela szesnastkowa

Taka zależność opiera się na fakcie, że 16 = 2 4 a liczba różnych czterocyfrowych kombinacji cyfr 0 i 1 wynosi 16: od 0000 do 1111. Dlatego konwersja liczb z szesnastkowych na binarne i odwrotnie odbywa się poprzez konwersję formalną według tabeli binarno-szesnastkowej.

Oto przykład tłumaczenia 32-bitowego kodu binarnego na system szesnastkowy:

1011 1100 0001 0110 1011 1111 0010 1010 BC16BF2A

Jeśli podana jest szesnastkowa reprezentacja informacji wewnętrznej, łatwo jest ją przetłumaczyć na kod binarny. Zaletą reprezentacji szesnastkowej jest to, że jest ona 4 razy krótsza niż binarna. Pożądane jest, aby uczniowie zapamiętali tabelę binarno-szesnastkową. Wtedy rzeczywiście dla nich reprezentacja szesnastkowa stanie się równoważna z binarną.

W systemie binarnym ósemkowym każda cyfra ósemkowa odpowiada triadzie cyfr binarnych. System ten pozwala zredukować kod binarny 3 razy.

11. Przechowywanie informacji

Osoba przechowuje informacje we własnej pamięci, a także w postaci zapisów na różnych zewnętrznych (w stosunku do osoby) nośnikach: na kamieniu, papirusie, papierze, nośnikach magnetycznych, optycznych itp. Dzięki takim zapisom informacja jest przekazywane nie tylko w przestrzeni (od człowieka do człowieka), ale także w czasie – z pokolenia na pokolenie.

Różnorodność nośników pamięci

Informacje mogą być przechowywane w różne rodzaje: w formie tekstów, w postaci rycin, diagramów, rysunków; w postaci fotografii, w postaci nagrań dźwiękowych, w postaci filmów lub nagrań wideo. W każdym przypadku wykorzystywane są ich nośniki. Nośnik - ten nośnik materialny używany do rejestrowania i przechowywania informacji.

Główne cechy nośników informacji to: objętość informacji lub gęstość przechowywania informacji, niezawodność (trwałość) przechowywania.

Nośniki papierowe

Nośnik o najbardziej masowym użyciu nadal jest papier. Wynaleziony w II wieku naszej ery. w Chinach papier służy ludziom od 19 wieków.

Do porównania ilości informacji na różnych nośnikach użyjemy jednostki uniwersalnej - bajt, zakładając, że jeden znak w tekście „waży” 1 bajt. Książka zawierająca 300 stron, z rozmiarem tekstu około 2000 znaków na stronę, ma objętość informacji 600 000 bajtów, czyli 586 KB. Objętość informacyjna biblioteki gimnazjum, której zasobem jest 5000 woluminów, wynosi w przybliżeniu 2861 MB = 2,8 GB.

Jeśli chodzi o trwałość przechowywania dokumentów, książek i innych wyrobów papierniczych, to w dużej mierze zależy ona od jakości papieru, barwników użytych do pisania tekstu oraz warunków przechowywania. Co ciekawe, aż do połowy XIX wieku (od tego czasu drewno zaczęto wykorzystywać jako surowiec papierniczy) papier wytwarzano z bawełny i odpadów tekstylnych - szmat. Atramenty były naturalnymi barwnikami. Jakość ręcznie pisanych dokumentów z tamtych czasów była dość wysoka i mogły być przechowywane przez tysiące lat. Wraz z przejściem na bazę drewnianą, upowszechnieniem się maszyn do pisania i kopiowania, z użyciem barwników syntetycznych, trwałość drukowanych dokumentów zmniejszyła się do 200-300 lat.

Nośniki magnetyczne

Zapis magnetyczny został wynaleziony w XIX wieku. Początkowo zapis magnetyczny służył jedynie do zachowania dźwięku. Pierwszym magnetycznym nośnikiem zapisu był drut stalowy o średnicy do 1 mm. Na początku XX wieku do tych celów wykorzystywana była również rolowana taśma stalowa. Cechy jakościowe wszystkich tych nośników były bardzo niskie. Wykonanie 14-godzinnego zapisu magnetycznego wystąpień ustnych na Międzynarodowym Kongresie w Kopenhadze w 1908 roku wymagało 2500 km, czyli około 100 kg drutu.

W latach dwudziestych pojawiły się taśma magnetyczna najpierw na papierze, a później na bazie syntetycznej (lavsan), na której powierzchnię nakłada się cienką warstwę proszku ferromagnetycznego. W drugiej połowie XX wieku nauczyli się rejestrować obraz na taśmie magnetycznej, pojawiły się kamery wideo i magnetowidy.

W komputerach pierwszej i drugiej generacji taśma magnetyczna była jedynym rodzajem nośnika wymiennego dla zewnętrznych urządzeń pamięci. Około 500 Kb informacji zostało umieszczonych na jednej szpuli taśmy magnetycznej, która była używana w napędach taśmowych pierwszych komputerów.

Od wczesnych lat 60. komputer dyski magnetyczne: aluminiowy lub plastikowy dysk pokryty cienką warstwą proszku magnetycznego o grubości kilku mikronów. Informacje na dysku są ułożone wzdłuż koncentrycznych torów kołowych. Dyski magnetyczne są twarde i elastyczne, wymienne i wbudowane w napęd komputera. Te ostatnie są tradycyjnie nazywane dyskami twardymi, a dyskietki wymienne nazywane są dyskietkami.

Dysk twardy komputera jest pakiet dysków magnetycznych umieszczonych na wspólnej osi. Pojemność informacyjna nowoczesnych dysków twardych jest mierzona w gigabajtach - dziesiątkach i setkach GB. Najpopularniejszy typ dyskietki o średnicy 3,5 cala mieści 2 MB danych. Dyskietki ostatnio wypadły z użycia.

Karty plastikowe stały się powszechne w systemie bankowym. Wykorzystują również magnetyczną zasadę zapisu informacji, z którą działają bankomaty, kasy fiskalne związane z systemem bankowości informacyjnej.

Nośniki optyczne

Wykorzystanie optycznej lub laserowej metody zapisu informacji rozpoczyna się w latach 80. XX wieku. Jego pojawienie się wiąże się z wynalezieniem generatora kwantowego – lasera, źródła bardzo cienkiej (grubość rzędu mikrona) wiązki o wysokiej energii. Wiązka jest w stanie wypalić binarny kod danych o bardzo dużej gęstości na powierzchni materiału topliwego. Odczyt następuje w wyniku odbicia od takiej „perforowanej” powierzchni wiązki laserowej o mniejszej energii (wiązka „zimna”). Ze względu na dużą gęstość zapisu dyski optyczne mają znacznie większą objętość informacji niż jednodyskowe nośniki magnetyczne. Pojemność informacyjna dysku optycznego wynosi od 190 do 700 MB. Dyski optyczne nazywane są dyskami CD.

W drugiej połowie lat 90. pojawiły się cyfrowe uniwersalne dyski wideo (DVD). D cyfrowy V wszechstronna D isk) o dużej pojemności, mierzonej w gigabajtach (do 17 GB). Wzrost ich pojemności w stosunku do płyt CD wynika z zastosowania wiązki laserowej o mniejszej średnicy oraz zapisu dwuwarstwowego i dwustronnego. Wróćmy do przykładu z biblioteki szkolnej. Cały jej fundusz książkowy można umieścić na jednej płycie DVD.

Obecnie najpewniejszymi nośnikami materialnymi informacji zapisanych cyfrowo są dyski optyczne (CD - DVD). Te typy nośników mogą być jednokrotnego zapisu – tylko do odczytu lub wielokrotnego zapisu – do odczytu i zapisu.

Pamięć flash

Ostatnio pojawiło się wiele mobilnych urządzeń cyfrowych: aparaty cyfrowe i kamery wideo, odtwarzacze MP3, PDA, telefony komórkowe, czytniki e-booków, nawigatory GPS i wiele innych. Wszystkie te urządzenia wymagają przenośnych nośników pamięci. Ale ponieważ wszystkie urządzenia mobilne są dość miniaturowe, mają również specjalne wymagania dotyczące nośników pamięci. Muszą być kompaktowe, charakteryzować się niskim zużyciem energii podczas pracy i nieulotnymi podczas przechowywania, mieć dużą pojemność, dużą prędkość zapisu i odczytu oraz długą żywotność. Wszystkie te wymagania są spełnione fiszki pamięć. Objętość informacji na karcie flash może wynosić kilka gigabajtów.

Jako zewnętrzne medium dla komputera, breloki flash („dyski flash” - są potocznie nazywane), których wydanie rozpoczęło się w 2001 roku, stały się powszechne. Duża ilość informacji, kompaktowość, duża szybkość odczytu-zapisu, łatwość obsługi to główne zalety tych urządzeń. Brelok flash podłącza się do portu USB komputera i umożliwia pobieranie danych z prędkością około 10 Mb na sekundę.

„Nanonośniki”

W ostatnich latach aktywnie prowadzone są prace nad stworzeniem jeszcze bardziej zwartych nośników informacji z wykorzystaniem tzw. „nanotechnologii”, pracujących na poziomie atomów i molekuł materii. W rezultacie jedna płyta CD wykonana przy użyciu nanotechnologii może zastąpić tysiące dysków laserowych. Zdaniem ekspertów za około 20 lat gęstość przechowywania informacji wzrośnie do tego stopnia, że ​​każdą sekundę ludzkiego życia można będzie zapisać na nośniku o objętości około centymetra sześciennego.

Organizacja magazynów informacji

Informacje są przechowywane na nośnikach w celu ich przeglądania, wyszukiwania potrzebnych informacji, wymagane dokumenty, uzupełniaj i zmieniaj, usuwaj dane, które straciły na aktualności. Innymi słowy, przechowywane informacje są potrzebne osobie do pracy z nimi. Wygoda pracy z takimi repozytoriami informacji w dużym stopniu zależy od sposobu organizacji informacji.

Możliwe są dwie sytuacje: albo dane nie są w żaden sposób zorganizowane (taka sytuacja jest czasami nazywana stertą), albo dane zbudowany. Wraz ze wzrostem ilości informacji opcja „kupy” staje się coraz bardziej nie do przyjęcia ze względu na złożoność jej praktycznego wykorzystania (wyszukiwanie, aktualizacja itp.).

Słowa „dane są ustrukturyzowane” oznaczają obecność pewnego porządku danych w ich przechowywaniu: w słowniku, harmonogramie, archiwum, komputerowej bazie danych. Informatory, słowniki, encyklopedie zwykle wykorzystują liniową alfabetyczną zasadę porządkowania (strukturyzowania) danych.

Biblioteki to największe repozytorium informacji. Wzmianki o pierwszych bibliotekach pochodzą z VII wieku p.n.e. Wraz z wynalezieniem druku w XV wieku biblioteki zaczęły się rozprzestrzeniać na cały świat. Bibliotekoznawstwo ma wielowiekowe doświadczenie w porządkowaniu informacji.

Do organizowania i wyszukiwania książek w bibliotekach tworzone są katalogi: wykazy księgozbioru. Pierwszy katalog biblioteczny powstał w słynnej Bibliotece Aleksandryjskiej w III wieku p.n.e. Za pomocą katalogu czytelnik określa dostępność potrzebnej mu książki w bibliotece, a bibliotekarz odnajduje ją w depozycie książek. W przypadku technologii papierowej katalog to uporządkowany zestaw kartonowych kart z informacjami o książkach.

Istnieją katalogi alfabetyczne i systematyczne. W alfabetyczny katalogi, karty ułożone są w kolejności alfabetycznej nazwisk autorów i formy liniowy(jednopoziomowy)struktura danych. W systematyczny karty katalogowe są usystematyzowane zgodnie z treścią ksiąg i formą hierarchiczna struktura danych. Na przykład wszystkie książki są podzielone na artystyczne, edukacyjne, naukowe. Literatura edukacyjna dzieli się na szkołę i uniwersytet. Książki do szkoły podzielone są na klasy itp.

W nowoczesnych bibliotekach katalogi papierowe wypierane są przez elektroniczne. W takim przypadku wyszukiwanie książek odbywa się automatycznie przez system informatyczny biblioteki.

Dane przechowywane na nośnikach komputerowych (dyskach) mają organizację plików. Plik jest jak książka w bibliotece. Podobnie jak katalog biblioteki, system operacyjny tworzy katalog na dysku, który jest przechowywany na dedykowanych ścieżkach. Użytkownik wyszukuje żądany plik, przeglądając katalog, po czym system operacyjny znajduje ten plik na dysku i udostępnia go użytkownikowi. Pierwsze nośniki dyskowe o małej pojemności wykorzystywały jednopoziomową strukturę przechowywania plików. Wraz z nadejściem dyski twarde zaczęto używać dużej objętości struktura hierarchiczna organizacja plików. Wraz z koncepcją „pliku” pojawiła się koncepcja folderu (patrz „ Pliki i system plików” 2).

Więcej elastyczny system organizacje zajmujące się przechowywaniem i wyszukiwaniem danych to komputerowe bazy danych (patrz . Baza danych” 2).

Niezawodność przechowywania informacji

Problem niezawodności przechowywania informacji wiąże się z dwoma rodzajami zagrożeń dla przechowywanych informacji: zniszczeniem (utratą) informacji oraz kradzieżą lub wyciekiem informacji poufnych. Archiwa papierowe i biblioteki zawsze były zagrożone fizyczną zagładą. Wspomniane zniszczenie Biblioteki Aleksandryjskiej w I wieku p.n.e. przyniosło wielkie szkody cywilizacji, gdyż większość znajdujących się w niej ksiąg istniała w jednym egzemplarzu.

Głównym sposobem ochrony informacji w dokumentach papierowych przed utratą jest ich powielanie. Wykorzystanie mediów elektronicznych sprawia, że ​​powielanie jest łatwiejsze i tańsze. Jednak przejście na nowe (cyfrowe) technologie informacyjne stworzyło nowe problemy bezpieczeństwa informacji. Zobacz artykuł „ Ochrona danych” 2.

W trakcie studiowania na kierunku informatyka studenci nabywają pewną wiedzę i umiejętności związane z przechowywaniem informacji.

Studenci uczą się pracy z tradycyjnymi (papierowymi) źródłami informacji. Norma dla szkoły podstawowej wskazuje, że uczniowie muszą nauczyć się pracować z niekomputerowymi źródłami informacji: informatorami, słownikami, katalogami bibliotecznymi. W tym celu należy zapoznać się z zasadami porządkowania tych źródeł i metodami wyszukiwania w nich optymalnych. Ponieważ ta wiedza i umiejętności mają ogromne znaczenie ogólnokształcące, pożądane jest jak najwcześniejsze przekazanie ich uczniom. W niektórych programach kursu informatyki propedeutycznej poświęca się temu zagadnieniu wiele uwagi.

Studenci muszą opanować techniki pracy z wymiennymi komputerowymi nośnikami danych. W ostatnich latach coraz rzadziej stosowane są dyskietki magnetyczne, które zostały zastąpione pojemnymi i szybkimi nośnikami flash. Studenci powinni być w stanie określić pojemność informacyjną mediów, objętość wolna przestrzeń, porównaj z nim ilości zapisanych plików. Studenci powinni zrozumieć, że dyski optyczne są najbardziej odpowiednim nośnikiem do długoterminowego przechowywania dużych ilości danych. Jeśli masz nagrywarkę CD, naucz ich zapisywać pliki.

Ważny punkt szkolenie jest wyjaśnieniem zagrożeń, na jakie informacje komputerowe są narażone przez złośliwe programy - wirusy komputerowe. Dzieci powinny być nauczone podstawowych zasad „higieny komputerowej”: przeprowadzania kontroli antywirusowej wszystkich nowo przychodzących plików; regularnie aktualizuj antywirusowe bazy danych.

12. Języki

Definicja i klasyfikacja języków

Język - ten pewien system symbolicznej reprezentacji informacji. W szkolnym słowniku informatyki opracowanym przez A.P. Erszow podano następującą definicję: „ Język- zestaw symboli i zestaw reguł, które określają, jak komponować sensowne wiadomości z tych symboli”. Skoro sensowny przekaz jest rozumiany jako informacja, to ta definicja zasadniczo taki sam jak pierwszy.

Języki dzielą się na dwie grupy: naturalną i formalną. języki naturalne- ten historycznie ukształtowane języki mowy narodowej. Większość współczesnych języków charakteryzuje się obecnością ustnych i pisemnych form mowy. Analiza języków naturalnych jest głównie przedmiotem nauk filologicznych, w szczególności językoznawstwa. W informatyce analizę języków naturalnych prowadzą specjaliści z dziedziny sztucznej inteligencji. Jednym z celów rozwoju projektu komputerowego piątej generacji jest nauczenie komputera rozumienia języków naturalnych.

Języki formalne są sztucznie stworzone języki do użytku profesjonalnego. Mają one zwykle charakter międzynarodowy i mają formę pisemną. Przykładami takich języków są język matematyki, język formuł chemicznych, notacja muzyczna - język muzyki itp.

Następujące pojęcia są powiązane z dowolnym językiem: alfabet - użyto wielu symboli; składnia- zasady pisania konstrukcji językowych(tekst w języku); semantyka - semantyczna strona konstrukcji językowych; pragmatyka - praktyczne konsekwencje używania tekstu w danym języku.

Do języki formalne charakteryzujący się przynależnością do ograniczonej Tematyka(matematyka, chemia, muzyka itp.). Cel języka formalnego - adekwatny opis systemu pojęć i relacji tkwiących w danym obszarze tematycznym. Dlatego wszystkie wyżej wymienione komponenty języka (alfabet, składnia itp.) skupiają się na specyfice obszaru tematycznego. Język może się rozwijać, zmieniać i uzupełniać wraz z rozwojem jego tematyki.

Języki naturalne nie są ograniczone w swoim zastosowaniu, w tym sensie można je nazwać uniwersalnymi. Jednak nie zawsze wygodnie jest używać tylko języka naturalnego w wysoce wyspecjalizowanych obszarach. W takich przypadkach ludzie uciekają się do pomocy języków formalnych.

Znane są przykłady języków, które znajdują się w stanie pośrednim między naturalnym a formalnym. Język esperanto został stworzony sztucznie do komunikacji między ludźmi różnych narodowości. ALE łacina, którym mówili mieszkańcy Imperium Rzymskiego w starożytności, w naszych czasach stał się formalnym językiem medycyny i farmakologii, tracąc funkcję języka mówionego.

Języki informatyki

Informacje krążące w komputerze dzielą się na dwa rodzaje: informacje przetwarzane (dane) oraz informacje sterujące pracą komputera (polecenia, programy, operatorzy).

Informacje przedstawione w formie odpowiedniej do przechowywania, przesyłania i przetwarzania przez komputer nazywa się dane. Przykłady danych: liczby przy rozwiązywaniu problemu matematycznego; sekwencje znaków w przetwarzaniu tekstu; obraz wprowadzony do komputera przez skanowanie w celu przetworzenia. Sposób, w jaki dane są reprezentowane w komputerze, nazywa się język prezentacji danych.

Każdy typ danych ma inną zewnętrzną i wewnętrzną reprezentację danych. Widok zewnętrzny zorientowany na człowieka, określa rodzaj danych na urządzeniach wyjściowych: na ekranie, na wydruku. Reprezentacja wewnętrzna- ten reprezentacja na nośnikach pamięci w komputerze, tj. w pamięci, w liniach przekazu informacji. Komputer bezpośrednio operuje na informacjach w reprezentacji wewnętrznej, a reprezentacja zewnętrzna służy do komunikacji z osobą.

W najbardziej ogólnym sensie możemy powiedzieć, że językiem do reprezentacji danych komputerowych jest język kodu binarnego. Jednak z punktu widzenia powyższych właściwości, jakie powinien posiadać każdy język: alfabetu, składni, semantyki, pragmatyki, nie można mówić o jednym wspólny język kody binarne. Jedyną wspólną cechą jest alfabet binarny: 0 i 1. Ale dla różnych typów danych zasady składni i semantyki wewnętrznego języka reprezentacji różnią się. Ta sama sekwencja cyfr binarnych dla różnych typów danych ma zupełnie inne znaczenie. Na przykład kod binarny „0100000100101011” w języku reprezentacji liczb całkowitych oznacza liczbę dziesiętną 16683, a w języku reprezentacji danych znakowych oznacza dwa znaki - „A+”. W ten sposób, różne typy danych używają różnych wewnętrznych języków reprezentacji. Wszystkie mają alfabet binarny, ale różnią się interpretacją ciągów znaków.

Języki reprezentacji danych zewnętrznych są zwykle zbliżone do postaci znanej ludziom: liczby są reprezentowane w systemie dziesiętnym, podczas pisania tekstów używane są alfabety języków naturalnych, tradycyjne symbole matematyczne itp. W prezentacji struktur danych stosowana jest wygodna forma tabelaryczna (relacyjne bazy danych). Ale nawet w tym przypadku zawsze istnieją pewne zasady składni i semantyki języka, używany jest ograniczony zestaw poprawnych symboli.

Językiem wewnętrznym do reprezentowania działań na danych (językiem zarządzania działaniem komputera) jest język poleceń procesora komputera. Języki zewnętrzne do reprezentowania działań na danych obejmują języki programowania wysokiego poziomu, języki wprowadzania pakietów aplikacji, języki poleceń systemu operacyjnego, języki manipulacji danymi w DBMS itp.

Każdy język programowania wysokiego poziomu obejmuje zarówno sposoby przedstawiania danych — sekcję danych, jak i sposoby przedstawiania działań na danych — sekcję operatorów (patrz „ Języki programowania” 2). To samo dotyczy innych typów języków komputerowych wymienionych powyżej.

Wśród formalnych języków nauki najbliższy informatyce jest język matematyki.
Z kolei z wielu dyscyplin matematycznych największa aplikacja w informatyce mają teorię liczb i logikę matematyczną.
W związku z tym możemy powiedzieć, że tematyka systemów liczbowych (język reprezentacji liczb) i podstawy logiki matematycznej (język logiki) są powiązane z podstawowymi podstawami informatyki (zob. „ Systemy liczbowe" I " Wyrażenia logiczne” 2).

Wytyczne

Na kursach propedeutycznych i podstawowych informatyki rozmowa o językach w odniesieniu do człowieka ma duże znaczenie edukacyjne. Znany studentom termin „język” nabiera w ich umysłach nowego znaczenia. Wokół tego terminu zbudowany jest cały system pojęć naukowych. Pojęcie języka jest jednym z najważniejszych pojęć szkieletowych kursu informatyki.

Studiując każde nowe narzędzie teleinformatyczne, należy zwrócić uwagę na to, że aby z nim pracować, użytkownik musi opanować pewien sformalizowany język, że jego użycie wymaga ścisłego przestrzegania reguł języka: znajomość alfabetu, składnia , semantyka i pragmatyka. Ten rygor wynika z faktu, że języki sformalizowane z reguły nie mają nadmiarowości. Dlatego każde naruszenie zasad (użycie znaku, który nie jest zawarty w alfabecie, nieprawidłowe użycie separatorów, np. przecinka zamiast kropki itp.) prowadzi do błędu.

Studenci powinni zwrócić uwagę na powszechność niektórych konstrukcji językowych stosowanych w różnych technologiach. Na przykład zasady pisania formuł w arkuszach kalkulacyjnych i wyrażeń arytmetycznych w językach programowania są prawie takie same. Są też różnice, na które również należy zwrócić uwagę. Na przykład w językach programowania spójniki logiczne (NOT, AND, OR) są znakami operacji, aw arkuszach kalkulacyjnych są to nazwy funkcji.

Aby uprościć pracę użytkownika w nowoczesnym oprogramowaniu, często stosuje się różnego rodzaju powłoki, aby zapewnić wygodny interfejs użytkownika. Należy wyjaśnić uczniom, że za tymi powłokami z reguły kryje się pewien sformalizowany język. Na przykład za graficzną powłoką operacyjnego Systemy Windows ukrywa język poleceń systemu operacyjnego. Inny przykład: MS Access DBMS daje użytkownikowi możliwość wykorzystania projektanta tabel do tworzenia bazy danych oraz projektanta zapytań do tworzenia zapytań. Jednak za tymi wysokopoziomowymi narzędziami „ukryty” jest SQL – uniwersalny język do opisywania danych i manipulowania nimi. Przełączając się w odpowiedni tryb można pokazać jak wyglądają polecenia SQL wygenerowane w wyniku pracy z konstruktorem.

Bibliografia do działu „Informacje teoretyczne”

1. Andreeva E.W.,Bosova L.L.,Falina I.h. Matematyczne podstawy informatyki. Przedmiot do wyboru. M.: BINOM. Laboratorium wiedzy, 2005.

2. Beszenkow S.ALE.,Rakitina E.ALE. Informatyka. Kurs systematyczny. Podręcznik dla 10 klasy. Moskwa: Laboratorium wiedzy podstawowej, 2001, 57 s.

3.Wiener N. Cybernetyka, czyli kontrola i komunikacja w zwierzęciu i maszynie. Moskwa: radio sowieckie, 1968, 201 s.

4. Informatyka. Zeszyt zadań-warsztat w 2 tomach / Wyd. I.G. Semakina, E.K. Hennera. T. 1. M.: BINOM. Laboratorium wiedzy, 2005.

5. Kuznetsov A.A., Beshenkov S.A., Rakitina E.A., Matveeva N.V., Milokhina L.V. Ciągły kurs informatyki (koncepcja, system modułów, program modelowy). Informatyka i Edukacja, nr 1, 2005.

6. Matematyczny słownik encyklopedyczny. Dział: „Słownik informatyki szkolnej”. M.: Encyklopedia radziecka, 1988.

7.Friedland A.i. Informatyka: procesy, systemy, zasoby. M.: BINOM. Laboratorium wiedzy, 2003.

M.: FIZMATLIT, 2006. - 768 s.

Encyklopedyczny słownik referencyjny zawiera ponad 18 tysięcy rosyjskich i angielskich terminów, uporządkowanych tematycznie w następujących głównych działach: I. Podstawy technologia informacyjna; II. Automatyzacja procesów informacyjnych i zautomatyzowanych systemów (AC); III. Wsparcie techniczne UA; IV. oprogramowanie AS; V. Multimedia, hipermedia, rzeczywistość wirtualna, widzenie maszynowe; VI. Technologie sieciowe do przetwarzania i transmisji danych; VII. Slang komputerowy i sieciowy; VIII. Piktogramy używane w wiadomościach e-mail; IX. Skróty słów i wyrażeń używanych w Internecie.

Hasła słownikowe mają charakter rozszerzony i zawierają dane referencyjne o przedmiotach opisu, a także odnośniki do pierwotnych źródeł dokumentacyjnych w celu pełniejszego zapoznania się z nimi dla zainteresowanych użytkowników.

Struktura i zawartość słownika umożliwia wykorzystanie go do systematycznego studiowania materiałów z interesujących czytelnika działów tematycznych i podrozdziałów, do wstępnego badania decyzji związanych z projektowaniem heterogenicznych zautomatyzowanych systemów teleinformatycznych , a także przygotowywać na jej podstawie dokumenty dydaktyczno-metodyczne, przeglądowe, bibliograficzne itp.

Słownik skierowany jest do szerokiego grona użytkowników, których działalność zawodowa lub zainteresowania związane są z nowoczesnymi technologiami informatycznymi.

Format: djvu

Rozmiar: 7,1 MB

Pobierać: yandex.disk

ZAWARTOŚĆ
Przedmowa do encyklopedycznego wydania słownika .............................. 7
Przedmowa do trzeciego wydania słownika, o słowniku referencyjnym i jego autorze... 9
Od autora ............................................. .....jedenaście
O korzystaniu ze słownika............................................. 13
I. Podstawy informatyki ................................ 15
1.1. Dane, informacje, wiedza, logika ........................................... 15
1.2. Zasoby informacyjne, teoria informacji, informatyka 19
1.3. Nośniki danych, dokumenty, dokumentacja, publikacje ...................... 22
1.4. Zasady uporządkowanej reprezentacji dokumentów i danych ...... 27
1.4.1. Elementy informacyjne i ich rodzaje .............................. 27
1.4.2. Rekord, plik, tablica, klucz ...................... 30
1.4.3. Struktury, modele danych i powiązane terminy 34
1.4.4. Format, pole danych i powiązane terminy .............................. 45
1.5. Technologia informatyczna............................................. 49
1.5.1. Pojęcia i terminy ogólne .............................. 49
1.5.2. Przetwarzanie i przetwarzanie dokumentów i danych .............................. 52
1.5.3. Wprowadzanie dokumentów i danych do komputera .............................. 58
1.5.4. Wyszukiwanie informacji ^ ogólne pojęcia i terminy ............... 63
1.5.5. Indeksowanie, wyszukiwanie obrazu dokumentów i zapytań 66
1.6. Bezpieczeństwo technologii informatycznych............................................. 74
1.6.1. Pojęcia i terminy ogólne ............................................. 74
1.6.2. Kodowanie i dekodowanie dokumentów i danych.............................. 83
1.6.3. Kryptologia i koncepcje pokrewne ........................... 87
II. Automatyzacja procesów informacyjnych i zautomatyzowane systemy informatyczne 93
2.1. Ogólne pojęcia i terminy ............................................. 93
2.2. Automatyzacja procesów informacyjno-bibliotecznych.............................. 95
2.2.1. Pojęcia związane z automatyką.............................. 95
2.3. Systemy zautomatyzowane............................................. 98
2.3.1. Pojęcia ogólne i terminy............................................. 98
2.3.2. Funkcjonalnie ^zorientowane systemy automatyczne ..... 106
2.4. Wsparcie językowe i informacyjne systemów zautomatyzowanych 117
2.4.1. Wsparcie językowe ^ ogólne pojęcia i terminy ......... 117
2.4.2. Języki wyszukiwania informacji i słowniki AIS ....... 119
2.4.3. Metadane i formaty AIS 128
2.4.4. Wsparcie informacyjne AIS .............................. 147
2.5. Personel i użytkownicy systemów zautomatyzowanych .............................. 153
2.5.1. Deweloperzy i personel AIS .............................. 153
2.5.2. Użytkownicy AIS ............................................. 157
2.5.3. Certyfikacja specjalistów AIS .............................. 159
2.6. Procesy tworzenia i eksploatacji zautomatyzowanych systemów .......... 162
2.6.1. Projektowanie systemów zautomatyzowanych.............................. 162
2.6.2. Cykl życia AIS i integracja systemu .................................. 165
III. Wsparcie techniczne systemów zautomatyzowanych .......... 169
3.1. Komputery, ich rodzaje i klasyfikacja ogólna 169
3.2. Architektura, konfiguracja, platforma komputerowa.............................. 175
3.3. Komputery osobiste (PC) .............................. 178
3.4. Przenośne komputery PC i samodzielne urządzenia cyfrowe do różnych celów ... 185
3.4.1. Rodzaje laptopów............................................. 185
3.4.2. Cyfrowe urządzenia odtwarzające i nagrywające 188
3.5. Jednostka systemowa i elementy jego konstrukcji ........................ 191
3.5.1. Procesory, ich rodzaje i terminy pokrewne ............. 192
3.5.2. Pamięć komputera ^ pojęcia i terminy ............. 202
3.5.3. Funkcjonalne urządzenia pamięci komputera .......................... 208
3.5.4. Adaptery, interfejsy i terminy pokrewne.................. 216
3.5.5. Tablice, porty, autobusy, sloty............................................. 224
3.6. Komputerowe urządzenia peryferyjne (zewnętrzne) .............................. 233
3.6.1. Pamięć zewnętrzna komputera, napędy i powiązane terminy ..... 233
3.6.2. Płyty CD i związane z nimi terminy .............................. 251
3.6.3. Urządzenia do wprowadzania danych, manipulatory .......................... 260
3.6.4. Urządzenia wyjściowe............................................. 271
3.6.5. Modemy, enkodery, zasilacze ...................... 286
3.7. Karty PC ................................................ ............... .. 289
3.8. Mikroelektroniczna podstawa komputerowa .................................. 294
3.9. Urządzenia optoelektroniczne............................................. 299
IV. Oprogramowanie dla systemów zautomatyzowanych .......... 303
4.1. Algorytmy, programy, programowanie................................... 303
4.1.1. Ogólne pojęcia i terminy 303
4.1.2. Języki programowania............................................. 307
4.1.3. Terminy związane z programowaniem.............................. 319
4.2. Ogólny oprogramowanie............................... 327
4.2.1. Systemy operacyjne............................................. 328
4.2.2. Ogólne narzędzia serwisowe oprogramowania 338
4.3. Oprogramowanie aplikacyjne dla systemów zautomatyzowanych ....... 339
4.3.1. Pojęcia ogólne i terminy............................................. 339
4.3.2. Programy użytkowe.............................. 342
4.3.3. Wirusy komputerowe i antywirusy ...................... 346
4.4. Pojęcia związane z obsługą narzędzi programowych 350
4.4.1. Kilka ogólnych pojęć i terminów ........................ 350
4.4.2. Archiwizacja, kompresja-przywracanie rekordów danych ...... 352
4.4.3. Dostęp, adres i pokrewne warunki ............................... 364
V. Multimedia, hipermedia, rzeczywistość wirtualna, widzenie maszynowe. 372
5.1. Systemy multimedialne i terminy pokrewne. .................. 372
5.2. Środki zapewnienia akompaniamentu muzycznego i mowy .......... 375
5.2.1. Pojęcia i terminy ogólne .............................. 375
5.2.2. Pliki dźwiękowe, ich standardy i formaty .................................. 380
5.3. Grafika maszynowa (komputerowa) ........................... 389
5.3.1. Pojęcia i terminy ogólne ............................................. 389
5.3.2. Pliki graficzne i ich formaty.............................. 392
5.3.3. Technologia grafiki komputerowej.............................. 400
5.4. Wideo komputerowe, Telewizja Cyfrowa i Animacja .............................. 408
5.4.1. Pojęcia i terminy ogólne ............................................. 408
5.4.2. Technologia wideo ........................................... 412
5.4.3. Technologia animacji.............................. 416
5.4.4. Telewizja cyfrowa 420
5.5. Rzeczywistość wirtualna, światy równoległe. ...................... 424
5.6. Wizja komputerowa............................................. 427
VI. Technologie sieciowe. Sposoby przetwarzania i przekazywania informacji 430
6.1. Pojęcia ogólne i terminy ............................................. 430
6.2. Sieci lokalne ................................................ 433
6.3. Rozproszone sieci komputerowe.............................. 441
6.3.1. Pojęcia ogólne i terminy ............................................. 441
6.3.2. Intranet.............................. 450
6.3.3. ETHERNET .............................. 455
6.4. Globalne sieci komputerowe, Internet .............................. 471
6.4.1. Pojęcia i terminy ogólne .............................. 471
6.4.2. Technologia sieciowa............................................. 482
6.4.3. Technologie transmisji danych w kanałach internetowych.............................. 489
6.4.4. Usługi i narzędzia serwisowe w Internecie .............................. 499
6.4.5. Zintegrowane Cyfrowe Usługi Sieciowe - ISDN .............................. 518
6.4.6. komórkowy i telefonii komputerowej ................... 520
6.4.7. Urządzenia telekomunikacyjne budynków .................................. 526
6.4.8. Rozwój środków i kompleksów technicznych w oparciu o wykorzystanie technologii telekomunikacyjnych 532
6.4.9. Podmioty stosunków prawnych w Internecie .................................. 533
6.5. Środki i technologie ochrony sieci komputerowych.................................. 536
6.6. Podstawowe standardy dla sieci danych. .............................. 541
6.6.1. Normy ISO ............................................. . 541
6.6.2. Normy IEEE ............................... 543
6.6.3. Normy ITU-T ............................................. 554
6.6.4. Inne Normy i Protokoły .............................. 560
VII. Slang komputerowy i sieciowy .............................. 565
VIII. Ikony e-maili i symbole emotikonów ............. 592
IX. Skróty słów i wyrażeń używanych w Internecie ...... 594
Referencje ................................................ 597
Indeks alfabetyczny w języku angielskim .............................. 644
Rosyjski indeks alfabetyczny............................................. ... 708

Ogólna nazwa „dokumentacja”, która czasami służy jako synonim terminu „I.”. W 1931 roku P. Otlet oraz belgijski prawnik i osoba publiczna założyli Międzynarodowy Instytut Bibliograficzny. La Fontaine w 1895 r. została przemianowana na Międzynarodowy Instytut Dokumentacji, aw 1938 r. na Międzynarodową Federację Dokumentacji, która nadal jest główną organizacją międzynarodową zrzeszającą specjalistów w . oraz działalność naukową i informacyjną (patrz Międzynarodowa Federacja Dokumentacji). W 1945 roku amerykański naukowiec i inżynier W. Bush opublikował The Possible Mechanism of Our Thinking, w którym po raz pierwszy szeroko poruszono kwestię konieczności zmechanizowania wyszukiwania informacji. Konferencje międzynarodowe według informacji naukowych (Londyn 1948; Waszyngton 1958) wyznaczyły pierwsze etapy rozwoju I. Duże znaczenie miało badanie wzorców rozproszenia przeprowadzonych publikacji naukowych. Bradford (Wielka Brytania, 1948). Do połowy lat 60. XX wiek Opracowano przede wszystkim zasady i metody wyszukiwania informacji oraz techniczne środki ich realizacji. W. Batten (Wielka Brytania), . Muers i. Taube (USA) położył podwaliny pod indeksowanie współrzędnych; . Vickery'ego, . Fosket (Wielka Brytania), J. Perry, A. Kent, J. Costello, . P. Łun, . Berniera (USA), . C. Garden (Francja) opracował podstawy teorii i metodologii wyszukiwania informacji; S. Cleverdon (Wielka Brytania) zbadał metody porównywania wydajności technicznej systemów wyszukiwania informacji różne rodzaje ; R. Shaw (USA) i J. Samin (Francja) stworzyli pierwsze urządzenia do wyszukiwania informacji na mikrofilmach i diamikrokartach, które służyły jako prototypy wielu specjalnych maszyn informacyjnych; K. Muller i C. Carlson (USA) zaproponowali nowe metody reprodukcji dokumentów, które stały się podstawą nowoczesnych technik reprografii. Obecny etap rozwoju informacji (lata siedemdziesiąte) charakteryzuje się głębszym zrozumieniem ogólnego naukowego znaczenia naukowej działalności informacyjnej i coraz szerszym wykorzystaniem w niej komputerów elektronicznych. D. Price (USA), rozwijając idee J. Bernala (Wielka Brytania), wskazał na możliwość mierzenia procesów rozwoju nauki za pomocą wskaźników i środków I.; . Garfield (USA) opracował i wprowadził nowe metody obsługi informacji naukowej; G. Menzel i W. Garvey (USA) badali potrzeby informacyjne naukowców i specjalistów, znaczenie różnych procesów komunikacji naukowej. Ogólna teoria I. za granicą powstaje w pracach A. Avramescu (Rumunia), A. Wysockiego i M. Dembovskaya (Polska), I. Koblitz (NRD), A. Merty (Czechosłowacja), I. Polzovicha (Węgry) ), . Peach (Niemcy), A. Rees, R. Taylor, J. Shira (USA), R. Fairthorn (Wielka Brytania) i inni.W ZSRR rozwój działalności naukowej i informacyjnej szedł w parze z rozwojem sowieckiego nauka i gospodarka narodowa. W latach 30. XX wiek działała Komisja Wydawnictwa Indeksów (Indeksów) Literatury Naukowej, zaczęły ukazywać się abstrakty Akademii Nauk ZSRR z zakresu nauk fizycznych i matematycznych, chemii itp. (patrz Bibliografia). Działalność ta zaczęła się rozwijać szczególnie intensywnie od lat 50-tych. Powstanie I. jako samodzielnej dyscypliny naukowej datuje się na koniec lat 40. i początek lat 50. XX wieku. W ZSRR instytucjonalizacja informacji nastąpiła w 1952 r., kiedy powstał Instytut Informacji Naukowej Akademii Nauk ZSRR, obecnie Ogólnounijny Instytut Informacji Naukowo-Technicznej (VINITI). Od 1959 r. Rada Ministrów ZSRR podjęła szereg uchwał mających na celu udoskonalenie i rozwój jednolitego ogólnokrajowego systemu informacji naukowo-technicznej. Ważnymi etapami rozwoju technologii informacyjnej w ZSRR były trzy ogólnounijne konferencje na temat zautomatyzowanego przetwarzania informacji naukowej (w latach 1961, 1963 i 1966). Duże znaczenie dla rozwoju teorii I. miało międzynarodowe sympozjum państw członkowskich Rady Wzajemnej Pomocy Gospodarczej i Jugosławii dotyczące teoretycznych problemów informatyki (Moskwa 1970) oraz doskonalenia środków technicznych I. - międzynarodowe wystawy „Inforga-65” i „Interorgtekhnika-66”, które zademonstrowały techniczne środki kompleksowej mechanizacji i automatyzacji procesów przetwarzania, przechowywania, wyszukiwania i rozpowszechniania informacji naukowej. Wiele badań rosyjskiego I. stanowiło podstawę jego dalszego rozwoju: w dziedzinie ogólnej teorii I. - praca V. A. Uspensky'ego, Yu. A. Shreidera; budowa systemów wyszukiwania informacji - G. E. Vladutsa, D. G. Lakhuti, E. . Skorokhodko, WP Czerenina; problemy naukowe I. - G. M. Dobrova, V. V. Nalimova; filmy dokumentalne - G. G. Vorobyova, K. R. Simona,. I. Szamurina; tworzenie urządzeń do wyszukiwania informacji i innych środków technicznych - . I. Gutenmakhera, V. A. Kalmansona, B. M. Rakova i innych I. jest podzielony na następujące działy: teoria I. (przedmiot i metody, treść, struktura i właściwości informacji naukowej), komunikacja naukowa (procesy nieformalne i formalne, działalność informacyjna naukowa), wyszukiwanie informacji, rozpowszechnianie i wykorzystywanie informacji naukowej, organizacja i historia działalności informacyjnej naukowej. Do głównych zadań teoretycznych I. należy ukazanie ogólnych praw rządzących tworzeniem informacji naukowej, jej przekształcaniem, przekazywaniem i wykorzystywaniem w różnych sferach ludzkiej działalności. I. nie studiuje i nie opracowuje kryteriów oceny prawdziwości, nowości i użyteczności informacji naukowej oraz metod jej logicznego przetwarzania w celu uzyskania nowych informacji. Zastosowane zadania I. to wypracowanie bardziej efektywnych metod i środków realizacji procesów informacyjnych, określenie optymalnej komunikacji naukowej zarówno w obrębie nauki, jak i pomiędzy nauką a przemysłem. Do badania poszczególnych problemów i rozwiązywania stosowanych problemów technologii informacyjnej stosuje się odrębne metody: cybernetykę (w formalizowaniu procesów naukowej działalności informacyjnej w celu ich automatyzacji, w budowie informacyjnych maszyn logicznych itp.); matematyczna teoria informacji (przy badaniu ogólnych właściwości informacji, aby zapewnić jej optymalne kodowanie, przechowywanie długoterminowe, transmisja na odległość); logika matematyczna (do formalizowania procesów wnioskowania logicznego, opracowywania metod programowania algorytmów informacyjnych itp.); semiotyka (przy budowaniu systemów wyszukiwania informacji, opracowywaniu reguł tłumaczenia z języków naturalnych na sztuczne i odwrotnie, opracowywaniu zasad indeksowania, badaniu przekształceń struktury tekstu, które nie zmieniają jego znaczenia itp.); językoznawstwo (przy opracowywaniu zasad tłumaczeń automatycznych i języków wyszukiwania informacji, indeksowaniu i podsumowywaniu, metodach transkrypcji i transliteracji, opracowywaniu tezaurusów, usprawnianiu terminologii); psychologia (przy badaniu procesów myślowych tworzenia i wykorzystywania informacji naukowej, charakteru potrzeb informacyjnych i ich formułowania w zapytania, przy opracowywaniu efektywnych metod czytania, maszynowych systemów obsługi informacji, projektowania urządzenia informacyjne ); bibliologia, bibliotekoznawstwo, bibliografia, archiwistyka (przy opracowywaniu optymalnych form dokumentu naukowego, doskonaleniu formalnych procesów komunikacji naukowej, systemu publikacji wtórnych); nauka o nauce (przy badaniu nieformalnych procesów komunikacji naukowej, opracowywaniu zasad organizacyjnych systemu obsługi informacyjnej, prognozowaniu rozwoju nauki, ocenie jej poziomu i tempa, badaniu różnych kategorii odbiorców informacji naukowej); nauk technicznych (zapewnienie środków technicznych dla procesów działalności naukowej i informacyjnej, ich mechanizacji i automatyzacji). Niektóre metody I. znajdują z kolei zastosowanie w bibliotekoznawstwie i bibliografii (przy opracowywaniu katalogów, indeksów itp.). Informacja naukowa odzwierciedla obiektywne prawa natury, społeczeństwa i myślenia adekwatnie do aktualnego stanu nauki i jest wykorzystywana w praktyce społeczno-historycznej. Ponieważ podstawą procesu poznania jest praktyka społeczna, źródłem informacji naukowej są nie tylko badania naukowe, ale także wszelkiego rodzaju energiczne działania ludzi na rzecz przemiany przyrody i społeczeństwa. Informacja naukowa jest podzielona na typy według obszarów jej odbioru i wykorzystania (biologiczne, polityczne, techniczne, chemiczne, gospodarcze itp.), według przeznaczenia (masowe i specjalne itp.). Hipotezy i teorie, które później okazują się błędne, są przez cały czas informacją naukową, że w praktyce prowadzone są systematyczne badania i weryfikacja ich postanowień. Kryterium wykorzystania w praktyce społeczno-historycznej pozwala odróżnić informację naukową od prawd znanych lub nieaktualnych, idei science fiction itp. Całość procesów przedstawiania, przekazywania i odbierania informacji naukowej stanowi komunikację naukową. Bez wyjątku naukowcy lub specjaliści są zawsze zaangażowani we wszystkie procesy komunikacji naukowej. Stopień ich udziału może być różny i zależy od specyfiki procesu. Rozróżnij procesy „nieformalne” i „formalne”. „Nieformalny” odnosi się do tych procesów, które są wykonywane głównie przez samych naukowców lub specjalistów: bezpośredni dialog między nimi na temat prowadzonych badań lub rozwoju, odwiedzanie laboratorium ich kolegów i wystaw naukowo-technicznych, rozmawianie z publicznością, wymiana listów i przedruki publikacje, przygotowywanie wyników badań lub opracowań do publikacji. Do „formalnych” należą: procesy wydawnicze, wydawnicze i drukarskie; dystrybucja publikacji naukowych, w tym działalność księgarska, biblioteczna i bibliograficzna; procesy wymiany literatury naukowej; archiwizacja; faktyczną działalność naukową i informacyjną. Wszystkie procesy „formalne”, z wyjątkiem ostatniego, nie są specyficzne dla komunikacji naukowej i mieszczą się w sferze komunikacji masowej, której głównymi środkami są druk, radio, telewizja itp. Wzrost złożoności pracy naukowej i Konieczność zwiększenia jej efektywności prowadzi do dalszego jej podziału, który odbywa się na różnych płaszczyznach: na badania teoretyczne i eksperymentalne, na badania naukowe, informację naukową oraz działalność naukowo-organizacyjną. Służby informacyjne przeznaczone są do wykonywania coraz bardziej złożonych zadań selekcji i przetwarzania informacji naukowej, które można rozwiązać tylko przy jednoczesnym wykorzystaniu dorobku zarówno informacji, jak i teorii i metod poszczególnych dziedzin nauki. Działalność informacyjna polega na gromadzeniu, przetwarzaniu, przechowywaniu i wyszukiwaniu informacji naukowej utrwalonej w dokumentach, a także na jej udostępnianiu naukowcom i specjalistom w celu zwiększenia efektywności prac badawczo-rozwojowych. Czynność tę w coraz większym stopniu realizują zintegrowane systemy informatyczne oparte na zasadzie jednorazowego, wyczerpującego przetwarzania każdego dokumentu naukowego przez wysoko wykwalifikowanych specjalistów, wprowadzanie wyników takiego przetwarzania do zespołu maszynowego składającego się z komputera i fotoskładu oraz ponowne ich wykorzystanie. wyniki w celu rozwiązania różnych problemów informacyjnych: publikowanie czasopism abstraktów, biuletynów informacji sygnałowych, przeglądów analitycznych, zbiorów tłumaczeń, do prowadzenia wybiórczego rozpowszechniania informacji (patrz Język informacji), praca bibliograficzna i informacyjna, kopiowanie dokumentów i inne rodzaje usług informacyjnych. Od połowy lat czterdziestych. XX wiek pierwsze większe czasopisma o I. ukazują się w różnych krajach: Journal of Documentation (L., od 1945); „Tidskrift for Documentation” (Stockh., od 1945); „Dokumentacja amerykańska” (Wash., od 1950, od 1970 – „Journal of the American Society for Information Science”); „Nachrichten fur Documentation” (Fr./M., od 1950); „Dokumentacja” (Lpz., od 1953, od 1969 – „Informatik”). Od października 1961 r. ZSRR wydaje miesięcznik „Scientific Specyfikacja”, który od 1967 roku ukazuje się w dwóch seriach: „Organizacja i metody pracy informacyjnej” oraz „Procesy i systemy informacyjne”. Od 1963 r. VINITI zaczęło wydawać najpierw co 2 miesiące, a od 1966 r. miesięcznik abstraktów „Informacje Naukowo-Techniczne”, który od 1970 r. ukazuje się pod nazwą „Informatyka”. Od 1967 pismo to ukazuje się również w języku angielskim. Za granicą publikowane są następujące abstrakty dotyczące I.: w Wielkiej Brytanii – „Library and Information Science Abstracts” (L., od 1969 r.; w latach 1950-68 nosiło nazwę „Library Science Abstracts”), w USA – „Information Science Abstrakty” (Fil., od 1969; w latach 1966-68 nosiło nazwę „Skróty dokumentacyjne”), we Francji – „Bulletin signaletique. Information scientifique et technika” (P., od 1970). Od 1964 r. ukazuje się informacja ekspresowa „Teoria i praktyka informacji naukowej”, a od 1965 r. – zbiory tłumaczeń publikacji zagranicznych na temat I. Od 1969 r. w Kijowie ukazuje się periodyk „Nauka i informatyka”. Kształcenie pracowników naukowych w I. prowadzone jest od 1959 r. poprzez szkołę podyplomową VINITI, kształcenie kadr do działalności naukowej i informacyjnej - od 1963 r. na zaawansowanych kursach dokształcających dla wiodących pracowników inżynieryjno-techniczno-naukowych (od 1972 r. - Institute for Advanced Studies of Information Workers), kształcenie młodych naukowców - przyszłych konsumentów informacji - od 1964 roku na Wydziale Informacji Naukowej Moskiewskiego Uniwersytetu Państwowego. M. V. Lomonosov, inżynierowie mechanizacji i automatyzacji procesów informacyjnych - w wielu instytutach politechnicznych i budowy maszyn. Za granicą dyscypliny informacyjne są nauczane na uniwersytetach i wyższych szkołach technicznych. Istnieje tendencja do łączenia w jednej specjalizacji edukacyjnej kompleksu problemów I. i technologii komputerowej. Lit .: Mikhailov A. I., Cherny A. I., Gilyarevsky R. S., Fundamentals of Informatics, 2. ed., M., 1968; im, Problemy informacyjne we współczesnej nauce, M., 1972; Teoretyczne problemy informatyki. sob. Art., M., 1968; Międzynarodowe Forum Informatyki. sob. Art., t. 1-2, M., 1969; Bush V., Jak można sądzić, Atlantic Monthly, 1945, lipiec, s. 101-108; Roczny przegląd informatyki i technologii, v. 1-7, N. Y. - a. o., 1966-72; Dembowska M., Dokumentacja i informacja naukowa, Warszawa 1968. A. I. Michajłow, A. I. Cherny, R. S. Gilyarevsky.

Podobał Ci się artykuł? Podziel się z przyjaciółmi!
Czy ten artykuł był pomocny?
TAk
Nie
Dziękuję za opinię!
Coś poszło nie tak i Twój głos nie został policzony.
Dzięki. Twoja wiadomość została wysłana
Znalazłeś błąd w tekście?
Wybierz, kliknij Ctrl+Enter a my to naprawimy!