Konfiguracja sprzętu i oprogramowania

Zdefiniuj pojęcie wykorzystania informacji. Bayandin A.V

Informacja jest jedną z podstawowych kategorii filozoficznych, obok materii, energii, przestrzeni i czasu. ma wiele różnych definicji, które ujawniają wszystkie jego aspekty. Słownik filozoficzny podaje taką definicję – po pierwsze jest to zbiór dowolnej wiedzy, danych, jakichś informacji, a po drugie jest to jedno z najważniejszych pojęć w cybernetyce.

Innym pojęciem informacji jest produkt powstały w wyniku interakcji danych odpowiednimi metodami. Dane to dowolne zarejestrowane sygnały. Ale aby wydobyć z nich informacje, potrzebne są pewne metody.

Istnieje również takie pojęcie informacji, jak pewien zasób, zasób pewnych cech obiektu, ale niewyczerpany zasób, który ma zdolność aktualizacji i reprodukcji. Za pomocą tego zasobu możesz wykonywać określone czynności - procesy informacyjne. W strukturze możliwych z nim operacji można wyróżnić kilka głównych odmian.

Rodzaje procesów informacyjnych:

1) Szukaj - wydobywanie informacji z magazynów.

2) Kolekcja - jej gromadzenie w celu zapewnienia kompletności wystarczającej do podjęcia decyzji.

3) Formalizacja - sprowadzenie wszystkich jej rodzajów do tej samej formy, tak aby stały się ze sobą porównywalne.

4) Filtrowanie – odsiewanie danych, które nie są potrzebne do podejmowania decyzji.

5) Sortowanie - uporządkowanie wszystkich danych według określonego atrybutu w celu wygodniejszego użycia, służy do zwiększenia ich dostępności.

6) Archiwizacja danych - organizacja procesu w łatwo dostępnej i wygodnej formie, dzięki temu procesowi zmniejszają się ekonomiczne koszty przechowywania danych i zwiększa się niezawodność.

7) Ochrona danych to środki zapobiegające utracie, modyfikacji lub reprodukcji danych.

8) Transport – transmisja i odbiór danych pomiędzy uczestnikami

9) Transformacja – przeniesienie danych do innej formy lub struktury.

Pojęcie informacji jest złożone i wieloaspektowe, dlatego należy dołożyć starań, aby je zbadać.

Lub w inny sposób (za pomocą sygnałów warunkowych, środków technicznych itp.); od połowy XX wieku pojęcie „informacja” stało się pojęciem ogólnonaukowym, obejmującym wymianę informacji między ludźmi, osobą a automatem, automatem a automatem; sygnalizacja w świecie zwierząt i roślin; transfer cech z komórki do komórki, z organizmu do organizmu (np. informacja genetyczna); jedno z podstawowych pojęć cybernetyki.

Istota i granice zjawiska

Słowo „informacja” pochodzi z łaciny. informatio, czyli w tłumaczeniu informacje, wyjaśnienia, zaznajomienie. Pojęcie informacji było rozważane przez starożytnych filozofów.

Historycznie, dwie złożone gałęzie nauki są bezpośrednio zaangażowane w badanie informacji - cybernetyka i informatyka.

Informatyka, która powstała jako nauka w połowie XX wieku, oddzieliła się od cybernetyki i zajmuje się badaniami w zakresie metod pozyskiwania, przechowywania, przesyłania i przetwarzania informacji semantycznych.

Badania nad semantyczną treścią informacji opierają się na kompleksie teorii naukowych pod ogólną nazwą semiotyka [ ] .

Ale jeśli np. przeprowadzi się choćby płytką analizę treści najpowszechniejszych obecnie pojęć atrybutywnych i funkcjonalnych w odniesieniu do informacji, staje się jasne, że oba te pojęcia ostatecznie opierają się na obiektywnej własności materii, ustalonej w XIX w. i oznaczony kategorią filozoficzną „odbicie”. Obydwa koncepcje nie przywiązują jednak dostatecznej uwagi do badania oczywistej rzeczywistości, co przejawia się w tym, że informacja w formach, w jakich istnieje dzisiaj, jest wytworem ludzkiej świadomości, która sama w sobie jest wytworem najwyższej formy ( ze znanych nam form) materii.

Innymi słowy, zwolennicy obu koncepcji, ignorując człowieka, ignorując naturę ludzkiej świadomości, natychmiast przypisują informację (wytwór świadomości) właściwości materii i od razu nazywają ją „atrybutem materii”. Z powodu tego błędu obydwa pojęcia nie mogą dać nam ścisłej definicji informacji jako pojęcia, gdyż ludzkie pojęcia są wypełnione treścią w wyniku obcowania człowieka z obiektywną rzeczywistością, a nie w wyniku działania, choć wyrafinowanego, zewnętrznie przekonujące, wiarygodne we wnioskach, z innymi koncepcjami. Na porażkę skazane są również próby przedstawienia informacji jako kategorii. Wystarczy wziąć pod uwagę, że praktyka ludzka w ciągu ostatnich dziesięcioleci tak szybko zmieniła formy i treść pojęć, a także jej idee i postawy wobec tego, co dziś powszechnie nazywa się „informacją”, że natura, istota informacji i, oczywiście treść tego pojęcia (jeśli nadal uważa się to za pojęcie) zmieniła się znacząco w czasie.

Klasyfikacja informacji

Pytania:

    Pojęcie informacji.

    Koncepcje informacyjne.

    Formy przekazu, prezentacja i rodzaje informacji.

    Właściwości informacyjne.

    Pomiar informacji. Matematyczne pojęcie informacji

    Pojęcie systemu liczbowego.

    Kodowanie binarne.

Pojęcie informacji

Obecnie pojęcie informacji jest jednym z centralnych w nauce i praktyce. I nie jest to zaskakujące. Rola informacji w życiu człowieka była intuicyjnie rozpoznawana od czasów starożytnych. „Na początku było słowo” – myśl, która nieustannie przenika świadomość człowieka.

Wraz z rozwojem podejścia informacyjnego, które ujawnia nowe właściwości, nowe aspekty obiektów materialnych, zjawisk i procesów społecznych, samo pojęcie informacji z kategorii potocznych przekształciło się w pojęcie ogólnonaukowe, które mimo swej dominacji nadal powoduje ogromne ilość kontrowersji, o których dyskusje mają wiele różnych punktów widzenia. „Spośród wszystkich nauk, teoria informacji i informatyka, choć cieszące się ogromną i zasłużoną popularnością”, pisze R.I., pojęcie informacji pozostaje ściśle nieokreślone. Definicji tego zjawiska jest dosłownie tyle, ile autorów piszących o informacjach.

Odnośnie etymologii słowa „informacja” należy zauważyć, że pochodzi ono od łacińskiego „informatio”, oznaczającego nadawanie formy, właściwości. W XIV wieku tak nazywało się boskie „programowanie” – lokowanie duszy i życia w ludzkim ciele. Według legendy w XIV wieku ten przywilej Boga przywłaszczył sobie rabin Lew, który stworzył w praskim getcie glinianego „robota” – Golema, który „ożywał” za każdym razem, gdy właściciel wkładał mu „program” pod język - tekst z imieniem Boga (szem). Mniej więcej w tym samym czasie słowo „informacja” zaczęło odnosić się do przekazywania wiedzy poprzez książki. Tym samym znaczenie tego słowa stopniowo przesunęło się z pojęć „inspiracja”, „odrodzenie” do pojęć „przesłanie”, „fabuła”, pozostając jednocześnie intuicyjnym i nie wymagającym precyzyjnych definicji, a tym bardziej analizy filozoficznej .

W Rosji termin „informacja” pojawił się w epoce Piotrowej, ale nie był powszechnie używany. Dopiero na początku XX wieku zaczęto go wykorzystywać w dokumentach, książkach, gazetach i czasopismach oraz wykorzystywać w sensie raportowania, informowania, informowania o czymś.

Prawdziwie naukowe rozumienie pojęcia informacji stało się możliwe de facto dopiero dzięki szybkiemu rozwojowi w latach 20. ubiegłego wieku środków i systemów komunikacji, pojawieniu się informatyki i cybernetyki, co wymagało opracowania odpowiedniego baza.

Historia doktryny informacji rozpoczęła się od rozważenia jej aspektu ilościowego, związanego z rozwiązywaniem stosowanych problemów komunikacyjnych, a który znalazł swój wyraz w zaproponowanym w 1948 roku przez Amerykanina. naukowiec-badacz Claude Shannon matematycznej (statystycznej) teorii informacji. Zaproponowana przez niego koncepcja opierała się na idei informacji jako rodzaju substancji, która istnieje w realnym świecie niezależnie od człowieka. Shannon zauważył, że „podstawową ideą teorii komunikacji jest to, że informację można postrzegać jako coś bardzo podobnego do wielkości fizycznej, takiej jak masa czy energia”.

Mimo ogromnego wpływu, jaki matematyczna teoria informacji wywarła na rozwój nauki, późniejsze próby mechanicznego jej rozszerzenia na inne obszary wiedzy naukowej doprowadziły do ​​zrozumienia ograniczeń jej postanowień i konieczności znalezienia innych podejść do określania istoty informacji.

A takim zasadniczo innym, dodatkowym podejściem było podejście cybernetyczne, obejmujące struktury i połączenia systemów. Wraz z pojawieniem się cybernetyki jako nauki o ogólnych prawach transformacji informacji w złożonych systemach sterowania, metodach percepcji, przechowywania, przetwarzania i wykorzystywania informacji, termin „informacja” stał się pojęciem naukowym, rodzajem narzędzia do badania kontroli procesy.

Już w 1941 r. Wiener opublikował swoją pierwszą pracę o analogiach między pracą maszyny matematycznej a układem nerwowym żywego organizmu, a w 1948 r. - fundamentalne studium „Cybernetyka, czyli sterowanie i komunikacja w zwierzęciu i maszynie”, oferujące jego „informacyjna wizja” cybernetyki jako nauk o kontroli i komunikacji w żywych organizmach, społeczeństwie i maszynach. Według Wienera informacja jest „oznaczeniem treści otrzymywanych ze świata zewnętrznego w procesie naszej adaptacji do niego i przystosowania się do niego naszych narządów zmysłów”.

W przeciwieństwie do Shannona, Wiener nie wierzył, że informacja, materia i energia są kategoriami tego samego porządku. Napisał: „Mechaniczny mózg nie wydziela myśli, tak jak wątroba wydziela żółć, jak twierdzili dawni materialiści, i nie wydziela jej w postaci energii, jak mięśnie. Informacja jest informacją, a nie materią i nie energią”.

Mówiąc o powstawaniu i rozwoju cybernetyki, nie można nie zauważyć, że wypracowane w ramach tej nauki podejście do badania zjawiska informacji miało naprawdę nieoceniony wpływ na intensyfikację badania naukowe w tej okolicy. Pod tym względem lata 60-70 XX wieku okazały się bardzo owocne dla badań naukowych w zakresie problemów informacyjnych. To właśnie w tych latach, u zarania informatyzacji, zjawisko informacji zwróciło uwagę filozofów, fizyków, językoznawców, fizjologów, genetyków, socjologów, historyków itp. Pojęcie „informacji” zyskało popularność i wzbudziło większe zainteresowanie w środowisku naukowym.

W ten sposób powstawanie i dalszy rozwój różnych doktryn dotyczących informacji, poglądów i podejść do określania jej istoty doprowadziło do tego, że informacja z intuicyjnej kategorii komunikacji potocznej stała się kategorią ogólnonaukową, która również wymagała własnego rozumienia filozoficznego.

Obecnie eksperci mają ponad 200 istniejących obecnie podejść do definicji informacji, wśród których nie ma ani jednego mniej lub bardziej powszechnie uznanego, a część z nich po prostu nie wytrzymuje krytyki i powoduje dość ostre oceny w środowisku naukowym .

Oto tylko kilka podstawowych definicji informacji:

    Informacje to wiedza przekazana przez kogoś innego lub uzyskana w wyniku własnych badań lub studiów,

    Informacje to informacje zawarte w tej wiadomości i traktowane jako przedmiot przesyłania, przechowywania i przetwarzania,

    Informacja jest obiektywną treścią związku między oddziałującymi ze sobą obiektami materialnymi, przejawiającą się w zmianie stanów tych obiektów,

    Informacja to bieżące dane o zmiennych w określonym obszarze działalności, usystematyzowane informacje o głównych związkach przyczynowych, które zawarte są w wiedzy jako pojęciu klasy ogólniejszej, w stosunku do której informacja jest podporządkowana,

    Informacja to wszelki przekaz lub przekazanie informacji o czymś, co nie było wcześniej znane,

    Informacja to zapamiętany wybór jednej opcji z kilku możliwych i równych.

Najbardziej ogólna definicja ma miejsce w filozofii, gdzie informacja jest rozumiana jako odzwierciedlenie świata obiektywnego, wyrażonego w postaci sygnałów i znaków.

    Informacja jest odzwierciedleniem w umysłach ludzi obiektywnych związków przyczynowych w otaczającym nas świecie rzeczywistym,

    Informacja jest treścią procesów refleksji.

Pojęcie informacji zakłada istnienie dwóch obiektów: źródła i konsumenta. Aby zrozumieć istotę informacji, należy wziąć pod uwagę inne kategorie filozoficzne, takie jak ruch, przestrzeń, czas, a także problem prymatu materii i wtórności poznania. Innym bardzo ważnym warunkiem zrozumienia istoty informacji i prawidłowego rozwiązania problemów informacyjno-poznawczych, do których należy większość prawnych, jest stosowanie zasady adekwatnego eksponowania prezentowanego obiektu przez prezentujący go obiekt.

Tak więc informacja jest rozumiana jako informacja o otaczającym świecie i zachodzących w nim procesach, odbierana przez człowieka lub specjalne urządzenia w celu zapewnienia celowego działania. Ponadto informacja o przedmiocie poznania może być nie tylko postrzegana przez poznający podmiot czy urządzenie techniczne (przy odpowiednim przetworzeniu), ale także niejako oderwana od jej pierwotnego źródła – odbicia przedmiotu poznania.

Wynika z tego, że może być przeniesiona w przestrzeni, zmagazynowana w czasie, przeniesiona na inny podmiot poznający lub urządzenie techniczne (np. komputer), poddana innym operacjom, których całość nazywa się procesy informacyjne. Ich skład i kolejność są każdorazowo ustalane. W ogólna perspektywa procesy informacyjne to tworzenie, synteza, przesyłanie, odbiór, gromadzenie, przechowywanie, przekształcanie, systematyzacja, analiza, selekcja, rozpowszechnianie informacji, ich prezentacja w przyjaznej dla użytkownika formie.

Z pojęciem informacji związane są pojęcia takie jak sygnał, wiadomość i dane.

Sygnały odzwierciedlają fizyczne cechy różnych procesów i obiektów, a poprzez znaki następuje percepcja obiektywnego świata przez osobę. W ten sposób, Sygnał to dowolny proces, który przenosi informacje.

Należy zauważyć, że czasami w literaturze pojawiają się definicje, które opierają się na porównaniu pojęcia informacji i pojęcia przekazu. W tym przypadku w definicji powstaje „błędne koło”: informacja jest komunikatem, a komunikat jest informacją. Taka definicja w niektórych przypadkach może być uzasadniona, mimo że jest tautologiczna. Jednak teoria informacji powinna iść dalej i bardziej sensownie definiować informacje. Istnieją również istotne różnice między pojęciami informacji i danych. Dane to ilości, ich relacje, frazy, fakty, których przekształcenie i przetwarzanie pozwala na wydobycie informacji, tj. wiedza o konkretnym procesie lub zjawisku. Aby być bardziej precyzyjnym, to dane - są to fakty i idee przedstawione w sformalizowanej formie, która umożliwia przekazywanie lub przetwarzanie tych faktów i pomysłów przy użyciu jakiegoś procesu lub odpowiednich środków technicznych.

Wiadomość jest to informacja wyrażona w określonej formie i przeznaczona do przekazania. Przykładem wiadomości jest tekst telegramu, przemówienie mówcy, odczyty urządzenia pomiarowego, komendy sterujące itp. Komunikat jest więc formą prezentacji informacji.

Dane - to jest informacje przedstawione w formie sformalizowanej i przeznaczone do przetwarzania za pomocą środków technicznych, takich jak komputer. Tych. dane są surowcem do pozyskiwania informacji.

Skoro już zajęliśmy się pojęciami ogólnymi, zobaczmy, jak ustawodawca podchodzi do pojęcia „informacji”.

Ogólnie rzecz biorąc, przodkiem odrębnej informacji i kierunku prawnego w orzecznictwie jest A.B. Vengerov. Nie podał jasnej definicji informacji, ale wymienił pewne cechy (właściwości) informacji, które są ważne dla prawa. Należą do nich w szczególności:

a) pewną niezależność informacji w stosunku do jej nośnika; b) możliwość wielokrotnego wykorzystania tych samych informacji; c) jego niewyczerpalność po spożyciu; d) zachowanie przekazanych informacji u podmiotu przekazującego; e) umiejętność oszczędzania, agregowania, integracji, akumulacji; e) pewność ilościowa; g) konsystencja 2.

W pracach z zakresu ochrony informacji stosuje się następujące pojęcie: informacja jest wynikiem refleksji i przetworzenia w ludzkim umyśle różnorodności otaczającego świata, jest to informacja o otaczających człowieka obiektach, zjawiskach naturalnych, działaniach innych osób itp. 3

Należy zauważyć, że w ostatnich latach nastąpiło aktywne tworzenie ustawodawstwa w sferze informacyjnej oraz rejestracja prawa informacyjnego jako niezależnego przemysłu. Podstawą prawną regulującą stosunki w zakresie informacji jest szereg artykułów Konstytucji Federacji Rosyjskiej (w szczególności artykuły 23, 24, 29, 44). Ponadto przez 11 lat (do 2006 r.) istniało prawo federalne z dnia 20 lutego 1995 r. N 24-FZ „O informacji, informatyzacji i ochronie informacji” (zmieniona ustawą federalną z dnia 10 stycznia 2003 r. N 615-FZ (zwaną dalej ustawą informacyjną z 1995 r.)).

Prawo to regulowało stosunki wynikające z tworzenia i wykorzystywania zasobów informacyjnych opartych na tworzeniu, gromadzeniu, przetwarzaniu, gromadzeniu, przechowywaniu, wyszukiwaniu, dystrybucji i dostarczaniu konsumentowi udokumentowanych informacji; tworzenie i wykorzystanie technologii informacyjnych oraz środków ich wsparcia; ochrony informacji, praw podmiotów uczestniczących w procesach informacyjnych i informatyzacji.

27 lipca 2006 r. Przyjęta została ustawa federalna nr 149-FZ „O informacji, technologiach informacyjnych i ochronie informacji” (zwana dalej ustawą federalną), która reguluje stosunki w zakresie wykonywania prawa do wyszukiwania, otrzymywania, przesyłania , wytwarzania i rozpowszechniania informacji, z wykorzystaniem technologii informatycznych, a także przy zapewnieniu ochrony informacji, z wyjątkiem stosunków w zakresie ochrony wyników działalności intelektualnej i równoważnych środków indywidualizacji.

Powstanie nowego podstawowego aktu prawnego wynika z konieczności ujednolicenia, zarówno od strony koncepcyjnej, jak i merytorycznej, zasad i reguł współdziałania w tym obszarze, zlikwidowania w nim szeregu luk oraz doprowadzenia ustawodawstwa Federacji Rosyjskiej bliżej międzynarodowej praktyki regulowania stosunków informacyjnych.

Artykuł 2 tej ustawy wprowadza szereg podstawowych pojęć.

Centralnym pojęciem ustawodawstwa dotyczącego informacji, technologii informacyjnej i ochrony informacji jest pojęcie „informacji”. W dotychczasowej ustawie o informacji z 1995 r. przez informację rozumiano informacje o osobach, przedmiotach, faktach, zdarzeniach, zjawiskach i procesach, niezależnie od formy ich przekazywania. W nowej ustawie federalnej definicja informacji została przedstawiona w bardziej ogólnej formie. Informacja to wszelkie informacje (wiadomości, dane) bez względu na formę ich podania.

Patrząc nieco w przyszłość, należy zauważyć, że art. 5 Ustawy określa status informacji jako przedmiotu stosunków prawnych. „Informacje mogą być przedmiotem stosunków publicznych, cywilnych i innych stosunków prawnych. Informacje mogą być swobodnie wykorzystywane przez każdą osobę i przekazywane od jednej osoby do drugiej, chyba że przepisy federalne ustanawiają ograniczenia w dostępie do informacji lub inne wymagania dotyczące procedury ich dostarczania lub dystrybucja."

Kontynuujmy rozmowę o pojęciach wprowadzonych w ustawie. Artykuł 2 wprowadza nową definicję w rosyjskim ustawodawstwie pojęcia „ Technologia informacyjna", która łączy procesy, metody wyszukiwania, gromadzenia, przechowywania, przetwarzania, dostarczania, rozpowszechniania informacji oraz sposoby ich realizacji. Technologie informacyjne są ważne dla rozwoju, ponieważ ze względu na wagę informacji, określany jest poziom rozwoju takich technologii potencjał dalszego postępowego ruchu we wszystkich obszarach społeczeństwa.

Technologia to zespół wiedzy naukowej i inżynierskiej zaimplementowanej w metodach pracy, zbiorach materiałowych, technicznych, energetycznych, pracy czynników produkcji, sposobach ich łączenia w celu stworzenia produktu lub usługi spełniającej określone wymagania. Technologia jest więc nierozerwalnie związana z mechanizacją procesu produkcyjnego lub nieprodukcyjnego, przede wszystkim zarządczego. Technologie zarządzania opierają się na wykorzystaniu komputerów i technologii telekomunikacyjnej.

Zgodnie z definicją przyjętą przez UNESCO, informatyka to zespół powiązanych ze sobą dyscyplin naukowych, technologicznych, inżynierskich, które badają metody efektywnej organizacji pracy osób zajmujących się przetwarzaniem i przechowywaniem informacji; technika komputerowa oraz metody organizacji i interakcji z ludźmi i urządzeniami produkcyjnymi, ich praktyczne zastosowania, a także związane z tym problemy społeczne, ekonomiczne i kulturowe. Same technologie informacyjne wymagają złożonego szkolenia, wysokich kosztów początkowych i zaawansowanej technologii. Ich wprowadzenie należy rozpocząć od stworzenia oprogramowania, tworzenia przepływów informacji w specjalistycznych systemach szkoleniowych.

Informatyka to zatem zespół obiektów, działań i reguł związanych z przygotowywaniem, przetwarzaniem i dostarczaniem informacji w komunikacji osobistej, masowej i przemysłowej, a także wszystkich technologii i branż, które integralnie zapewniają te procesy.

Główne rodzaje technologii informacyjnych to:

Wysoko inteligentne technologie informacyjne, czyli generowanie rozwiązań technicznych realizujących modelowanie sytuacyjne, pozwalające na identyfikację połączeń elementów, ich dynamikę oraz wyznaczenie obiektywnych praw otoczenia;

Pomocnicze technologie informacyjne – skoncentrowane na zapewnieniu wykonywania określonych funkcji (księgowość i statystyka, utrzymanie systemu kadrowego, zarządzanie dokumentami, obsługa transakcji finansowych, systemy zarządzania strategicznego itp.);

Technologie teleinformatyczne – mające na celu zapewnienie rozwoju telekomunikacji i jej systemów 4

Artykuł zawiera również zaktualizowaną definicję pojęcia „systemu informacyjnego”. W dotychczasowej ustawie o informacji z 1995 r. przez system informatyczny rozumiano uporządkowany organizacyjnie zbiór dokumentów (tablice dokumentów) i technologie informacyjne, w tym wykorzystanie Informatyka oraz komunikaty wdrażające procesy informacyjne.

System informacyjny to system technologiczny reprezentujący kompatybilność sprzętu, oprogramowania i innych środków, które konstrukcyjnie i funkcjonalnie łączą kilka rodzajów procesów informacyjnych i świadczą usługi informacyjne.

oznaki System informacyjny:

Wykonywanie jednej lub więcej funkcji w odniesieniu do informacji;

Jedność systemu (obecność wspólnej bazy plików, wspólne standardy i protokoły, ujednolicone zarządzanie);

Możliwość komponowania i dekomponowania obiektów systemowych podczas wykonywania określonych funkcji (wyciągi z przepisów, zakładki - wszystko w 1 pliku).

Podstawowe wymagania dla systemu informatycznego:

Efektywność;

Jakość działania (tj. dokładność, bezpieczeństwo, zgodność ze standardami);

Niezawodność (to znaczy te progi, gdy system zawodzi pod względem jakości informacji; pod względem czasu dostępu; pod względem wydajności;)

Bezpieczeństwo.

Szybki rozwój technologii informacyjno-telekomunikacyjnych spowodował konieczność zapisania w prawodawstwie terminu „sieć informacyjno-telekomunikacyjna”. Jest to system technologiczny przeznaczony do przesyłania informacji liniami komunikacyjnymi, do których dostęp realizowany jest z wykorzystaniem technologii komputerowej.

Zgodnie z art. 2 ustawy federalnej z dnia 7 lipca 2003 r. N 126-FZ „O komunikacji” (zmienionej 27 lipca 2006 r.) Termin „linie komunikacyjne” odnosi się do linii transmisyjnych, obwodów fizycznych i struktur komunikacyjnych linia-kabel.

Ogólnie rzecz biorąc, sieć informacyjno-telekomunikacyjna jest środkiem przekazywania informacji o otaczającym ją świecie, jego obiektach, procesach i zjawiskach, zobiektywizowanych w postaci umożliwiającej ich maszynowe przetwarzanie (dekodowanie). Na przykład Internet to rodzaj sieci informacyjnych i telekomunikacyjnych.

Z technicznego punktu widzenia Internet jest największą siecią telekomunikacyjną powstałą z połączenia ponad dziesięciu tysięcy pięciuset sieci telekomunikacyjnych różnych typów. Taka unifikacja stała się możliwa dzięki wykorzystaniu protokołu intersieciowego TCP/IP, który pełni rolę swoistego translatora standardów przy przesyłaniu danych pomiędzy różnymi typami sieci telekomunikacyjnych.

Internet jako globalna przestrzeń informacyjna nie uznaje granic państwowych i jest nie tylko najskuteczniejszym sposobem dostępu do zasobów informacyjnych gromadzonych przez ludzkość, ale także staje się środkiem masowego rozpowszechniania informacji. Funkcjonowanie sieci jest potężnym czynnikiem rozwoju i wykorzystania zaawansowanych technologii.

Z drugiej strony korzystanie z Internetu wiąże się z możliwością niekontrolowanego rozpowszechniania nieautoryzowanych informacji, penetracją systemów kontroli, łamaniem praw człowieka, co niewątpliwie wymaga szczególnej uwagi w kwestiach bezpieczeństwa informacji.

Szybki rozwój Internetu w cywilizowanym świecie wyprzedza proces tworzenia i doskonalenia regulacyjnych aktów prawnych niezbędnych do uregulowania pojawiających się problemów. Wraz z rozwojem Internetu w ostatnich latach problemy prawne sieci stają się coraz bardziej aktualne na tle zauważalnej transformacji w świecie podejść do ich rozstrzygania: od nacisku na samoregulację do ścisłej regulacji prawnej.

Główne problemy wymagające regulacji prawnych w Rosji w związku z rozwojem Internetu są praktycznie takie same jak w innych rozwiniętych krajach świata:

1) zapewnienie bezpłatnego połączenia z Internetem i wymiany informacji w sieci;

3) ochronę danych osobowych, w szczególności tych, które są zbierane w toku działalności operatorów sieci (w tym adresy, numery telefonów i inne dane osobowe abonentów lub kupujących w systemie „handel elektroniczny”);

4) podłączanie organów państwowych do Internetu i dostarczanie obywatelom informacji o działalności tych organów;

5) zapobieganie rozpowszechnianiu informacji obraźliwych i obscenicznych, nawoływanie do nawoływania do nienawiści na tle narodowościowym, rasowym, wyznaniowym itp.;

6) elektroniczne zarządzanie dokumentami, podpis elektroniczny, potwierdzenie autentyczności informacji w produktach informacyjnych, sposoby przeglądania i przekazywania informacji;

7) handel elektroniczny;

8) bezpieczeństwo informacji: wirusy komputerowe, nieautoryzowany dostęp do informacji, włamywania się do serwerów i sieci, niszczenia i zastępowania informacji;

9) stosowanie środków ochrony kryptograficznej;

10) jurysdykcja: ustawodawstwo którego państwa powinno być stosowane do regulowania działań podejmowanych w sieci.

Analiza aktualnego ustawodawstwa rosyjskiego pokazuje, że kwestie regulacji prawnych związanych z funkcjonowaniem i rozwojem systemu internetowego w Rosji tworzą rozbudowane ramy regulacyjne, obejmujące ponad 50 ustaw federalnych na samym tylko poziomie federalnym, nie mówiąc już o licznych regulacjach prawnych. akty Prezydenta i Rządu Federacji Rosyjskiej. Zakres tych aktów prawnych jest niezwykle szeroki, a ich interpretacja z punktu widzenia specyfiki stosunków prawnych wynikających z wykorzystania nowoczesnych technologii informatycznych jest trudna, zwłaszcza że przy opracowywaniu tych ustaw nie przewidywały odpowiednich możliwości. Widać wyraźnie, że dla sądów ta dziedzina stosunków prawnych jest również zupełnie nowa.

Ustawa wprowadza także szereg innych pojęć. Tym samym ustawa federalna dostosowuje aparat pojęciowy i mechanizmy regulacyjne do praktyki wykorzystania technologii informacyjnych, określa stan prawny różnych kategorii informacji, ustanawia przepisy w zakresie tworzenia i eksploatacji systemów informatycznych, ogólne wymagania dotyczące korzystania sieci informacyjnych i telekomunikacyjnych, a także zasady regulowania stosunków publicznych związanych z wykorzystaniem informacji.

Umocniono zasadę wolności wyszukiwania, otrzymywania, przekazywania, wytwarzania i rozpowszechniania informacji w jakikolwiek legalny sposób. Jednocześnie ograniczenia dostępu do informacji mogą ustanawiać wyłącznie ustawy federalne.

Ustawa zawiera przepisy mające na celu ochronę przed nieuczciwym wykorzystaniem lub nadużywaniem środków rozpowszechniania informacji, w których narzuca się użytkownikom niepotrzebne informacje. W szczególności informacja musi zawierać rzetelną informację o jej właścicielu lub innym dystrybutorze, w formie i objętości wystarczającej do identyfikacji takiej osoby. Dystrybutor, korzystając ze środków rozpowszechniania informacji pozwalających na ustalenie ich odbiorców, w tym przesyłek pocztowych i wiadomości elektronicznych, ma obowiązek zapewnić odbiorcy informacji możliwość odmowy ich przyjęcia.

Podstawowe zasady i sposoby ochrony praw do informacji, samej informacji określane są poprzez podjęcie podstawowych środków prawnych, organizacyjnych i technicznych (oprogramowanie i sprzęt). Prawa właściciela informacji zawartych w bazach systemu informatycznego podlegają ochronie niezależnie od praw autorskich i innych praw do tych baz.

W zależności od kategorii dostępu do informacji dzieli się go na publicznie dostępne, a także ograniczone przepisami prawa federalnego (informacje o ograniczonym dostępie). Ustala się wykaz informacji, do których dostęp nie może być ograniczony (np. o działalności organów rządowych io wykorzystaniu środków budżetowych), a także informacji udzielanych nieodpłatnie.

W literaturze prawniczej operują oni głównie pojęciami otwartości, jawności, jawności i przejrzystości, wraz z którym używany jest termin „przejrzystość”. W prawodawstwie sektorowym pojęcia te są stosowane jako podstawowe zasady. Nowy termin „przejrzystość”, zapożyczony z praktyki zagranicznej, jest ściśle związany z reklamą, otwartością, dostępem do informacji, ale w rzeczywistości jest najbliższy terminom przejrzystości i dostępności.

Obowiązuje zakaz żądania od obywatela (osoby) podania informacji dotyczących jej życia prywatnego, w tym informacji stanowiących tajemnicę osobistą lub rodzinną, oraz otrzymywania takich informacji wbrew woli obywatela (osoby). Wyjątek można zrobić tylko w przypadkach przewidzianych w ustawach federalnych.

Co dziwne, tekst tej ustawy nie zawiera niektórych pojęć używanych w poprzedniej ustawie o informacji z 1995 r. Takie pojęcia to „informacja”, „procesy informacyjne”, „zasoby informacyjne”, „informacje o obywatelach (dane osobowe)” , „środki dostarczania informacji zautomatyzowanych systemów”.

Brak pojęć „informatyzacja” i „zasoby informacyjne” w nowej ustawie federalnej wydaje się być przeoczeniem, ponieważ pojęcia te są już szeroko stosowane nie tylko w ustawodawczych i innych aktach prawnych (na przykład w Kodeksie celnym Federacji Rosyjskiej itp.), Ale także mocno zakorzenione w dziedzinie egzekwowania ustawodawstwa informacyjnego.

Twórcy tej ustawy federalnej, wyłączając z tekstu pojęcie „informatyzacji”, wyszli z tego, że co do zasady ma ona prawo istnieć, ale nie ma na to miejsca w tekstach prawnych, ponieważ może zawierać różne treści. Właśnie ze względu na niejasność użycie go w tekście dawnej ustawy federalnej, zwłaszcza w jej tytule, nie było ich zdaniem najbardziej udanym pomysłem roboczym. Ponadto twórcy nowej ustawy federalnej powołują się na brak tego terminu w ustawodawstwie zagranicznym.

Trudno jednak zgodzić się z takim stanowiskiem, bo w okresie funkcjonowania ustawy o informacji z 1995 r. przyjęto szereg aktów ustawodawczych mających na celu kształtowanie i wykorzystywanie zasobów informacyjnych oraz określanie norm szeregu aktów skodyfikowanych (Kodeks karny Federacji Rosyjskiej, Kodeks karny Federacji Rosyjskiej). Federacja Rosyjska w sprawie wykroczeń administracyjnych z dnia 30 grudnia 2001 r. N 195-FZ (zmieniony 26 lipca 2006 r.)). Terminologia wcześniejszej ustawy o informacji z 1995 r. była używana w wielu aktach prawnych. Ponadto w ustawodawstwie zagranicznym funkcjonuje np. termin „komputeryzacja”. Wydaje się zatem, że termin „informatyka” nie wymagał wyjątku od rosyjskiego ustawodawstwa informacyjnego.

Wyłączenie z ustawy definicji pojęcia „zasoby informacyjne” było również moim zdaniem nieuzasadnione. Ponadto, na przykład, w tej samej ustawie w części 9 art. 14 zawiera wskazanie, że informacje zawarte w państwowych systemach informacyjnych oraz inne informacje i dokumenty będące w dyspozycji organów państwowych są państwowymi zasobami informacyjnymi.

Zwracam uwagę, że niejasność niektórych pojęć, a także niekiedy nieuzasadnione zmiany definicji stosowanych pojęć ustawodawstwa informacyjnego, nie przyczyniają się do poprawy regulacji prawnych w sferze informacyjnej.

Brak definicji pojęcia „dane osobowe” tłumaczy się tym, że niemal równocześnie z nową ustawą federalną przyjęto ustawę federalną nr 152-FZ z dnia 27 lipca 2006 r. „O danych osobowych”, która zapewnia ochrona praw i wolności człowieka i obywatela przy przetwarzaniu jego danych osobowych, w tym ochrona prawa do prywatności, tajemnicy osobistej i rodzinnej.

Kończąc rozważanie tego zagadnienia, należy zauważyć, że znaczna liczba terminów związanych z pojęciem informacji zawarta jest w takich specjalistycznych ustawach, jak „O komunikacji”, „O tajemnicy państwowej”, „O wywiadzie zagranicznym” itp.

Informacja to informacja o czymś.

Pojęcie i rodzaje informacji, przekazywanie i przetwarzanie, wyszukiwanie i przechowywanie informacji

Informacja jest, definicja

Informacja jest każdy inteligencja, odbierane i przesyłane, przechowywane przez różne źródła. - to cały zestaw informacji o otaczającym nas świecie, o wszelkiego rodzaju procesach w nim zachodzących, które mogą być odbierane przez organizmy żywe, maszyny elektroniczne i inne systemy informacyjne.

- to jest istotne informacje o czymś, gdy forma ich prezentacji jest jednocześnie informacją, to znaczy pełni funkcję formatującą zgodnie ze swoją naturą.

Informacja jest wszystko, co można uzupełnić naszą wiedzą i założeniami.

Informacja jest informacje o czymś, niezależnie od formy ich prezentacji.

Informacja jest psychiczne dowolnego organizmu psychofizycznego, wytwarzanego przez niego przy użyciu jakichkolwiek środków, zwanych środkami informacji.

Informacja jest informacje postrzegane przez osobę i (lub) specjalne. urządzenia jako odzwierciedlenie faktów ze świata materialnego lub duchowego w proces komunikacja.

Informacja jest dane zorganizowane w sposób, który ma sens dla osoby, która się nimi zajmuje.

Informacja jest wartość, jaką dana osoba przypisuje do danych w oparciu o znane konwencje używane do jej reprezentowania.

Informacja jest informacja, wyjaśnienie, prezentacja.

Informacja jest wszelkie dane lub informacje, którymi kogokolwiek interesują.

Informacja jest informacje o obiektach i zjawiskach środowiska, ich parametrach, właściwościach i stanie, które są postrzegane przez systemy informacyjne (organizmy żywe, maszyny sterujące itp.) procesżycie i praca.

Ten sam przekaz informacyjny (artykuł prasowy, ogłoszenie, list, telegram, odnośnik, opowiadanie, opowiadanie, rysunek, audycja radiowa itp.) może zawierać różną ilość informacji dla różnych osób - w zależności od ich wcześniejszej wiedzy, na poziomie zrozumienia tego wiadomości i zainteresowanie nią.

Mówiąc o zautomatyzowanym praca z informacjami przez dowolny urządzenia techniczne, nie są zainteresowani treścią wiadomości, ale liczbą znaków, które zawiera ta wiadomość.

Informacje (informacje) to

W odniesieniu do komputerowego przetwarzania danych przez informację rozumie się pewną sekwencję oznaczeń symbolicznych (liter, cyfr, zakodowanych obrazów graficznych i dźwięków itp.), które niosą ze sobą ładunek semantyczny i są prezentowane w formie zrozumiałej dla komputera. Każdy Nowa postać w takim ciągu znaków zwiększa się objętość informacyjna wiadomości.

Obecnie nie ma jednej definicji informacji jako terminu naukowego. Z punktu widzenia różnych dziedzin wiedzy ta koncepcja opisany przez jego specyficzny zestaw funkcji. Np. pojęcie „informacja” jest podstawowe w toku informatyki i nie da się go zdefiniować innymi, bardziej „prostymi” pojęciami (np. w geometrii nie da się wyrazić treści podstawowego pojęcia „punktu”, „linii”, „płaszczyzny” poprzez prostsze pojęcia).

Treść podstawowych, podstawowych pojęć w każdej nauce musi być wyjaśniona przykładami lub zidentyfikowana przez porównanie ich z treścią innych pojęć. W przypadku pojęcia „informacja” problem jego definicji jest jeszcze bardziej skomplikowany, gdyż jest to pojęcie ogólnonaukowe. Pojęcie to jest używane w różnych naukach (informatyka, cybernetyka, biologia, fizyka itp.), natomiast w każdej nauce pojęcie „informacji” wiąże się z różnymi systemami pojęć.

Pojęcie informacji

We współczesnej nauce brane są pod uwagę dwa rodzaje informacji:

Informacja obiektywna (pierwotna) jest właściwością obiektów materialnych i zjawisk (procesów) do generowania różnorodnych stanów, które poprzez interakcje (oddziaływania fundamentalne) są przenoszone na inne obiekty i wdrukowywane w ich strukturę.

Informacja subiektywna (semantyczna, semantyczna, wtórna) to semantyczna treść obiektywnej informacji o przedmiotach i procesach świata materialnego, utworzona przez ludzki umysł za pomocą obrazów semantycznych (słów, obrazów i wrażeń) i utrwalona na jakimś materialnym nośniku .

W potocznym znaczeniu informacja to informacja o otaczającym świecie i zachodzących w nim procesach, postrzegana przez człowieka lub specjalne urządzenie.

Obecnie nie ma jednej definicji informacji jako terminu naukowego. Z punktu widzenia różnych dziedzin wiedzy pojęcie to opisuje specyficzny zestaw cech. Zgodnie z koncepcją K. Shannona informacją jest usunięta niepewność, czyli Informacje, które powinny usunąć, w takim czy innym stopniu, niepewność, jaką nabywca ma przed ich otrzymaniem, poszerzają jego zrozumienie przedmiotu o użyteczne informacje.

Z punktu widzenia Gregory'ego Betona, elementarną jednostką informacji jest „troskliwa różnica” lub efektywna różnica dla jakiegoś większego systemu postrzegania. Te różnice, które nie są postrzegane, nazywa "potencjalnymi", a postrzegane - "aktywnymi". „Informacja składa się z obojętnych różnic” (c) „Każde postrzeganie informacji jest z konieczności nabyciem informacji o różnicy”. Z punktu widzenia informatyki informacja posiada szereg podstawowych właściwości: nowość, trafność, rzetelność, obiektywność, kompletność, wartość itp. Logika zajmuje się przede wszystkim analizą informacji. Słowo „informacja” pochodzi od łacińskiego słowa informatio, które w tłumaczeniu oznacza informację, wyjaśnienie, zapoznanie. Pojęcie informacji było rozważane przez starożytnych filozofów.

Informacje (informacje) to

Przed rewolucją przemysłową określenie istoty informacji pozostawało prerogatywą głównie filozofów. Co więcej, nauka cybernetyki, która była wówczas nowa, zaczęła rozważać zagadnienia teorii informacji.

Czasami, aby zrozumieć istotę pojęcia, warto przeanalizować znaczenie słowa oznaczającego to pojęcie. Wyjaśnienie wewnętrznej formy słowa i zbadanie historii jego użycia może rzucić nieoczekiwane światło na jego znaczenie, przyćmione przez zwykłe „technologiczne” użycie tego słowa i współczesne konotacje.

Słowo informacja weszło do języka rosyjskiego w epoce Piotrowej. Po raz pierwszy jest zapisany w „Regulaminie duchowym” z 1721 r. w znaczeniu „reprezentacja, pojęcie czegoś”. (W językach europejskich zostało to ustalone wcześniej - około XIV wieku.)

Informacje (informacje) to

W oparciu o tę etymologię informację można uznać za każdą istotną zmianę formy lub, innymi słowy, wszelkie materialnie utrwalone ślady utworzone przez interakcję obiektów lub sił i podatne na zrozumienie. Informacja jest zatem przekształconą formą energii. Nośnikiem informacji jest znak, a sposobem jego istnienia jest interpretacja: ujawnienie znaczenia znaku lub ciągu znaków.

Sensem może być zdarzenie odtworzone ze znaku, który spowodował jego wystąpienie (w przypadku znaków „naturalnych” i mimowolnych, takich jak ślady, dowody itp.) lub przekaz (w przypadku znaków umownych charakterystycznych dla sfery języka). To właśnie drugi rodzaj znaków tworzy korpus ludzkiej kultury, który według jednej z definicji jest „zbiorem informacji przekazywanych niedziedzicznie”.

Informacje (informacje) to

Wiadomości mogą zawierać informacje o faktach lub interpretacji faktów (z łac. interpretatio, interpretacja, tłumaczenie).

Żywa istota otrzymuje informacje poprzez zmysły, a także poprzez refleksję czy intuicję. Wymiana informacji między podmiotami to komunikacja lub komunikacja (z łac. communicatio, message, transmission, wywodzące się z łac. communico, łączyć, informować, rozmawiać, łączyć).

Z praktycznego punktu widzenia informacja jest zawsze przedstawiana jako przekaz. Wiadomość informacyjna jest powiązana ze źródłem wiadomości, odbiorcą wiadomości i kanałem komunikacji.

Wracając do łacińskiej etymologii słowa informacja, spróbujmy odpowiedzieć na pytanie, jaka konkretnie forma jest tu podana.

Jest oczywiste, że, po pierwsze, jakiś sens, który będąc początkowo bezforemny i niewyrażony, istnieje tylko potencjalnie i musi zostać „zbudowany”, aby mógł być postrzegany i przekazywany.

Po drugie, do ludzkiego umysłu, który jest wychowywany do myślenia strukturalnie i jasno. Po trzecie, społeczeństwo, które właśnie dlatego, że jego członkowie dzielą te znaczenia i dzielą je, zyskuje jedność i funkcjonalność.

Informacje (informacje) to

informacje wyrażone w rozsądnym znaczeniu to wiedza, która może być przechowywana, przekazywana i stanowić podstawę do generowania innej wiedzy. Formy konserwacji wiedzy (pamięci historycznej) są różnorodne: od mitów, annałów i piramid po biblioteki, muzea i komputerowe bazy danych.

Informacje – informacje o otaczającym nas świecie, o zachodzących w nim procesach, które są postrzegane przez organizmy żywe, menedżerowie maszyny i inne systemy informacyjne.

Słowo „informacja” pochodzi z łaciny. Przez długie życie jego znaczenie podlegało ewolucji, czasem rozszerzając się, czasem zawężając swoje granice do granic możliwości. Początkowo słowo „informacja” oznaczało: „reprezentację”, „koncepcję”, a następnie - „informację”, „przekaz wiadomości”.

W ostatnich latach naukowcy uznali, że zwykłe (powszechnie akceptowane) znaczenie słowa „informacja” jest zbyt elastyczne, niejasne i nadali mu takie znaczenie: „miara pewności w komunikacie”.

Informacje (informacje) to

Teorię informacji powołały do ​​życia potrzeby praktyki. Jego występowanie jest związane z praca Claude Shannon „Matematyczna teoria komunikacji”, opublikowana w 1946 r. Podstawy teorii informacji opierają się na wynikach uzyskanych przez wielu naukowców. W drugiej połowie XX wieku na świecie aż huczało od przesyłanych informacji, płynących za pośrednictwem kabli telefonicznych, telegraficznych i kanałów radiowych. Później pojawiły się komputery elektroniczne - procesory informacji. I w tym czasie głównym zadaniem teorii informacji było przede wszystkim zwiększenie efektywności funkcjonowania systemów komunikacyjnych. Trudność w projektowaniu i obsłudze środków, systemów i kanałów komunikacyjnych polega na tym, że nie wystarczy projektantowi i inżynierowi rozwiązać problem z pozycji fizycznych i energetycznych. Z tych punktów widzenia system może być najdoskonalszy i najbardziej ekonomiczny. Ale przy tworzeniu systemów transmisji ważne jest również zwrócenie uwagi na to, ile informacji przejdzie przez ten system transmisji. W końcu informacje można określić ilościowo, obliczyć. I postępują w takich obliczeniach najzwyklejszy sposób: abstrahują od znaczenia przekazu, wyrzekają się konkretności w znanych nam wszystkim działaniach arytmetycznych (jak od dodania dwóch jabłek i trzech jabłek przechodzą do dodawania). liczb ogólnie: 2 + 3).

Naukowcy powiedzieli, że „całkowicie zignorowali ludzką ocenę informacji”. Na przykład ciągowi 100 liter przypisują określone znaczenie informacji, bez względu na to, czy ta informacja ma sens i czy z kolei ma sens praktyczne zastosowanie. Podejście ilościowe jest najbardziej rozwiniętą gałęzią teorii informacji. Zgodnie z tą definicją zbiór 100 liter — 100-literowa fraza z gazety, sztuki Szekspira lub twierdzenie Einsteina — zawiera dokładnie taką samą ilość informacji.

Ta kwantyfikacja informacji jest bardzo przydatna i praktyczna. Odpowiada to dokładnie zadaniu inżyniera komunikacji, który musi przekazać wszystkie informacje zawarte w przesłanym telegramie, niezależnie od wartości tych informacji dla adresata. Kanał komunikacji jest bezduszny. Jedno jest ważne dla systemu nadawczego: przekazywać wymaganą ilość informacji dla określony czas. Jak obliczyć ilość informacji w konkretnej wiadomości?

Informacje (informacje) to

Ocena ilości informacji opiera się na prawach rachunku prawdopodobieństwa, a dokładniej określana jest poprzez: prawdopodobieństwa wydarzenia. To jest zrozumiałe. Komunikat ma wartość, niesie informację tylko wtedy, gdy dowiadujemy się z niego o wyniku zdarzenia, które ma charakter przypadkowy, gdy jest w pewnym stopniu nieoczekiwany. Przecież wiadomość o tym, co już znane, nie zawiera żadnych informacji. Tych. jeśli np. ktoś zadzwoni do Ciebie przez telefon i powie: „W dzień jest jasno, a nocą ciemno”, to taki komunikat zaskoczy Cię jedynie absurdalnością stwierdzenia tego, co oczywiste i znane, a nie z wiadomościami, które zawiera. Inna sprawa, na przykład wynik wyścigu na wyścigach. Kto będzie pierwszy? Wynik jest tu trudny do przewidzenia, im bardziej interesujące nas zdarzenie ma losowe wyniki, im bardziej wartościowy komunikat o jego wyniku, tym więcej informacji. Komunikat zdarzenia, który ma tylko dwa równie możliwe wyniki, zawiera jedną informację zwaną bitem. Wybór jednostki informacji nie jest przypadkowy. Jest to związane z najczęstszymi sposób binarny jego kodowanie podczas transmisji i przetwarzania. Spróbujmy, przynajmniej w najbardziej uproszczonej formie, wyobrazić sobie tę ogólną zasadę ilościowej oceny informacji, która jest kamieniem węgielnym całej teorii informacji.

Wiemy już, że ilość informacji zależy od prawdopodobieństwa niektóre wyniki wydarzenia. Jeśli zdarzenie, jak mówią naukowcy, ma dwa równie prawdopodobne wyniki, oznacza to, że każdy wynik jest równy 1/2. Jest to prawdopodobieństwo otrzymania orła lub reszki podczas rzucania monetą. Jeśli zdarzenie ma trzy równie prawdopodobne wyniki, prawdopodobieństwo każdego z nich wynosi 1/3. Zauważ, że suma prawdopodobieństw wszystkich wyników jest zawsze równa jeden: w końcu jeden ze wszystkich możliwych wyników na pewno nadejdzie. Jak rozumiesz, wydarzenie może mieć nierówne wyniki. Tak więc w meczu piłki nożnej pomiędzy silnymi i słabymi drużynami prawdopodobieństwo wygrania silnej drużyny jest wysokie – np. 4/5. remis jest znacznie mniejszy, na przykład 3/20. Prawdopodobieństwo porażki jest bardzo małe.

Okazuje się, że ilość informacji jest miarą zmniejszenia niepewności jakiejś sytuacji. Przez kanały komunikacyjne przesyłane są różne ilości informacji, a ilość informacji przechodzących przez kanał nie może być większa. pasmo. I zależy od tego, ile informacji przechodzi tutaj w jednostce czasu. Jeden z bohaterów powieści Julesa Verne'a Tajemnicza wyspa, dziennikarz Gideon Spillet, zestaw telefoniczny rozdział z Biblii, aby jego konkurenci nie mogli korzystać z telefonu. W tym przypadku kanał został obciążony całkowicie, a ilość informacji była równa zero, ponieważ abonent otrzymał znane mu informacje. Oznacza to, że kanał był bezczynny, przepuszczając ściśle określoną liczbę impulsów, nie obciążając ich czymkolwiek. Tymczasem im więcej informacji niesie każdy z określonej liczby impulsów, tym pełniej wykorzystuje się przepustowość kanału. Dlatego konieczne jest inteligentne kodowanie informacji, aby znaleźć oszczędny, skąpy język do przekazywania wiadomości.

Informacje są „przesiewane” w najdokładniejszy sposób. W telegrafie często występujące litery, kombinacje liter, a nawet całe frazy są przedstawiane krótszym zestawem zer i jedynek, a te, które występują rzadziej, są dłuższe. W przypadku, gdy długość słowa kodowego jest zmniejszona dla często występujących symboli i zwiększona dla rzadko występujących, mówi się o efektywnym kodowaniu informacji. Ale w praktyce często zdarza się, że kod powstały w wyniku najdokładniejszego „przesiewania”, kodu wygodnego i ekonomicznego, może zniekształcić przekaz na skutek zakłóceń, co niestety zawsze dzieje się w kanałach komunikacyjnych: zniekształcenia dźwięku w telefonie, atmosferyczne szum, zniekształcenie lub przyciemnienie obrazu w telewizji, błędy transmisji w telegraf. Zakłócenia te, czy też, jak nazywają je eksperci, szumy, spadają na informacje. I z tego są najbardziej niesamowite i oczywiście nieprzyjemne niespodzianki.

Dlatego, aby zwiększyć niezawodność w przesyłaniu i przetwarzaniu informacji, konieczne jest wprowadzenie dodatkowych znaków - rodzaj zabezpieczenia przed zniekształceniami. One – te dodatkowe znaki – nie niosą rzeczywistej treści wiadomości, są zbędne. Z punktu widzenia teorii informacji wszystko, co czyni język kolorowym, elastycznym, bogatym w odcienie, wieloaspektowym, wielowartościowym, jest redundancją. Jak zbędny na takich stanowiskach jest list Tatiany do Oniegina! Ile jest w tym ekscesów informacyjnych dla krótkiej i zrozumiałej wiadomości „Kocham Cię”! A jakże trafne informacyjnie są odręczne znaki, które są zrozumiałe dla każdego, kto dziś wchodzi do metra, gdzie zamiast słów i fraz ogłoszeń są lakoniczne symboliczne znaki wskazujące: „Wejście”, „Wyjście”.

W związku z tym warto przypomnieć anegdotę opowiedzianą kiedyś przez słynnego amerykańskiego naukowca Benjamina Franklina o kapeluszniku, który zaprosił swoich przyjaciół do omówienia projektu znaku. Miał narysować kapelusz na znaku i napisać: „John Kapelusznik Thompson robi i sprzedaje kapelusze za gotówkę”. Jeden znajomy zauważył, że słowa „za gotówkę pieniądze» są zbędne – takie przypomnienie byłoby obraźliwe dla kupujący. Inny również uznał, że słowo „sprzedaje” jest zbyteczne, ponieważ jest rzeczą oczywistą, że kapelusznik sprzedaje kapelusze i nie oddaje ich za darmo. Trzecia myśl, że słowa „kapelusznik” i „robi kapelusze” były niepotrzebną tautologią, a ostatnie słowa zostały wyrzucone. Czwarty sugerował wyrzucenie słowa „kapelusznik” – namalowany kapelusz wyraźnie mówi, kim jest John Thompson. Wreszcie piąty zapewnił, że za kupujący nie miało znaczenia, czy kapelusznik nazywał się John Thompson, czy inaczej, i zasugerował, aby zrezygnować z tego oznaczenia.W rezultacie na znaku nie pozostało nic poza kapeluszem. Oczywiście, jeśli ludzie używali tylko tego rodzaju kodów, bez redundancji w wiadomościach, to wszystko " formularze informacyjne» - książki, raporty, artykuły - byłyby niezwykle krótkie. Ale stracą na zrozumiałości i pięknie.

Informacje można podzielić na typy według różnych kryteriów: wprawdzie: prawda i fałsz;

zgodnie ze sposobem percepcji:

Wizualne - postrzegane przez narządy wzroku;

Słuchowe - postrzegane przez narządy słuchu;

Dotykowy - postrzegany przez receptory dotykowe;

Węchowy - postrzegany przez receptory węchowe;

Smak - Postrzegany przez kubki smakowe.

w formie prezentacji:

Tekst – przekazywany w postaci symboli przeznaczonych do oznaczania leksemów języka;

Numeryczny - w postaci liczb i znaków oznaczających operacje matematyczne;

Grafika - w postaci obrazów, obiektów, wykresów;

Dźwięk - ustny lub w formie nagrania, przekaz leksemów językowych za pomocą środków słuchowych.

po wcześniejszym umówieniu:

Msza - zawiera banalne informacje i operuje zestawem pojęć zrozumiałych dla większości społeczeństwa;

Specjalne - zawiera określony zestaw pojęć, gdy są używane, przekazywane są informacje, które mogą nie być jasne dla większości społeczeństwa, ale są konieczne i zrozumiałe w wąskim Grupa społeczna gdzie te informacje są wykorzystywane;

Sekret - przekazywany do wąskiego kręgu ludzi i przez zamknięte (bezpieczne) kanały;

Osobiste (prywatne) – zbiór informacji o osobie, który określa pozycję społeczną i rodzaje interakcji społecznych w obrębie populacji.

według wartości:

Aktualne - cenne informacje w ten moment czas;

Wiarygodne - informacje otrzymane bez zniekształceń;

Zrozumiały – informacja wyrażona w języku zrozumiałym dla osoby, dla której jest przeznaczona;

Kompletne - informacje wystarczające do podjęcia właściwej decyzji lub zrozumienia;

Przydatne – o użyteczności informacji decyduje podmiot, który otrzymał informację, w zależności od ilości możliwości jej wykorzystania.

Wartość informacji w różnych dziedzinach wiedzy

W teorii informacji opracowywanych jest obecnie wiele systemów, metod, podejść i pomysłów. Jednak naukowcy uważają, że nowoczesne trendy nowe pomysły zostaną dodane do teorii informacji, pojawią się nowe pomysły. Na dowód słuszności swoich założeń przytaczają „żywą”, rozwijającą się naturę nauki, zwracają uwagę, że teoria informacji jest zaskakująco szybko i mocno wprowadzana w najróżniejsze obszary ludzkiej wiedzy. Teoria informacji przeniknęła do fizyki, chemii, biologii, medycyny, filozofii, językoznawstwa, pedagogiki, ekonomii, logiki, nauk technicznych i estetyki. Według samych ekspertów doktryna informacji, która powstała na potrzeby teorii komunikacji i cybernetyki, przekroczyła swoje granice. A teraz być może mamy prawo mówić o informacji jako o koncepcji naukowej, która oddaje w ręce badaczy teorię metoda informacyjna, za pomocą którego można przeniknąć do wielu nauk o przyrodzie ożywionej i nieożywionej, o społeczeństwie, co pozwoli nie tylko spojrzeć na wszystkie problemy pod nowym kątem, ale także zobaczyć to, czego jeszcze nie widziano. Dlatego pojęcie „informacja” stało się w naszych czasach powszechne, wpisując się w takie pojęcia, jak system informacyjny, kultura informacyjna, a nawet etyka informacyjna.

Wiele dyscyplin naukowych wykorzystuje teorię informacji, aby podkreślić nowy kierunek w starych naukach. Tak powstały m.in. geografia informacji, ekonomika informacji, prawo informacyjne. Ale termin „informacja” stał się niezwykle ważny w związku z rozwojem najnowszych technologii komputerowych, automatyzacją pracy umysłowej, rozwojem nowych środków komunikacji i przetwarzania informacji, a zwłaszcza z pojawieniem się informatyki. Jednym z najważniejszych zadań teorii informacji jest badanie natury i właściwości informacji, tworzenie metod jej przetwarzania, w szczególności przekształcanie szerokiej gamy nowoczesnych informacji w programy komputerowe, za pomocą których następuje automatyzacja pracy umysłowej – swego rodzaju wzmocnienie inteligencji, a co za tym idzie rozwój intelektualnych zasobów społeczeństwa.

Słowo „informacja” pochodzi od łacińskiego słowa informatio, które oznacza informację, wyjaśnienie, zapoznanie. Pojęcie „informacji" jest podstawowe w zakresie informatyki, ale nie da się go zdefiniować za pomocą innych, bardziej „prostszych" pojęć. Pojęcie „informacji" jest używane w różnych naukach, a w każdej nauce pojęcie „informacji" „informacja” wiąże się z różnymi systemami pojęć. Informacje w biologii: Biologia bada dziką przyrodę, a pojęcie „informacji” wiąże się z odpowiednim zachowaniem żywych organizmów. W organizmach żywych informacje są przekazywane i przechowywane za pomocą obiektów o różnej naturze fizycznej (stanu DNA), które są uważane za znaki alfabetów biologicznych. Informacja genetyczna jest dziedziczona i przechowywana we wszystkich komórkach żywych organizmów. Podejście filozoficzne: informacja to interakcja, refleksja, poznanie. Podejście cybernetyczne: informacja jest cechą charakterystyczną menedżer sygnał przesyłany przez linię komunikacyjną.

Rola informacji w filozofii

Tradycjonalizm podmiotowości zawsze dominował we wczesnych definicjach informacji jako kategorii, pojęć, właściwości świata materialnego. Informacja istnieje poza naszą świadomością i może być odzwierciedlona w naszej percepcji jedynie w wyniku interakcji: refleksji, czytania, odbioru w postaci sygnału, bodźca. Informacja nie jest materialna, jak wszystkie właściwości materii. Informacja jest uporządkowana w kolejności: materia, przestrzeń, czas, spójność, funkcja itd., które są podstawowymi pojęciami sformalizowanego odzwierciedlenia obiektywnej rzeczywistości w jej dystrybucji i zmienności, różnorodności i przejawach. Informacja jest własnością materii i odzwierciedla jej właściwości (stan lub zdolność do interakcji) oraz ilość (miara) poprzez interakcję.

Z materialnego punktu widzenia informacja jest porządkiem obiektów materialnego świata. Na przykład kolejność liter na kartce papieru według pewnych zasad jest informacją pisemną. Kolejność wielokolorowych kropek na kartce papieru według pewnych zasad jest informacje graficzne. Kolejność nut to informacje muzyczne. Kolejność genów w DNA to informacja dziedziczna. Kolejność bitów w komputerze to informacje o komputerze itp. itp. Do realizacji wymiany informacji wymagana jest obecność koniecznych i wystarczających warunków.

Informacje (informacje) to

Niezbędne warunki:

Obecność co najmniej dwóch różnych obiektów świata materialnego lub niematerialnego;

Obecność obiektów we wspólnej własności, która pozwala na identyfikację obiektów jako nośnika informacji;

Przedmioty mają określoną właściwość, która pozwala im odróżnić przedmioty od siebie;

Obecność właściwości przestrzeni, która pozwala określić kolejność obiektów. Na przykład układ informacji pisanych na papierze jest specyficzną właściwością papieru, która umożliwia układanie liter od lewej do prawej iz góry na dół.

Jest tylko jeden wystarczający warunek: obecność podmiotu zdolnego do rozpoznawania informacji. To jest osoba i społeczeństwo ludzkie, społeczności zwierząt, robotów itp. Przekaz informacyjny konstruowany jest poprzez wybór kopii obiektów z bazy i ułożenie tych obiektów w przestrzeni w określonej kolejności. Długość wiadomości informacyjnej jest definiowana jako liczba kopii obiektów bazowych i zawsze jest wyrażona jako liczba całkowita. Konieczne jest rozróżnienie między długością wiadomości informacyjnej, która jest zawsze mierzona jako liczba całkowita, a ilością wiedzy zawartej w wiadomości informacyjnej, która jest mierzona w nieznanej jednostce miary. Z matematycznego punktu widzenia informacja to ciąg liczb całkowitych zapisanych w wektorze. Liczby to numer obiektu w bazie informacyjnej. Wektor nazywany jest niezmiennikiem informacji, ponieważ nie zależy od fizycznej natury obiektów bazowych. Jeden i ten sam przekaz informacyjny można wyrazić literami, słowami, zdaniami, plikami, obrazkami, notatkami, piosenkami, klipami wideo, dowolną kombinacją wszystkich wcześniej nazwanych.

Informacje (informacje) to

Rola informacji w fizyce

informacja to informacja o otaczającym świecie (obiekt, proces, zjawisko, zdarzenie), która jest przedmiotem transformacji (w tym przechowywania, transmisji itp.) i służy do rozwijania zachowań, podejmowania decyzji, zarządzania lub uczenia się.

Charakterystyki informacji są następujące:

To najważniejszy zasób nowoczesnej produkcji: zmniejsza zapotrzebowanie na ziemię, siłę roboczą, kapitał, obniża koszty surowców i energii. Na przykład mając możliwość archiwizowania plików (czyli posiadania takich informacji), nie możesz wydawać pieniędzy na zakup nowych dyskietek;

Informacja ożywia nowe produkcje. Na przykład wynalezienie wiązki laserowej było przyczyną powstania i rozwoju produkcji dysków laserowych (optycznych);

Informacja jest towarem, a informacja nie traci jej po sprzedaży. Jeśli więc student poinformuje znajomego o planie zajęć w trakcie semestru, nie straci tych danych dla siebie;

Informacja nadaje dodatkową wartość innym zasobom, w szczególności pracy. Rzeczywiście, pracownik z wyższym wykształceniem jest ceniony bardziej niż pracownik z wykształceniem średnim.

Jak wynika z definicji, z informacją zawsze wiążą się trzy pojęcia:

Źródłem informacji jest ten element otaczającego świata (obiekt, zjawisko, zdarzenie), o którym informacja jest przedmiotem przekształcenia. Tak więc źródłem informacji, które czytelnik tego przewodnik do nauki, to informatyka jako dziedzina działalności człowieka;

Odbiorcą informacji jest ten element otaczającego świata, który wykorzystuje informacje (do rozwijania zachowań, podejmowania decyzji, zarządzania lub uczenia się). Nabywcą tych informacji jest sam czytelnik;

Sygnał jest nośnikiem materialnym, który przechwytuje informacje i przekazuje je od źródła do odbiorcy. W tym przypadku sygnał ma charakter elektroniczny. Jeśli uczeń zabierze ten podręcznik do biblioteki, te same informacje będą na papierze. Odczytana i zapamiętana przez ucznia informacja nabierze kolejnego nośnika – biologicznego, gdy zostanie „zapisana” w pamięci ucznia.

Sygnał jest najważniejszym elementem w tym obwodzie. Formy jej prezentacji, a także istotne dla odbiorcy informacje ilościowe i jakościowe cechy zawartych w nich informacji omówiono w dalszej części podręcznika. Główne cechy komputera jako głównego narzędzia, które wykonuje mapowanie źródła informacji na sygnał (łącze 1 na rysunku) i „doprowadzanie” sygnału do odbiorcy informacji (łącze 2 na rysunku) podano w w sekcji Komputer. Struktura procedur realizujących łącza 1 i 2 i składających się na proces informacyjny jest przedmiotem rozważań w części Proces informacyjny.

Obiekty świata materialnego znajdują się w stanie ciągłej zmiany, która charakteryzuje się wymianą energii obiektu z otoczeniem. Zmiana stanu jednego obiektu zawsze prowadzi do zmiany stanu innego obiektu w otoczeniu. Zjawisko to, niezależnie od tego, w jaki sposób, jakie poszczególne stany i które poszczególne obiekty uległy zmianie, można uznać za transmisję sygnału z jednego obiektu do drugiego. Zmiana stanu obiektu po wysłaniu do niego sygnału nazywana jest rejestracją sygnału.

Sygnał lub sekwencja sygnałów tworzą komunikat, który może być odebrany przez odbiorcę w takiej czy innej formie, jak również w takim czy innym tomie. Informacja w fizyce to termin jakościowo uogólniający pojęcia „sygnału” i „wiadomości”. Jeśli sygnały i komunikaty można określić ilościowo, to możemy powiedzieć, że sygnały i komunikaty są jednostkami miary ilości informacji. Komunikat (sygnał) jest różnie interpretowany przez różne systemy. Na przykład, długi i dwa krótkie sygnały dźwiękowe w sekwencji w terminologii alfabetu Morse'a to litera de (lub D), w terminologii BIOS od dyplomu, awaria karty graficznej.

Informacje (informacje) to

Rola informacji w matematyce

W matematyce teoria informacji (matematyczna teoria komunikacji) to dział matematyki stosowanej, który definiuje pojęcie informacji, jej właściwości i ustanawia relacje ograniczające dla systemów transmisji danych. Główne działy teorii informacji to kodowanie źródłowe (kodowanie kompresyjne) i kodowanie kanałowe (odporność na hałas). Matematyka to więcej niż dyscyplina naukowa. Tworzy jeden język dla całej nauki.

Przedmiotem badań matematycznych są obiekty abstrakcyjne: liczba, funkcja, wektor, zbiór i inne. Ponadto większość z nich jest wprowadzana aksjomatycznie (aksjomat), tj. bez związku z innymi pojęciami i bez definicji.

Informacje (informacje) to

informacje nie znajdują się wśród przedmiotów studiów matematycznych. Jednak słowo „informacja” jest używane w kategoriach matematycznych - informacja własna i informacja wzajemna, związana z abstrakcyjną (matematyczną) częścią teorii informacji. Jednak w teorii matematycznej pojęcie „informacji” kojarzy się wyłącznie z obiektami abstrakcyjnymi – zmiennymi losowymi, podczas gdy we współczesnej teorii informacji pojęcie to jest rozważane znacznie szerzej – jako właściwość obiektów materialnych. Związek między tymi dwoma identycznymi terminami jest niezaprzeczalny. To właśnie matematyczny aparat liczb losowych posłużył się autorowi teorii informacji Claude Shannon. On sam przez termin „informacja” rozumie coś fundamentalnego (nieredukowalnego). Teoria Shannona intuicyjnie zakłada, że ​​informacja ma treść. Informacja zmniejsza ogólną niepewność i entropię informacji. Ilość informacji dostępnych do pomiaru. Przestrzega jednak badaczy przed mechanicznym przenoszeniem pojęć z jego teorii do innych dziedzin nauki.

„Poszukiwanie sposobów zastosowania teorii informacji w innych dziedzinach nauki nie sprowadza się do trywialnego przeniesienia terminów z jednej dziedziny nauki do drugiej. Poszukiwania te są prowadzone w długim procesie stawiania nowych hipotez i ich eksperymentalnej weryfikacji. " K. Shannona.

Informacje (informacje) to

Rola informacji w cybernetyce

Założyciel cybernetyki, Norbert Wiener, tak wypowiadał się o informacjach:

informacja nie jest materią ani energią, informacja jest informacją”. Ale główna definicja informacji, którą podał w kilku swoich książkach, jest następująca: informacja jest określeniem treści otrzymywanych przez nas ze świata zewnętrznego, w procesie dostosowując nas i nasze uczucia.

Informacja jest podstawowym pojęciem cybernetyki, tak jak wywiad gospodarczy jest podstawowym pojęciem cybernetyki ekonomicznej.

Definicji tego terminu jest wiele, są one złożone i sprzeczne. Powodem jest oczywiście to, że różne nauki traktują cybernetykę jako zjawisko, a cybernetyka jest z nich najmłodsza. I. jest przedmiotem badań takich nauk jak nauka o zarządzaniu, matematyka, genetyka, teoria środków masowego przekazu I. (druk, radio, telewizja), informatyka, zajmująca się problematyką naukowo-technicznej I. itd. Wreszcie, w ostatnim czasie filozofowie wykazywali duże zainteresowanie problematyką I.: skłaniają się do uznania I. za jedną z głównych uniwersalnych właściwości materii , związane z pojęciem refleksji. Przy wszystkich interpretacjach pojęcia I. zakłada istnienie dwóch obiektów: źródła I. i nabywcy (odbiorcy) I. Przeniesienie I. z jednego na drugi następuje za pomocą sygnałów, które na ogół mówiąc, nie może mieć żadnego fizycznego związku ze swoim znaczeniem: ten związek określa umowa. Np. uderzenie w dzwon veche oznaczało, że trzeba było zebrać się na placu, ale dla tych, którzy nie wiedzieli o tym rozkazie, nie poinformował żadnego ja.

W sytuacji z dzwonem nieszpornym osoba zaangażowana w uzgodnienie znaczenia sygnału wie, że w tej chwili mogą być dwie alternatywy: nieszpory odbędą się lub nie. Lub, mówiąc językiem teorii I., zdarzenie nieokreślone (veche) ma dwa skutki. Odebrany sygnał prowadzi do zmniejszenia niepewności: osoba wie, że zdarzenie (veche) ma tylko jeden skutek – nastąpi. Jeśli jednak z góry było wiadomo, że veche nastąpi o takiej a takiej godzinie, dzwonek nie zapowiadał niczego nowego. Wynika z tego, że im mniej prawdopodobny (tj. bardziej nieoczekiwany) komunikat, tym więcej ja zawiera i odwrotnie, im bardziej prawdopodobny jest wynik przed zdarzeniem, tym mniej ja zawiera sygnał. Mniej więcej takie rozumowanie prowadziło w latach 40-tych. XX wiek do powstania statystycznej, czyli „klasycznej” teorii I., która definiuje pojęcie I. poprzez miarę zmniejszenia niepewności wiedzy o zajściu zdarzenia (taką miarę nazwano entropią). N. Wiener, K. Shannon i radzieccy naukowcy A. N. Kolmogorov, V. A. Kotelnikov i inni stanęli u początków tej nauki… pojemność pamięci urządzeń I. itp., która służyła jako potężny bodziec do rozwoju cybernetyki jako nauka i elektroniczna technika obliczeniowa jako praktyczne zastosowanie zdobyczy cybernetyki.

Jeśli chodzi o określenie wartości, użyteczności I. dla odbiorcy, wciąż pozostaje wiele nierozstrzygniętych, niejasnych. Jeśli wyjdziemy od potrzeb zarządzania gospodarczego, a co za tym idzie, cybernetyki ekonomicznej, to informację można zdefiniować jako całość informacji, wiedzy, komunikatów, które pomagają rozwiązać określony problem zarządzania (czyli zmniejszyć niepewność jego wyników). Wtedy otwierają się możliwości oceny I.: im bardziej przydatne, cenniejsze, tym prędzej czy mniej koszty prowadzi do rozwiązania problemu. Pojęcie I. jest bliskie pojęciu danych. Jest jednak między nimi różnica: dane to sygnały, z których należy jeszcze wydobyć AND.Przetwarzanie danych to proces sprowadzania ich do odpowiedniej do tego postaci.

Proces ich przenoszenia od źródła do nabywcy i percepcję jako I. można uznać za przechodzenie przez trzy filtry:

fizyczne lub statystyczne (ograniczenie czysto ilościowe przepustowości kanału, niezależnie od zawartości danych, czyli pod względem składniowym);

Semantyczny (wybór tych danych, które mogą być zrozumiane przez odbiorcę, tj. odpowiadają tezaurusowi jego wiedzy);

Pragmatyczny (wybór spośród zrozumiałych informacji tych, które są przydatne do rozwiązania danego problemu).

Dobrze to pokazuje wykres zaczerpnięty z książki E.G. Yasina o informacjach ekonomicznych. W związku z tym wyróżnia się trzy aspekty badania problemów I. — syntaktyczny, semantyczny i pragmatyczny.

Zgodnie z jego treścią I. jest podzielony na społeczno-polityczne, społeczno-gospodarcze (w tym gospodarcze I.), naukowe i techniczne itp. Ogólnie istnieje wiele klasyfikacji I., są one zbudowane na różnych podstawach. Z reguły, ze względu na bliskość pojęć, klasyfikacje danych budowane są w ten sam sposób. Na przykład informacje są podzielone na statyczne (stałe) i dynamiczne (zmienne), a dane na stałe i zmienne. Kolejny dział to pierwotna, pochodna, wyjście I. (dane są klasyfikowane w ten sam sposób). Trzeci podział to I. zarządzanie i informowanie. Czwarty jest zbędny, użyteczny i fałszywy. Po piąte - kompletne (ciągłe) i selektywne. Ta idea Wienera daje bezpośrednie wskazanie na obiektywność informacji, tj. jego istnienie w przyrodzie jest niezależne od ludzkiej świadomości (percepcji).

Informacje (informacje) to

Współczesna cybernetyka definiuje obiektywną informację jako obiektywną właściwość obiektów i zjawisk materialnych do generowania różnych stanów, które są przenoszone z jednego obiektu (procesu) na inny poprzez fundamentalne interakcje materii i wdrukowywane w jego strukturę. System materialny w cybernetyce jest traktowany jako zbiór obiektów, które same mogą znajdować się w różnych stanach, ale stan każdego z nich jest określony przez stany innych obiektów w systemie.

Informacje (informacje) to

W naturze zbiór stanów systemu jest informacją, same stany są kodem podstawowym lub kodem źródłowym. Zatem każdy system materialny jest źródłem informacji. Cybernetyka definiuje subiektywne (semantyczne) informacje jako znaczenie lub treść wiadomości.

Rola informacji w informatyce

Przedmiotem nauki są właśnie dane: metody ich tworzenia, przechowywania, przetwarzania i przesyłania. Treść (również: „wypełnianie” (w kontekście), „treść witryny”) to termin oznaczający wszelkiego rodzaju informacje (zarówno tekstowe, jak i multimedialne – obrazy, audio, wideo), które składają się na treść (wizualizowaną, dla odwiedzającego, treści) serwisu internetowego. Służy do oddzielenia pojęcia informacji składającej się na wewnętrzną strukturę strony/witryny (kodu), od tej, która docelowo będzie wyświetlana na ekranie.

Słowo „informacja” pochodzi od łacińskiego słowa informatio, które oznacza informację, wyjaśnienie, zapoznanie. Pojęcie „informacji” jest podstawowe w toku informatyki, ale nie da się go zdefiniować innymi, bardziej „prostymi” pojęciami.

Można wyróżnić następujące podejścia do definicji informacji:

Tradycyjne (zwykłe) - stosowane w informatyce: informacja to informacja, wiedza, komunikaty o stanie rzeczy, które człowiek odbiera ze świata zewnętrznego za pomocą zmysłów (wzroku, słuchu, smaku, węchu, dotyku).

Probabilistyczne - stosowane w teorii informacji: informacja to informacja o obiektach i zjawiskach środowiska, ich parametrach, właściwościach i stanie, które zmniejszają stopień niepewności i niekompletności wiedzy o nich.

Informacje są przechowywane, przesyłane i przetwarzane w formie symbolicznej (znakowej). Te same informacje mogą być prezentowane w różnych formach:

Pismo sygnowane, składające się z różnych znaków, wśród których znajduje się symboliczny w postaci tekstu, cyfr, znaków specjalnych. postacie; graficzny; tabelaryczne itp.;

Forma gestów lub sygnałów;

Ustna forma werbalna (rozmowa).

Prezentacja informacji odbywa się za pomocą języków, jako systemów migowych, które zbudowane są w oparciu o określony alfabet i mają zasady wykonywania operacji na znakach. Język to pewien system symboliczny służący do przedstawiania informacji. Istnieć:

Języki naturalne to języki mówione w formie mówionej i pisanej. W niektórych przypadkach język mówiony można zastąpić językiem mimiki i gestów, językiem znaków specjalnych (na przykład znaków drogowych);

Języki formalne to specjalne języki dla różnych dziedzin ludzkiej działalności, które charakteryzują się sztywno ustalonym alfabetem, bardziej rygorystycznymi zasadami gramatyki i składni. Są to język muzyki (nuty), język matematyki (liczby, znaki matematyczne), systemy liczbowe, języki programowania itp. Sercem każdego języka jest alfabet - zestaw symboli/znaków. Całkowita liczba symboli w alfabecie nazywana jest mocą alfabetu.

Nośniki informacji – nośnik lub ciało fizyczne służące do przesyłania, przechowywania i odtwarzania informacji. (Są to elektryczne, świetlne, termiczne, dźwiękowe, radio sygnały, dyski magnetyczne i laserowe, publikacje drukowane, zdjęcia itp.)

Procesy informacyjne to procesy związane z odbiorem, przechowywaniem, przetwarzaniem i przesyłaniem informacji (tj. czynnościami wykonywanymi z informacją). Tych. Są to procesy, podczas których zmienia się treść informacji lub forma jej prezentacji.

Do zapewnienia procesu informacyjnego potrzebne jest źródło informacji, kanał komunikacji oraz odbiorca informacji. Źródło przesyła (wysyła) informacje, a odbiorca je odbiera (odbiera). Przesyłane informacje są osiągane od źródła do odbiornika za pomocą sygnału (kodu). Zmiana sygnału pozwala uzyskać informacje.

Będąc przedmiotem transformacji i użytkowania, informacja charakteryzuje się następującymi właściwościami:

Składnia to właściwość określająca sposób prezentacji informacji na nośniku (w sygnale). W związku z tym informacje te są prezentowane na Media elektroniczne z określoną czcionką. Tutaj możesz również wziąć pod uwagę takie parametry prezentacji informacji, jak styl i kolor czcionki, jej rozmiar, odstępy między wierszami itp. Dobór wymaganych parametrów jako właściwości syntaktycznych jest oczywiście zdeterminowany przez proponowaną metodę transformacji. Na przykład dla osoby niedowidzącej rozmiar i kolor czcionki są niezbędne. Jeśli zamierzasz wprowadzić ten tekst do komputera za pomocą skanera, ważny jest rozmiar papieru;

Semantyka to właściwość, która definiuje znaczenie informacji jako zgodność sygnału ze światem rzeczywistym. Tak więc semantyka sygnału „informatyka” mieści się w podanej wcześniej definicji. Semantykę można traktować jako pewną, znaną odbiorcy informacji umowę, co do znaczenia każdego sygnału (tzw. reguła interpretacji). Na przykład to semantyka sygnałów jest badana przez początkującego kierowcę, który studiuje zasady ruchu drogowego, ucząc się znaków drogowych (w tym przypadku same znaki działają jako sygnały). Semantyki słów (sygnałów) uczy się uczeń dowolnego języka obcego. Można powiedzieć, że celem nauczania informatyki jest badanie semantyki różnych sygnałów - istoty kluczowych pojęć tej dyscypliny;

Pragmatyka to właściwość określająca wpływ informacji na zachowanie nabywcy. Tak więc pragmatyka informacji otrzymanych przez czytelnika tego poradnika to przynajmniej pomyślne zdanie egzaminu z informatyki. Chciałabym wierzyć, że pragmatyka tej pracy nie ograniczy się do tego, a posłuży dalszemu kształceniu i aktywności zawodowej czytelnika.

Informacje (informacje) to

Należy zauważyć, że sygnały o różnej składni mogą mieć tę samą semantykę. Na przykład sygnały „komputer” i „komputer” oznaczają urządzenie elektroniczne do przetwarzania informacji. W tym przypadku zwykle mówi się o synonimii sygnału. Z drugiej strony, jeden sygnał (tj. informacja o jednej właściwości składniowej) może mieć różną pragmatykę dla konsumentów i różną semantykę. Tak więc znak drogowy, zwany „cegłą” i mający dobrze określoną semantykę („zakaz wjazdu”), oznacza dla kierowcy zakaz wjazdu, ale w żaden sposób nie wpływa na pieszego. Jednocześnie sygnał „klucza” może mieć różną semantykę: klucz wiolinowy, klucz sprężynowy, klucz do otwierania zamka, klucz używany w informatyce do zakodowania sygnału w celu ochrony przed nieautoryzowanym dostępem (w w tym przypadku sygnał nazywa się homonimią). Są sygnały - antonimy, które mają przeciwną semantykę. Na przykład „zimno” i „gorąco”, „szybko” i „wolno” itp.

Przedmiotem nauki informatyki są właśnie dane: metody ich tworzenia, przechowywania, przetwarzania i przesyłania. A sama informacja zapisana w danych, jej sensowne znaczenie jest interesujące dla użytkowników systemów informatycznych, którzy są specjalistami różnych nauk i dziedzin działalności: lekarz jest zainteresowany informacją medyczną, geolog jest zainteresowany informacją geologiczną, biznesmen jest zainteresowany zainteresowany informacjami handlowymi itp. (m.in. informatyk zainteresowany informacjami o pracy z danymi).

Semiotyka - nauka o informacji

Informacji nie można sobie wyobrazić bez jej odbioru, przetwarzania, przesyłania itp., czyli poza ramami wymiany informacji. Wszelkie akty wymiany informacji odbywają się za pomocą symboli lub znaków, za pomocą których jeden system wpływa na inny. Dlatego główną nauką zajmującą się badaniem informacji jest semiotyka – nauka o znakach i systemach znakowych w przyrodzie i społeczeństwie (teoria znaków). W każdym akcie wymiany informacji można znaleźć trzech jego „uczestników”, trzy elementy: znak, przedmiot, który on wskazuje oraz odbiorcę (użytkownika) znaku.

W zależności od relacji, między którymi rozważane są elementy, semiotyka dzieli się na trzy działy: syntaktykę, semantykę i pragmatykę. Syntaktyka bada znaki i relacje między nimi. Jednocześnie abstrahuje od treści znaku i jego praktycznego znaczenia dla odbiorcy. Semantyka bada relacje między znakami a przedmiotami przez nie oznaczanymi, abstrahując jednocześnie od odbiorcy znaków i wartości tego ostatniego: dla niego. Jasne jest, że badanie wzorców semantycznej reprezentacji obiektów w znakach jest niemożliwe bez uwzględnienia i wykorzystania ogólnych wzorców konstrukcji dowolnych systemów znakowych badanych przez syntaktykę. Pragmatyka bada relacje między znakami a ich użytkownikami. W ramach pragmatyki badane są wszystkie czynniki, które odróżniają jeden akt wymiany informacji od drugiego, wszystkie kwestie dotyczące praktycznych skutków wykorzystania informacji i jej wartości dla odbiorcy.

Jednocześnie w sposób nieunikniony wpływa na wiele aspektów relacji znaków między sobą oraz z oznaczonymi przez nie przedmiotami. Te trzy sekcje semiotyki odpowiadają zatem trzem poziomom abstrakcji (odwrócenia uwagi) od cech konkretnych aktów wymiany informacji. Badanie informacji w całej jej różnorodności odpowiada poziomowi pragmatycznemu. Odwracając uwagę od odbiorcy informacji, wyłączając go z rozważań, przechodzimy do jej badania na poziomie semantycznym. Dzięki odwróceniu uwagi od treści znaków analiza informacji zostaje przeniesiona na poziom syntaktyki. Takie przenikanie się głównych działów semiotyki, związane z różnymi poziomami abstrakcji, można przedstawić za pomocą schematu „Trzy sekcje semiotyki i ich relacje”. Pomiar informacji odbywa się odpowiednio w trzech aspektach: syntaktycznym, semantycznym i pragmatycznym. Potrzeba tak innego wymiaru informacji, jak zostanie to pokazane poniżej, jest podyktowana praktyką projektową i firmy praca systemów informatycznych. Rozważ typową sytuację produkcyjną.

Na koniec zmiany kierownik budowy przygotowuje dane dotyczące realizacji harmonogramu produkcji. Dane te przesyłane są do centrum informacyjno-obliczeniowego (ICC) przedsiębiorstwa, gdzie są przetwarzane iw postaci raportów o stanie produkcji w chwili obecnej są wydawane kierownikom. Na podstawie otrzymanych danych kierownik sklepu podejmuje decyzję o zmianie planu produkcji na kolejny planowany lub o innych działaniach organizacyjnych. Oczywistym jest, że dla kierownika sklepu ilość informacji, jakie zawiera podsumowanie, zależy od wielkości wpływu ekonomicznego uzyskanego z jego wykorzystania w podejmowaniu decyzji, od tego, jak przydatne były te informacje. Dla planisty o ilości informacji w tej samej wiadomości decyduje dokładność jej zgodności z rzeczywistym stanem rzeczy na stronie oraz stopień zaskoczenia zgłaszanymi faktami. Im bardziej są nieoczekiwane, tym szybciej trzeba je zgłosić kierownictwu, tym więcej informacji w tej wiadomości. Dla pracowników ITC liczba znaków, długość wiadomości niosącej informacje będą miały ogromne znaczenie, ponieważ determinuje czas ładowania sprzętu komputerowego i kanałów komunikacyjnych. Jednocześnie ani użyteczność informacji, ani ilościowa miara wartości semantycznej informacji praktycznie ich nie interesują.

Naturalnie, organizując system zarządzania produkcją, budując modele wyboru rozwiązania, wykorzystamy przydatność informacji jako miarę zawartości informacyjnej komunikatów. Podczas budowania systemu księgowość i raportowania, które dostarcza wskazówek na temat postępu procesu produkcyjnego, nowość otrzymanych informacji powinna być traktowana jako miara ilości informacji. Firma te same procedury mechanicznego przetwarzania informacji wymagają mierzenia objętości wiadomości w postaci liczby przetwarzanych znaków. Te trzy zasadniczo różne podejścia do mierzenia informacji nie są ze sobą sprzeczne ani nie wykluczają się. Wręcz przeciwnie, mierząc informacje w różnych skalach, pozwalają na pełniejszą i wszechstronniejszą ocenę zawartości informacyjnej każdej wiadomości oraz sprawniejszą organizację systemu zarządzania produkcją. Zgodnie z trafnym wyrażeniem prof. NIE. Kobryńskiego, jeśli chodzi o racjonalne przedsiębiorstwo przepływu informacji, ilość, nowość, użyteczność informacji okazują się być ze sobą tak samo powiązane, jak ilość, jakość i koszt wytwarzanych produktów.

Informacje w świecie materialnym

informacja jest jedną z Pojęcia ogólne związane z materią. Informacja istnieje w każdym materialnym obiekcie w postaci różnych jego stanów i jest przekazywana od obiektu do obiektu w trakcie ich interakcji. Istnienie informacji jako obiektywnej właściwości materii wynika logicznie z dobrze znanych podstawowych właściwości materii - struktury, ciągłej zmiany (ruchu) i oddziaływania obiektów materialnych.

Struktura materii przejawia się jako wewnętrzne rozczłonkowanie integralności, regularny porządek łączenia elementów w kompozycji całości. Innymi słowy, każdy obiekt materialny, z subatomowej cząstki Meta Wszechświata (Wielkiego Wybuchu) jako całości, jest systemem połączonych ze sobą podsystemów. W wyniku ruchu ciągłego, rozumianego szeroko jako ruch w przestrzeni i rozwój w czasie, obiekty materialne zmieniają swój stan. Stan obiektów zmienia się również podczas interakcji z innymi obiektami. Zbiór stanów systemu materialnego i wszystkich jego podsystemów reprezentuje informacje o systemie.

Ściśle mówiąc, ze względu na niepewność, nieskończoność, właściwości strukturalne ilość obiektywnej informacji w dowolnym materialnym obiekcie jest nieskończona. Ta informacja nazywana jest kompletną. Jednak możliwe jest wyodrębnienie poziomów strukturalnych ze skończonymi zbiorami stanów. Informacje, które istnieją na poziomie strukturalnym ze skończoną liczbą stanów, nazywane są prywatnymi. W przypadku informacji prywatnych znaczeniem jest pojęcie ilości informacji.

Z powyższej reprezentacji wynika logicznie i prosto wybór jednostki miary dla ilości informacji. Wyobraź sobie system, który może znajdować się tylko w dwóch równie prawdopodobnych stanach. Przypiszmy kod „1” jednemu z nich, a drugiemu „0”. Jest to minimalna ilość informacji, jaką system może zawierać. Jest to jednostka miary informacji i nazywana jest bitem. Istnieją inne, trudniejsze do zdefiniowania metody i jednostki pomiaru ilości informacji.

W zależności od formy materialnej nośnika informacje mogą być dwojakiego rodzaju - analogowe i dyskretne. Informacja analogowa zmienia się w czasie w sposób ciągły i pobiera wartości z kontinuum wartości. Dyskretna informacja zmienia się w pewnych momentach i pobiera wartości z określonego zestawu wartości. Każdy materialny obiekt lub proces jest głównym źródłem informacji. Wszystkie jej możliwe stany stanowią kod źródła informacji. Chwilowa wartość stanów jest reprezentowana jako symbol („litera”) tego kodu. Aby informacje mogły być przesyłane z jednego obiektu do drugiego jako odbiorca, konieczne jest istnienie pewnego rodzaju pośredniego nośnika materialnego, który współdziała ze źródłem. Takie nośniki w przyrodzie z reguły szybko propagują procesy struktury falowej - promieniowanie kosmiczne, gamma i rentgenowskie, fale elektromagnetyczne i dźwiękowe, potencjały (a może jeszcze nieodkryte fale) pola grawitacyjnego. Podczas interakcji promieniowanie elektromagnetyczne z przedmiotem, w wyniku pochłaniania lub odbicia zmienia się jego widmo, tj. intensywności niektórych długości fal ulegają zmianie. Harmoniczne drgań dźwięku zmieniają się również podczas interakcji z przedmiotami. Informacje są również przekazywane podczas interakcji mechanicznej, ale interakcja mechaniczna z reguły prowadzi do dużych zmian w strukturze obiektów (aż do ich zniszczenia), a informacja jest mocno zniekształcona. Zniekształcenie informacji podczas ich przesyłania nazywa się dezinformacją.

Przesyłanie informacji źródłowych do struktury nośnika nazywa się kodowaniem. W takim przypadku kod źródłowy jest konwertowany na kod przewoźnika. Nośnik z przekazanym do niego kodem źródłowym w postaci kodu nośnego nazywany jest sygnałem. Odbiornik sygnału ma swój własny zestaw możliwych stanów, który nazywa się kodem odbiornika. Sygnał, wchodząc w interakcję z obiektem odbiorczym, zmienia swoje stany. Proces konwersji kodu sygnału na kod odbiornika nazywany jest dekodowaniem, a transfer informacji ze źródła do odbiornika można uznać za interakcję informacyjną. Interakcja informacyjna zasadniczo różni się od innych interakcji. Przy wszystkich innych oddziaływaniach obiektów materialnych następuje wymiana materii i (lub) energii. W tym przypadku jeden z obiektów traci materię lub energię, podczas gdy drugi je otrzymuje. Ta właściwość interakcji nazywa się symetrią. Podczas interakcji informacyjnej odbiorca otrzymuje informacje, a źródło ich nie traci. Interakcja informacji nie jest symetryczna, sama informacja obiektywna nie jest materialna, jest właściwością materii, taką jak struktura, ruch i istnieje na nośnikach materialnych w postaci swoich kodów.

Informacje w przyrodzie

Dzika przyroda jest złożona i zróżnicowana. Źródłami i odbiorcami informacji w nim są żywe organizmy i ich komórki. Organizm posiada szereg właściwości, które odróżniają go od nieożywionych obiektów materialnych.

Główny:

Ciągła wymiana materii, energii i informacji z otoczeniem;

Drażliwość, zdolność organizmu do postrzegania i przetwarzania informacji o zmianach w środowisku i środowisku wewnętrznym organizmu;

Pobudliwość, zdolność reagowania na działanie bodźców;

Samoorganizacja, objawiająca się zmianami w ciele w celu dostosowania się do warunków środowiskowych.

Organizm uważany za system ma struktura hierarchiczna. Struktura ta, w odniesieniu do samego organizmu, dzieli się na poziomy wewnętrzne: molekularny, komórkowy, poziom narządów i wreszcie sam organizm. Jednak organizm oddziałuje również z żywymi systemami organizmów, których poziom to populacja, ekosystem i cała żywa przyroda jako całość (biosfera). Nie tylko przepływy materii i energii, ale także przepływy informacji między tymi wszystkimi poziomami.Interakcje informacyjne w przyrodzie ożywionej zachodzą w taki sam sposób, jak w przyrodzie nieożywionej. Jednocześnie dzika przyroda w procesie ewolucji stworzyła szeroką gamę źródeł, nośników i odbiorców informacji.

Reakcja na wpływy świata zewnętrznego przejawia się we wszystkich organizmach, ponieważ jest spowodowana drażliwością. W organizmach wyższych adaptacja do środowiska zewnętrznego ma charakter złożonej czynności, która jest skuteczna tylko przy wystarczająco kompletnych i aktualnych informacjach o środowisku. Odbiorcami informacji ze środowiska zewnętrznego są narządy zmysłów, do których należą wzrok, słuch, węch, smak, dotyk oraz aparat przedsionkowy. W Struktura wewnętrzna organizmy posiadają liczne wewnętrzne receptory związane z układem nerwowym. Układ nerwowy składa się z neuronów, których procesy (aksony i dendryty) są analogiczne do kanałów przekazywania informacji. Głównymi organami przechowującymi i przetwarzającymi informacje u kręgowców są rdzeń kręgowy i mózg. Zgodnie z właściwościami narządów zmysłów informacje odbierane przez ciało można podzielić na wzrokowe, słuchowe, smakowe, węchowe i dotykowe.

Dostając się do siatkówki ludzkiego oka, sygnał w sposób szczególny pobudza tworzące go komórki. Impulsy nerwowe komórek przez aksony są przekazywane do mózgu. Mózg zapamiętuje to uczucie w formie pewna kombinacja stany tworzących go neuronów. (Kontynuacja przykładu - w dziale "informacje w społeczeństwie ludzkim"). Gromadząc informacje, mózg tworzy połączoną strukturę na swojej strukturze. model informacyjny otaczający świat. W przyrodzie dla organizmu - odbiorcy informacji ważna cecha jest jego dostępność. Ilość informacji, jaką ludzki układ nerwowy jest w stanie przesłać do mózgu podczas czytania tekstów, wynosi około 1 bit na 1/16 s.

Informacje (informacje) to

Badanie organizmów jest utrudnione przez ich złożoność. Abstrakcja struktury jako zbioru matematycznego, który jest akceptowalny dla obiektów nieożywionych, jest mało akceptowalna dla organizmu żywego, ponieważ aby stworzyć mniej lub bardziej adekwatny abstrakcyjny model organizmu, konieczne jest uwzględnienie wszystkich hierarchicznych poziomy jego struktury. Dlatego trudno jest wprowadzić miarę ilości informacji. Bardzo trudno jest określić relacje między elementami konstrukcji. Jeśli wiadomo, który narząd jest źródłem informacji, to jaki jest sygnał, a jaki odbiorca?

Przed nadejściem komputerów biologia, zajmująca się badaniem organizmów żywych, wykorzystywała wyłącznie jakościowe, tj. modele opisowe. W modelu jakościowym uwzględnienie powiązań informacyjnych między elementami konstrukcji jest praktycznie niemożliwe. Technologia obliczeń elektronicznych umożliwiła zastosowanie nowych metod w badaniach biologicznych, w szczególności metody modelowania maszyn, która polega na: opis matematyczny znane zjawiska i procesy zachodzące w organizmie, dodawanie do nich hipotez o nieznanych procesach i obliczanie możliwych wariantów zachowania organizmu. Otrzymane opcje są porównywane z rzeczywistym zachowaniem organizmu, co pozwala ustalić prawdziwość lub fałszywość stawianych hipotez. W takich modelach można również uwzględnić interakcję informacyjną. Niezwykle złożone są procesy informacyjne, które zapewniają istnienie samego życia. I choć intuicyjnie widać, że właściwość ta jest bezpośrednio związana z tworzeniem, przechowywaniem i przekazywaniem pełnej informacji o budowie organizmu, abstrakcyjny opis tego zjawiska wydawał się przez pewien czas niemożliwy. Jednak procesy informacyjne zapewniające istnienie tej właściwości zostały częściowo ujawnione poprzez odszyfrowanie kodu genetycznego i odczytanie genomów różnych organizmów.

Informacja w społeczeństwie ludzkim

Rozwój materii w ruchu ukierunkowany jest na komplikację budowy obiektów materialnych. Jedną z najbardziej złożonych struktur jest ludzki mózg. Jak dotąd jest to jedyna znana nam struktura posiadająca właściwość, którą sam człowiek nazywa świadomością. Mówiąc o informacji, my, jako istoty myślące, a priori mamy na myśli to, że informacja, oprócz swojej obecności w postaci odbieranych przez nas sygnałów, ma także jakieś znaczenie. Tworząc w swoim umyśle model otaczającego świata jako połączony zestaw modeli jego obiektów i procesów, człowiek posługuje się pojęciami semantycznymi, a nie informacją. Znaczenie jest istotą każdego zjawiska, które nie pokrywa się ze sobą i łączy je z szerszym kontekstem rzeczywistości. Samo słowo wprost wskazuje, że semantyczną treść informacji mogą kształtować tylko myślący odbiorcy informacji. W społeczeństwie ludzkim to nie sama informacja nabiera decydującego znaczenia, ale jej treść semantyczna.

Przykład (ciąg dalszy). Po doświadczeniu takiego doznania osoba przypisuje pojęcie „pomidor” do obiektu, a pojęcie „kolor czerwony” do jego stanu. Ponadto jego świadomość naprawia połączenie: „pomidor” - „czerwony”. Takie jest znaczenie odbieranego sygnału. (Ciąg dalszy przykładu: dalej w tej sekcji). Zdolność mózgu do tworzenia pojęć semantycznych i połączeń między nimi jest podstawą świadomości. Świadomość może być postrzegana jako samorozwijający się semantyczny model otaczającego świata, a znaczenie nie jest informacją. Informacja istnieje tylko na nośniku fizycznym. Świadomość ludzka jest uważana za niematerialną. Znaczenie istnieje w ludzkim umyśle w postaci słów, obrazów i wrażeń. Człowiek może wypowiadać słowa nie tylko na głos, ale także „do siebie”. Potrafi też tworzyć (lub zapamiętywać) obrazy i wrażenia „dla siebie”. Może jednak uzyskać informacje odpowiadające temu znaczeniu, wypowiadając lub pisząc słowa.

Informacje (informacje) to

Przykład (ciąg dalszy). Jeśli słowa „pomidor” i „czerwony kolor” są znaczeniem pojęć, to gdzie jest ta informacja? informacja zawarta jest w mózgu w postaci pewnych stanów jego neuronów. Jest on również zawarty w drukowanym tekście składającym się z tych słów, a przy kodowaniu liter trzycyfrowym kodem binarnym jego liczba wynosi 120 bitów. Jeśli wypowiesz te słowa na głos, będzie o wiele więcej informacji, ale znaczenie pozostanie takie samo. Nai duża ilość informacja niesie obraz wizualny. Znajduje to odzwierciedlenie nawet w folklorze - „lepiej raz zobaczyć niż sto razy usłyszeć.” Tak odtworzona informacja nazywana jest informacją semantyczną, ponieważ koduje znaczenie jakiejś podstawowej informacji (semantyki). Słysząc (lub widząc) frazę wypowiedzianą (lub napisaną) w języku, którego dana osoba nie zna, otrzymuje informację, ale nie może określić jej znaczenia. Dlatego też, aby przekazać semantyczną treść informacji, wymagane są pewne uzgodnienia między nadawcą a odbiorcą co do semantycznej treści sygnałów, tj. słowa. Taki umowy można osiągnąć poprzez komunikację. Komunikacja jest jednym z najważniejszych warunków istnienia społeczeństwa ludzkiego.

W nowoczesny świat informacja jest jednym z najważniejszych zasobów, a jednocześnie jedną z sił napędowych rozwoju społeczeństwa ludzkiego. Procesy informacyjne zachodzące w świecie materialnym, dzikiej przyrodzie i społeczeństwie ludzkim są badane (a przynajmniej brane pod uwagę) przez wszystkie dyscypliny naukowe od filozofii po marketing. Rosnąca złożoność zadań badań naukowych spowodowała konieczność zaangażowania w ich rozwiązanie dużych zespołów naukowców różnych specjalności. Dlatego prawie wszystkie rozważane poniżej teorie mają charakter interdyscyplinarny. Historycznie dwie złożone gałęzie nauki, cybernetyka i informatyka, są bezpośrednio zaangażowane w badanie informacji.

Współczesna cybernetyka jest multidyscyplinarna przemysł nauka badająca układy superzłożone, takie jak:

Społeczeństwo ludzkie (cybernetyka społeczna);

Ekonomia (cybernetyka ekonomiczna);

Organizm żywy (cybernetyka biologiczna);

Ludzki mózg i jego funkcja to świadomość (sztuczna inteligencja).

Informatyka, która powstała jako nauka w połowie ubiegłego wieku, oddzieliła się od cybernetyki i zajmuje się badaniami w zakresie metod pozyskiwania, przechowywania, przesyłania i przetwarzania informacji semantycznych. Dwie z tych branże korzystać z kilku podstawowych teorii naukowych. Należą do nich teoria informacji, a jej sekcje to teoria kodowania, teoria algorytmów i teoria automatów. Badania nad semantyczną treścią informacji opierają się na zespole teorii naukowych pod ogólną nazwą semiotyka.Teoria informacji to złożona, głównie matematyczna teoria, obejmująca opis i ocenę metod pozyskiwania, przekazywania, przechowywania i klasyfikowania informacji. Rozpatruje nośniki informacji jako elementy abstrakcyjnego (matematycznego) zbioru, a interakcje między nośnikami za sposób porządkowania elementów w tym zbiorze. Takie podejście umożliwia formalne opisanie kodu informacji, czyli zdefiniowanie kodu abstrakcyjnego i zbadanie go metodami matematycznymi. Do tych badań wykorzystuje metody teorii prawdopodobieństwa, statystyki matematycznej, algebry liniowej, teorii gier i innych teorii matematycznych.

Podstawy tej teorii położył amerykański naukowiec E. Hartley w 1928 roku, który określił miarę ilości informacji dla niektórych problemów komunikacyjnych. Później teorię znacznie rozwinęli amerykański naukowiec C. Shannon, rosyjscy naukowcy A.N. Kołmogorowa, W.M. Głuszkowa i innych Współczesna teoria informacji obejmuje działy teorii kodowania, teorii algorytmów, teorii automatów cyfrowych (patrz niżej) i kilka innych.Istnieją również alternatywne teorie informacji, na przykład „Teoria informacji jakościowej”, zaproponowana przez polską naukowiec M. Mazur Każdy człowiek zna pojęcie algorytmu, nawet go nie znając. Oto przykład nieformalnego algorytmu: „Pokrój pomidory w kółka lub plastry. Włóż do nich posiekaną cebulę, zalej olejem roślinnym, a następnie posyp drobno posiekaną papryką, wymieszaj. Przed użyciem posyp solą, przełóż do salaterki i udekoruj natką pietruszki. (Sałatka pomidorowa).

Pierwsze w historii ludzkości zasady rozwiązywania problemów arytmetycznych zostały opracowane przez jednego ze słynnych naukowców starożytności Al-Chwarizmi w IX wieku naszej ery. Na jego cześć sformalizowane reguły osiągnięcia celu nazwano algorytmami Przedmiotem teorii algorytmów jest znalezienie metod konstruowania i oceny efektywnych (w tym uniwersalnych) algorytmów obliczeniowych i sterujących przetwarzaniem informacji. Do uzasadnienia takich metod w teorii algorytmów wykorzystuje się aparat matematyczny teorii informacji Współczesna naukowa koncepcja algorytmów jako sposobów przetwarzania informacji została wprowadzona w pracach E. Posta i A. Turinga w latach 20. XX wieku (Turing Maszyna). Wielki wkład w rozwój teorii algorytmów wnieśli rosyjscy naukowcy A. Markow (Normal Markowa Algorithm) i A. Kołmogorowa.Teoria automatów to dział cybernetyki teoretycznej, który bada matematyczne modele faktycznie istniejących lub fundamentalnie możliwych urządzeń, które przetwarzają dyskretne informacje w dyskretnych porach.

Pojęcie automatu wywodzi się z teorii algorytmów. Jeśli istnieją jakieś uniwersalne algorytmy rozwiązywania problemów obliczeniowych, to muszą istnieć urządzenia (choć abstrakcyjne) do implementacji takich algorytmów. W rzeczywistości abstrakcyjna maszyna Turinga, rozpatrywana w teorii algorytmów, jest jednocześnie automatem nieformalnie zdefiniowanym. Teoretyczne uzasadnienie budowy takich urządzeń jest przedmiotem teorii automatów.Teoria automatów wykorzystuje aparat teorii matematycznych - algebrę, logikę matematyczną, analizę kombinatoryczną, teorię grafów, teorię prawdopodobieństwa itp. Teoria automatów wraz z teorią algorytmów , jest główną podstawą teoretyczną tworzenia komputerów elektronicznych i zautomatyzowanych systemów sterowania.Semiotyka to zespół teorii naukowych zajmujących się badaniem właściwości systemów znakowych. Najbardziej znaczące wyniki osiągnięto w dziedzinie semiotyki — semantyki. Przedmiotem badań semantyki jest semantyczna treść informacji.

System znaków to system konkretnych lub abstrakcyjnych obiektów (znaków, słów), z których każdy w określony sposób jest powiązany z określoną wartością. Teoretycznie udowodniono, że mogą być dwa takie porównania. Pierwszy rodzaj korespondencji bezpośrednio definiuje przedmiot materialny, który oznacza to słowo i nazywa się denotacją (lub, w niektórych utworach, nominowanym). Drugi rodzaj korespondencji określa znaczenie znaku (słowa) i nazywa się pojęciem. Jednocześnie badane są takie właściwości porównań, jak „znaczenie”, „prawda”, „definiowalność”, „naśladowanie”, „interpretacja” itp. Do badań wykorzystywany jest aparat logiki matematycznej i lingwistyki matematycznej. de Saussure w XIX w., sformułowane i rozwinięte przez C. Pierce'a (1839-1914), C. Morrisa (ur. 1901), R. Carnapa (1891-1970) i ​​innych. zapis w jakimś sformalizowanym języku semantycznym (semantycznym) Analiza semantyczna jest podstawą do tworzenia urządzeń (programów) do tłumaczenia maszynowego z jednego języka naturalnego na drugi.

Informacje są przechowywane poprzez przekazanie ich na niektóre nośniki materialne. Informacje semantyczne zapisane na materialnym nośniku pamięci nazywane są dokumentem. Ludzkość nauczyła się przechowywać informacje od bardzo dawna. W najstarszych formach przechowywania informacji stosowano układ przedmiotów - muszle i kamienie na piasku, węzły na linie. Znaczącym rozwinięciem tych metod było pisanie – graficzne przedstawienie symboli na kamieniu, glinie, papirusie, papierze. Duże znaczenie w rozwoju tego kierunku miał: wynalazek typografia. W całej swojej historii ludzkość zgromadziła ogromną ilość informacji w bibliotekach, archiwach, czasopismach i innych dokumentach pisanych.

Obecnie szczególnego znaczenia nabrało przechowywanie informacji w postaci ciągów znaków binarnych. Aby wdrożyć te metody, używane są różne urządzenia pamięci masowej. Są centralnym ogniwem systemów przechowywania informacji. Oprócz nich takie systemy wykorzystują narzędzia do wyszukiwania informacji ( system wyszukiwania), sposoby pozyskiwania informacji (systemy informacyjne i odniesienia) oraz sposoby wyświetlania informacji (urządzenie wyjściowe). Tworzone zgodnie z przeznaczeniem informacji, takie systemy informacyjne tworzą bazy danych, banki danych i bazę wiedzy.

Przekazywanie informacji semantycznej to proces jej przestrzennego przeniesienia od źródła do odbiorcy (adresata). Człowiek nauczył się przekazywać i odbierać informacje jeszcze wcześniej niż je przechowywać. Mowa jest metodą przekazu, którą nasi dalecy przodkowie używali w bezpośrednim kontakcie (rozmowie) – my nadal ją stosujemy. Aby przesyłać informacje na duże odległości, konieczne jest zastosowanie znacznie bardziej złożonych procesów informacyjnych, a do realizacji takiego procesu informacja musi być w jakiś sposób sformalizowana (prezentowana). Do reprezentowania informacji stosuje się różne systemy znakowe - zestawy z góry określonych symboli semantycznych: obiekty, obrazy, pisane lub drukowane słowa języka naturalnego. Przedstawiona za ich pomocą informacja semantyczna o jakimś przedmiocie, zjawisku lub procesie nazywana jest komunikatem.

Oczywiście, aby przesłać wiadomość na odległość, informacje muszą zostać przesłane do jakiegoś operatora komórkowego. Przewoźnicy mogą poruszać się w kosmosie za pomocą pojazdów, tak jak ma to miejsce w przypadku listów wysyłanych pocztą. Metoda ta zapewnia całkowitą niezawodność przekazu informacji, ponieważ adresat otrzymuje oryginalną wiadomość, ale wymaga znacznej ilości czasu na transmisję. Od połowy XIX wieku rozpowszechniły się metody przekazywania informacji, wykorzystujące naturalnie rozchodzący się nośnik informacji - oscylacje elektromagnetyczne (oscylacje elektryczne, fale radiowe, światło). Wdrożenie tych metod wymaga:

Wstępne przekazanie informacji zawartych w wiadomości do przewoźnika - kodowanie;

Zapewnienie transmisji tak otrzymanego sygnału do adresata za pośrednictwem specjalnego kanału komunikacyjnego;

Odwrotna konwersja kodu sygnału na kod komunikatu - dekodowanie.

Informacje (informacje) to

Zastosowanie nośników elektromagnetycznych sprawia, że ​​dostarczenie wiadomości do adresata jest niemal natychmiastowe, wymaga jednak dodatkowych środków zapewniających jakość (rzetelność i dokładność) przesyłanych informacji, gdyż rzeczywiste kanały komunikacji podlegają naturalnym i sztucznym ingerencjom. Urządzenia realizujące proces transmisji danych z systemów komunikacyjnych. W zależności od sposobu prezentowania informacji, systemy komunikacji można podzielić na znaki (telefaks), dźwięk (), wideo i systemy kombinowane (telewizja). Najbardziej rozwiniętym systemem komunikacji w naszych czasach jest Internet.

Przetwarzanie danych

Ponieważ informacja nie jest materialna, jej przetwarzanie polega na różnych przekształceniach. Procesy przetwarzania obejmują dowolny transfer informacji z nośnika na inny nośnik. Informacje, które mają być przetwarzane, nazywane są danymi. Podstawowym rodzajem przetwarzania pierwotnej informacji odbieranej przez różne urządzenia jest przekształcenie w formę, która zapewnia jej odbiór przez zmysły człowieka. W ten sposób zdjęcia kosmiczne uzyskane w promieniach rentgenowskich są przekształcane w zwykłe kolorowe fotografie za pomocą specjalnych konwerterów widma i materiałów fotograficznych. Noktowizory przetwarzają obraz uzyskany w promieniach podczerwonych (termicznych) na obraz w zakresie widzialnym. W przypadku niektórych zadań komunikacyjnych i kontrolnych konieczne jest przekształcenie informacji analogowych. W tym celu stosuje się przetworniki sygnału analogowo-cyfrowego i cyfrowo-analogowego.

Najważniejszym rodzajem semantycznego przetwarzania informacji jest określenie znaczenia (treści) zawartej w określonym komunikacie. W przeciwieństwie do informacji pierwotnej, informacje semantyczne nie mają statystyczny cechy, czyli miara ilościowa - albo jest znaczenie, albo nie. A ile z tego, jeśli w ogóle, jest niemożliwe do ustalenia. Znaczenie zawarte w komunikacie opisywane jest w sztucznym języku, który odzwierciedla semantyczne relacje między słowami tekstu źródłowego. W odbiorniku znajduje się słownik takiego języka, zwany tezaurusem. Znaczenie słów i fraz przekazu określa się poprzez odniesienie ich do pewnych grup słów lub fraz, których znaczenie zostało już ustalone. Tezaurus pozwala więc ustalić znaczenie przekazu, a jednocześnie jest uzupełniany nowymi pojęciami semantycznymi. Opisany rodzaj przetwarzania informacji znajduje zastosowanie w systemach wyszukiwania informacji i systemach tłumaczenia maszynowego.

Jednym z rozpowszechnionych rodzajów przetwarzania informacji jest rozwiązywanie problemów obliczeniowych i problemów automatycznego sterowania za pomocą komputerów. Przetwarzanie informacji odbywa się zawsze w określonym celu. Aby to osiągnąć, musi być znana kolejność działań na informacjach, prowadzących do danego celu. Ta procedura nazywana jest algorytmem. Oprócz samego algorytmu potrzebujesz również urządzenia, które implementuje ten algorytm. W teoriach naukowych takie urządzenie nazywa się automatem, co należy odnotować jako najważniejszą cechę informacji, która ze względu na asymetrię wymiana informacji Podczas przetwarzania informacji generowane są nowe informacje, a oryginalne informacje nie są tracone.

Informacje analogowe i cyfrowe

Dźwięk to wibracje fal w ośrodku, takim jak powietrze. Kiedy osoba mówi, drgania więzadeł gardła zamieniają się w drgania falowe powietrza. Jeśli weźmiemy pod uwagę dźwięk nie jako falę, ale jako oscylacje w jednym punkcie, to te oscylacje można przedstawić jako zmieniające się w czasie ciśnienie powietrza. Za pomocą mikrofonu możesz wychwytywać zmiany ciśnienia i przekształcać je w napięcie elektryczne. Nastąpiła transformacja ciśnienia powietrza w wahania napięcia elektrycznego.

Taka transformacja może zachodzić według różnych praw, najczęściej transformacja przebiega według prawa liniowego. Na przykład tak:

U(t)=K(P(t)-P_0),

gdzie U(t) to napięcie elektryczne, P(t) to ciśnienie powietrza, P_0 to średnie ciśnienie powietrza, a K to współczynnik konwersji.

Zarówno napięcie elektryczne, jak i ciśnienie powietrza są funkcjami ciągłymi w czasie. Funkcje U(t) i P(t) są informacją o drganiach więzadeł gardła. Funkcje te są ciągłe i takie informacje nazywamy analogowymi.Muzyka jest szczególnym przypadkiem dźwięku i może być również reprezentowana jako pewna funkcja czasu. Będzie to analogowe przedstawienie muzyki. Ale muzyka jest też nagrywana w formie notatek. Każda nuta ma czas trwania, który jest wielokrotnością z góry określonego czasu trwania i wysokości dźwięku (do, re, mi, fa, sol itp.). Jeśli te dane zostaną przeliczone na liczby, otrzymamy cyfrową reprezentację muzyki.

Mowa ludzka jest również szczególnym przypadkiem dźwięku. Może być również reprezentowany w formie analogowej. Ale tak jak muzykę można podzielić na nuty, tak mowę można podzielić na litery. Jeśli każdej literze nadamy własny zestaw liczb, otrzymamy cyfrową reprezentację mowy.Różnica między informacją analogową a informacją cyfrową polega na tym, że informacja analogowa jest ciągła, podczas gdy informacja cyfrowa jest dyskretna.Przekształcenie informacji z jednego typu na inna, w zależności od rodzaju przekształcenia, nazywana jest inaczej: po prostu „konwersja”, np. konwersja cyfrowo-analogowa lub analogowo-cyfrowa; złożone przekształcenia nazywane są „kodowaniem”, np. kodowanie delta, kodowanie entropijne; transformacja między charakterystykami, takimi jak amplituda, częstotliwość lub faza, nazywana jest „modulacją”, na przykład modulacją amplitudy częstotliwości, modulacją szerokości impulsu.

Informacje (informacje) to

Zwykle konwersje analogowe są dość proste i mogą być łatwo obsługiwane przez różne urządzenia wymyślone przez człowieka. Magnetofon zamienia namagnesowanie na kliszy na dźwięk, dyktafon zamienia dźwięk na namagnesowanie na kliszy, kamera wideo zamienia światło na namagnesowanie na kliszy, oscyloskop zamienia napięcie elektryczne lub prąd na obraz i tak dalej. Konwersja informacji analogowych na cyfrowe jest znacznie trudniejsza. Niektóre przekształcenia nie mogą być wykonane przez maszynę lub mogą być wykonane z dużym trudem. Na przykład przekształcenie mowy w tekst lub przekształcenie nagrania koncertu w notatki, a nawet ze swej natury w reprezentację cyfrową: maszynie bardzo trudno jest przetworzyć tekst na papierze w ten sam tekst w pamięci komputera.

Informacje (informacje) to

Po co zatem korzystać z cyfrowej reprezentacji informacji, skoro jest to tak trudne? Główną zaletą informacji cyfrowych nad analogowymi jest odporność na zakłócenia. Oznacza to, że w trakcie kopiowania informacji informacja cyfrowa jest kopiowana w takiej postaci, w jakiej jest, może być kopiowana niemal nieskończoną ilość razy, podczas gdy informacje analogowe podczas kopiowania stają się zaszumione, pogarsza się ich jakość. Zwykle informacje analogowe można skopiować nie więcej niż trzy razy.Jeśli masz magnetofon dwukasetowy, możesz zrobić taki eksperyment, spróbuj nagrać ten sam utwór z kasety na kasetę kilka razy, po kilku takich powtórzeniach. -nagrania zauważysz, jak bardzo pogorszyła się jakość nagrywania. Informacje na kasecie są przechowywane w postaci analogowej. Możesz przepisywać muzykę w formacie mp3 tyle razy, ile chcesz, a jakość muzyki nie ulega pogorszeniu. Informacje w pliku mp3 są przechowywane cyfrowo.

Ilość informacji

Osoba lub inny odbiorca informacji, otrzymawszy część informacji, rozwiązuje pewną niepewność. Weźmy jako przykład drzewo. Kiedy zobaczyliśmy drzewo, rozwiązaliśmy szereg wątpliwości. Dowiedzieliśmy się o wysokości drzewa, rodzaju drzewa, gęstości ulistnienia, kolorze liści, a jeśli jest to drzewo owocowe, to widzieliśmy na nim owoce, jak dojrzałe były itp. Zanim spojrzeliśmy na drzewo, nie wiedzieliśmy o tym wszystkim, po spojrzeniu na drzewo rozwiązaliśmy niepewność - dostaliśmy informacje.

Jeśli wyjdziemy na łąkę i spojrzymy na nią, dostaniemy informacje innego rodzaju, jak duża jest łąka, jak wysoka jest trawa i jakiego koloru jest trawa. Jeśli biolog wejdzie na tę samą łąkę, będzie mógł m.in. dowiedzieć się: jakie odmiany traw rosną na łące, co to za łąka, zobaczy jakie kwiaty zakwitły, a które właśnie zakwitną , czy łąka nadaje się do wypasu krów itp. Oznacza to, że otrzyma więcej informacji niż my, ponieważ miał więcej pytań, zanim spojrzał na łąkę, biolog rozwieje więcej niepewności.

Informacje (informacje) to

Im większa niepewność została rozwiązana w procesie pozyskiwania informacji, tym więcej informacji otrzymaliśmy. Ale jest to subiektywna miara ilości informacji i chcielibyśmy mieć obiektywną miarę. Istnieje wzór na obliczenie ilości informacji. Mamy pewną niepewność, a mamy N-tą liczbę przypadków rozstrzygnięcia niepewności, a każdy przypadek ma pewne prawdopodobieństwo rozstrzygnięcia, to ilość otrzymanych informacji można obliczyć za pomocą następującego wzoru, który zasugerował nam Shannon:

I = -(p_1 log_(2)p_1 + p_2 log_(2)p_2 +... +p_N log_(2)p_N), gdzie

I - ilość informacji;

N to liczba wyników;

p_1, p_2,..., p_N to prawdopodobieństwa wyniku.

Informacje (informacje) to

Ilość informacji mierzona jest w bitach - skrót od angielskich słów BInary digiT, co oznacza cyfrę binarną.

W przypadku zdarzeń równoprawdopodobnych wzór można uprościć:

I = log_(2)N, gdzie

I - ilość informacji;

N to liczba wyników.

Weź na przykład monetę i rzuć ją na stół. Wyląduje albo orłem, albo ogonem. Mamy 2 równie prawdopodobne zdarzenia. Po rzuceniu monetą otrzymaliśmy log_(2)2=1 bit informacji.

Spróbujmy dowiedzieć się, ile informacji uzyskamy po rzucie kostką. Sześcian ma sześć boków – sześć równie prawdopodobnych zdarzeń. Otrzymujemy: log_(2)6 ok. 2.6. Po rzuceniu kostką na stół otrzymaliśmy około 2,6 bitów informacji.

Szansa zobaczenia marsjańskiego dinozaura, kiedy wychodzimy z naszego domu, to jedna dziesiąta na miliard. Ile informacji o marsjańskim dinozaurze otrzymamy po wyjściu z domu?

Left(((1 over (10^(10))) log_2(1 over (10^(10))) + left(( 1 - (1 over (10^(10)))) ight) log_2 left(( 1 - (1 ponad (10^(10))) ) dobrze)) dobrze) około 3,4 cdot 10^(-9) bitów.

Załóżmy, że rzuciliśmy 8 monet. Mamy 2^8 opcji wrzutu monet. Tak więc po rzuceniu monet otrzymujemy log_2(2^8)=8 bitów informacji.

Kiedy zadajemy pytanie i równie prawdopodobne jest, że otrzymamy odpowiedź tak lub nie, po udzieleniu odpowiedzi otrzymujemy jedną informację.

Co zaskakujące, jeśli zastosujemy wzór Shannona do informacji analogowych, otrzymamy nieskończoną ilość informacji. Na przykład napięcie w punkcie obwodu elektrycznego może przybierać prawdopodobną wartość od zera do jednego wolta. Liczba wyników, które mamy, to nieskończoność, a podstawiając tę ​​wartość do wzoru na zdarzenia równoprawdopodobne, otrzymujemy nieskończoność – nieskończoną ilość informacji.

Teraz pokażę ci, jak zakodować „wojnę i pokój” jednym nacięciem na dowolnym metalowym pasku. Zakodujmy wszystkie litery i znaki występujące w „ wojna i świat”, za pomocą dwucyfrowych liczb – powinny nam wystarczyć. Na przykład literze „A” nadamy kod „00”, literę „B” - kod „01” i tak dalej, zakodujemy znaki interpunkcyjne, litery i cyfry łacińskie. Przekoduj " wojna i świat” używając tego kodu i uzyskaj długą liczbę, na przykład to jest 70123856383901874..., dodaj przecinek i zero przed tą liczbą (0.70123856383901874...). Wynikiem jest liczba od zera do jednego. Włóżmy zagrożony na metalowym pręcie tak, aby stosunek lewej strony pręta do długości tego pręta był dokładnie równy naszej liczbie. Tak więc, jeśli nagle zechcemy przeczytać „wojna i pokój”, po prostu zmierzymy lewą stronę pręta, aby ryzyko i długość całego pręta, dzielimy jedną liczbę przez drugą, otrzymujemy liczbę i kodujemy ją z powrotem na litery („00” na „A”, „01” na „B” itd.).

Informacje (informacje) to

W rzeczywistości nie będziemy w stanie tego zrobić, ponieważ nie będziemy w stanie określić długości z nieskończoną dokładnością. Niektóre problemy inżynieryjne uniemożliwiają nam zwiększenie dokładności pomiarów, a fizyka kwantowa pokazuje nam, że po pewnym limicie prawa kwantowe będą już nam przeszkadzać. Intuicyjnie rozumiemy, że im niższa dokładność pomiaru, tym mniej informacji otrzymujemy, a im większa dokładność pomiaru, tym więcej informacji otrzymujemy. Wzór Shannona nie nadaje się do pomiaru ilości informacji analogowej, ale istnieją inne metody na to, które są omówione w Teorii Informacji. W technologia komputerowa trochę odpowiada fizycznemu stanowi nośnika informacji: namagnesowany - nienamagnesowany, jest dziura - brak dziury, naładowany - nienaładowany, odbija światło - nie odbija światła, wysoki potencjał elektryczny - niski potencjał elektryczny. W takim przypadku jeden stan jest zwykle oznaczony cyfrą 0, a drugi liczbą 1. Dowolna informacja może być zakodowana przez sekwencję bitów: tekst, obraz, dźwięk itp.

Wraz z bitem często używana jest wartość zwana bajtem, zwykle jest ona równa 8 bitom. A jeśli bit pozwala wybrać jedną równie prawdopodobną opcję z dwóch możliwych, to bajt wynosi 1 z 256 (2 ^ 8). Aby zmierzyć ilość informacji, zwyczajowo używa się również większych jednostek:

1 KB (jeden kilobajt) 210 bajtów = 1024 bajty

1 MB (jeden megabajt) 210 KB = 1024 KB

1 GB (jeden gigabajt) 210 MB = 1024 MB

W rzeczywistości przedrostki SI kilo-, mega-, giga- powinny być używane odpowiednio dla współczynników 10^3, 10^6 i 10^9, ale praktyka używania współczynników o potęgach dwójki rozwinęła się historycznie.

Bit Shannona i bit komputera są takie same, jeśli prawdopodobieństwa wystąpienia zera lub jedynki w bicie komputera są równe. Jeśli prawdopodobieństwa nie są równe, to ilość informacji według Shannona staje się mniejsza, widzieliśmy to na przykładzie marsjańskiego dinozaura. Ilość informacji w komputerze daje górne oszacowanie ilości informacji. Pamięć ulotna po włączeniu zasilania jest zwykle inicjowana pewną wartością, na przykład same jedynki lub same zera. Oczywiste jest, że po doprowadzeniu zasilania do pamięci nie ma tam informacji, ponieważ wartości w komórkach pamięci są ściśle określone, nie ma niepewności. Pamięć może przechowywać pewną ilość informacji, ale po doprowadzeniu do niej zasilania nie ma w niej żadnych informacji.

Dezinformacja to celowo nieprawdziwa informacja przekazana przeciwnikowi lub partnerowi biznesowemu w celu bardziej efektywnego prowadzenia operacji wojskowych, współpracy, sprawdzenia wycieku informacji i kierunku jego wycieku, wykrycia potencjalni klienci czarny rynek.Również dezinformacja (również dezinformowana) to proces manipulowania samymi informacjami, taki jak: wprowadzanie kogoś w błąd poprzez podanie niepełnych lub pełnych, ale już nie potrzebnych informacji, zniekształcanie kontekstu, zniekształcanie części informacji.

Cel takiego uderzenia jest zawsze ten sam – przeciwnik musi działać zgodnie z potrzebami manipulatora. Czyn obiektu, przeciwko któremu jest skierowana dezinformacja, może polegać na podjęciu decyzji niezbędnej dla manipulatora lub na odmowie podjęcia decyzji niekorzystnej dla manipulatora. W każdym razie ostatecznym celem jest akcja, którą podejmie przeciwnik.

Dezinformacja jest więc produkt działalność ludzka, próba stworzenia fałszywego wrażenia i, odpowiednio, dążenie do pożądanych działań i / lub bezczynności.

Informacje (informacje) to

Rodzaje dezinformacji:

Wprowadzanie w błąd określonej osoby lub grupy osób (w tym całego narodu);

Manipulacja (przez działania jednej osoby lub grupy osób);

Kreowanie opinii publicznej o jakimś problemie lub przedmiocie.

Informacje (informacje) to

Wprowadzanie w błąd to nic innego jak zwykłe oszustwo, podawanie fałszywych informacji. Manipulacja to metoda oddziaływania ukierunkowana bezpośrednio na zmianę kierunku działania ludzi. Istnieją następujące poziomy manipulacji:

Wzmocnienie wartości (idei, postaw) istniejących w umysłach ludzi korzystnych dla manipulatora;

Częściowa zmiana poglądów na konkretne wydarzenie lub okoliczność;

Radykalna zmiana postaw życiowych.

Kreowanie opinii publicznej to kształtowanie w społeczeństwie pewnej postawy wobec wybranego problemu.

Źródła i linki

pl.wikipedia.org - wolna encyklopedia Wikipedia

youtube.com - hosting filmów na YouTube

images.yandex.ua - Zdjęcia Yandex

google.com.ua - Zdjęcia Google

pl.wikibooks.org – wikibook

inf1.info - Planeta Informatyki

old.russ.ru - Dziennik rosyjski

shkolo.ru - Przewodnik informacyjny

5byte.ru - strona informatyczna

ssti.ru - Technologie informacyjne

klgtu.ru - Informatyka

informatika.sch880.ru - strona internetowa nauczyciela informatyki O.V. Podvintseva

Encyklopedia kulturoznawstwa

Podstawowe pojęcie cybernetyki, dokładnie tak samo ekonomiczne I. podstawowe pojęcie cybernetyki ekonomicznej. Definicji tego terminu jest wiele, są one złożone i sprzeczne. Powodem tego jest oczywiście to, że ja jako zjawisko jestem zaangażowany w ... ... Słownik ekonomiczny i matematyczny

Informacja- Istotne dane. [GOST R ISO 9000 2008] informacje Każda wiedza na temat tematów, faktów, pojęć itp. z obszaru problemowego, która jest wymieniana przez użytkowników systemu informacyjnego [GOST 34.320 96] informacje Informacje (wiadomości, dane) ... . ... Podręcznik tłumacza technicznego

Informacja- i cóż. informacja f., pol. informacyia, łac. wyjaśnienie informacji, ekspozycja. Wiadomość, informacja o czym l. BAS 1. Wszędzie i we wszystkim chroń interes monarchy z całą wiernością, .. za wszystko udzielam mu bezpośredniej informacji Shvymersowi ... ... Słownik historyczny galicyzmów języka rosyjskiego

Informacja- dane, dane źródłowe, informacje; alert, wiadomość, powiadomienie, powiadomienie; ranking, katamneza, aktualności, referencje, materiały, reportaże, informacje prasowe Słownik rosyjskich synonimów. informacje patrz informacje Słownik synonimów języka rosyjskiego ... ... Słownik synonimów

INFORMACJA- (informacje) Dane dostępne osobom fizycznym, firmom lub rządom podczas podejmowania decyzji gospodarczych. W zasadzie istnieje nieskończona ilość informacji; w praktyce nawet tak duże i wyrafinowane organizacje jak centralne ... ... Słownik ekonomiczny

- (dane) Informacje przetwarzane, przechowywane lub wydawane przez komputer. Biznes. Słownik. Moskwa: INFRA M, Wydawnictwo Ves Mir. Graham Bets, Barry Brindley, S. Williams i in. Osadchaya I.M.. 1998. Informacje ... Słowniczek pojęć biznesowych

INFORMACJA- INFORMACJE, informacje, żony. (książka, urzędnik). 1. tylko jednostki Akcja pod rozdz. poinformować. Informacje są do kreski. 2. Komunikat informujący o stanie rzeczy lub o czyichś działaniach, informacja o czymś. Dając… … Słownik wyjaśniający Uszakowa

INFORMACJA- (z łac. informatio zapoznanie, wyjaśnienie) pojęcie używane w filozofii od czasów starożytnych, a ostatnio nabrało nowego, szerszego znaczenia w związku z rozwojem cybernetyki, gdzie pełni rolę jednej z centralnych kategorii….. . Encyklopedia filozoficzna

INFORMACJA- (od łac. wyjaśnienie informatio, świadomość) wszelkie informacje i dane odzwierciedlające właściwości obiektów w aspekcie przyrodniczym (biol., fizyczne, itp.), społecznym i technicznym. systemów i przesyłane dźwiękowo, graficznie (w tym pisemnie) lub w jakikolwiek inny sposób bez ... ... Encyklopedia fizyczna, Książka jest częścią zestawu podręczników do kursu informatyki i technologii informacyjno-komunikacyjnych (ICT) w klasach starszych szkoły ogólnokształcącej na poziomie profilu, w oparciu o ..., Informacje i postępy .. .

Termin "Informacja" pochodzi od łacińskiego słowa " Informacja " , co znaczy inteligencja , wyjaśnienia , ekspozycja .

Informacja jest tak ogólną i głęboką koncepcją, że nie da się jej wyjaśnić jednym zdaniem. To słowo ma inne znaczenie w technologii, nauce i w codziennych sytuacjach.

Na przykład wiadomość o jakichkolwiek wydarzeniach, o czyichś działaniach itp. "Poinformować" w tym sensie oznacza "Powiedz coś,wcześniej nieznany”.

Ten sam przekaz informacyjny(artykuł prasowy, ogłoszenie, list, telegram, odniesienie, opowiadanie, rysunek, audycja radiowa itp.) może zawierać różną ilość informacji dla różnych osób - w zależności od ich dotychczasowej wiedzy, stopnia zrozumienia tego przekazu i zainteresowania nim.

Tak więc wiadomość skomponowana w języku japońskim nie zawiera żadnych nowych informacji dla osoby, która nie zna tego języka, ale może być bardzo pouczająca dla osoby, która mówi po japońsku. Komunikat przedstawiony w znajomym języku nie zawiera żadnych nowych informacji, jeśli jego treść nie jest jasna lub jest już znana.

W przypadkach, o których mówią praca zautomatyzowana z informacją za pośrednictwem niektórych urządzeń technicznych, zwykle przede wszystkim nie interesuje ich treść wiadomości, ale ilość znaków, które zawiera ta wiadomość.

Bardziej szczegółowe wyobrażenie o istocie rozważanych zagadnień podano w:

11. Gein AG Kraina Informatyki: wydanie specjalne gazety „Informatika”, 20, 22, 24, 26, 36, 38, 1996.

41. Bryabrina V.M. Oprogramowanie komputery osobiste. - M.: Nauka, 1989.

42. Tsymbal wiceprezes Informatyka i przemysł informacyjny. - Kijów: Wysza szkoła, 1989.

1.3. W jakiej formie istnieją informacje?
Informacje mogą występować w różnych formach:

    • w formie tekstów, rysunków, rysunków, fotografii;
    • w postaci światełek lub sygnały dźwiękowe;
    • w postaci fal radiowych;
    • w postaci impulsów elektrycznych i nerwowych;
    • w postaci zapisów magnetycznych;
    • w postaci gestów i mimiki;
    • w postaci zapachów i doznań smakowych;
    • w postaci chromosomów, przez które dziedziczone są cechy i właściwości organizmów itp.

Obiekty, procesy, zjawiska własności materialnej lub niematerialnej, rozpatrywane z punktu widzenia ich własności informacyjnych, nazywamy obiektami informacyjnymi. 1.4. Jak przekazywane są informacje?
Informacje przekazywane są w formie wiadomości od niektórych źródło informacje dla niej odbiorca poprzez kanał komunikacyjny między nimi. Źródło wysyła przesłana wiadomość, który zakodowane w przesyłanym sygnale. Ten sygnał jest wysyłany do kanał komunikacyjny. W rezultacie odbiorca: odebrany sygnał, który dekodowany i staje się otrzymana wiadomość.

    1. wiadomość, zawierające informacje o prognozie pogody, przesyłane jest do odbiornika(do widza) ze źródła- specjalista meteorolog za pośrednictwem kanału komunikacji- sprzęt do nadawania telewizji i telewizja;
    2. żywa istota ze swoimi narządami zmysłów(oko, ucho, skóra, język itp.) otrzymuje informacje ze świata zewnętrznego, przetwarza to w ciąg impulsów nerwowych transmituje Impulsy nerwowe, sklepy w pamięci w postaci stanu struktur nerwowych mózgu, reprodukuje w postaci sygnałów dźwiękowych, ruchów itp., używa w ciągu swojego życia.

Przekazywaniu informacji kanałami komunikacyjnymi często towarzyszy wpływ ingerencja, powodując zniekształcenie i utrata informacji.1.6. Co można zrobić z informacjami?
Informacje mogą być:

Wszystkie te procesy związane z określonymi operacjami na informacjach nazywane są procesami informacyjnymi.

1.7. Jakie właściwości ma informacja?
Właściwości informacji:

Informacja jest wiarygodna, jeśli odzwierciedla prawdziwy stan rzeczy. Nieprawidłowe informacje mogą prowadzić do nieporozumień lub błędnych decyzji.

Wiarygodne informacje mogą z czasem stać się niewiarygodne, ponieważ posiada właściwość stać się przestarzałym, to znaczy przestaje odzwierciedlać prawdziwy stan rzeczy.

Informacja jest kompletna, jeśli jest wystarczająca do zrozumienia i podejmowania decyzji.. Informacje niepełne i zbędne utrudnia podejmowanie decyzji lub może prowadzić do błędów.

Dokładność informacji zależy od stopnia jego bliskości do rzeczywistego stanu obiektu, procesu, zjawiska itp.

Wartość informacji zależy od tego, jak ważne jest rozwiązanie problemu., a także od w jakim stopniu znajdzie zastosowanie w każdej ludzkiej działalności w przyszłości?.

Tylko informacje otrzymane w odpowiednim czasie mogą przynieść oczekiwane korzyści. Równie niepożądane jak przedwczesne złożenie informacji(kiedy nie można go jeszcze przyswoić), a jego opóźnienie.

Jeśli cenne i aktualne informacje są wyrażane w niezrozumiały sposób, może się stać bezużyteczny.

Informacja staje się jasne, jeśli jest wyrażona w języku, którym posługują się te informacje.

Informacje muszą być przedstawione w przystępnej(zgodnie z poziomem percepcji) forma. Dlatego te same pytania są różnie przedstawiane w podręcznikach szkolnych i publikacjach naukowych.

informacje na ten sam temat. można podsumować(zwięzły, bez nieistotnych szczegółów) lub obszernie(szczegółowy, gadatliwy). Zwięzłość informacji jest niezbędna w leksykonach, encyklopediach, podręcznikach, wszelkiego rodzaju instrukcjach.

Podobał Ci się artykuł? Podziel się z przyjaciółmi!
Czy ten artykuł był pomocny?
TAk
Nie
Dziekuję za odpowiedź!
Coś poszło nie tak i Twój głos nie został policzony.
Dziękuję Ci. Twoja wiadomość została wysłana
Znalazłeś błąd w tekście?
Wybierz, kliknij Ctrl+Enter a my to naprawimy!