Vznik a vývoj teorie informace Základy informatiky přednášky Vznik a vývoj teorie informace
ZÁKLADY INFORMATIKY – Vznik a vývoj teorie informace Matematický aparát v teorii informace Základy teorie pravděpodobnosti – Náhodné veličiny Číselné soustavy Informace Základní pojmy – jednotka a zobrazení informace, informační hodnota Entropie – vlastnosti entropie Zdroje zpráv – spojité zdroje zpráv, diskrétní zdroje zpráv Přenos informace – vlastnosti přenosu kanálů, poruchy a šumy přenosu, způsoby boje proti šumu Kódování Elementární teorie kódování Rovnoměrné kódy – telegrafní kód Nerovnoměrné kódy – Morseova abeceda, konstrukce nerovnoměrných kódů Efektivní kódy – Shannonova – Fanova metoda, Hoffmanova metoda Bezpečností kódy Zabezpečující schopnosti kódů, Systematické kódy, Nesystematické kódy
V denním životě : dostáváme různé informace uchováváme je (např. v notesu) odevzdáváme je dále Při dopravování informací je často nutné zpracovat je různými způsoby, například : - posílání telegramu písmena se mění na speciální znaky - televizní přenos části obrazu se mění na rychle za sebou následující znaky, které jsou dále dopravovány prostřednictvím elektromagnetických vln.
Teorie informace patří mezi největší vědecké úspěchy posledních 50. Let je tedy jedním z nejmladších odvětví teorie pravděpodobnosti a tvoří část obecné kybernetiky Zabývá se matematickými problémy, vznikajícími při získávání, uchovávání a přenášení informace. Původně byl zájem teorie informace soustředěn na technickou informaci což byla potřeba sdělovací techniky a to přenést maximum zpráv v nejkratším čase a co nejbezpečněji.
k=B.T První pokusy o kvantifikaci přenášené informace jsou z roku 1924 : KÜPFMULLER – vyjádřil obsah zprávy rovnicí : k=B.T kde: k…………………kvantum informace B………………..potřebná šíře frekvenčního pásma přenášených signálů T…………………doba trvání zprávy převedené na signály
I=n.log s Podstatný zvrat v chápání teorie informace znamenala publikace R.V.L. Hartleyho s názvem - Přenos informací (1928) podle něj odesílatel disponuje soustavou symbolů, z kterých vytváří posloupnosti. upravil vzorec pro měření kvantity informace na formu : I=n.log s Kde: s……počet symbolů se stejnou pravděpod. výskytu n…..celkový počet symbolů ve zprávě
C l a u d a E. S h a n n o n a : Za datum zrození TEORIE INFORMACE možno považovat vědecké práce C l a u d a E. S h a n n o n a : MATEMATICKÁ TEORIE SDĚLOVÁNÍ (1948) zavedl pojmy jako : ENTROPIE MNOŽSTVÍ INFORMACE RYCHLOST PŘENOSU ZPRÁV
SHANNON zdokonalil míru vyjádření informace, za míru informace považuje ENTROPII uvažuje o ní jako o míře neurčitosti, zatímco informace je pro něj mírou určitosti. Při růstu informace klesá entropie a naopak. Odstraněním neurčitosti se získá informace.
Vyšel u následující myšlenky : Máme-li dvě možnosti a dozvíme se, že jedna z nich platí, získáme nejmenší množství informace Toto nejmenší množství informace nazval : BIT-BINARY DIGIT – dvojkové číslo Dále zjistil, že ve sdělovacím kanále pracujícím vždy s určitými chybami, lze přenášet informace s dostatečně malou pravděpodobností chyb bez podstatného snížení rychlosti přenosu.
KVANTITATIVNÍ TEORIE INFORMACE. Práce, jejichž cílem je postavit teorii informace na pevný matematický základ, se začaly objevovat až později. Významné práce : A. J. CHINČIN Zobecnění myšlenek Hartleyho pomocí matematické statistiky a teorie pravděpodobnosti Shannonem, Wienerem, Fischerem a dalšími se pokládá za vznik: KVANTITATIVNÍ TEORIE INFORMACE. zabývá se problémem množství informace ale ne jejím charakterem (Ashby. Kotelnikov, Kolmogorov)
V této souvislosti se začíná mluvit o komplexním oboru – INFORMATICE. S rozvojem programových prostředků došlo ke sjednocování techniky, metod i zpracování a uchování informace. V této souvislosti se začíná mluvit o komplexním oboru – INFORMATICE. Informatiku chápeme jako: oblast vědy a techniky, která se zabývá všeobecnými vědeckými problémy souvisejícími s poznáním a realizací objektů, jevů a procesů týkajících se získávání, zpracovaní, přenosu a využívání informací a znalostí.
V poslední době nachází teorie informace stále širší uplatnění: - spojovací technice - lingvistice - genetice - neurologii atd. V teorii informace jsou nejdůležitější zejména tyto otázky: - míra množství informace - kódování a dekódování zpráv - přenos zpráv
KONEC