Základy informatiky přednášky Pojem informace.

Slides:



Advertisements
Podobné prezentace
Základní typy rozdělení pravděpodobnosti diskrétní náhodné veličiny
Advertisements

Analýza signálů - cvičení
VÝPOČET OC.
RYCHLOST PŘENOSU INFORMACE
Algebra.
ENVIRONMENTÁLNÍ INFORMATIKA A REPORTING
Základy informatiky přednášky Kódování.
Vznik a vývoj teorie informace
TENTO PROJEKT JE SPOLUFINANCOVÁN EVROPSKÝM SOCIÁLNÍM FONDEM
XII/2007 Gepro, spol. s r.o. Ing. Stanislav Tomeš Struktura výkresu - titulní strana Struktura výkresu WKOKEŠ.
Informatika pro ekonomy II přednáška 1
1 Číslo-název šablony klíčové aktivityIII/2–Inovace a zkvalitnění výuky prostřednictvím ICT Tematická oblastZáklady informatiky a hardware DUMVY_32_INOVACE_ODB_521.
Teoretické Základy Informatiky
Regresní analýza a korelační analýza
Základní číselné množiny
Základy informatiky přednášky Efektivní kódy.
Obsah prezentace Náhodná proměnná Rozdělení náhodné proměnné.
VY_32_INOVACE_21-01 PRAVDĚPODOBNOST 1 Úvod, základní pojmy.
Název školyIntegrovaná střední škola technická, Vysoké Mýto, Mládežnická 380 Číslo a název projektuCZ.1.07/1.5.00/ Inovace vzdělávacích metod EU.
Informatika pro ekonomy II přednáška 2
Základy informatiky přednášky Entropie.
REDUKCE DAT Díváme-li se na soubory jako na text, pak je tento text redundantní. Redundance vyplývá z:  některé fráze nebo slova se opakují  existuje.
Fakulta životního prostředí Katedra informatiky a geoinformatiky
SWI072 Algoritmy komprese dat1 Algoritmy komprese dat Teorie informace.
Orbis pictus 21. století Tato prezentace byla vytvořena v rámci projektu.
RLC Obvody Michaela Šebestová.
Matematický aparát v teorii informace Základy teorie pravděpodobnosti
Základy informatiky přednášky Bezpečnostní kódy.
Nechť (, , P) je pravděpodobnostní prostor:
Číselné soustavy david rozlílek ME4B
Pravděpodobnost a genetická prognóza
ZPRACOVÁNÍ A ANALÝZA BIOSIGNÁLŮ
MODULAČNÍ RYCHLOST – ŠÍŘKA PÁSMA
1. Derivace Derivace je míra rychlosti změny funkce.
POČET PRAVDĚPODOBNOSTI
Orbis pictus 21. století Tato prezentace byla vytvořena v rámci projektu.
Pojem účinného průřezu
Experimentální fyzika I. 2
PRAVDĚPODOBNOST NEZÁVISLÉ JEVY Jevy A,B nazýváme nezávislými, jestliže
SIGNÁLY A SOUSTAVY V MATEMATICKÉ BIOLOGII
Základy zpracování geologických dat
Vektorové prostory.
Orbis pictus 21. století Tato prezentace byla vytvořena v rámci projektu.
Radim Farana Podklady pro výuku
2. Vybrané základní pojmy matematické statistiky
Teorie chování spotřebitele
© Institut biostatistiky a analýz INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
Informatika pro ekonomy přednáška 4
Základní pojmy v automatizační technice
Příklad 1 Urči pravděpodobnost získání výhry ve Sportce pro 4 uhodnutá čísla. Řešení: Ve Sportce se losuje 6 výherních čísel ze 49 čísel v osudí. Výherní.
Měřické chyby – nejistoty měření –. Zkoumané (měřené) předměty či jevy nazýváme objekty Na každém objektu je nutno definovat jeho znaky. Mnoho znaků má.
Náhodná veličina. Nechť (, , P) je pravděpodobnostní prostor:
Základní informace o předmětu1. Přednášející: RNDr. Martin Hála, CSc. katedra matematiky, B105, Další informace a soubory ke stažení.
Petr Fodor.
Obsah a rozsah pojmu Pojem lze vymezit buď definicí, jež určí nutné specifické vlastnosti, anebo výčtem všech předmětů, které pod tento pojem spadají.
Teorie chování spotřebitele
Orbis pictus 21. století Přenosové schéma
Indexní analýza Centrum pro virtuální a moderní metody a formy vzdělávání na Obchodní akademii T. G. Masaryka, Kostelec nad Orlicí.
Financováno z ESF a státního rozpočtu ČR.
Ukládání dat v paměti počítače
Pravděpodobnost. Náhodný pokus.
TENTO PROJEKT JE SPOLUFINANCOVÁN EVROPSKÝM SOCIÁLNÍM FONDEM
Informatika pro ekonomy přednáška 3
Teorie informace z latiny, už 1stol. př. n. l.
Informatika pro ekonomy přednáška 3
Informatika pro ekonomy přednáška 4
Lineární funkce a její vlastnosti
Informatika pro ekonomy přednáška 4
Definiční obory. Množiny řešení. Intervaly.
Základy statistiky.
Transkript prezentace:

Základy informatiky přednášky Pojem informace

ZÁKLADY INFORMATIKY – Pojem informace Vznik a vývoj teorie informace Matematický aparát v teorii informace Základy teorie pravděpodobnosti – Náhodné veličiny Číselné soustavy Informace Základní pojmy – jednotka a zobrazení informace, informační hodnota Entropie – vlastnosti entropie Zdroje zpráv – spojité zdroje zpráv, diskrétní zdroje zpráv Přenos informace – vlastnosti přenosu kanálů, poruchy a šumy přenosu, způsoby boje proti šumu Kódování Elementární teorie kódování Rovnoměrné kódy – telegrafní kód Nerovnoměrné kódy – Morseova abeceda, konstrukce nerovnoměrných kódů Efektivní kódy – Shannonova – Fanova metoda, Huffmanova metoda Bezpečností kódy Zabezpečující schopnosti kódů, Systematické kódy, Nesystematické kódy

INFORMACE Rozeznáváme informace různého typu: pojem INFORMACE: slovo informace pochází z latiny a znamená „uvádět ve tvar”. Je to pojem velmi široký a těžko se definuje. Přesná definice neexistuje a asi nikdy existovat nebude. Rozeznáváme informace různého typu: - vědeckotechnické (odborné časopisy…) - ekonomické (ekonomické…) - normotvorné (technické formy…) - technické (napětí v rozvodné síti…) - sociální (výsledky sčítání lidu…) - politické (denní tisk…)

Informace na nás útočí různými FORMAMI: - verbálními (telefonní sdělení) - textovými (osobní formulář) - numerickými (účet za plyn) - obrazovými (televizní zpravodajství) V praxi existují různé DRUHY informací: (literatura je třídí do protikladných dvojic) 1. NOVÁ-STARÁ  význam zprávy časem klesá 2. ORIGINÁLNÍ–REPRODUKOVANÁ  prvotní informace-originálnídále reprodukovaná 3. POTENCIÁLNÍ–AKTUÁLNÍ  záleží na bezprostřední použitelnosti

4. VNITŘNÍ-VNĚJŠÍ - Vnitřní informace se vztahuje k tomu, co je stálé a souvisí s vnitřním uspořádáním – se strukturou systému ( genetické informace ). Vnější informace je spojena s vnějším projevem každého systému, s řídícími a komunikačními funkcemi (statistická data o podniku)

5. KONDENZOVANÁ-NEKONDENZOVANÁ Jedním ze základních kritérií úspěšnosti informačního systému je reprezentace informací v minimálním fyzickém objemu. - Proto se data různě komprimují a kódují. Protikladem je informace nekondenzovaná-obsahuje vysvětlivky.

Základní pojmy - SIGNÁL  fyzikální veličina, která nese informaci - ABECEDA  množina možných elementárních signálů - ZPRÁVA  vytvoříme-li z prvků abecedy nějakou sestavu symbolů, kterou použijeme k přenosu informace a bude-li tato sestava časově ohraničena, tvoří zprávu. Každá zpráva má pak: syntaxi (skladbu) - kvantitativní míra informace sémantiku (obsah) - kvalitativní stránka zprávy (nedá se měřit) důležitost – významnost a priorita zprávy

Jednotka a zobrazení informace Jednotku informace nazýváme - BIT (binary digit – dvojkové číslo) - je to informace, kterou nese zpráva o stavu systému – možné stavy pouze 0 a 1 se stejnou pravděpodobností. BIT - má i význam pravdivostní hodnoty jednoho výroku tzn. jeden BIT je elementární množství informace např.: žárovka SVÍTÍ – NESVÍTÍ

Informační hodnota Vyjádření informační hodnoty je velmi obtížné. Každý objekt může být v každém časovém okamžiku v jednom z mnoha možných stavů. Informace o systému je tím větší, čím je pravděpodobnost výskytů jednotlivých jeho stavů menší. Informace je větší, obsahuje-li zpráva něco nového, nebo co nelze snadno uhodnout (je málo pravděpodobné).

Informační hodnota Platí: Množství informace obsažené ve zprávě X souvisí s pravděpodobností P(X) s jakou může příjemce uhodnout obsah zprávy X, neboli jaká je pravděpodobnost výskytu dané zprávy u příjemce před jejím přijetím. Platí: Zpráva, která nese informaci o stavu systému, který je jistý nenese žádnou informaci; P(X)=1 a množství informace je pak:

Pokud se zpráva X skládá ze dvou nezávislých zpráv A, B pak celková informace, kterou získá příjemce je rovna: I(X) = I(A) + I(B) přičemž pravděpodobnost zprávy X dvou nezávislých jevů je dána: P(X) = P(A) . P(B) Po úpravě dostaneme: Příklad: Házíme kostkou. Jaké množství informace nese zpráva „padlo sudé číslo„? Pravděpodobnost, že padne sudé číslo je P(X)=0,5:

Tabulka největších informačních obsahů soustav Soustava Bity Vyjádření číslice ve dvojkové soustavě 1 číslice v desítkové soustavě 3,32 číslice v šestnáctkové soustavě 4 symbol anglické abecedy (27) 4,75 karta v balíku mariášových karet 5 symbol české abecedy (42) 5,39 krátkodobá lidská paměť 10^4 průměrná kniha 10^7 paměť RAM (PC) 10^8 genetická informace 10^10 lidská paměť 10^20

Harleyho formule definuje množství informace, které je nutné k charakterizaci jednoho prvku množiny E o N prvcích. Tento vzorec je možné zobecnit. Jestliže množina M obsahuje m symbolů o stejné pravděpodobnosti výskytu (tj. p=1/m), vyslání každého symbolu nese kvantum informace podle vzorce: kde K je konstanta odpovídající zvolenému základu logaritmů: b=2 binární jednotka – bit b=10 desítková jednotka – dit (decit) b=e jednotka natural - nat. Příklad: Házíme mincí. Dva možné stavy: hlava, orel. Jaké množství informace nese zpráva o výsledku náhodného pokusu?

Shannonova formule - pokud všechny stavy náhodného jevu nemají stejnou pravděpodobnost pak platí: pro p1=p2=…pn=1/n dostáváme Harleyho formuli

Pravděpodobnost toho, že současně padne 3 a 4 je: Příklad: Zpráva X, která nás informuje o výsledku hodu dvěma kostkami nese informaci I(X). Zpráva o výsledku hodu první kostkou nese informaci I(A) a zpráva o výsledku hodu druhou kostkou informaci I(B). Hody jsou nezávislé, tudíž je celková informace o výsledku hodu obou kostek rovna součtu informací, které nesou zprávy o výsledku jednotlivých poloh kostek. Nechť výsledkem hodu na jedné kostce je 3 a na druhé 4. Jaké množství informace nese zpráva že padlo číslo 3 a zároveň číslo 4? Pravděpodobnost toho, že současně padne 3 a 4 je: a protože pravděpodobnost že padne 3 na první kostce resp. pravděpodobnost že padne 4 na druhé kostce je 1/6 pak platí:

Podle Shannonova vzorce je množství informace jednoho znaku : Příklad: Česká abeceda obsahuje 42 znaků (včetně diakritiky). Zamyslete se nad množstvím informace jednoho znaku!!! Za předpokladu rovnoměrného výskytu všech písmen je pravděpodobnost výskytu u všech znaků stejná: 1/42=0,0238095238 Podle Shannonova vzorce je množství informace jednoho znaku : I = 5,39 bitů Ve skutečnosti neexistuje zcela rovnoměrný výskyt všech znaků v české abecedě (ani v ostatních).

Příklad: Zkoumejte množství informace jednoho znaku s uvažováním pravděpodobnostního výskytu znaků v daném jazyce. Bez dlouhého zkoumání je nám zřejmé, že písmeno e se v českých textech vyskytuje častěji než w. Použijeme-li výsledky analýzy frekvence jednotlivých písmen české abecedy v dostatečně dlouhém textu, zjistíme, že informační hodnotu jednoho písmene musíme vypočítat podle následujícího schématu: mezera a á …... z z 0,166 0,054 0,022…0,019 0,009 Výsledná informační hodnota jednoho znaku je pak: I = 4,67 bitů

B . T = konst [c] B [c / s] . T [s] = konst [c] Míru informace však můžeme odvodil ještě jinou úvahou. Vyjdeme z Nyquistova-Kupfmůllerova časového zákona vyjadřujícího vztah mezi šířkou pásma a dobou přenosu, který je jedním z prvních pokusů o kvantitativní vyjádření informace B . T = konst [c] Kde B - šířka pásma [Hz] T - doba přenosu [s] Vyjádříme-li tuto rovnici graficky, dostaneme soustavu obdélníků, jejichž vrcholy leží na hyperbole. Plochy obdélníků charakterizují do jisté míry obsah informace. Dosadíme-li do předchozí rovnice příslušné rozměry, je obsah informace vyjádřen v kmitech B [c / s] . T [s] = konst [c]

Míra informace je pak dána rovnicí: Informační obsah zůstane zachován, zmenšíme-li např. m-krát dobu T a naopak m-krát zvětšíme šířku pásma B. Časový zákon doplnil Hartley o další veličinu (třetí rozměr) a to o amplitudu resp. počet amplitudových stupňů s . kde Z určuje počet stavů jednoho místa Míra informace je pak dána rovnicí: Výraz násobíme dvěma proto, abychom mohli respektovat každou půl vlnu zvlášť a abychom dostali výsledek v bitech a nikoli v kmitech. Informace dostává takto prostorové vyjádření v souřadnicích - čas, šířka pásma, amplituda. Změnou kteréhokoli z těchto parametrů měníme informační obsah.

Příklad: Určete informační obsah dálnopisné značky kde B = 25 Hz a T = 100 ms (na jedno písmeno). Množství informace prošlé za jednotku času se nazývá informační tok. Platí Příklad: Přenos řeči v běžném telefonním styku vyžaduje šířku pásma B = 3000 Hz. Nahradíme-li 32 písmen abecedy odpovídajícím počtem amplitudových stupňů, je teoreticky informační tok dán:

KONEC