Přenos dat, kódování.

Slides:



Advertisements
Podobné prezentace
Vestavné mikropočítačové systémy
Advertisements

Dynamické systémy.
Úvod do médií PaedDr. Zdeněk Pejsar, Ph.D.. Při vytváření pojmu multimédia je vhodné vyjít ze syntaktického složení tohoto slova. Pod pojmem multi najdeme.
Třídění dat OA a VOŠ Příbram. Třídění  rozdělení jednotek souboru do takových skupin, aby co nejlépe vynikly charakteristické vlastnosti zkoumaných jevů.
Tato prezentace byla vytvořena
Přednáška č. 3 Normalizace dat, Datová a funkční analýza
Algebra.
Elektrotechnika Automatizační technika
ENVIRONMENTÁLNÍ INFORMATIKA A REPORTING
ENVIRONMENTÁLNÍ INFORMATIKA A REPORTING
Základy informatiky přednášky Kódování.
Otázky k absolutoriu HW 1 - 5
Vznik a vývoj teorie informace
Ústav technologie, mechanizace a řízení staveb
Funkce.
Informatika pro ekonomy II přednáška 1
1 Číslo-název šablony klíčové aktivityIII/2–Inovace a zkvalitnění výuky prostřednictvím ICT Tematická oblastZáklady informatiky a hardware DUMVY_32_INOVACE_ODB_521.
Regresní analýza a korelační analýza
Základní číselné množiny
Základy informatiky přednášky Efektivní kódy.
Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti
Fakulta životního prostředí Katedra informatiky a geoinformatiky
Informatika pro ekonomy II přednáška 2
Základy informatiky přednášky Entropie.
SWI072 Algoritmy komprese dat1 Algoritmy komprese dat Statistické metody komprese dat a Shannon-Fanův kód.
REDUKCE DAT Díváme-li se na soubory jako na text, pak je tento text redundantní. Redundance vyplývá z:  některé fráze nebo slova se opakují  existuje.
Fakulta životního prostředí Katedra informatiky a geoinformatiky
Radim Farana Podklady pro výuku pro akademický rok 2013/2014
SWI072 Algoritmy komprese dat1 Algoritmy komprese dat Teorie informace.
Orbis pictus 21. století Tato prezentace byla vytvořena v rámci projektu.
F U N K C E.
Modulační metody Ing. Jindřich Korf.
Dostupné z Metodického portálu ISSN: , financovaného z ESF a státního rozpočtu ČR. Provozováno Výzkumným ústavem pedagogickým v Praze.
Základy informatiky přednášky Bezpečnostní kódy.
CZ.1.07/1.4.00/ VY_32_INOVACE_146_IT7 Výukový materiál zpracovaný v rámci projektu Vzdělávací oblast: Informační a komunikační technologie Předmět:Informatika.
Číselné soustavy david rozlílek ME4B
Matice.
ZPRACOVÁNÍ A ANALÝZA BIOSIGNÁLŮ
Predikátová logika.
ZÁZNAM A KÓDOVÁNÍ INFORMACÍ
MANAŽERSKÉ ÚČETNICTVÍ
Orbis pictus 21. století Tato prezentace byla vytvořena v rámci projektu.
Orbis pictus 21. století Tato prezentace byla vytvořena v rámci projektu.
Orbis pictus 21. století Tato prezentace byla vytvořena v rámci projektu.
Dostupné z Metodického portálu ISSN: , financovaného z ESF a státního rozpočtu ČR. Provozováno Výzkumným ústavem pedagogickým v Praze.
SIGNÁLY A SOUSTAVY V MATEMATICKÉ BIOLOGII
Pre-algebra Antonín Jančařík.
Základy zpracování geologických dat
Orbis pictus 21. století Tato prezentace byla vytvořena v rámci projektu.
Automaty a gramatiky.
2. Vybrané základní pojmy matematické statistiky
Informatika pro ekonomy přednáška 4
Radim Farana Podklady pro výuku
Informatika. Cíle výuky informatiky Studenti se mají seznámit se základními pojmy, problémy, postupy, výsledky a aplikacemi informatiky tak, aby je dokázali.
Funkce Lineární funkce a její vlastnosti 2. Funkce − definice Funkce je předpis, který každému číslu z definičního oboru, který je podmnožinou množiny.
Funkce Funkce je zobrazení z jedné číselné množiny do druhé, nejčastěji Buď A a B množiny, f zobrazení. Potom definiční obor a obor hodnot nazveme množiny:
Petr Fodor.
Definiční obor a obor hodnot
Orbis pictus 21. století Přenosové schéma
AUTOMATIZAČNÍ TECHNIKA Kódy
Financováno z ESF a státního rozpočtu ČR.
Ukládání dat v paměti počítače
Informatika pro ekonomy přednáška 3
Teorie informace z latiny, už 1stol. př. n. l.
Přenos dat, kódování.
Informatika pro ekonomy přednáška 3
Informatika pro ekonomy přednáška 4
Lineární funkce a její vlastnosti
Informatika pro ekonomy přednáška 4
Definiční obory. Množiny řešení. Intervaly.
Transkript prezentace:

Přenos dat, kódování

Základní podmínkou využívání informací je jejich výměna mezi příjemci a odesilateli. Příjem a zpracování informace je vždy spojeno s nějakým fyzikálním pochodem. Fyzikální veličinu, která je nositelem informace, nazýváme signál. Signály jsou tedy stavy nebo procesy fyzikálního media. Matematickou představu o signálech (matematický model) lze získat pomocí funkce s=f(x,y,z,t), kde s je libovolný signál vyjádřený nezávislými souřadnicemi místa (x,y,z) a časovým parametrem t. Signály jsou pak vyjádřeny jako časoprostorová funkce, přičemž ne všechny parametry se musí vždy projevit.

Pro realizaci přenosu je důležité rozdělení signálů, podle parametru t, na: - diskrétní, v případě, kdy příslušný parametr může nabývat konečně mnoha diskrétních hodnot (telegrafní zprávy), - spojité, telefonní rozhovory, - statické, nezávisí vůbec na čase (kniha, mapa), - dynamické, jsou funkcemi času (televizní přenos).

Změní-li se, informace se ztrácí. Je-li signál nositelem informace, pak musí obsahovat jednoznačně reprodukovatelné údaje. Platí, že signál obsahuje informace vždy jen pro vybraného příjemce. Informace pak jsou stavy uspořádání signálů, kterými jsou přenášeny. Uspořádání dává signálu jeho věcný obsah - informační hodnotu. Proto uspořádání signálů hraje při přenosu informace významnou roli Změní-li se, informace se ztrácí.

Poznámka: Je třeba mít stále na paměti, že pojmy informace a signál nelze ztotožňovat. Jednu a tutéž informaci lze přenášet pomocí různých signálů, o různé fyzikální podstatě. Je také pravdou, že tentýž typ signálu lze použít k přenosu různých informací. Informaci (v teorii řízení) definujeme jako údaj či zprávu o stavu systému, resp. průběhu procesu řízení v minulosti, přítomnosti nebo budoucnosti, který lze reprodukovat ze signálů a který podněcuje příjemce informace k určitému chování.

Spojitý a diskrétní signál Budeme se teď zabývat způsobem přenosu informace pomocí nějaké fyzikální veličiny, tedy signálu. Představme si, že chceme přenášet hudbu. V koncertní síni jsou instalovány mikrofony, vzdálený posluchač má k dispozici reproduktory. Víme, že mikrofon je zařízení, které je schopno zvuk převést na elektrický signál, reproduktor zase naopak převede elektrický signál na zvuk. Jak bude vypadat přenos mezi mikrofonem a reproduktorem? Zazní-li nějaký tón, na výstupu mikrofonu se objeví elektrický signál o určitém napětí. Toto napětí se mění v přímé závislosti na snímaném zvuku. Pro další použití je nezbytné tento signál zesílit, pak jej přenést (pro jednoduchost budeme předpokládat pouze přenos vodičem) a přivést do reproduktoru. Tam se elektrický signál opět změní ve výsledný zvuk.

Při každé transformaci nebo úpravě signálu však dochází ke zkreslení Při každé transformaci nebo úpravě signálu však dochází ke zkreslení. Průběh elektrického signálu, který přivádíme do reproduktoru, se již nerovná průběhu signálu vytvořeného mikrofonem. Posluchač to vnímá například jako omezení čistoty zvuku, omezení hloubek nebo výšek, změnu barvy zvuku apod. Při přenosu a zpracování se navíc k příslušnému signálu přidávají všudypřítomné šumy, případně i jiné rušení (elektromagnetické vlny vznikající činností elektrických zařízení, různé výboje). To vše je na výstupní straně převedeno na zvuk různé šumy, praskot, pískání apod. Spojitý signál je tedy při přenosu vždy zkreslen.

Od dob, kdy se začal elektrický signál používat pro přenos zvukové informace, se vyvíjela stále dokonalejší zařízení, která přidávala minimální zkreslení a šumy. Avšak nikdy nebyly tyto negativní průvodní vlastnosti spojitého signálu zcela eliminovány. Proto se hledaly metody, jak přenášet informaci jiným způsobem, aby bylo možné všechny poruchy a nedokonalosti přenosového kanálu nějak odfiltrovat.

Přenos čísel je uskutečňován signálem, který se sice zkreslí stejně jako každý jiný, ale číselná hodnota se při přenosu nemění. Můžeme si to představit tak, že na začátku přenosu je číslo zapsáno krásnými hladkými tahy, po přenosu se tyto tahy zkreslí, jsou sice kostrbaté, ale kostrbatá nula je pořád nula a kostrbatá jednička je zase jednička. Po zjištění správné hodnoty se signál může opět rekonstruovat přesně v původním tvaru. Jestliže se při přenosu objeví tak velké zkreslení, že se chybně interpretuje číslice, je možné tomu čelit implementací některé z metod zabezpečení informace proti nedokonalostem přenosového kanálu viz kapitola zabývající se zabezpečením a ochranou dat.

Tvorbou, přenosem a výměnou informace mezi dvěma systémy se mezi nimi vytváří vazba, kterou nazýváme informační. Jedná se o vazbu, která umožňuje tzv. komunikaci.

Komunikací se tedy rozumí výměna informací mezi systémy, podsystémy a prvky systémů, které mohou informace vytvářet, přenášet, přijímat, zpracovávat a uchovávat Pokud se informace přenášejí pouze jedním směrem, tvoří jednoduchý informační řetěz.

vysílač přijímač

Informační vazba mezi lidmi nebo mezi člověkem a reálným objektem na zpracování informací (tedy komunikace) vytváří jazykový komunikační řetěz. V mezilidské komunikaci se k dorozumívání používají tzv. přirozené jazyky, které umožňují nejednoznačnost výkladu. Proto nejsou pro formalizaci sdělené informace nejvhodnější. To vedlo k tvorbě formálních jazyků. Jsou to umělé jazyky, vytvořené pro speciální druhy komunikace.

Poznámka: Víme, že jazyk je jakási množina slov vytvořená určitými pravidly z prvků přesně definované abecedy. Gramatika a mluvnice se dohromady nazývají syntaxe (souhrn pravidel pro sestavování slov a vět, tj. zřetězení slov do větších logických celků). Při syntaxi je význam slov (informace, kterou sdělují) nepodstatný. Syntakticky správně sestavené věty nemusí tvořit celek, který dává smysl. Smyslem, tj. obsahem vytvořených vět, se zabývá sémantika. Znalost sémantiky umožňuje sestavit např. program tak, aby odpovídal požadovanému algoritmu řešení úlohy.

Kódování informací Základní podmínkou pro uskutečnění komunikace je tedy vytvoření spojení signálním informačním kanálem Tento princip spočívá v transformaci informace vyjádřené v nějakém jazyce do vyjádření téže informace v jazyce jiném. Vzájemné přiřazování znaků dvou abeced nazýváme kódování a inverzní postup dekódování. Předpis, který toto přiřazování umožňuje, nazýváme kód.

Z hlediska optimálního přenosu informací je za efektivní považován takový kód, jehož výsledkem bude nejmenší počet informačních prvků, a tím i nejkratší doba přenosu. Je třeba, aby každý přenášený znak obsahoval co největší množství informace. Z entropického hlediska je tedy hospodárný takový kód, jehož každý kódový znak má maximální entropii, tj. všechny znaky mají ve zprávě stejně velkou četnost výskytu.

Pojem abecedy a slova nad abecedou - Každý zdroj informace produkuje zprávy v nějaké abecedě. V teorii informace nazýváme abecedou libovolnou množinu vzájemně rozlišitelných objektů (znaky abecedy, symboly, písmena). Znaky abecedy může být cokoli: písmena latinky, azbuky, hebrejštiny, číslice nebo dokonce celá slova. Důležité je, aby zvolená abeceda byla konečná. - Slovem nad danou abecedou nazýváme libovolnou konečnou uspořádanou množinu (posloupnost) znaků abecedy. - Délkou slova nazýváme počet výskytu znaků v uvedeném slově.

- Abecedním zobrazením nazýváme každé zobrazení, které. slovům - Abecedním zobrazením nazýváme každé zobrazení, které slovům nad nějakou danou abecedou A přiřazuje slova nad nějakou danou abecedou B - Abecední zobrazení musí být jednoznačné (každému vstupnímu slovu není přiřazeno více než jedno výstupní slovo). - Abecední zobrazení se nazývá inverzibilní, právě tehdy,když každým dvěma různým vstupním slovům odpovídají dvě různá slova výstupní (injekce - prosté). - Abecední zobrazení se nazývá kódování, je-li bijekcí (každému znaku abecedy A jse přiřazuje právě jedno slovo nad abecedou B (kód znaku). - Kódování se nazývá stejnoměrné, mají-li kódy všech znaků vstupní abecedy stejnou délku.

Nazýváme redundancí (nadbytečností) daného jazyka. Redundance jazyka Je-li H entropie jazyka a Hmax je maximální entropie při použití téže abecedy (všechny znaky abecedy jsou stejně možné a jejich vzájemný výskyt není závislý), pak číslo Nazýváme redundancí (nadbytečností) daného jazyka.

 Baudotovo dvojkové stejnoměrné kódování Příklad: Nechť zdroj informace Q produkuje 4 nezávislé znaky A, B, C, D. Tyto znaky vyjádříme v binární soustavě. Počet bitů potřebných k vyjádření zjistíme tak, že vypočítáme entropii H(Q). H(Q)= - (0.25.lb0.25 + 0.25.lb0.25 + 0.25.lb0.25 + 0.25.lb0.25)= 2 bit/znak. To nám říká, že pro zakódování abecedy Q je optimální využít pro každý znak 2 bity.

Kontrola: Kontrolu provedeme tím, že vypočítáme množství informace přenášené každým symbolem. Vezměme dva kódy: A (0), B(10), C(110), D(111) A(00), B(01), C(10), D(11) Entropie pro kód 1 je: H(Q)= - (3/9.lb3/9 + 5/9.lb5/9) = 0.918 Entropie pro kód 2 je: H(Q)= - (0.5.lb0.5 + 0.5.lb0.5) =1 Protože 1 je větší než 0.918, je kód 2 efektivnější, každý symbol přenáší více bitů.

Příklad: Zjistěte úspornost kódování uvedeného v tabulce. Řešení: Určíme střední hodnotu množství informace připadající na jeden dvojkový znak a porovnáme ji s největším možným množstvím informace, které se rovná jednomu bitu.

Rozbor řešení: Česká abeceda má 42 znaků a) Při zakódování 6 bity (stejnoměrné) - proč 6 znaků Protože platí: H(q)= - 42.(1/42.lb(1/42)) = - lb 42 = 5,39 Množství informace přenášené 1 bitem je: H1(q)=-(104/252.lb(104/252) + 148/252.lb(148/252)) = 0,98 b) Dále určíme střední hodnotu množství informace připadající na jeden binární znak (6 bitů) H(x) = H/n = 5,39/6 = 0,9

Problémem tohoto kódování je to, že přiřazuje všem znakům dané abecedy stejně dlouhý kód. Při pohledu na následnou tabulku četnosti písmen v českém textu vidíme, že některé znaky se vyskytují podstatně více než jiné. Logická úvaha vede k tomu, že by tyto znaky bylo z hlediska optimalizace přenosu lepší zakódovat kratším kódem.

Shannon -Fanovo nestejnoměrné kódování Princip uvedeného kódování je založen na četnosti výskytu jednotlivých znaků abecedy. Znaky zdroje Q určené k zakódování zapíšeme do tabulky v pořadí klesajících pravděpodobností výskytu. Tyto pravděpodobnosti postupně sčítáme směrem zdola nahoru. Podle získaných dílčích součtů dělíme množinu všech znaků tak, aby úhrnná pravděpodobnost výskytu znaků v každé části byla přibližně stejná, tj. v prvním kroku 0,5. Rozklad množiny znaků určuje hodnoty prvního kódového symbolu. Při stanovení druhého, resp. dalších znaků, postupujeme zcela obdobně s využitím vytvořených podmnožin.

Otázky: 1.  Jaký je vztah mezi informací a signálem? 2.  Jaké druhy signálů známe? 3.  Co je to komunikace a co komunikační řetěz? 4.  Co je to kód a co je to kódování? 5.  Vysvětlete princip Baudotova stejnoměrného kódování a Shannon -Fanoova nestejnoměrného kódování.