Přenos dat, kódování.

Slides:



Advertisements
Podobné prezentace
Operační program Vzdělávání pro konkurenceschopnost Název projektu: Inovace magisterského studijního programu Fakulty ekonomiky a managementu Registrační.
Advertisements

METODA LINEÁRNÍ SUPERPOZICE SUPERPOSITION THEOREM Metoda superpozice vychází z teze: Účinek součtu příčin = součtu následků jednotlivých příčin působících.
ELEKTRONICKÉ ZABEZPEČOVACÍ SYSTÉMY. Název projektu: Nové ICT rozvíjí matematické a odborné kompetence Číslo projektu: CZ.1.07/1.5.00/ Název školy:
ALGORITMIZACE Mgr. Milan Pastyřík IUVENTAS, s. r. o.
Význam diferenciálních rovnic převzato od Doc. Rapanta.
NÁZEV ŠKOLY: S0Š Net Office, spol. s r.o, Orlová Lutyně AUTOR: Ing. Oldřich Vavříček NÁZEV: Podpora výuky v technických oborech TEMA: Základy elektrotechniky.
Funkce Lineární funkce a její vlastnosti 2. Funkce − definice Funkce je předpis, který každému číslu z definičního oboru, který je podmnožinou množiny.
Orbis pictus 21. století Tento projekt je spolufinancován Evropským sociálním fondem a státním rozpočtem České republiky Pojem informace Pojem informace.
Projekt MŠMTEU peníze středním školám Název projektu školyICT do života školy Registrační číslo projektuCZ.1.07/1.5.00/ ŠablonaIII/2 Sada 37 AnotaceRegulátory.
Definice: Funkce f na množině D(f)  R je předpis, který každému číslu z množiny D(f) přiřazuje právě jedno reálné číslo. Jinak: Nechť A, B jsou neprázdné.
Senzory pro EZS.
Základy automatického řízení 1
Měření délky pevného tělesa
Mocniny, odmocniny, úpravy algebraických výrazů
Informace a informační zdroje
Poměr.
MATEMATIKA Čísla celá základní pojmy.
Matematika 3 – Statistika Kapitola 4: Diskrétní náhodná veličina
Rozhodování 1.
Lineární funkce - příklady
Řešení nerovnic Lineární nerovnice
Základní pojmy v automatizační technice
ČÍSLO PROJEKTU CZ.1.07/1.5.00/ ČÍSLO MATERIÁLU 1 – Množiny – teorie
Lineární rovnice a nerovnice I.
ELEKTRONICKÉ ZABEZPEČOVACÍ SYSTÉMY
ČEHO JE VÍC? ZRAKovÉ VNÍMánÍ.
Algoritmizace - opakování
„Svět se skládá z atomů“
Financováno z ESF a státního rozpočtu ČR.
8.1 Aritmetické vektory.
Jedno-indexový model a určení podílů cenných papírů v portfoliu
Poměr Co je poměr. Změna v daném poměru..
Databáze MS ACCESS 2010.
Základní jednorozměrné geometrické útvary
Uložení dat v PC -Binární (dvojkový) systém-
Financováno z ESF a státního rozpočtu ČR.
Číslo projektu Číslo materiálu název školy Autor Tématický celek
Maďarská metoda Kirill Šustov Michal Bednář Stanislav Běloch
SIMULAČNÍ MODELY.
Běžné reprezentace grafu
Poměr v základním tvaru.
CW-057 LOGISTIKA 34. PŘEDNÁŠKA Lineární programování – 4/G Leden 2017
4.1 – 4.3 Lineární nerovnice i jednoduchý podílový tvar
USMĚRŇOVAČE V NAPÁJECÍCH OBVODECH
Kvadratické nerovnice
Regulátory spojité VY_32_INOVACE_37_755
Řešení nerovnic Lineární nerovnice
Stavební fakulta ČVUT, B407
BIBS Informatika pro ekonomy přednáška 2
Informatika pro ekonomy přednáška 8
DIGITÁLNÍ UČEBNÍ MATERIÁL
MNOŽINY.
Rovnice základní pojmy.
SIGNÁLY A LINEÁRNÍ SYSTÉMY
Teorie Informace, signál
Číslicové měřící přístroje
Jak postupovat při měření?
Pravděpodobnost a statistika
Rovnice s absolutními hodnotami
Materiál byl vytvořen v rámci projektu
Jiří Vyskočil, Marko Genyg-Berezovskyj 2010
Teorie chyb a vyrovnávací počet 1
Lineární regrese.
Poměr v základním tvaru.
KOMBINACE BEZ OPAKOVÁNÍ
Lineární funkce a její vlastnosti
Hra (AZ kvíz) ke zopakování či procvičení učiva:
Moment hybnosti Moment hybnosti L je stejně jako moment síly určen jako součin velikosti ramene d a příslušné veličiny (tj. v našem případě hybnosti p).
Grafy kvadratických funkcí
Teorie chyb a vyrovnávací počet 2
Transkript prezentace:

Přenos dat, kódování

Otázky: 1. Jaký je vztah mezi informací a signálem? 2.  Jaké druhy signálů známe? 3.  Co je to komunikace a co komunikační řetěz? 4.  Co je to kód a co je to kódování? 5.  Vysvětlete princip Baudotova stejnoměrného kódování a Shannon -Fanoova nestejnoměrného kódování.

Základní podmínkou využívání informací je jejich výměna mezi příjemci a odesilateli. Příjem a zpracování informace je vždy spojeno s nějakým fyzikálním pochodem. Fyzikální veličinu, která je nositelem informace, nazýváme signál. Signály jsou tedy stavy nebo procesy fyzikálního media. Matematickou představu o signálech (matematický model) lze získat pomocí funkce s=f(x,y,z,t), kde s je libovolný signál vyjádřený nezávislými souřadnicemi místa (x,y,z) a časovým parametrem t. Signály jsou pak vyjádřeny jako časoprostorová funkce, přičemž ne všechny parametry se musí vždy projevit.

Pro realizaci přenosu je důležité rozdělení signálů, podle parametru t, na: - diskrétní, v případě, kdy příslušný parametr může nabývat konečně mnoha diskrétních hodnot (telegrafní zprávy), - spojité, telefonní rozhovory, - statické, nezávisí vůbec na čase (kniha, mapa), - dynamické, jsou funkcemi času (televizní přenos).

Změní-li se, informace se ztrácí. Je-li signál nositelem informace, pak musí obsahovat jednoznačně reprodukovatelné údaje. Platí, že signál obsahuje informace vždy jen pro vybraného příjemce. Informace pak jsou stavy uspořádání signálů, kterými jsou přenášeny. Uspořádání dává signálu jeho věcný obsah - informační hodnotu. Proto uspořádání signálů hraje při přenosu informace významnou roli Změní-li se, informace se ztrácí.

Poznámka: Je třeba mít stále na paměti, že pojmy informace a signál nelze ztotožňovat. Jednu a tutéž informaci lze přenášet pomocí různých signálů, o různé fyzikální podstatě. Je také pravdou, že tentýž typ signálu lze použít k přenosu různých informací. Informaci (v teorii řízení) definujeme jako údaj či zprávu o stavu systému, resp. průběhu procesu řízení v minulosti, přítomnosti nebo budoucnosti, který lze reprodukovat ze signálů a který podněcuje příjemce informace k určitému chování.

Spojitý a diskrétní signál Budeme se teď zabývat způsobem přenosu informace pomocí nějaké fyzikální veličiny, tedy signálu. Představme si, že chceme přenášet hudbu. V koncertní síni jsou instalovány mikrofony, vzdálený posluchač má k dispozici reproduktory. Víme, že mikrofon je zařízení, které je schopno zvuk převést na elektrický signál, reproduktor zase naopak převede elektrický signál na zvuk. Jak bude vypadat přenos mezi mikrofonem a reproduktorem? Zazní-li nějaký tón, na výstupu mikrofonu se objeví elektrický signál o určitém napětí. Toto napětí se mění v přímé závislosti na snímaném zvuku. Pro další použití je nezbytné tento signál zesílit, pak jej přenést (pro jednoduchost budeme předpokládat pouze přenos vodičem) a přivést do reproduktoru. Tam se elektrický signál opět změní ve výsledný zvuk.

Při každé transformaci nebo úpravě signálu však dochází ke zkreslení Při každé transformaci nebo úpravě signálu však dochází ke zkreslení. Průběh elektrického signálu, který přivádíme do reproduktoru, se již nerovná průběhu signálu vytvořeného mikrofonem. Posluchač to vnímá například jako omezení čistoty zvuku, omezení hloubek nebo výšek, změnu barvy zvuku apod. Při přenosu a zpracování se navíc k příslušnému signálu přidávají všudypřítomné šumy, případně i jiné rušení (elektromagnetické vlny vznikající činností elektrických zařízení, různé výboje). To vše je na výstupní straně převedeno na zvuk různé šumy, praskot, pískání apod. Spojitý signál je tedy při přenosu vždy zkreslen.

Od dob, kdy se začal elektrický signál používat pro přenos zvukové informace, se vyvíjela stále dokonalejší zařízení, která přidávala minimální zkreslení a šumy. Avšak nikdy nebyly tyto negativní průvodní vlastnosti spojitého signálu zcela eliminovány. Proto se hledaly metody, jak přenášet informaci jiným způsobem, aby bylo možné všechny poruchy a nedokonalosti přenosového kanálu nějak odfiltrovat.

Přenos čísel je uskutečňován signálem, který se sice zkreslí stejně jako každý jiný, ale číselná hodnota se při přenosu nemění. Můžeme si to představit tak, že na začátku přenosu je číslo zapsáno krásnými hladkými tahy, po přenosu se tyto tahy zkreslí, jsou sice kostrbaté, ale kostrbatá nula je pořád nula a kostrbatá jednička je zase jednička. Po zjištění správné hodnoty se signál může opět rekonstruovat přesně v původním tvaru. Jestliže se při přenosu objeví tak velké zkreslení, že se chybně interpretuje číslice, je možné tomu čelit implementací některé z metod zabezpečení informace proti nedokonalostem přenosového kanálu viz kapitola zabývající se zabezpečením a ochranou dat.

Tvorbou, přenosem a výměnou informace mezi dvěma systémy se mezi nimi vytváří vazba, kterou nazýváme informační. Jedná se o vazbu, která umožňuje tzv. komunikaci.

Komunikací se tedy rozumí výměna informací mezi systémy, podsystémy a prvky systémů, které mohou informace vytvářet, přenášet, přijímat, zpracovávat a uchovávat Pokud se informace přenášejí pouze jedním směrem, tvoří jednoduchý informační řetěz.

vysílač přijímač

Informační vazba mezi lidmi nebo mezi člověkem a reálným objektem na zpracování informací (tedy komunikace) vytváří jazykový komunikační řetěz. V mezilidské komunikaci se k dorozumívání používají tzv. přirozené jazyky, které umožňují nejednoznačnost výkladu. Proto nejsou pro formalizaci sdělené informace nejvhodnější. To vedlo k tvorbě formálních jazyků. Jsou to umělé jazyky, vytvořené pro speciální druhy komunikace.

Poznámka: Víme, že jazyk je jakási množina slov vytvořená určitými pravidly z prvků přesně definované abecedy. Gramatika a mluvnice se dohromady nazývají syntaxe (souhrn pravidel pro sestavování slov a vět, tj. zřetězení slov do větších logických celků). Při syntaxi je význam slov (informace, kterou sdělují) nepodstatný. Syntakticky správně sestavené věty nemusí tvořit celek, který dává smysl. Smyslem, tj. obsahem vytvořených vět, se zabývá sémantika. Znalost sémantiky umožňuje sestavit např. program tak, aby odpovídal požadovanému algoritmu řešení úlohy.

Kódování informací Základní podmínkou pro uskutečnění komunikace je tedy vytvoření spojení signálním informačním kanálem Tento princip spočívá v transformaci informace vyjádřené v nějakém jazyce do vyjádření téže informace v jazyce jiném. Vzájemné přiřazování znaků dvou abeced nazýváme kódování a inverzní postup dekódování. Předpis, který toto přiřazování umožňuje, nazýváme kód.

Z hlediska optimálního přenosu informací je za efektivní považován takový kód, jehož výsledkem bude nejmenší počet informačních prvků, a tím i nejkratší doba přenosu. Je třeba, aby každý přenášený znak obsahoval co největší množství informace. Z entropického hlediska je tedy hospodárný takový kód, jehož každý kódový znak má maximální entropii, tj. všechny znaky mají ve zprávě stejně velkou četnost výskytu.

Pojem abecedy a slova nad abecedou - Každý zdroj informace produkuje zprávy v nějaké abecedě. V teorii informace nazýváme abecedou libovolnou množinu vzájemně rozlišitelných objektů (znaky abecedy, symboly, písmena). Znaky abecedy může být cokoli: písmena latinky, azbuky, hebrejštiny, číslice nebo dokonce celá slova. Důležité je, aby zvolená abeceda byla konečná. - Slovem nad danou abecedou nazýváme libovolnou konečnou uspořádanou množinu (posloupnost) znaků abecedy. - Délkou slova nazýváme počet výskytu znaků v uvedeném slově.

- Abecedním zobrazením nazýváme každé zobrazení, které. slovům - Abecedním zobrazením nazýváme každé zobrazení, které slovům nad nějakou danou abecedou A přiřazuje slova nad nějakou danou abecedou B - Abecední zobrazení musí být jednoznačné (každému vstupnímu slovu není přiřazeno více než jedno výstupní slovo). - Abecední zobrazení se nazývá inverzibilní, právě tehdy,když každým dvěma různým vstupním slovům odpovídají dvě různá slova výstupní (injekce - prosté). - Abecední zobrazení se nazývá kódování, je-li bijekcí (každému znaku abecedy A jse přiřazuje právě jedno slovo nad abecedou B (kód znaku). - Kódování se nazývá stejnoměrné, mají-li kódy všech znaků vstupní abecedy stejnou délku.

Nazýváme redundancí (nadbytečností) daného jazyka. Redundance jazyka Je-li H entropie jazyka a Hmax je maximální entropie při použití téže abecedy (všechny znaky abecedy jsou stejně možné a jejich vzájemný výskyt není závislý), pak číslo Nazýváme redundancí (nadbytečností) daného jazyka.

 Baudotovo dvojkové stejnoměrné kódování Příklad: Nechť zdroj informace Q produkuje 4 nezávislé znaky A, B, C, D. Tyto znaky vyjádříme v binární soustavě. Počet bitů potřebných k vyjádření zjistíme tak, že vypočítáme entropii H(Q). H(Q)= - (0.25.lb0.25 + 0.25.lb0.25 + 0.25.lb0.25 + 0.25.lb0.25)= 2 bit/znak. To nám říká, že pro zakódování abecedy Q je optimální využít pro každý znak 2 bity.

Kontrola: Kontrolu provedeme tím, že vypočítáme množství informace přenášené každým symbolem. Vezměme dva kódy: A (0), B(10), C(110), D(111) A(00), B(01), C(10), D(11) Entropie pro kód 1 je: H(Q)= - (3/9.lb3/9 + 5/9.lb5/9) = 0.918 Entropie pro kód 2 je: H(Q)= - (0.5.lb0.5 + 0.5.lb0.5) =1 Protože 1 je větší než 0.918, je kód 2 efektivnější, každý symbol přenáší více bitů.

Příklad: Zjistěte úspornost kódování uvedeného v tabulce. Řešení: Určíme střední hodnotu množství informace připadající na jeden dvojkový znak a porovnáme ji s největším možným množstvím informace, které se rovná jednomu bitu.

Rozbor řešení: Česká abeceda má 42 znaků a) Při zakódování 6 bity (stejnoměrné) - proč 6 znaků Protože platí: H(q)= - 42.(1/42.lb(1/42)) = - lb 42 = 5,39 Množství informace přenášené 1 bitem je: H1(q)=-(104/252.lb(104/252) + 148/252.lb(148/252)) = 0,98 b) Dále určíme střední hodnotu množství informace připadající na jeden binární znak (6 bitů) H(x) = H/n = 5,39/6 = 0,9

Problémem tohoto kódování je to, že přiřazuje všem znakům dané abecedy stejně dlouhý kód. Při pohledu na následnou tabulku četnosti písmen v českém textu vidíme, že některé znaky se vyskytují podstatně více než jiné. Logická úvaha vede k tomu, že by tyto znaky bylo z hlediska optimalizace přenosu lepší zakódovat kratším kódem.

Shannon -Fanovo nestejnoměrné kódování Princip uvedeného kódování je založen na četnosti výskytu jednotlivých znaků abecedy. Znaky zdroje Q určené k zakódování zapíšeme do tabulky v pořadí klesajících pravděpodobností výskytu. Tyto pravděpodobnosti postupně sčítáme směrem zdola nahoru. Podle získaných dílčích součtů dělíme množinu všech znaků tak, aby úhrnná pravděpodobnost výskytu znaků v každé části byla přibližně stejná, tj. v prvním kroku 0,5. Rozklad množiny znaků určuje hodnoty prvního kódového symbolu. Při stanovení druhého, resp. dalších znaků, postupujeme zcela obdobně s využitím vytvořených podmnožin.

Otázky: 1.  Jaký je vztah mezi informací a signálem? 2.  Jaké druhy signálů známe? 3.  Co je to komunikace a co komunikační řetěz? 4.  Co je to kód a co je to kódování? 5.  Vysvětlete princip Baudotova stejnoměrného kódování a Shannon -Fanoova nestejnoměrného kódování.