Teorie informace z latiny, už 1stol. př. n. l.

Slides:



Advertisements
Podobné prezentace
VÝPOČET OC.
Advertisements

Statistika.
16. Kruhový děj s ideálním plynem, 2. termodynamický zákon
Fakulta životního prostředí Katedra informatiky a geoinformatiky
Chemická termodynamika I
MARKOVSKÉ ŘETĚZCE.
IDEÁLNÍ PLYN Stavová rovnice.
A5M33IZS – Informační a znalostní systémy Datová analýza I.
ENVIRONMENTÁLNÍ INFORMATIKA A REPORTING
Základy informatiky přednášky Kódování.
Vznik a vývoj teorie informace
Vlastnosti funkcí Vypracoval: Mgr. Lukáš Bičík
Informatika pro ekonomy II přednáška 1
1 Číslo-název šablony klíčové aktivityIII/2–Inovace a zkvalitnění výuky prostřednictvím ICT Tematická oblastZáklady informatiky a hardware DUMVY_32_INOVACE_ODB_521.
Teoretické Základy Informatiky
Obchodní akademie a Střední odborná škola, gen. F. Fajtla, Louny, p.o. Osvoboditelů 380, Louny Číslo projektu CZ.1.07/1.5.00/ Číslo sady 28Číslo.
Základy informatiky přednášky Pojem informace.
Chemická termodynamika II
Statistická mechanika - Boltzmannův distribuční zákon
ROVNOVÁŽNÝ STAV, VRATNÝ DĚJ, TEPELNÁ ROVNOVÁHA, TEPLOTA A JEJÍ MĚŘENÍ
Molekulová fyzika a termika
CHYBY MĚŘENÍ.
Informatika pro ekonomy II přednáška 2
Základy informatiky přednášky Entropie.
REDUKCE DAT Díváme-li se na soubory jako na text, pak je tento text redundantní. Redundance vyplývá z:  některé fráze nebo slova se opakují  existuje.
SWI072 Algoritmy komprese dat1 Algoritmy komprese dat Teorie informace.
STANOVENÍ NEJISTOT PŘI VÝPOŠTU KONTAMINACE ZASAŽENÉHO ÚZEMÍ
Základy číslicové techniky
FMVD I - cvičení č.4 Navlhavost a nasáklivost dřeva.
Termodynamika Termodynamika studuje fyzikální a chemické děje v systémech (soustavách) z hlediska energie Proč některé reakce produkují teplo (NaOH + H2O)
Statika nosných konstrukcí
ZÁZNAM A KÓDOVÁNÍ INFORMACÍ
Fyzikální systémy hamiltonovské Celková energie systému je vyjádřená Hamiltonovou funkcí H – hamiltoniánem Energie hamiltonovského systému je funkcí zobecněné.
Orbis pictus 21. století Tato prezentace byla vytvořena v rámci projektu.
Jedno-indexový model a určení podílů cenných papírů v portfoliu
Dominik Šutera ME4B. NOR NAND je způsob grafického vyjádření příslušnosti prvků do množiny a vztahů mezi množinami.
Název školyIntegrovaná střední škola technická, Vysoké Mýto, Mládežnická 380 Číslo a název projektuCZ.1.07/1.5.00/ Inovace vzdělávacích metod EU.
Dostupné z Metodického portálu ISSN: , financovaného z ESF a státního rozpočtu ČR. Provozováno Výzkumným ústavem pedagogickým v Praze.
Orbis pictus 21. století Tato prezentace byla vytvořena v rámci projektu.
II. Analýza poptávky Přehled témat
Číselné soustavy dekadická binární hexadecimální
Uložení dat v počítači.
Teplo ZŠ Velké Březno.
Radim Farana Podklady pro výuku
Termodynamika (kapitola 6.1.) Rozhoduje pouze počáteční a konečný stav Nezávisí na mechanismu změny Předpověď směru, samovolnosti a rozsahu reakcí Nepočítá.
Z latinského „informatio“ = vtištění formy či tvaru, utváření. Informace = srozumitelná a pochopitelná část údajů Metainformace = informace o informaci.
MOCNINY.
Základní pojmy v automatizační technice
Termodynamika Základní pojmy: TeploQ (J) - forma energie Termodynamická teplotaT (K) 0K= -273,16°C - nejnižší možná teplota (ustane tepelný pohyb) EntropieS.
Fyzikální informace kategorie fyzikálního obrazu světa: hmota, energie, prostor, čas, informace fyzikální informace: informace v anorganickém světě existuje.
Ústav technických zařízení budov MĚŘENÍ A REGULACE Ing. Václav Rada, CSc. ZS – 2003/
Logické funkce dvou proměnných, hradlo
Informace jako komunikace 2
Fyzika pro lékařské a přírodovědné obory Ing. Petr Vácha ZS – Termika, molekulová fyzika.
Radovan Plocek 8.A. Stavové veličiny Izolovaná soustava Rovnovážný stav Termodynamická teplota Teplota plynu z hlediska mol. fyziky Teplotní stupnice.
Molekulová fyzika 2. Sada pomocných snímků „Teplota“
16. Kruhový děj s ideálním plynem, 2. termodynamický zákon
Petr Fodor.
Induktivní statistika
AUTOMATIZAČNÍ TECHNIKA Kódy
Elektrárny 1 Přednáška č.2 Výpočet účinnosti TE
Co je to informace ? zpráva sdělení údaj poznání odpověď na otázku.
Financováno z ESF a státního rozpočtu ČR.
Ukládání dat v paměti počítače
Informatika pro ekonomy přednáška 3
Spojitá a kategoriální data Základní popisné statistiky
Informatika pro ekonomy přednáška 3
Název projektu: Moderní výuka s využitím ICT
Autor: Honnerová Helena
Induktivní statistika
Transkript prezentace:

Teorie informace z latiny, už 1stol. př. n. l. „informare“ - dávati tvar,podobu, formovat, tvořit „informatio“ - představa, pojem, obrys informace – mnohoznačný pojem fyzikální informace – v neživé přírodě biologická informace – v živé přírodě sociální informace – v lidské společnosti technická informace – technická zařízení

Teorie informace zakladatel Claude Elwood Shannon (1916-2001) A Mathematical Theory of Communication (1948) Shannonova definice informace: - vlastnost odstraňující apriorní neznalost příjemce uplatnění – telekomunikace, přesné reprodukování vyslané zprávy v místě přijetí

Teorie informace zpráva nese význam – k něčemu referuje sémantika - nauka o významu slov, znaků pro inženýrské aplikace irelevantní každá zpráva vybrána z množiny možných zpráv pokud počet zpráv v množině konečný → číslo mírou informace produkované ve chvíli výběru jedné nich

Teorie informace předpoklad - všechny volby stejně pravděpodobné → volba zprávy statistická, vyjádřitelná logaritmickou funkcí Log ar - čím umocnit a, abychom získali r? množina zpráv o konečném počtu elementů N1, N2 … Nn každý výskyt s pravděpodobností p1, p2 … pn čas, šířka pásma, počet přenosů .. - inženýrské parametry mění se lineárně s logaritmem počtu možností (volby)

Teorie informace informační zdroj produkuje zprávy nedeterministicky → stochastický (pravděpodobnostní) proces pravděpodobnost mnohdy závisí na předchozím stavu např. v angl. písmeno D pravděpodobněji následováno písmenem E než písmenem Z

Teorie informace I = – ∑ pi log pi množství informace I (p1, p2 … pn) Vybrané vlastnosti: 1) jestliže pravděpodobnost výskytu elementů stejná (pn = 1/n) → I se musí zvyšovat spolu s n 2) jestliže volba rozložena mezi dva následné výběry → hodnota I součtem obou dílčích hodnot I z toho Shannonův teorém: n I = – ∑ pi log pi i = 1

Teorie informace I umožňuje vypočítat průměrný počet znaků z množiny, potřebný k zakódování zprávy míra nehospodárnosti kódování - redundance (nadbytečnost) výsledná hodnota není vždy celé číslo přebývající hodnota označena I* vypočet redundantní informace: r = 1 – I/I* příklad: v bedně je 32 knoflíků, pouze 1 je červený. Kolikrát musíme rozhodovat než jednoznačně určíme, ve které skupině je červený knoflík?

Teorie informace hodnota červeného knoflíku je rovna pěti máme dvě možnosti. Která je pravdivá? zjistíme, že jedna platí → získáme nejmenší množství informace, 1 bit bit může mít tedy pravdivostní hodnotu: 1 = pravda 0 = nepravda 1 a 0 základem dvojkové soustavy (třetí prvek mezera) dvojková soustava nevýhodná pro lidi, neumíme v ní dostatečně rychle počítat, stroje ano

Teorie informace bit – podle této teorie nejmenší jednotkou informace bit – binary digit či basic indissoluble information unit jeden bit = dvojkový logaritmus ze dvou log 22 = 1 I se měří logaritmem prováděných počtu výběrů počet bitů určuje, kolikrát nutno se rozhodnout pro dosažení jediného výsledku

Teorie informace k převodu informace mezi lidmi a stroji převodní pravidla – kódy ve vypočetní technice ustáleny kódy na základě osmibitových slabik – bytů 1 byte = 8 bitů → 256 možných kombinací nul a jedniček

Entropie definice: míra neuspořádanosti soustavy, růst vyjadřuje přechod od organizovaných, málo pravděpodobných stavů ke stavům chaotickým, vysoce pravděpodobných odstranění entropie po příjmu zprávy → vyjadřuje míru získané informace při růstu informace entropie klesá a naopak

Entropie pojem z termodynamiky - směr energetických změn v systému směrem k nejpravděpodobnějšímu uspořádání jeho prvků část energie při práci systému degraduje na teplo – nevratná ztráta izolovaný termodynamický systém → ubývá energie, směr rovnovážný stav bez energie čím menší entropie, tím větší rozdíly v soustav → překvapení pro pozorovatele, větší informace

Negentropie záporná entropie, organi- zace používají biologové otevřené systémy daleko od rovnováhy (život) sají uspořádanost z okolí (látky a energii), rozkládají ji, uvolněnou energii využívají k udržení vlastní organizace výsledek → degradací látek a energie zvyšují entropii svého okolí