Informatika pro ekonomy II přednáška 1

Slides:



Advertisements
Podobné prezentace
Interpretovaná Matematika
Advertisements

Fakulta životního prostředí Katedra informatiky a geoinformatiky
Matematické modelování a operační výzkum
Projektové řízení Modul č.1.
Ostatní vnitřní komponenty
Mechanika s Inventorem
Základy ekonomie
ENVIRONMENTÁLNÍ INFORMATIKA A REPORTING
ENVIRONMENTÁLNÍ INFORMATIKA A REPORTING
Základy informatiky přednášky Kódování.
Vznik a vývoj teorie informace
Projekt Anglicky v odborných předmětech, CZ.1.07/1.3.09/
Úvod do Teorie množin.
Informatika pro ekonomy II přednáška 4
Teorie informace Radim Farana Podklady pro výuku pro akademický rok 2013/2014.
1 Číslo-název šablony klíčové aktivityIII/2–Inovace a zkvalitnění výuky prostřednictvím ICT Tematická oblastZáklady informatiky a hardware DUMVY_32_INOVACE_ODB_521.
Teoretické Základy Informatiky
Obchodní akademie a Střední odborná škola, gen. F. Fajtla, Louny, p.o. Osvoboditelů 380, Louny Číslo projektu CZ.1.07/1.5.00/ Číslo sady 28Číslo.
Pravděpodobnost a statistika opakování základních pojmů
Informatika pro ekonomy II přednáška 2
Základy informatiky přednášky Entropie.
SWI072 Algoritmy komprese dat1 Algoritmy komprese dat Teorie informace.
Teplo jako fyzikální veličina
Sociologický výzkum.
Orbis pictus 21. století Tato prezentace byla vytvořena v rámci projektu.
Nechť (, , P) je pravděpodobnostní prostor:
Pravděpodobnost a genetická prognóza
Informatika pro ekonomy II přednáška 10
Predikátová logika.
Makroekonomie Základní východiska zkoumání. O co se snaží makroekonomická teorie? Cílem makroekonomické teorie je v podstatě –Popsat a teoreticky vysvětlit.
Algebra II..
POČET PRAVDĚPODOBNOSTI
Pravděpodobnost. Náhodný pokus.
Důležité adresy: Přístup z Internetu k přednáškám ve formátu .pdf:
Odhad metodou maximální věrohodnost
SIGNÁLY A SOUSTAVY V MATEMATICKÉ BIOLOGII
ZÁKLADY TEORIE PRAVDĚPODOBNOSTI
Základy zpracování geologických dat
Databázové systémy Informatika pro ekonomy, př. 18.
Úvod do teorie konečných automatů
Pravděpodobnost 7  Podmíněná pravděpodobnost. Definice  Podmíněná pravděpodobnost náhodného jevu A je pravděpodobnost jevu A, ale v závislosti na dalším.
Automaty a gramatiky.
Definice fraktální (vnitřní) dimenze a její aplikace v databázích
Radim Farana Podklady pro výuku
 Zkoumáním fyzikálních objektů (např. polí, těles) zjišťujeme že:  zkoumané objekty mají dané vlastnosti,  nacházejí se v určitých stavech,  na nich.
Rozhodování ve veřejné správě Přednáška M. Horáková.
Informatika pro ekonomy přednáška 4
(Popis náhodné veličiny)
Molekulová fyzika 3. přednáška „Statistický přístup jako jediná funkční strategie kinetické teorie“
Základní pojmy v automatizační technice
Měřické chyby – nejistoty měření –. Zkoumané (měřené) předměty či jevy nazýváme objekty Na každém objektu je nutno definovat jeho znaky. Mnoho znaků má.
Databázové systémy Úvod, Základní pojmy. Úvod S rozvojem lidského poznání roste prudce množství informací. Jsou kladeny vysoké požadavky na ukládání,
Algoritmizace – základní pojmy
Vzdělávání pro konkurenceschopnost
Co se dá změřit v psychologii a pedagogice?
Ukládání dat v paměti počítače
Pravděpodobnost. Náhodný pokus.
METODICKÝ LIST PRO ZŠ Pro zpracování vzdělávacích materiálů (VM)v rámci projektu EU peníze školám Operační program Vzdělávání pro konkurenceschopnost   
Škola SOŠ a SOU Hustopeče, Masarykovo nám. 1 Autor
Výukový materiál zpracován v rámci projektu EU peníze školám
Informatika pro ekonomy přednáška 3
Teorie informace z latiny, už 1stol. př. n. l.
Informatika pro ekonomy přednáška 8
Informatika / … o číslech
Informatika pro ekonomy přednáška 3
Informatika pro ekonomy přednáška 4
BIBS Informatika pro ekonomy přednáška 2
Induktivní postupy ve výuce matematiky
Plánování přesnosti měření v IG Úvod – základní nástroje TCHAVP
Informatika pro ekonomy přednáška 4
Transkript prezentace:

Informatika pro ekonomy II přednáška 1 Informace v počítači Informatika pro ekonomy II přednáška 1

Jak informaci chápat? Informace — z hlediska kvalitativního (obsah sdělení, význam zprávy) tím se zabývá INFORMATIKA Informace — z hlediska kvantitativního (množství a jeho měření) tím se zabývá TEORIE INFORMACE

Údaje, data, informace, znalosti Údaj – hodnota libovolné reálné veličiny Data – formalizované údaje Informace – interpretovaná data Znalosti – ucelený komplex informací o nějaké objektivní realitě

Interpretace dat Data v počítači: jedničky a nuly Pro člověka musí být zobrazeny Zobrazení stejné posloupnosti jedniček a nul může být provedeno nekonečně mnoha způsoby Interpretace zobrazení: přisouzení významu zobrazeným údajům

Pojem datový typ Definován oborem povolených hodnot a kolekcí povolených operací Implementace – přisouzení posloupnosti binárních hodnot v paměti počítače Modeluje objektivní realitu – hodnoty jsou zobrazeny pro vstup i výstup Příklad: Excel – formaty.xls Otázka: stejný údaj, kolik informace????

Pojem informace Mnoho různých definic podle toho, co autoři definice považovali za nejdůležitější. Příklady: 6

Různé definice informace 1. Informace je obsah jakéhokoli oznámení, údaje o čemkoli, s určením pro přenos v prostoru a čase. V nejširším slova smyslu je to obsah vztahů mezi materiálními objekty, projevující se změnami těchto objektů. 2. Informace je obsah zprávy, sdělení, objasnění, vysvětlení, poučení. 3. Informace jsou údaje, čísla, znaky, povely, instrukce, příkazy, zprávy apod. Za informace považujeme také podněty a vjemy přijímané a vysílané živými organismy.

Jak informaci měřit? Claude Shannon — základy teorie informace, stanovil možnosti měření informačního množství Shannonova definice informace: Informace je míra množství neurčitosti nebo nejistoty o nějakém náhodném ději odstraněná realizací tohoto děje. Informace rozšiřuje okruh znalostí příjemce.

Měření informačního množství Entropie — název vypůjčený z fyziky, použitý pro měření informačního množství. Jak kvantifikovat rozšíření okruhu znalostí příjemce? Pravděpodobnost zprávy — spojeno s individuálními vlastnostmi příjemce (Shannon)

Jevy a jejich realizace Jev — náhodný proces s n možnými realizacemi (tah sportky, účast na přednášce, semafor na křižovatce apod.) Realizace jevu — jeden projev, získání výsledku (vytažení 6 čísel, konkrétní počet osob na přednášce, svítící zelená na křižovatce apod.)

Požadované vlastnosti funkce pro výpočet množství informace Jev X má n realizací, množství informace je funkcí n Je-li n = 1, jedná se o jev jistý, množství informace je rovno nule Jevy X a Y probíhající současně a nezávisle, p(x,y) = p(x).p(y): množství informace je dáno součtem množství jednotlivých jevů: f(x,y) = f(x) + f(y) Jev X má n realizací, jev Y má m realizací. Je-li m>n, pak chceme i f(m)>f(n)

Výpočet vlastní informace Funkce, která vyhovuje uvedeným podmínkám, je logaritmus. I(x) = log n Zde předpokládáme, že pravděpodobnost každé realizace je stejná. Má-li jev n realizací, pak můžeme psát p(x) = 1/n, odsud pak n = 1/p(x)

Výpočet vlastní informace Vlastní informace výsledku realizace x — je reálné číslo získané logaritmem pravděpodobnosti: I(x) = –log p(x) Základ logaritmu — principiálně není podstatný. Ale používají se logaritmy o základu 2. Pak dostáváme výsledek v bitech. Vlastní informace se nazývá též částečná informace.

Aplikace vlastní informace Výpočet vlastní informace v bitech = výpočet prostoru pro zadaný počet hodnot (příklad: barevná hloubka) Velikost prostoru v počítači pro určitý údaj – hodnocení úspornosti (příklad: uložení 6 tažených čísel Sportky – znaky, čísla malá, velká, souhrn, kódování) Příklad: věta s nezávislými současně vzniklými realizacemi (Auto 1B1 88 77 černé barvy přijelo na křižovatku Horní—Jasanová v 19:10 hodin.)

Entropie Jak spočítat informační množství celého jevu? — Pomůžeme si shrnutím všech vlastních informací jednotlivých realizací. Předpokládejme, že jev X má n realizací x1, x2, ..., xn s pravděpodobnostmi p(x1), p(x2), ..., p(xn)

Výpočet entropie jevu Entropie H(X) je dána určitou střední hodnotou vlastních informací všech realizací jevů: Entropie zahrnující informační množství celého jevu se nazývá též úplná informace.