Informatika pro ekonomy přednáška 3

Slides:



Advertisements
Podobné prezentace
Interpretovaná Matematika
Advertisements

Fakulta životního prostředí Katedra informatiky a geoinformatiky
Matematické modelování a operační výzkum
Úvod do médií PaedDr. Zdeněk Pejsar, Ph.D.. Při vytváření pojmu multimédia je vhodné vyjít ze syntaktického složení tohoto slova. Pod pojmem multi najdeme.
Projektové řízení Modul č.1.
Základy ekonomie
ENVIRONMENTÁLNÍ INFORMATIKA A REPORTING
ENVIRONMENTÁLNÍ INFORMATIKA A REPORTING
Základy informatiky přednášky Kódování.
Fakulta životního prostředí Katedra informatiky a geoinformatiky
Vznik a vývoj teorie informace
Projekt Anglicky v odborných předmětech, CZ.1.07/1.3.09/
Lineární algebra.
Úvod do Teorie množin.
Informatika pro ekonomy II přednáška 4
Teorie informace Radim Farana Podklady pro výuku pro akademický rok 2013/2014.
Informatika pro ekonomy II přednáška 1
1 Číslo-název šablony klíčové aktivityIII/2–Inovace a zkvalitnění výuky prostřednictvím ICT Tematická oblastZáklady informatiky a hardware DUMVY_32_INOVACE_ODB_521.
Teoretické Základy Informatiky
Obchodní akademie a Střední odborná škola, gen. F. Fajtla, Louny, p.o. Osvoboditelů 380, Louny Číslo projektu CZ.1.07/1.5.00/ Číslo sady 28Číslo.
Fakulta životního prostředí Katedra informatiky a geoinformatiky
Informatika pro ekonomy II přednáška 2
Základy informatiky přednášky Entropie.
Cvičení 1 – Úvod, formování trhu
SWI072 Algoritmy komprese dat1 Algoritmy komprese dat Teorie informace.
Teplo jako fyzikální veličina
Sociologický výzkum.
Nechť (, , P) je pravděpodobnostní prostor:
Pravděpodobnost a genetická prognóza
Informatika pro ekonomy II přednáška 10
Predikátová logika.
Makroekonomie Základní východiska zkoumání. O co se snaží makroekonomická teorie? Cílem makroekonomické teorie je v podstatě –Popsat a teoreticky vysvětlit.
Algebra II..
POČET PRAVDĚPODOBNOSTI
Důležité adresy: Přístup z Internetu k přednáškám ve formátu .pdf:
Odhad metodou maximální věrohodnost
Definice a vlastnosti Typy sociálních institucí Hodnoty a normy
SIGNÁLY A SOUSTAVY V MATEMATICKÉ BIOLOGII
ZÁKLADY TEORIE PRAVDĚPODOBNOSTI
Základy zpracování geologických dat
Úvod do teorie konečných automatů
Pravděpodobnost 7  Podmíněná pravděpodobnost. Definice  Podmíněná pravděpodobnost náhodného jevu A je pravděpodobnost jevu A, ale v závislosti na dalším.
Automaty a gramatiky.
Radim Farana Podklady pro výuku
Rozhodování ve veřejné správě Přednáška M. Horáková.
(Popis náhodné veličiny)
Molekulová fyzika 3. přednáška „Statistický přístup jako jediná funkční strategie kinetické teorie“
Základní pojmy v automatizační technice
Měřické chyby – nejistoty měření –. Zkoumané (měřené) předměty či jevy nazýváme objekty Na každém objektu je nutno definovat jeho znaky. Mnoho znaků má.
Databázové systémy Úvod, Základní pojmy. Úvod S rozvojem lidského poznání roste prudce množství informací. Jsou kladeny vysoké požadavky na ukládání,
Přenos nejistoty Náhodná veličina y, která je funkcí náhodných proměnných xi: xi se řídí rozděleními pi(xi) → můžeme najít jejich střední hodnoty mi a.
Náhodná veličina. Nechť (, , P) je pravděpodobnostní prostor:
Všechno, co jste chtěli vědět z teorie pravděpodobnosti, z teorie informace a … báli jste se zeptat (1. část) (pro potřeby přednášky Úvod do strojového.
Funkce. Funkce - definice Funkce je zobrazení, které každému číslu z podmnožiny množiny reálných čísel R přiřazuje právě jedno reálné číslo. Funkci značíme.
Spojitá náhodná veličina
Algoritmizace – základní pojmy
Co se dá změřit v psychologii a pedagogice?
Pravděpodobnost. Náhodný pokus.
METODICKÝ LIST PRO ZŠ Pro zpracování vzdělávacích materiálů (VM)v rámci projektu EU peníze školám Operační program Vzdělávání pro konkurenceschopnost   
Škola SOŠ a SOU Hustopeče, Masarykovo nám. 1 Autor
Informatika pro ekonomy přednáška 3
Teorie informace z latiny, už 1stol. př. n. l.
Informatika pro ekonomy přednáška 8
Informatika / … o číslech
1 Lineární (vektorová) algebra
Informatika pro ekonomy přednáška 4
BIBS Informatika pro ekonomy přednáška 2
Plánování přesnosti měření v IG Úvod – základní nástroje TCHAVP
Informatika pro ekonomy přednáška 4
Definiční obory. Množiny řešení. Intervaly.
Transkript prezentace:

Informatika pro ekonomy přednáška 3 Informace v počítači Informatika pro ekonomy přednáška 3

Jak informaci chápat? Informace — z hlediska kvalitativního (obsah sdělení, význam zprávy) tím se zabývá INFORMATIKA Informace — z hlediska kvantitativního (množství a jeho měření) tím se zabývá TEORIE INFORMACE

Údaje, data, informace, znalosti Údaj – hodnota libovolné reálné veličiny Data – formalizované údaje Informace – interpretovaná data Znalosti – ucelený komplex informací o nějaké objektivní realitě

Interpretace dat Data v počítači: jedničky a nuly Pro člověka musí být zobrazeny Zobrazení stejné posloupnosti jedniček a nul může být provedeno nekonečně mnoha způsoby Interpretace zobrazení: přisouzení významu zobrazeným údajům

Pojem datový typ Definován oborem povolených hodnot a kolekcí povolených operací Implementace – přisouzení posloupnosti binárních hodnot v paměti počítače Modeluje objektivní realitu – hodnoty jsou zobrazeny pro vstup i výstup Příklad: Excel – formaty.xls Otázka: stejný údaj, kolik informace????

Pojem informace Mnoho různých definic podle toho, co autoři definice považovali za nejdůležitější. Příklady: 6

Různé definice informace 1. Informace je obsah jakéhokoli oznámení, údaje o čemkoli, s určením pro přenos v prostoru a čase. V nejširším slova smyslu je to obsah vztahů mezi materiálními objekty, projevující se změnami těchto objektů. 2. Informace je obsah zprávy, sdělení, objasnění, vysvětlení, poučení. 3. Informace jsou údaje, čísla, znaky, povely, instrukce, příkazy, zprávy apod. Za informace považujeme také podněty a vjemy přijímané a vysílané živými organismy.

Jak informaci měřit? Claude Shannon — základy teorie informace, stanovil možnosti měření informačního množství Shannonova definice informace: Informace je míra množství neurčitosti nebo nejistoty o nějakém náhodném ději odstraněná realizací tohoto děje. Informace rozšiřuje okruh znalostí příjemce.

Měření informačního množství Entropie — název vypůjčený z fyziky, použitý pro měření informačního množství. Jak kvantifikovat rozšíření okruhu znalostí příjemce? Pravděpodobnost zprávy — spojeno s individuálními vlastnostmi příjemce (Shannon)

Jevy a jejich realizace Jev — náhodný proces s n možnými realizacemi (tah sportky, účast na přednášce, semafor na křižovatce apod.) Realizace jevu — jeden projev, získání výsledku (vytažení 6 čísel, konkrétní počet osob na přednášce, svítící zelená na křižovatce apod.)

Požadované vlastnosti funkce pro výpočet množství informace Jev X má n realizací, množství informace je funkcí n Je-li n = 1, jedná se o jev jistý, množství informace je rovno nule Jevy X a Y probíhající současně a nezávisle, p(x,y) = p(x).p(y): množství informace je dáno součtem množství jednotlivých jevů: f(x,y) = f(x) + f(y) Jev X má n realizací, jev Y má m realizací. Je-li m>n, pak chceme i f(m)>f(n)

Výpočet vlastní informace Funkce, která vyhovuje uvedeným podmínkám, je logaritmus. I(x) = log n Zde předpokládáme, že pravděpodobnost každé realizace je stejná. Má-li jev n realizací, pak můžeme psát p(x) = 1/n, odsud pak n = 1/p(x)

Výpočet vlastní informace Vlastní informace výsledku realizace x — je reálné číslo získané logaritmem pravděpodobnosti: I(x) = –log p(x) Základ logaritmu — principiálně není podstatný. Ale používají se logaritmy o základu 2. Pak dostáváme výsledek v bitech. Vlastní informace se nazývá též částečná informace.

Entropie Jak spočítat informační množství celého jevu? — Pomůžeme si shrnutím všech vlastních informací jednotlivých realizací. Předpokládejme, že jev X má n realizací x1, x2, ..., xn s pravděpodobnostmi p(x1), p(x2), ..., p(xn)

Výpočet entropie jevu Entropie H(X) je dána určitou střední hodnotou vlastních informací všech realizací jevů: Entropie zahrnující informační množství celého jevu se nazývá též úplná informace.