Prezentace se nahrává, počkejte prosím

Prezentace se nahrává, počkejte prosím

První semestr Název předmětu Rozsah Způs. zak. Kred. Přednášející (vyučující) Úvod do informatiky9ko2 J. Hrbáček Operační systémy12zk3P.Krejčí Základy.

Podobné prezentace


Prezentace na téma: "První semestr Název předmětu Rozsah Způs. zak. Kred. Přednášející (vyučující) Úvod do informatiky9ko2 J. Hrbáček Operační systémy12zk3P.Krejčí Základy."— Transkript prezentace:

1 První semestr Název předmětu Rozsah Způs. zak. Kred. Přednášející (vyučující) Úvod do informatiky9ko2 J. Hrbáček Operační systémy12zk3P.Krejčí Základy teorie informačních systémů 12zk2J. Strach Objektově orientovaná metoda tvorby programů 12ko2J. Strach Mikroprocesorové systémy12zk3J. Hrbáček Algoritmy a programování v C15zk3P.Příborsky

2 Základy informačních systémů Doc. Ing. Jiří Strach, CSc.

3 Definice Informatiky 1 D1 - Informatika je naukou o odborných informacích. Cílem je vytvářet poznatkovou základnu pro komplexní řešení společenského informačního problému a syntetizované využít vytvořených poznatků pro potřeby společenské praxe. UVTEI - Ustředí vědeckých a technických informací D2 - Informatika je odvětví poznání zkoumající zákonitosti vytváření, shromažďování, přetváření, ochrany,průzkumu, rozšiřování a využívání dokumentační informace a zabezpečující optimální organizaci informační činnosti UVTEI - Mezinárodní systém vědeckých a tech. informací

4 Informatika je soubor vědeckých disciplin a speciálních postupů při zpracování informací ČSN 36 9001. Informatika je vědní obor zabývající se strukturou, vlast -nostmi (ale ne obsahem), zpracováním, a využitím infor -mací. V informatice se studují zákonitosti,teorie, metody zpracování informací a organizace práce s nimi. Cílem Informatiky je propracovat optimální způsoby a prostředky pro zobrazení, shromažďování, a rozšiřování informací. Oborová encyklopedie SNTL 1994

5 Informační systém,informační technologie S vývojem informačních systémů se postupně měnilo jeho vymezení od :  sytému pro zpracování dat, přes  systém pravidel a způsobů řízení, až po  systémy zahrnující složitý konglomerát různých aspektů datových, organizačních, procesních, metodických, technologických, ekonomických a obchodně podnikatelských. Informační technologii rozumíme soubor všech prostředků, kterých se využívá k pořízení, uchování, zpracování presentaci a přenosu dat. Informační technologie zahrnují dvě základní kategorie :  technické prostředky (HW) - zařízení na pořizování, uchování, přenos, zpracování a přenos dat  programové prostředky (SW) - algoritmizované postupy vyjádřené ve formě, ve které jsou srozumitelné (použitelné) pro používaná technická zařízení. Na rozdíl od HW který má vždy povahu fyzického produktu, má SW povahu nemateriální a musí být ve formě informací- dat uložen na nějakém fyzickém nosiči dat.

6 V teorii informačních systémů se budeme zabývat : Teorie systémů Teorie informace. Teorie signálu Teorie automatů Logika Logické obvody a systémy Umělá inteligence

7 Systémem rozumíme abstraktní popis určité části reality vytvořený za účelem studia vazeb jednotlivých elementárních částí (prvků systému) této reality a popis chování systému jako celku pří změně působící z okolí systému. Systém je tedy definován 1.Strukturou systému, charakterizující jeho vnitřní funkční vztahy; strukturou systému rozumíme jednak způsob uspořádání (organizace) vzájemných vazeb mezi prvky systému : S = { A, W, K, Q} Kde S je systém, A je množina prvků systému W je množina vstupních stavů, K množina vnitřních stavů, Q množina výstupních stavů.  přechodová a  výstupní funkce Teorie systémů

8 a2a2 a3a3 a4a4 a1a1 w11w11 k 1 23 k 2 23 k 1 34 k 2 43 k 1 13 k 2 13 k 3 13 k 1 14 k 1 12 k 1 44 k 2 44 w21w21 w12w12 w14w14 q12q12 q22q22 q32q32 q13q13 q23q23 q14q14

9 Chování systému Chováním systému rozumíme osmici:  X, V,W,Z, Q,f,g) V chování systému S  je spjat čas, charakterizovaný množinou T, která je podmnožinou reálných čísel R Jestliže T je tvořena intervalem ( konečným nebo nekonečným), je S dynamickým systémem se spojitým časem. Jestliže T je podmnožina celých čísel, je systém S dynamickým systémem s diskrétním časem. V každém časovém okamžiku t  T získává relativně uzavřený systém S chování, které je popsáno vztahem , na vstupu je podnět W – vstupní vektor jehož složky činí soubor okamžitých hodnot w(t k ). Na časový průběh složek vstupního vektoru X lze pohlížet jako na vstupní funkci w : T  V tak že W = { w : T  V } Q je výstupní vektor q : t  Z  tak že Q = { q : T  Z  Vnitřní stav systému Z je určen souborem okamžitých hodnot tzv.. Vnitřních proměnných systému a představuje úplnou informaci, kterou systém zaznamenal během předchozí činnosti. Okamžitý vnitřní stav k a podnět W určují u deterministického systému celkový stav systému.

10

11 Tradiční klasifikace systémů Uveďme dvě tradiční klasifikace: Peter Checkland člení systémy do čtyř skupin : 1. Přirozené systémy (systémy živé, systémy neživé). 2. Navrhované umělé systémy (systémy vytvářené člověkem s určitým záměrem, např. stroje, automobily, počítače, knihy apod.). 3. Systémy lidských aktivit (stát, státní instituce, hospodářské organizace, zájmové organizace - existuje v nich interakce lidí). 4. Transcendentální systémy (systémy přesahující hranice lidského chápání). Kenneth Boulding rozlišuje devět typů systémů: 1. Transcendentální systémy. 2. Sociální systémy. 3. Člověk se svou inteligencí. 4. Živočichové. 5. Genetické systémy (mají společný genetický kód). 6. Otevřené systémy (spojeny s existencí života, např. buňka). 7. Kybernetické systémy (systémy se zpětnou vazbou). 8. Mechanické systémy (např. stroje, technická zařízení). 9. Fyzikální systémy.

12 Nebo dělení vhodnější pro naše účely 1.tvrdé systémy - popisují dobře strukturované problémy, lze u nich exaktně vyjádřit vztah mezi vstupními a výstupními daty, která mají převážně kvantitativní charakter. řešení těchto systémů je prakticky vždy algoritmiziovatelné a tedy může být svěřeno počítači 2.měkké systémy - popisují špatně strukturované problémy - jsou to složité systémy, kde do vzájemných vztahů mezi prvky systému vstupují faktory obtížně kvantifikovatelné, ve kterých se vyskytují neurčitosti, rizika, nejistoty. Vstupní informace do těchto systémů nemusí být vždy věrohodné, často se využívá přibližných hodnot. Měkké systémy se vyznačují tím, že jejich chování je často ovlivňováno člověkem a jeho individualitou.Příkladem jsou sociální systémy jako hospodářské organizace, ministrstva apod.

13 Teorie informace. 1. Informace, data, znalosti Informace vyvolává změnu stavu nebo chování příjemce. Informace se přenáší ve formě dat. Data zobrazují stavy objektů či probíhající procesy v realitě kolem nás. akce vzdělánízkušenosti znalosti rozhodování data informace Obr. 1.2 Vztah mezi daty, informacemi a znalostmi 01 Nz Mp Mp.. Míra působení zprávy na příjemce Nz..Novost zprávy pro příjemce

14 Číselným hodnocením množství informace se zabývá teorie informací. Jejím úkolem je řešit problémy propustnosti přenosových kanálů, problémy optimálního kódování, a stanovením podmínek pro přenos maximálního množství informací, které může být přenosovým kanálem přeneseno za jednotku času. Kapacita Informace Každý objekt může být v každém časovém okamžiku v jednom z mnoha možných stavů. Množina stavů Informace – v abstrahovaném smyslu ( bez konkrétní náplně sdělení ) je výběr některého prvku z množiny možných prvků. Množina možných prvků – může být diskrétní nebo spojitá a může být tvořena jedinou veličinou nebo souborem mnoha veličin. Diskrétní prvky – pulsy, písmena, … Spojité signály - rozhlasová modulace … Množina možných stavů – abeceda signálu množina možných stavů fyzikálního objektu nebo pochodu, jejímž prostřednicvím se abeceda realizuje na zýváme fyzikální abecedou

15 U diskrétních abeced obsahuje-li abeceda N různých písmen je z této abecedy možno vytvořit N n všech n - místných slov. U spojitých abeced je počet všech možných sdělení nekonečně veliký. Stanovení informační kapacity systému. Podle Hartlyho může - li systém mít N různých vzájemně nezávislých stavů jej jeho kapacita dána vztahem k – je počet prvků abecedy C 1 = log k N Spojíme –li dva takové systémy kapacita takového spojeni je C 2 = log k N 2 = 2*log k N = 2*C 1 Z toho plyne že informační kapacita je vlastnost aditivní. U logických obvodů používáme k = 2 Míra množství informace Každé sdělení přenášené kanálem nebo vložené v paměťovém zařízení přísluší některému stavu vnějšího jevu, o němž příslušné sdělení vydávají. Vnější jev je přitom zdrojem těchto sdělení, i zdrojem informací.

16 Rozložíme-li všechna možná sdělení A i v určitém pořadí a přidělíme každému pravděpodobnost P i, která je rovna pravděpodobnosti výskytu tohoto sdělení při skutečném přenosu. Přičemž platí Každé konečné schéma vyjadřuje jistou neurčitost výběru jeho prvků, která zaniká po uskutečnění vlastního výběru. Informační entropie Stupeň neurčitosti je různý pro různá schémata. Roste-li počet prvků schématu při rovnoměrném rozložení pravděpodobnosti, neurčitost se zvětšuje. Míra neurčitosti výběru v daném konečném schématu je zřejmě zároveň mírou množství informace pro jeden výběr a lze ji funkčně vyjádřit: H =  I =1 n F (P i )  I =1 n Pi = P1 + P2+ P3 +.... Pi +…. + Pn = 1 A1 A2 A3 …. Ai …. An P1 P2 P3.... Pi …. Pn

17 Musí splňovat tyto požadavky“ 1.Musí být funkcí všech pravděpodobností P i 2.Jestliže některé sdělení A i má pravděpodobnost P i =1 neurčitost nenastane: 3.Musí se měnit spojitě při spojitých změnách P i a musí nabývat maximální hodnoty právě tehdy, když jsou všechny pravdivosti stejné. Claude Shanon ukázal že těmto požadavkům vyhovuje logaritmická funkce : Kde konstanta k určuje jednotkovou míru (jednotku měření). Pro svoji podobnost s výrazem pro entropii ve fyzice byla veličina H nazvána informační entropii H =  I =1 n F (P i ) = F(P i ) = F(1)= 0 H = - k  I =1 n P i log 2 P i [ bit/ symbol ]

18 Jednotka množství informace Za jednotku entropie se volí jednotlivý výběr ze dvou stejných pravděpodobných možností (základ logaritmu se voli rovný 2): A 1 A 2 H 1 1 = - ( 2 2 1212 log 2 + 1212 1212 log 2 ) = 1 bit 1212 Množství informace složeného jevu Mějme dva navzájem nezávislé jevy A a B, z nichž každému přísluší určité schéma, t.j množiny možných výchozích hodnot nebo stavů A i a B k Současný výskyt jevů Ai a B k je složený jev jemuž přísluší pravděpodobnost P(A i  B k ) = P(A i ) * P(B k ) H(A,B) = H(A) + H(B) U nezávislých jevů je entropie aditivní.

19 Kód Kódováním signálu rozumíme přiřazování jedné abecedy k druhé abecedě při transformaci signálu, pravidlo podle kterého se přiřazení děje nazýváme kód Obecně rozlišujeme číslicové a analogové kódy. Entropie kódu. Při kódování se může změnit množina symbolů i rozložení pravděpodobnosti, a tedy mění se obecně i entropie sdělení. Z toho plyne že při výběru různých kódů pro určitou abecedu je možno najít takový kód, který má největší entropii na symbol, jinak řečeno nejmenší počet symbolů pro přenos daného množství informace. Redundance kódu Maximální entropie dané abecedy je vždy rovna její informační kapacitě. Každý kód je možno hodnotit z hlediska jeho ekonomičnosti, to je k blízkosti k optimálnímu kódu. Tato hodnota se nazývá relativní entropie h = H/H max

20 Odečteme- li relativní entropii od její maximální hodnoty dostaneme tzv. nadbytečnost čili redundanci kódu“ r = 1 – h = H max - H H max (0  r   Samoopravné kódy Samoopravé kódy samočině indikují případně opravují chyby. Rozdělujeme je na detekční a korekční. Mezi detekční patří na příklad ködy se stálým počtem jedniček, zabezpečení paritou Korekční kódy jsou složitější a je u nich třeba zvýšit proti detekčním zvýšit redundanci redundanci to pak umožňuje opravu chyb. Rychlost přenosu sdělovacím kanálem Přenosový kanál přejímá informaci na vstupu z nějakého zdroje informací v podobě signálu. Tyto signály projdou kanálem k jeho výstupu, kde se předají adresátovi. Při průchodu kanálem působí na signál různé rušivé vlivy, které se projevují jako šumy nebo poruchy takže adresát obdrží signál porušený. Tedy entropie signálu na výstupu je větší než na vstupu. Množství informace tedy vcelku vzrostlo, ale její obsah se nezvětšil, neboť doplňková informace je porucha, která nesouvisí s popisovaným jevem.

21 Signál na výstupu přestává být při přítomnosti poruch jednoznačně funkčně závislý na vstupním signálu. Mezi oběma signály existuje pouze statistická závislost (korelace).Podmíněná pravděpodobnost bude P(X  Y) kde X je výskyt signálu na vstupu a Y výskyt signálu na výstupu P(X  Y) = P(X) * P(Y|X) = P(Y) * P(X|Y) po výpočtu entropie plat,í že rychlost přenosu kanálem je: R = H(X) – H(X|Y) = H(X) + H(Y) – H(X,Y) Není- li přenos rušen je H(X|Y) =0 a rychlost přenosu je rovna entropii zdroje. Je-li však rušení silné tak že H(X|Y) = H(X) pak informace kanálem vůbec neprojde a R= 0. Propustnost informačního kanálu. Nedostupná oblast H(X|Y) C H(X) C = max [H(X) – H(X|Y) ] Tato veličina říká jaké největší možné množství informace je možno přenosovým kanálem přenést udává se v [bitech/ sec]

22 Shenonova věta definuje propustnost kanálu pro bílý šum C=  f *log2 [(P+N)/N] P.. je střední výkon signálu N..je střední výkon šumu  f je šíře pásma propustnosti kanálu Přenos signálu Modulace Modulací rozumíme časovou změnu jednho z parametrů, tj. veličin charakterizujících fyzikální pochod nesoucí informaci.Nejčastěji to bývá změna výkonu přenášeného vlněním.

23

24

25

26 Přenos selekcí - frekvenční

27 Přenos selekcí časová selekce

28 Klasifikace automatů Technický automatem rozumíme zařízení schopné samostatné činnosti, které ve větší nebo menší míře má vlastnost samostatně řídit. Technicky automaty dělíme na: 1.automaty nižších stupňů, jejichž činnost je přesně determinována, proto bývají nazývány automaty deterministické; automaty které pracují s otevřeným obvodem řízení – automatické ovládání; Automaty, které pracují s uzavřeným obvodem řízení - regulátory 2.automaty vyšších stupňů, které jsou schopny samočinně vyhledávat cestu ke splnění úkolu, resp. samočinně se přizpůsobit změněným podmínkám činnosti. Jsou charakterizovány těmito vlastnostmi: jsou to složité systémy, které pracují vždy v uzavřeném obvodu řízení. Jejich činnost není přesně determinována Ke své činnosti potřebují : obvody logické povahy; Paměť; Zařízení pro vyhledávání cesty k řešení úkolů, čímž se kvalitativně liší od automatů s detrminovannou činností.

29 Logické systémy Podle chování rozdělujeme logické obvody na synchroní asynchroní Logické obvody kombinační sekvenční Kombinační dvojpól ABZABZ F(A,B,..,Z) Kombinační multipol ABZABZ F1F2FnF1F2Fn Kombinační obvody

30 Sekvenční logické obvody KOMBINAČNÍ ČÁST PAMĚTOVÁ ČÁST °°° XiXi ZkZk YjYj


Stáhnout ppt "První semestr Název předmětu Rozsah Způs. zak. Kred. Přednášející (vyučující) Úvod do informatiky9ko2 J. Hrbáček Operační systémy12zk3P.Krejčí Základy."

Podobné prezentace


Reklamy Google