Topologie neuronových sítí (struktura, geometrie, architektura)

Slides:



Advertisements
Podobné prezentace
Lineární klasifikátor
Advertisements

Dynamické systémy.
Rekonstrukce povrchu objektů z řezů Obhajoba rigorózní práce 25. června 2003 Radek Sviták
Algoritmy a struktury meuropočítačů ASN – C2
SMS brána Eurotel Jednoduché OCR pomocí neuronových sítí Marek Kukačka
PA081 Programování numerických výpočtů
Problematika a metody zpracování biomed. dat z pohledu jejich klasifikace Marcel Jiřina.
Neuronové sítě Marcel Jiřina.
Automatická fonetická segmentace pomocí UNS Registr - 36 neuronových sítí MLNN (pro každou českou hlásku jedna UNS) Trénovací množina: databáze promluv.
Umělé neuronové sítě z pohledu rozpoznávání
ASN - cvičení 2 : Ukázky práce s NN-Toolboxem
SSC - cvičení 7 Aplikace programového systému Speech Laboratory - SL Postup: 1.Zkopírovat z adresy
LVQ – Learning Vector Quantization
SSC - cvičení 3 MATLAB - BPG algoritmus 1.Vytvořit tréninková data 2.Vytvořit objekt sítě 3.Natrénovat síť 4.Simulace Funkce pro učení: learngd … základní.
Plošná interpolace (aproximace)
Algoritmy a struktury neuropočítačů ASN - P1 Prof.Ing. Jana Tučková,CSc. Katedra teorie.
DOK „Umělá inteligence“ v DOK (i jinde). NEURONOVÉ SÍTĚ.
Strojové učení I (Mitchell93) učicí množina příkladů hledáme generalizaci učicí množiny ověřujeme na testovací množině pokrytí, přesnost, F-kriterium.
Využití umělých neuronových sítí k urychlení evolučních algoritmů
MODEL DVOJBRANU - HYBRIDNÍ PARAMETRY
Neuronové sítě Jakub Krátký.
Vícevrstvé neuronové sítě.  Neuronové sítě jsou složeny z neuronů tak, že výstup jednoho neuronu je vstupem jednoho nebo více neuronů  Propojení neuronů.
Optimalizační úlohy i pro nadané žáky základních škol
Shluková analýza.
Neuronové sítě Martin Vavřička Copyright 2004 © Martin Vavřička 2004 – V 53 ČVUT v Praze – fakulta Stavební.
Vyhledávání podobností v datech s využitím singulárního rozkladu
MODEL DVOJBRANU - ADMITANČNÍ PARAMETRY
Je dán dvojbran, jehož model máme sestavit. Předpokládejme, že ve zvoleném klidovém pracovním bodě P 0 =[U 1p ; I 1p ; U 2p ; I 2p ] jsou známy jeho diferenciální.
Systémy pro podporu managementu 2
IGrid index Roman Krejčík. Obsah Motivace Prokletí dimenze Míry podobnosti IGrid, IGrid+ Experimentální porovnání.
Hopfieldova asociativní paměť. Topologie sítě 1 vrstva zároveň vstupní i výstupní mezi neurony existují všechny spoje (kromě smyček)
Nelineární klasifikátory
Dokumentace informačního systému
Systémy pro podporu managementu 2 Inteligentní systémy pro podporu rozhodování 1 (DSS a znalostní systémy)
Klastrování - II.
Neuronové sítě Jiří Iša
Klasifikace klasifikace: matematická metoda, kdy vstupní objekty X(i) jsou rozřazovány do tříd podle podobnosti metody klasifikace bez učitele: podoba.
Vektorová kvantizace (VQ) (Vector Quantization)
Logika a umělá inteligence pro multi-agentní systémy Mobilní agent řízený neuronovou sítí.
© Institut biostatistiky a analýz ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT prof. Ing. Jiří Holčík, CSc.
Neuronové sítě (Úvod a MLP sítě)
2. Vybrané základní pojmy matematické statistiky
 Zkoumáním fyzikálních objektů (např. polí, těles) zjišťujeme že:  zkoumané objekty mají dané vlastnosti,  nacházejí se v určitých stavech,  na nich.
W i ref (t+1) = W i ref (t) + h ci (t) [X(t) - W i ref (t)], i Nc h ci (t) 0, t  proces konverguje Algoritmy a struktury neuropočítačů ASN – P3 SOM algoritmus.
Vyhledávání v multimediálních databázích Tomáš Skopal KSI MFF UK
Konekcionismus PSY 481. Motivace Zájem o vývoj umělých neuronových sítí pramení z poznání, že lidský mozek pracuje jiným způsobem než běžné číslicové.
© Institut biostatistiky a analýz ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT prof. Ing. Jiří Holčík, CSc.
Algoritmy a struktury neuropočítačů ASN - P14 Hopfieldovy sítě Asociativní paměti rekonstrukce původních nezkreslených vzorů předkládají se neúplné nebo.
Dita Matesová, David Lehký, Zbyněk Keršner
© Institut biostatistiky a analýz ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
Praktická využití UNS V medicínských aplikacích Jan Vrba 2006.
© Institut biostatistiky a analýz INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
Neuronové sítě. Vývoj NS 1943 – W. McCulloch, W. Pittse – první jednoduchý matematický model neuronu 1951 – M. Minsky - první neuropočítač Snark 1957.
Vícerozměrné statistické metody Vícerozměrné statistické rozdělení a testy, operace s vektory a maticemi Jiří Jarkovský, Simona Littnerová.
Neuronové sítě.
Využití technik dataminingu při rozpoznávání znaků Marek Kukačka Květen 2006.
Geografické informační systémy pojetí, definice, součásti
Ověření modelů a modelování Kateřina Růžičková. Posouzení kvality modelu Ověření (verifikace) ● kvalitativní hodnocení správnosti modelu ● zda model přijatelně.
Umělé neuronové sítě „Za umělou neuronovou síť se obecně považuje taková struktura pro distribuované paralelní zpracování dat, která se skládá z jistého,
Geografické informační systémy
Základní pojmy v automatizační technice
Geografické informační systémy
Metody strojového učení
ANALÝZA A KLASIFIKACE DAT
Spojitá a kategoriální data Základní popisné statistiky
Neuronové sítě.
Neuronové sítě.
ANALÝZA A KLASIFIKACE DAT
DNN - Deep neural networks (Hluboké neuronové sítě)
ANALÝZA A KLASIFIKACE DAT
Transkript prezentace:

Topologie neuronových sítí (struktura, geometrie, architektura) Algoritmy a struktury neuropočítačů ASN - P2 Topologie neuronových sítí, principy učení Samoorganizující se neuronové sítě Kohonenovy mapy Topologie neuronových sítí (struktura, geometrie, architektura) Uspořádání výkonných jednotek - neuronů (units, neurons) a jejich vzájemné propojení. propojení - orientované grafy: uzly neurony orientované větve synaptické váhy Vícevrstvé neuronové síte (Multilayer Neural Network - MLNN) neurony (výkonné jednotky) sestavené do vrstev sítě s dopředným šířením informace (feedforward)

Vrstevnatá struktura vstupní vrstva (input layer) skryté vrstvy (hidden layers) výstupní vrstva (output layer) Např.: 15 - 20 - 2 počet počet počet vstupních skrytých výstupních neuronů neuronů neuronů rekurentní sítě (recurrent networks) informace se šíří v dopředném směru formou jednoduchých zpětných vazeb formou vícenásobných zpětných vazeb Toto propojení zprostředkovávají synaptické váhy. Neurony tvoří vrstvy: obvykle typ McCulloch-Pitt

Principy učení a jeho druhy Topologie: cyklická (rekurentní) aproximace nelineárních vztahů acyklická (dopředná) nelinární dynamické systémy Principy učení a jeho druhy Proces učení (trénink) modifikace synaptických vah a prahů podle zvoleného algoritmu učení výběr charakteristických rysů a zkušeností ze vstupních signálů nastavení parametrů UNS tak, aby odchylka (v dané metrice) mezi požadovaným a skutečným výstupem při odezvě na soubor trénovacích vzorů byla minimální UNS jsou schopné analyzovat a rozpoznat určité množství reálných vzorů. Reálná data jsou často zašuměná. Není tedy možné klasifikovat správně úplně všechny vzory.

Dělení způsobů učení (příklady) I. 1. neasociativní - jednou nebo opakovaně je předkládán síti vzor nebo skupina vzorů bez uvažování jejich vzájemných souvislostí Cíl: uchování v paměti a vybavování 2. asociativní - cílem je extrakce vztahů mezi jednotlivými vzory nebo skupinami vzorů II. 1. učení s učitelem - (supervised learning) Perceptron, Adaline, Madaline, metoda zpětného šíření chyby 2. učení bez učitele - (unsupervised learning) spojité Hopfieldovy sítě, LVQ, Kohonenovy samoorganizující se mapy, asociativní paměti

Proces opakovaného učení A) III. 1. jednorázové učení 2. opakované učení Proces opakovaného učení A) daný počet opakovaného předkládání téhož vzoru otestování na velikost chyby proces je ukončen nebo pokračuje B) otestování na velikost chyby systém je klasifikován a „odměněn“ nebo „trestán“ C) posilované učení (reinforced learning) D) adaptivní upravování na základě výsledků z předchozích kroků

Hebbův zákon učení (Hebbian learning) Základní zákony učení (learning rules, learning algorithms) Hebbův zákon učení (Hebbian learning) základ všech současných modelů, odvozen z analogie s učením biologických systémů, pro formální neuron Pravdivostní tabulka: (pro konjunkci) Aktivita x y výsledek 1 1 1 logický součin 0 1 0 1 0 0 0 0 0 v daném okamžiku musí být aktivní oba neurony současně w i j (t+1) = w i j (t) + α y i (t) x j (t)

! ! Zákon učení perceptronu Jeden vstupní vektor x a požadovaný výstup tar Neuron typu McCulloch-Pitt Aktivační funkce: skoková (threshold, hardlimit) Klasifikace pouze do dvou tříd Modifikace vah: w (t+1) = w (t) +  (tar – y) x   (0 <  <1/|k|) , k … je maximální modul tréninkových vzorků Minimalizace chyby:  y = (tar – y) = 0 správný výstup  y = (tar – y) = 1 wij se nemění chybný výstup modifikace wij ! ! Učení konverguje pouze v případě tréninkových vzorků z lineárně separabilního prostoru.

Widrow - Hoffův zákon - LMS Least Mean Square účelové učení (performance learning) – hledá se soubor vah, který odpovídá extrému účelové funkce Vyjadřuje rozdíl naměřených a vypočtených hodnot. mění váhy a prahy v souhlase s velikostí chyby pro vrstevnaté sítě – minimalizuje chybu pro všechny trénovací vzory Pravidlo delta (Delta rule): chyba je redukována postupně pro každý vzor nebo skupinu vzorů - skupinová adaptace (batch updating)  wij = wij (t + 1) – wij (t)  wij =   (k) je chyba, N je počet tréninkových vzorků, xi (k) je vstup Metoda nejmenších čtverců

Samoorganizující se neuronové sítě ( Self – Organizing Maps ) SOM Neuronové sítě s učením bez učitele (unsupervised learning) Inspirace: organizace mozku do oblastí – map, podmnožiny podobných vektorů jsou navzájem propojeny. Praktické aplikace: sítě tvořené asi 1 000 neurony, učení časově náročné, výkonné počítače Použití: zejména pro analýzu velkého počtu vstupních parametrů, např. při technologických procesech (VLSI), při rozpoznávání řeči – jen dílčí problémy, pro identifikaci řečníka, v robotice (řízení ramene robota v nepřístupném prostředí, pohyb robota v labyrintu ). Problém obchodního cestujícího. Při detekci poruch řeči, při zpracování biologických signálů (EEG, EKG, MEG) magnetoencefalograf

Princip: učení je založeno na schopnosti NN rozeznat ve vstupních vzorech stejné nebo blízké vlastnosti a třídit přicházející vektory podle nich. Podobné vektory sdružuje do shluků (clusters) měnící se vektory vah nejsou porovnávány s požadovanými (target) hodnotami Použití: tam, kde neznáme správné řešení, pro shlukování, vizualizaci, pro abstrakci nelze: pro rozpoznání statistických veličin Pozn: při nesprávné volbě úlohy jsou výsledky trénování špatné Kritérium: výpočet vzdálenosti mezi vzory a aktuálními hodnotami, hledání extrémů minimální vzdálenost maximální výstupní hodnota

Kompetitivní učení ( Competitive learning ) Zákon kompetice, soutěžní učení sekvence vzorků : x = x ( t ) Rn t … čas množina referenčních vektorů: w i ( t ) : w i Rn , i = 1, 2,… , k w i ( 0 ) inicializace Pozn.: referenční vektory bývají značeny také jako mi lokální propojení, signál je šířen také k sousedním neuronům, každý vstupní vektor vzorů je v každém časovém okamžiku porovnáván s každým vektorem Wj Míra porovnání : vzdálenost d (X, Wj ) Index j = c je index nejbližšího referenčního vektoru. Pak vzdálenost d (X, Wc ) je minimum všech vzdáleností. Vektor Wc se nazývá vítěz v soutěži (kompetici) (winner, centroid)

Míru naučenosti určujeme pomocí vzdálenosti resp. blízkosti reprezentace vzorů. Nejčastěji používané vzdálenosti: Euklidovská - pro pravoúhlý souřadnicový systém Hammingova – pro binární vektory ( 0, 1 ) Určuje jaké množství elementů dvou vektorů je různé. Lze ji použít na porovnání jakýchkoliv množin z diskrétních hodnot Minkowskiho – zobecnění Euklidovské vzdálenosti Elementy vektorů jsou buď binární hodnoty (0, 1) nebo písmena abecedy. x = (1, 0, 1, 1, 1, 0) u = (p, a, t, t, e, r, n) y = (1, 1, 0, 1, 0, 1) w = (w, e, s, t, e, r, n) dH (x,y) = 4 dH (x,y) = 3

spatially temporally Reprezentace dat Hodnoty signálu sousedící v prostoru nebo v čase jsou představovány vzorky (patterns) uspořádaná množina reálných čísel - vektor Elementy vektoru X = (x1, x2 ,…, xn) představují souřadnice v prostoru n-té dimenze Koncepce deterministická nebo stochastická (přirozenější) Hodnoty vzorků jsou pravděpodobností (samples), mohou nabývat diskrétní nebo spojité hodnoty. Jde o funkci rozložení pravděpodobnosti Do dnešní doby bylo metodě SOM věnováno kolem 4000 článků, speciální workshopy a samostatné sekce na všech velkých konferencích

Kde je možné najít literaturu? Na Internetu : Kaski, S., Kangas, J., Kohonen, T.: Bibliography of self-organizing map (SOM) papers: 1981-1997. Neural Computing Surveys, 1(3&4):1-176, 1998 Knihy: Kohonen, T.: Self-Organizing Maps. Berlin Heidelberg, 3-rd ed. Springer Series in Information Sciences, Springer-Verlag, 2001, ISBN 3-540-67921-9 Software: http://www.cis.hut.fi/research/software.shtml SOM_PAK (UNIX) http://www.cis.hut.fi/software.shtml SOM Toolbox (Win NT) http://www.mbnet.fi/~phodju/nenet/Nenet/General.html

Kohonenovo učení základní myšlenka prostorová reprezentace dat komprese dat transformace z n - rozměrného na m - rozměrný prostor n > m propojení mezi sousedními neurony model neuronu McCulloch-Pitts nepracuje se s aktivační funkcí, ale s funkcí okolí (neighborhood function) výpočet vzdáleností a jejich minimalizace

Kohonenův algoritmus učení ( Delta pravidlo) okolí centroid (winner) neuron patří do okolí neuron nepatří do okolí váhy w- referenční vektory vstupní vektor x(t) předem zvolená topologie mapy a okolí – často čtvercová nebo hexagonální způsob modifikace velikosti okolí Kohonenův algoritmus učení ( Delta pravidlo) pp. Euklideovská metrika Obecně: mapa nejčastěji dvojdimenzionální (principielně neexistuje omezení v počtu dimenzí) volba okolí (neighbourhood ) s předem známou topologií

konvergence učení - závisí na mnoha parametrech inicializační hodnoty vstupních parametrů a vah (hodnotách referenčních vektorů), počet neuronů a způsob jejich organizace v mapě, tvar a velikost sousedního okolí i-tého neuronu, rychlost učení při učení nejsou jednotlivé neurony na sobě navzájem závislé, sdružují vektory s podobnými vlastnostmi je hledán vítězný neuron (winner) cíl: rozdělení vstupních dat na kategorie (třídy) - klasifikace shlukování (clustering) Shluk (cluster) je tvořen určitým počtem vstupních vektorů, které se sobě nejvíce podobají (mají nejvíce společných nebo velmi blízkých vlastností.

Důležité: - rozmístění v mapě - počet dominantních vlastností v rámci Je to oblast v N-dimenzionálním prostoru (data jsou popsána N vlastnostmi – features) s relativně vysokou hustotou bodů a je oddělena od ostatních oblastí s relativně nízkou hustotou bodů. Důležité: - rozmístění v mapě - počet dominantních vlastností v rámci jednoho tréninkového procesu - posun ve vstupních datech a „přeřazení“ některé vlastnosti do jiné skupiny při opakování procesu. Problém: počet shluků Možný počet rozdělení P vzorků do K tříd: KP / K! jen pro malý počet vzorů Určení míry podobnosti (similarity measure) resp. míry neshody Nejčastěji vzdálenost

vítězný neuron: d(X, Wc ) = mini [d(X, Wi )] dj (X, W) = , j=1,…,N X = [x1, x2 ,…,xN ], Wi = [wi1, wi2,…,wiN ] Poloměr okolí Nc je funkcí času, s rostoucím časem se zmenšuje Proces končí pro Nc = c Okolí je totožné s vítězným neuronem Kohonenův algoritmus přejde na jednoduché kompetiční učení. Vektory blízké neuronu „c“ patří do jeho okolí, jejich váhy jsou adaptovány v souhlase s algoritmem učení. Tvoří jednotlivé shluky. Váhy neuronů ležících vně okolí „Nc“ se nemění.

Příklady topologií Kohonenovy mapy a okolí vítězného neuronu. Do okolí (neighbourhood) se klasifikují všechny vstupní vektory nejvíce se podobající vítězi. Vždy klasifikační úloha. Topologie mapy (kompetitivní vrstvy) i okolí budoucího vítěze jsou předem zvolené. Příklady topologií Kohonenovy mapy a okolí vítězného neuronu. Váhové vektory v KSOM: rozložení při inicializaci b) po 20-ti iteracích c) po 40-ti iteracích d) po 100 iteracích

Vektory vah během trénování, 1-D mapa Reprezentace 3-D funkce rozložení pomocí 2-D mapy