LVQ – Learning Vector Quantization

Slides:



Advertisements
Podobné prezentace
Lineární klasifikátor
Advertisements

TK – Normalizované prvky
 př. 3 Je dán vektor u=(2;-4) a bod M[3;9]. Na ose x najdi bod N tak, aby vektor MN byl s vektorem u rovnoběžný. výsledek postup řešení.
Pilsen Steel s.r.o. Procesní přistup, PQM -vyhodnocení
Piktogramy Připraveno pro: FSV - UK Datum: 4. července 2008 Projekt: 28506/2 Připravili: Jan Vavřík, Naďa Nevěřilová Příloha Grafy.
Algoritmy a struktury neuropočítačů ASN – P6 Syntéza neuronových sítí Optimalizace struktury Klestění neuronové sítě Výběr vstupních dat Syntéza „zdola“
Algoritmy a struktury meuropočítačů ASN – C2
SMS brána Eurotel Jednoduché OCR pomocí neuronových sítí Marek Kukačka
EU-8-59 – DERIVACE FUNKCE XV
Neuronové sítě Marcel Jiřina.
Automatická fonetická segmentace pomocí UNS Registr - 36 neuronových sítí MLNN (pro každou českou hlásku jedna UNS) Trénovací množina: databáze promluv.
Topologie neuronových sítí (struktura, geometrie, architektura)
ASN - cvičení 2 : Ukázky práce s NN-Toolboxem
SSC - cvičení 7 Aplikace programového systému Speech Laboratory - SL Postup: 1.Zkopírovat z adresy
SSC - cvičení 3 MATLAB - BPG algoritmus 1.Vytvořit tréninková data 2.Vytvořit objekt sítě 3.Natrénovat síť 4.Simulace Funkce pro učení: learngd … základní.
Jiří Gazárek, Martin Havlíček Analýza nezávislých komponent (ICA) v datech fMRI, a ICA necitlivá ke zpoždění.
Jan Syrovátka Jiří Hradský.  Nově vzniklá firma v oblasti polygrafie  Založena v roce 1997 dvěma společníky  Disponuje ryze českým kapitálem vytvořeným.
1 Metoda GENEROVÁNÍ SLOUPCŮ a její použití v celočíselném programování Jan Fábry.
Algoritmy a struktury neuropočítačů ASN - P1 Prof.Ing. Jana Tučková,CSc. Katedra teorie.
4IZ 229 – Cvičení 3 Práce s neurčitostí Vladimír Laš.
DOK „Umělá inteligence“ v DOK (i jinde). NEURONOVÉ SÍTĚ.
Využití umělých neuronových sítí k urychlení evolučních algoritmů
Optimalizace v simulačním modelování. Obecně o optimalizaci  Optimalizovat znamená maximalizovat nebo minimalizovat parametrech (např. počet obslužných.
EU-8-52 – DERIVACE FUNKCE VIII
 př. 5 výsledek postup řešení Zjistěte, zda body A[3;-1], B[-1;5], C[2;-4] leží v přímce.
Neuronové sítě Jakub Krátký.
Vícevrstvé neuronové sítě.  Neuronové sítě jsou složeny z neuronů tak, že výstup jednoho neuronu je vstupem jednoho nebo více neuronů  Propojení neuronů.
Jan Syrovátka Jiří Hradský.  Nově vzniklá firma v oblasti polygrafie  Založena v roce 1997 dvěma společníky  Disponuje ryze českým kapitálem vytvořeným.
Vzdělávací oblast: Matematika Autor: Mgr. Robert Kecskés Jazyk: Český
 př. 4 výsledek postup řešení Zjistěte, zda jsou vektory a, b, c lineárně závislé. a=(1;2;3), b=(3;0;1), c=(-1;4;5)
KONCEPTUÁLNÍ MODELOVÁNÍ
Škola:Gymnázium Václava Hlavatého, Louny, Poděbradova 661, příspěvková organizace Číslo projektu:CZ.1.07/1.5.00/ Název projektu:Inovace výuky Číslo.
A13 – ÚEB: rozmístění místností a navrhované změny Vypracovali: Milan Baláž, Jiří Damborský, Renata Veselská Značení týmů: FAR = Fyziologie a.
Molekulární diagnostika neurofibromatózy typu 1 Kratochvílová A., Kadlecová J., Ravčuková B., Kroupová P., Valášková I. a Gaillyová R. Odd. lékařské genetiky,
Co vše nám může tvořit počítačovou sestavu
Umělé neuronové sítě a Support Vector Machines
Opakování k písemné práci. Zadání (2b)Vysvětlete jak by šlo použít LSQ učení pro rozpoznání vzoru A od vzorů B a C. Jak by vypadaly bipolární vstupy a.
NEURONOVÉ SÍTĚ (c) Tralvex Yeap. All Rights Reserved.
Neuronové sítě na grafických akcelerátorech Ondřej Zicha, Jiří Formánek.
Optimalizace versus simulace 9.přednáška. Obecně o optimalizaci  Maximalizovat nebo minimalizovat omezujících podmínkách.  Maximalizovat nebo minimalizovat.
Martin Sloup Jiří Kučera Natalia Rubinova Jindřich Štefan.
Hopfieldova asociativní paměť. Topologie sítě 1 vrstva zároveň vstupní i výstupní mezi neurony existují všechny spoje (kromě smyček)
Úvod do 3D geometrie První přednáška mi vyšla na 90 minut po slajd 31 (3D representace modelů). Ten zbytek jsem pak prolítnul tak za pět minut, ale myslím.
Nelineární klasifikátory
Lineární zobrazení.
Jiří Fejfar Perceptron Jiří Fejfar
Neuronové sítě Jiří Iša
Klasifikace klasifikace: matematická metoda, kdy vstupní objekty X(i) jsou rozřazovány do tříd podle podobnosti metody klasifikace bez učitele: podoba.
Rozhodovací stromy.
Vektorová kvantizace (VQ) (Vector Quantization)
© Institut biostatistiky a analýz INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
Logika a umělá inteligence pro multi-agentní systémy Mobilní agent řízený neuronovou sítí.
© Institut biostatistiky a analýz ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT prof. Ing. Jiří Holčík, CSc.
Opakování k písemné práci. Zadání (2b)Vysvětlete jak by šlo použít LSQ učení pro rozpoznání vzoru A od vzorů B a C. Jak by vypadaly bipolární vstupy a.
Neuronové sítě (Úvod a MLP sítě)
W i ref (t+1) = W i ref (t) + h ci (t) [X(t) - W i ref (t)], i Nc h ci (t) 0, t  proces konverguje Algoritmy a struktury neuropočítačů ASN – P3 SOM algoritmus.
Algoritmy a struktury neuropočítačů ASN - P14 Hopfieldovy sítě Asociativní paměti rekonstrukce původních nezkreslených vzorů předkládají se neúplné nebo.
Dita Matesová, David Lehký, Zbyněk Keršner
Praktická využití UNS V medicínských aplikacích Jan Vrba 2006.
Neuronové sítě. Vývoj NS 1943 – W. McCulloch, W. Pittse – první jednoduchý matematický model neuronu 1951 – M. Minsky - první neuropočítač Snark 1957.
Neuronové sítě.
Klasifikace a rozpoznávání Lineární klasifikátory.
Využití technik dataminingu při rozpoznávání znaků Marek Kukačka Květen 2006.
© Institut biostatistiky a analýz INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
Umělé neuronové sítě „Za umělou neuronovou síť se obecně považuje taková struktura pro distribuované paralelní zpracování dat, která se skládá z jistého,
ANALÝZA A KLASIFIKACE DAT
Klasifikace a rozpoznávání
Neuronové sítě.
Neuronové sítě.
ANALÝZA A KLASIFIKACE DAT
Transkript prezentace:

LVQ – Learning Vector Quantization help lvq Vytvoření LVQ sítě: newlvq. Architektura:

Kompetitivní vrstva klasifikuje vstupní vektory stejným způsobem jako u SOM, vytváří až S1 tříd (S1 je počet neuronů v kompet. vrstvě). Lineární vrstva transformuje třídy vytvořené v kompetitivní vrstvě do požadovaných S2 tříd (target classification) (S2 je počet neuronů v kompet. vrstvě). Třídy vytvořené v kompetivní vrstvě se nazývají subclasses a třídy vzniklé v lineární vrstvě se nazývají target classes, požadované třídy. S1 > S2 Vytvoření sítě LVQ: newlvq net = newlvq ( PR, S1, PC, LR, LF ) PR … R x 2 matice min a max hodnot u R vstupních elementů S1 … je počet skrytých neuronů PC … je vektor o S2 elementech tvořený procenty příslušnosti do tídy LR … je krok (rychlost) učení (learning rate ) – default 0.01 LF … je funkce učení – default learnlv1

Příklad: 10 vstupních vektorů, klasifikace do 4 subtříd 4 neurony v první kompetitivní vrstvě 4 subtřídy budou označeny jednou ze dvou tříd a budou tvořeny 2 neurony v druhé, lineární vrstvě P = [ -3 -2 -2 0 0 0 0 +2 +2 +3; 0 +1 -1 +2 +1 -1 -2 +1 -1 0] TC = [1 1 1 2 2 2 2 1 1 1]; net . IW{1, 1} net . IW{2, 1} ans = ans = 0 0 1 1 0 0 0 0 0 0 1 1 0 0 průměr z intervalu (-3, +3) 0 0 midpoint

To nebyl požadavek, musíme trénovat. Simulace sim Y = sim (net, P ); Y = vec2ind (Yb4t) Y = 1 1 1 1 1 1 1 1 1 1 Testovali jsme pomocí vstupního vektoru, proto jedna třída. To nebyl požadavek, musíme trénovat. Trénink train net.trainParam.epochs = 150; net = train( net, P, T ); váhy v první (kompetitivní) vrstvě : net. IW{ 1, 1} ans = 1.0927 0.0051 - 1.1028 - 0.1288 0 - 0.5168 0 0.3710

Chceme klasifikovat do jedné třídy vektory p1, p2, p3, p8, p9, p10 a do druhé třídy vektory p4, p5, p6, p7 Pozn.: lineárně neseparabilní prostory, nelze použít perceptron. Budeme konvertovat Tc matici do target vektoru: T = ind2vec (Tc) targets = full (T) targets = 1 1 1 0 0 0 0 1 1 1 0 0 0 1 1 1 1 0 0 0

První vektor ze vstupu je promítnut se souřadnicemi ( -3 0 ) první sloupec v target (výstupním) vektoru bude tvořit první sloupec, říkáme, že vstupní vektor padne do 1.třídy Vytvoření sítě pomocí newlvq: net = newlvq (minmax (P), 4, [ 0.6 0.4 ], 0.1 ); LF chybí, pokud se použije defaultní hodnota, Nezadává se.

Y = sim (net, P ) Yc = vec2ind (Y) Yc = 1 1 1 2 2 2 2 1 1 1 demolvq1 váhy po natrénování Otestujeme vektoem blízkým vstupu: pchk1 = [ 0; 0.5 ]; Y = sim (net, pchk1); Yc1 = vec2ind (Y) Yc1 = 2 třída 2 pchk2 = [ 1; 0 ]; Y = sim (net, pchk2); Yc2 = vec2ind (Y) Yc2 = 1 třída 1 demolvq1