Vektorová kvantizace (VQ) (Vector Quantization)

Slides:



Advertisements
Podobné prezentace
Lineární klasifikátor
Advertisements

LOGISTICKÉ SYSTÉMY 14/15.
 př. 3 Je dán vektor u=(2;-4) a bod M[3;9]. Na ose x najdi bod N tak, aby vektor MN byl s vektorem u rovnoběžný. výsledek postup řešení.
Třídění dat OA a VOŠ Příbram. Třídění  rozdělení jednotek souboru do takových skupin, aby co nejlépe vynikly charakteristické vlastnosti zkoumaných jevů.
Rovnice roviny Normálový tvar rovnice roviny
SMS brána Eurotel Jednoduché OCR pomocí neuronových sítí Marek Kukačka
Aplikace GNSS v IG Grečnár Jiří.
Problematika a metody zpracování biomed. dat z pohledu jejich klasifikace Marcel Jiřina.
Automatická fonetická segmentace pomocí UNS Registr - 36 neuronových sítí MLNN (pro každou českou hlásku jedna UNS) Trénovací množina: databáze promluv.
Topologie neuronových sítí (struktura, geometrie, architektura)
LVQ – Learning Vector Quantization
Plošná interpolace (aproximace)
Základy informatiky přednášky Kódování.
Lineární rovnice se dvěma neznámými
Strojové učení I (Mitchell93) učicí množina příkladů hledáme generalizaci učicí množiny ověřujeme na testovací množině pokrytí, přesnost, F-kriterium.
Memory-based Learning Učení založené na paměti (výtah z přednášky Waltera Daelemanse, GSLT, Göteborg 2003) + TiMBL -ukázka použití programu Jiří Mírovský,
Základy lineárního programování
Lineární algebra.
Diskrétní rozdělení a jejich použití
 př. 5 výsledek postup řešení Zjistěte, zda body A[3;-1], B[-1;5], C[2;-4] leží v přímce.
Základní číselné množiny
T.A. Edison Tajemství úspěchu v životě není v tom, že děláme, co se nám líbí, ale, že nacházíme zalíbení v tom, co děláme.
Neuronové sítě Jakub Krátký.
Shlukovací algoritmy založené na vzorkování
Informatika pro ekonomy II přednáška 2
 př. 4 výsledek postup řešení Zjistěte, zda jsou vektory a, b, c lineárně závislé. a=(1;2;3), b=(3;0;1), c=(-1;4;5)
Dostupné z Metodického portálu ISSN: , financovaného z ESF a státního rozpočtu ČR. Provozováno Výzkumným ústavem pedagogickým v Praze.
TI 7.1 NEJKRATŠÍ CESTY Nejkratší cesty - kap. 6. TI 7.2 Nejkratší cesty z jednoho uzlu Seznámíme se s následujícími pojmy: w-vzdálenost (vzdálenost na.
Rovinné útvary.
Vypracovala: Bc. SLEZÁKOVÁ Gabriela Predmet: HE18 Diplomový seminár
METODA KONEČNÝCH PRVKŮ
IGrid index Roman Krejčík. Obsah Motivace Prokletí dimenze Míry podobnosti IGrid, IGrid+ Experimentální porovnání.
Čištění dat Cleaning. Vstup: Množina geometrických objektů Výstup: Mapová vrstva s topologií.
Reprezentace klasifikátoru pomocí „diskriminant“ funkce
Klasifikace klasifikace: matematická metoda, kdy vstupní objekty X(i) jsou rozřazovány do tříd podle podobnosti metody klasifikace bez učitele: podoba.
Rozhodovací stromy.
Experimentální fyzika I. 2
Orbis pictus 21. století Tato prezentace byla vytvořena v rámci projektu.
© Institut biostatistiky a analýz INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
Vektorové prostory.
Určení parametrů elektrického obvodu Vypracoval: Ing.Přemysl Šolc Školitel: Doc.Ing. Jaromír Kijonka CSc.
© Institut biostatistiky a analýz ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT prof. Ing. Jiří Holčík, CSc.
Neparametrické metody
Grafické řešení soustavy dvou rovnic o dvou neznámých II.
© Institut biostatistiky a analýz INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
Polohové úlohy 2 Mgr. Martin Krajíc matematika 3.ročník analytická geometrie Gymnázium Ivana Olbrachta Semily, Nad Špejcharem 574, příspěvková.
W i ref (t+1) = W i ref (t) + h ci (t) [X(t) - W i ref (t)], i Nc h ci (t) 0, t  proces konverguje Algoritmy a struktury neuropočítačů ASN – P3 SOM algoritmus.
5.4. Účinné průřezy tepelných neutronů
Směrování -RIP. 2 Základy směrování  Předpoklady:  Mějme směrovač X  Směrovač nemůže znát topologii celé sítě  X potřebuje určit směrovač pro přístup.
Radim Farana Podklady pro výuku
Algoritmy a struktury neuropočítačů ASN - P14 Hopfieldovy sítě Asociativní paměti rekonstrukce původních nezkreslených vzorů předkládají se neúplné nebo.
© Institut biostatistiky a analýz ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
Praktická využití UNS V medicínských aplikacích Jan Vrba 2006.
© Institut biostatistiky a analýz INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
Neuronové sítě. Vývoj NS 1943 – W. McCulloch, W. Pittse – první jednoduchý matematický model neuronu 1951 – M. Minsky - první neuropočítač Snark 1957.
Neuronové sítě.
© Institut biostatistiky a analýz ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT prof. Ing. Jiří Holčík, CSc.
Využití technik dataminingu při rozpoznávání znaků Marek Kukačka Květen 2006.
© Institut biostatistiky a analýz INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
Simplexová metoda.
Fergusonova kubika a spline křivky
Odhady parametrů základního souboru
Metody strojového učení
ANALÝZA A KLASIFIKACE DAT
Klasifikace a rozpoznávání
Spojitá a kategoriální data Základní popisné statistiky
1 Lineární (vektorová) algebra
Neuronové sítě.
Geografické informační systémy
ANALÝZA A KLASIFIKACE DAT
Transkript prezentace:

Vektorová kvantizace (VQ) (Vector Quantization) Algoritmy a struktury neuropočítačů ASN – P3 Vektorová kvantizace LVQ obecně LVQ varianty Vektorová kvantizace (VQ) (Vector Quantization) Aproximace analogové hodnoty jednou z konečného počtu číselných hodnot = = kvantizace skalární - aproximuje jednotlivé parametry vektorová - aproximuje více parametrů současně Použití: pro kompresi dat Kvantizace je základ vektorových kvantizérů zobrazení množiny vektorů do předem neznámého počtu konečných skupin (tříd).

Centroidy – reprezentují jednotlivé oblasti Rozdělení trénovací množiny na n oblastí Centroidy – reprezentují jednotlivé oblasti Voronoiova mozaika (Voronoi tessellation) Používá se při rozpoznání vzorků pro ilustraci vektorové kvantizace . 2-dimenzionální prostor s konečným počtem kódových (referenčních) vektorů (bodů) souřadnice vymezuje hranice shluků pomocí po částech lineárních úseků Vektory v ohraničené části Voronoiovy mozaiky, které mají stejný referenční vektor, jako jejich nejbližší soused tvoří Voronoiovu množinu. Topologické uspořádání Vorinoiovy mozaiky je ekvivalentní množině okolí vítězů ze SOM

X2 X1 Voronoiova mřížka rozděluje 2-D prostor vzorků na oblasti kolem referenčních vektorů

Vektorová kvantizace učením ( Learning Vector Qvantization - LVQ ) hybridní neuronová síť kombinuje učení bez učitele a učení s učitelem Použití: ▪ klasifikace, jednoduché rozpoznání ▪ komprese dat pro přenos dat v digitálním kanálu ▪ pro snížení počtu stavů obecně ▪ pro možnost adaptivního rozšiřování počtu tříd Definuje kvantizační oblasti mezi sousedními vektory kódové knihy obdoba Voronoiových množin u klasické VQ

Hranice tříd : úseky po částech lineární Optimální hranice se určí odklonem všech váhových vektorů sítě, které leží mezi dvěma třídami a jejich přesunem blíž k jedné z nich. Není nutné počítat rozložení pravděpodobnosti !!! Výhoda oproti klasickému přístupu v Bayesově teorii pravděpodobnosti. Postup učení LVQ vypočteme centroidy pomocí samoorganizace – charakterizují pravděpodobné třídy síti jsou opětovně předloženy trénovací vzory s informací o jejich příslušnosti k třídě určíme četnost, s jakou je každý vektor sítě nejblíže k trénovacím vektorům každé třídy přiřadíme třídu, která se vyskytuje nejčastěji

Pokud vzor nelze zařadit do již existující třídy, vytvoří se třída nová. Klasifikace do dvou tříd wi2 wi1 referenční vektory z třídy S1 referenční vektory z třídy S2 rozdělovací hranice určená podle LVQ Bayesova hranice

Varianty LVQ LVQ1 : minimalizace stupně chybné klasifikace Wiref jsou kódové vektory označující jednotlivé třídy vzorek x se umístí do stejné třídy, bude- li platit: c = arg mini || X - Wiref || Index pro nejbližší Wiref k X je index vítěze, centroidu. Wiref (t+1) = Wcref(t)+g(t)[ X (t) – Wcref(t)], X a Wcref patří do stejné třídy Wcref (t+1) = Wcref (t) - g(t) [X (t) – Wcref (t)], X a Wcref nepatří do stejné třídy Wiref (t+1) = Wiref (t), i ≠ c 0< g(t) < 1 rychlost učení

OLVQ1: optimalizovaná rychlost učení g(t) pro každý kódový vektor je individuálně modifikována gi(t) Wcref (t+1) = Wcref (t) + gc (t) [X(t) – Wcref (t)] , je-li X klasifikováno korektně Wcref (t+1) = Wcref (t) – gc (t) [X(t) – Wcref (t)] , je-li X klasifikováno nekorektně Wiref (t+1) = Wiref (t), pro i ≠ c Pro rychlou konvergenci: Wcref (t+1) = [1–s (t) gc (t)] Wcref (t)+s (t) gc (t) X(t) s(t) = +1 pro korektní třídu s(t) = -1 pro nekorektní třídu Rekursívní tvar pro určení optimální hodnoty : gc(t) = [gc(t-1)] / [1+s(t) gc(t-1)]} Pro inicicializační hodnotu g(0) je dobré volit 0.3.

Batch LVQ1: Wcref (t+1) = Wcref (t)+g (t) s (t) δci [X(t) – Wcref (t)] s(t) = +1 pro X a Wcref ze stejné třídy s(t) = -1 pro X a Wcref z různých tříd δci je Kroneckerovo delta, δci = 1 pro c = i, δci = 0 pro c ≠ i Pro každé i se určí nový referenční vektor ve tvaru Wiref* = ∑t' s(t') X(t') / ∑t' s(t') kde t' jsou vzorky v uzlu i. LVQ2 a LVQ2.1: redukce počtu bodů rozložení wiref v blízkosti hraničních ploch. Rozdělení do tříd je stejné, jako u LVQ1, ale při učení existují 2 kódové knihy Wirefa Wj.ref

Třídy se nacházejí ve vektorovém prostoru blízko sebe. Vektor X se musí klasifikovat do správné třídy, ale současně musí patřit do oblasti hodnot označených okénkem. Euklideovské vzdálenosti X od Wi ref a Wj,ref relativní šířka okénka Obvykle 0.2 < win < 0.3 experimentálně

LVQ2.1 dovoluje, aby buď Wi nebo Wj byly uzavřené kódové knihy v LVQ2 to platilo pouze pro jednu z nich Wcref (t+1) = Wcref (t)+g(t) [X(t)- Wcref (t)], X (t) Bk, X(t) Sk Wcref (t+1) = Wcref (t)- g(t) [X(t) – Wcref (t)], X(t) Bk, X(t) Sr Wiref (t+1) = Wiref (t), i ≠ c Bk představuje Bayesovskou třídu. Ke korekci dochází jen pro X(t) z okna na špatné straně poloroviny.

LVQ3 : optimální umístění kódového vektoru Wiref (t+1) = Wiref (t) + g(t) [X(t) – Wjref (t)], X(t) Bk, X(t) Sk, X(t) win Wjref (t+1) = Wjref (t) - g(t) [X(t) - Wjref (t)], X(t) Bk, X(t) Sr, X(t) win Wkref (t+1) = Wkref (t) – ε g(t) [X(t) – Wk ref(t)], k {i, j} X(t), Wiref , Wjref patří dostejné třídy Bk je Bayesovská třída win je šířka okénka 0.1 < ε < 0.5 pro win = 0.2 resp. win = 0.3.

Optimální hodnota ε závisí přímo úměrně na šířce okénka. Optimální umístění kódových vektorů se během trénování nemění. Rozdíly mezi variantami: liší se mezi sebou v matematickém zápisu rovnic LVQ1 a LVQ3 jsou robustnější procesy pro LVQ1 je možné optimalizovat g(t), dosáhne se rychlejší konvergence LVQ 2 optimalizuje relativní vzdálenost kódových vektorů od hranic tříd, LVQ 2 negarantuje optimální umístění kódových vektorů U všech variant LVQ se definují hranice tříd podle pravidla nejbližšího okolí. Není třeba znát funkci rozložení vzorků jako u klasické VQ.

Přesnost klasifikace záleží na: přibližně optimálním počtu vektorů kódové knihy přiřazených k jednotlivým třídám na jejich inicializaci na použitém algoritmu na vhodném g(t) na vhodném kritériu ukončení učení Je vhodné provést inicializaci kódové knihy pomocí SOM. Konečné rozdělení kódových vektorů je totiž známé až po skončení učení !!! Doporučené pořadí: začít variantou LVQ1 nebo OLVQ1. Konvergence: počet iterací rovný 30ti – 50ti násobku počtu kódových vektorů. OLVQ1 zrychluje učení. Ostatní varianty je možné navázat na LVQ1 resp. OLVQ1. Učení se ukončuje experimentálně.