Lineární klasifikátor

Slides:



Advertisements
Podobné prezentace
DOTAZOVACÍ JAZYKY slajdy přednášce DBI006
Advertisements

Fakulta životního prostředí Katedra informatiky a geoinformatiky
Rovnice s absolutními hodnotami
Výukový materiál zpracovaný v rámci projektu Registrační číslo projektu: CZ.1.07/1.5.00/ Šablona:* III/2Sada:* I. Ověření ve výuce: oktávaDatum:
OBECNÉ OPTIMALIZAČNÍ MODELY
Seminární práce číslo: 7 Zpracoval : Vladimír KORDÍK T-4.C
PA081 Programování numerických výpočtů
Problematika a metody zpracování biomed. dat z pohledu jejich klasifikace Marcel Jiřina.
Topologie neuronových sítí (struktura, geometrie, architektura)
PA081 Programování numerických výpočtů Přednáška 4.
Lineární regresní analýza Úvod od problému
ZÁKLADY EKONOMETRIE 2. cvičení KLRM
Genetické algoritmy. V průběhu výpočtu používají náhodné operace. Algoritmus není jednoznačný, může projít více cestami. Nezaručují nalezení řešení.
Využití umělých neuronových sítí k urychlení evolučních algoritmů
Optimalizace v simulačním modelování. Obecně o optimalizaci  Optimalizovat znamená maximalizovat nebo minimalizovat parametrech (např. počet obslužných.
Základní číselné množiny
Optimalizační úlohy i pro nadané žáky základních škol
Seminář – Základy programování
SWI072 Algoritmy komprese dat1 Algoritmy komprese dat Teorie informace.
TI 7.1 NEJKRATŠÍ CESTY Nejkratší cesty - kap. 6. TI 7.2 Nejkratší cesty z jednoho uzlu Seznámíme se s následujícími pojmy: w-vzdálenost (vzdálenost na.
Formulace a vlastnosti úloh lineárního programování
Algoritmy vyhledávání a řazení
Nelineární programování - úvod
ŠÍŘENÍ A PŘENÁŠENÍ CHYB A VAH
Metody nelineárního programování
Optimalizace versus simulace 9.přednáška. Obecně o optimalizaci  Maximalizovat nebo minimalizovat omezujících podmínkách.  Maximalizovat nebo minimalizovat.
Nelineární klasifikátory
Funkce více proměnných.
Lineární zobrazení.
Reprezentace klasifikátoru pomocí „diskriminant“ funkce
Ekonometrie „ … ekonometrie je kvantitativní ekonomická disciplína, která se zabývá především měřením v ekonomice na základě analýzy reálných statistických.
Neuronové sítě Jiří Iša
Klasifikace klasifikace: matematická metoda, kdy vstupní objekty X(i) jsou rozřazovány do tříd podle podobnosti metody klasifikace bez učitele: podoba.
Rozhodovací stromy.
Odhad metodou maximální věrohodnost
Diferenciální počet funkcí více proměnných
Experimentální fyzika I. 2
Vektorová kvantizace (VQ) (Vector Quantization)
© Institut biostatistiky a analýz INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
Rozpoznávání v řetězcích
Gradientní metody Metoda největšího spádu (volný extrém)
Optimalizace bez omezení (unconstraint)
Nelinearity s hysterezí Přerušení platnosti relace vytváří dvě různé charakteristiky, jejichž platnost je podmíněna směrem pohybu Hystereze přepínače x.
2. Vybrané základní pojmy matematické statistiky
Lineární programování - charakteristika krajních bodů
Klastrování - III.
© Institut biostatistiky a analýz INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
W i ref (t+1) = W i ref (t) + h ci (t) [X(t) - W i ref (t)], i Nc h ci (t) 0, t  proces konverguje Algoritmy a struktury neuropočítačů ASN – P3 SOM algoritmus.
Lineární rovnice s parametrem Autor: Jiří Ondra. Rovnici s parametrem považujeme za zápis množiny všech rovnic, které získáme dosazením konstant za parametr.
Sylabus V rámci PNV budeme řešit konkrétní úlohy a to z následujících oblastí: Nelineární úlohy Řešení nelineárních rovnic Numerická integrace Lineární.
Optimalizace versus simulace 8.přednáška. Obecně o optimalizaci  Maximalizovat nebo minimalizovat omezujících podmínkách.  Maximalizovat nebo minimalizovat.
(Popis náhodné veličiny)
Vyhledávání vzorů (template matching)
Algoritmy a struktury neuropočítačů ASN - P14 Hopfieldovy sítě Asociativní paměti rekonstrukce původních nezkreslených vzorů předkládají se neúplné nebo.
© Institut biostatistiky a analýz ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
Kvadratické nerovnice
© Institut biostatistiky a analýz INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
Klasifikace a rozpoznávání Lineární klasifikátory.
© Institut biostatistiky a analýz ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT prof. Ing. Jiří Holčík, CSc.
EMM21 Ekonomicko-matematické metody 2 Prof. RNDr. Jaroslav Ramík,CSc.
© Institut biostatistiky a analýz INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
ANALÝZA A KLASIFIKACE DAT
Klasifikace a rozpoznávání
1 Lineární (vektorová) algebra
Funkce více proměnných.
ANALÝZA A KLASIFIKACE DAT
ANALÝZA A KLASIFIKACE DAT
ANALÝZA A KLASIFIKACE DAT
ANALÝZA A KLASIFIKACE DAT
ANALYTICKÁ GEOMETRIE Analytická geometrie je část geometrie, která v euklidovské geometrii zkoumá geometrické útvary pomocí algebraických a analytických.
Transkript prezentace:

Lineární klasifikátor mějme nadrovinu: g(x) = wT∙x + w0 = 0 vzdálenost z bodu x od nadroviny je dána: nadrovina dělí prostor na dvě části: na jedné straně jsou body, kde g(x) > 0 na druhé straně jsou body, kde g(x) < 0

Perceptronový algoritmus cíl: najít parametry w a w0 dělící nadroviny množiny trénovacích vzorů jsou lineárně separabilní tedy existuje nadrovina definovaná w*T∙x = 0 taková, že w*T∙x > 0 pro každý x z ω1 w*T∙x < 0 pro každý x z ω2 tento vztah platí i pro nadroviny, které neprocházejí počátkem: w*T∙x + w*0 = 0 protože můžeme zavést rozšířený (d+1)-dimenzionální prostor, kde w’ ≡ (w*,w0) x’ ≡ (x,1) a pak w*T∙x + w*0 = w’T∙x’

Perceptronový algoritmus – ztrátová funkce perceptronový algoritmus je příklad optimalizačního problému, kde potřebujeme znát: ztrátovou funkci, která se bude optimalizovat algoritmus jak najít optimum ztrátové funkce ztrátovou funkci zavedeme jako: kde Y je množina trénovacích vzorů, které byly nadrovinou klasifikovány chybně parametr δx -1 .... pro bod x z ω1 +1 .... pro bod x z ω2 ztrátová funkce J(w) je nezáporná je nulová, když Y = Ø a tedy trénovací vzory jsou klasifikovány správně je kladná, když x je z ω1 (δx= -1) a současně x byl klasifikován chybně (wTx<0) => tedy výsledný součin je kladný (analogicky opačný případ)

Perceptronový algoritmus – odvození algoritmu ztráta perceptronu J(w) je spojitá po částech lineární funkce v bodech, kde se mění počet chybně klasifikovaných vzorů, není gradient definován iterativní algoritmus pro minimalizaci ztrátové funkce: odvození algoritmu založeno na principu metody snižování gradientu kde w(t) je odhad prahového vektoru v t-té iteraci ρt je posloupnost reálných čísel v bodech, kde je derivace definována, je:

Perceptronový algoritmus – odvození algoritmu dosazením do vztahu pro w(t+1) dosteneme perceptronový algoritmus: kde vektor w(0) je libovolně inicializován vektor je vektor „opravy“ ze vzorů, které byly klasifikovány nesprávně proces učení je opakován tak dlouho, dokud nejsou všechny trénovací vzory klasifikovány správně geometrická interpretace percept. algoritmu v čase t byl klasifikován chybně jediný vzor x a ρt=1 algoritmus opraví váhový vektor ve směru x => odpovídající nadrovina se natočí tak, aby x byl klasifikován správně

Perceptronový algoritmus – konvergence na konvergenci algoritmu má vliv posloupnost ρt => za těchto podmínek bude algoritmus konvergovat např. ρt = c/t, kde c je konstanta => ρt ovlivňuje rychlost konvergence a tedy rychlost algoritmu lze ukázat, že perceptronový algoritmus zkonverguje k řešení v konečném počtu kroků důkaz v literatuře nalezená řešení nejsou jednoznačná => existuje více než jedna dělicí nadrovina

Varianta perceptronového algoritmu modifikace oproti předchozímu algoritmu: trénovací vzory jsou cyklicky předkládány algoritmu jeden po druhém váhový vektor se mění po každém předkloženém vzoru když předložíme celou trénovací množinu a nedošlo ke zkonvergování => zopakujeme předložení celé trénovací množiny algoritmus: w(t) je odhad váhového vektoru v t-té iteraci x(t) je trénovací vzor předložený v t-té iteraci aktualizace váhového vektoru: když je vzor klasifikován správně => váhový vektor se nemění i tento algoritmus zkonverguje v konečném počtu iterací

Perceptron klasifikace neznámých vzorů následuje po zkonvergování perceptronového algoritmu k váhovému vektoru w a prahu w0 klasifikační pravidlo: když wTx + w0 > 0 ... přiřaď x do ω1 když wTx + w0 > 0 ... přiřaď x do ω2 => tuto operaci provádí perceptron x1,...,xn jsou vstupní jednotky wi jsou synaptické váhy w0 je práh f je nelineární skoková funkce f(x) = +1 když x>0 f(x) = -1 když x<0

Přihrádkový algoritmus perceptronový algoritmus základní požadavek na konvergenci je lineární separabilita množin když tento požadavek není splněn => algoritmus nezkonverguje přihrádkový algoritmus navržen tak, aby konvergoval k optimálnímu řešení i když množiny nejsou lineárně separabilní

Přihrádkový algoritmus Krok 1. náhodná inicializace w(0) definujme přihrádkový vektor wS definujme čítač historie hS=0 Krok 2. v t-té iteraci aktualizujeme w(t+1) podle perceptronového algoritmu aktuální váhový vektor použijeme ke zjištění počtu trénovacích vzorů h, které jsou klasifikovány správně když h> hS pak nahradíme: wS ← w(t+1) hS ← h konvergence: lze ukázat, že algoritmus s pravděpodobností 1 zkonverguje k optimálnímu řešení (tj. řešení, které dá nejmenší počet chybně klasifikovaných trénovacích vzorů)