Pokročilé neparametrické metody Validační techniky

Slides:



Advertisements
Podobné prezentace
Testování parametrických hypotéz
Advertisements

Testování statistických hypotéz
Monte Carlo permutační testy & Postupný výběr
Odhady parametrů základního souboru
Cvičení 6 – 25. října 2010 Heteroskedasticita
Cvičení října 2010.
Lineární regresní analýza Úvod od problému
Využití umělých neuronových sítí k urychlení evolučních algoritmů
Návrh modelů Jan Brůha IREAS. Návrh otázek a modelů Jaký vliv měla podpora z ESF v OP LZZ 1.1 na obrat / zisk a zaměstnanost firem? – Jde o srovnání mezi.
Diskrétní rozdělení a jejich použití
Robustní vyrovnání Věra Pavlíčková, únor 2014.
Úvod do regresní analýzy
ANALÝZA VZTAHU DVOU SPOJITÝCH VELIČIN
Rozbory přesnosti v jednotlivých fázích vytyčení
Testování hypotéz přednáška.
Náhodná proměnná Rozdělení.
Základy ekonometrie Cvičení října 2010.
VLASTNOSTI MOTORICKÝCH TESTŮ Oddělení antropomotoriky, rekreologie a metodologie Katedra kinantropologie, humanitních věd a managementu sportu © 2009 FTVS.
Odhady parametrů základního souboru. A) GNR B) neznámé r. ZS (přesné parametry) : ,   VS (odhady parametrů): x, s x.
Data s diskrétním rozdělením
Lineární regrese.
Obecný lineární model Fitované hodnoty and regresní residuály
Lineární regresní model Statistická inference Tomáš Cahlík 4. týden.
Inženýrská geodézie 2009 Ing. Rudolf Urban
Lineární regrese.
REGIONÁLNÍ ANALÝZA Cvičení 3 Evropský sociální fond
Lineární regresní analýza
Biostatistika 6. přednáška
Reprezentace klasifikátoru pomocí „diskriminant“ funkce
Odhad metodou maximální věrohodnost
Experimentální fyzika I. 2
Pohled z ptačí perspektivy
V. Analýza rozptylu ANOVA.
Přesnost a spolehlivost v účelových sítích Bc. Jindřich Poledňák.
AKD VII.
Metrologie   Přednáška č. 5 Nejistoty měření.
MATEMATICKÁ STATISTIKA
Fitování Konstrukce křivky (funkce), která co nejlépe odpovídá naměřeným hodnotám. - může podléhat dodatečným podmínkám Lineární vs. nelineární regrese.
Hodnocení přesnosti měření a vytyčování
Jednoduchý lineární regresní model Tomáš Cahlík 2. týden
Korelace. Určuje míru lineární vazby mezi proměnnými. r < 0
Motivační příklad – 1a Vliv rodičů a prostředí na vývoj mláďat Nejstarší mládě v každém hnízdě měřeno ve věku X dní Vysvětlující údaje: počet mláďat, stáří.
© Institut biostatistiky a analýz ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc.
Statistické odhady (inference) Výběr Nepotřebujeme sníst celého vola jenom proto, abychom poznali, že to jde ztuha. Samuel Johnson (anglický básník a.
Úvod do praktické fyziky Seminář pro I.ročník F J. Englich, ZS 2003/04.
Aritmetický průměr - střední hodnota
Přenos nejistoty Náhodná veličina y, která je funkcí náhodných proměnných xi: xi se řídí rozděleními pi(xi) → můžeme najít jejich střední hodnoty mi a.
IV..
Pokročilé neparametrické metody
Pokročilé neparametrické metody
Testování hypotéz Testování hypotéz o rozdílu průměrů  t-test pro nezávislé výběry  t-test pro závislé výběry.
Základy zpracování geologických dat R. Čopjaková.
Statistické metody v digitálním zpracování obrazu Jindřich Soukup 3. února 2012.
Ověření modelů a modelování Kateřina Růžičková. Posouzení kvality modelu Ověření (verifikace) ● kvalitativní hodnocení správnosti modelu ● zda model přijatelně.
Korelace. Určuje míru lineární vazby mezi proměnnými. r < 0
Korelace Korelace obecně je míra kvality (vhodnosti, těsnosti) nalezeného regresního modelu pro daná data; vychází z hodnot reziduí V každém typu regresního.
Chyby měření / nejistoty měření
Statistické testování – základní pojmy
Neparametrické testy parametrické a neparametrické testy
Přednáška č. 3 – Posouzení nahodilosti výběrového souboru
Monte Carlo Typy MC simulací
Induktivní statistika
Regresní analýza výsledkem regresní analýzy je matematický model vztahu mezi dvěma nebo více proměnnými snažíme se z jedné proměnné nebo lineární kombinace.
Úvod do statistického testování
Neparametrické testy pro porovnání polohy
Základní zpracování dat Příklad
Lineární regrese.
Induktivní statistika
Základy statistiky.
Princip max. věrohodnosti - odhad parametrů
Transkript prezentace:

Pokročilé neparametrické metody Validační techniky 1

Validace modelů k objektivnějšímu a méně zkreslenému odhadu celkové chyby modelu pro výběr mezi různými modely stability modelu jeho obecné platnosti – složitost modelu výběru proměnných do modelu !vybrat „nejjednodušší“ model, vysvětlující největší množství informace! Validační techniky analytické, zahrnující například informační kritéria (AIC, BIC) Založené na opakovaném použití pozorování (krosvalidace, jednoduché rozdělení, bootstrap, jacknifing)

Složitost modelu Hastie et al., 2009

Analytické validační techniky S množstvím proměnných přidávaných do modelu, můžeme sice zvýšit jeho přesnost, ale tím také roste nebezpečí nadhodnocení modelu Informační kritéria penalizují počet proměnných v modelu Výsledek je kompromisem mezi složitostí modelu a jeho přesností Informační kritéria se používají nejčastěji pro parametrickou regresi, kdy se vybírá optimální model z modelů, obsahující různý počet vysvětlujících proměnných; jsou však použitelné i pro neparametrické techniky

Informační kritéria AIC - Akaikovo informační kritérium (Akaike, 1974) BIC – Bayesovo informační kritérium (Schwarz, 1978) někdy také jako Schwarzovo kritérium (SBC, SBIC) kde k je počet parametrů modelu, L je maximální věrohodnostní funkce u GLM (u LM logaritmu residuální sumy čtverců) a n počet pozorování u BIC je penalizace přidaných proměnných větší než u AIC

Validační techniky II - „resampling“ metody jednoduché rozdělení, krosvalidace, bootstrap - techniky založeny na opakovaném použití pozorování Jednoduché rozdělení (simple spliting) rozdělení na testovací a trénovací soubor (split-sample,hold-out či simple splitting) pouze jeden podsoubor (testovací) je použit k odhadu celkové chyby (generalization error) je potřeba větší počet pozorování, aby při dělení nedošlo ke ztrátám informace Pokud by se následně vyměnily testovací a trénovací soubor, šlo by již o krosvalidaci pro k = 2.

Křížové ověřování - krosvalidace pozorování jsou rozdělena do k nezávislých podsouborů (obvykle k=10) jeden podsoubor se vždy použije pro testování (pozorování nejsou použity při tvorbě modelu) a všech ostatních k-1 skupin pro tvorbu modelu celkem je vytvořeno k modelů otestovaných na k testovacích souborech Z výsledků testovacích souborů můžeme učit stabilitu metody (spočítat např. průměr a směrodatnou odchylku přesnosti na testovacím souboru) a její predikční schopnost Výhoda krosvalidace - používáme pro otestování vždy nezávislý datový soubor

krosvalidace Hastie et al., 2009

Křížové ověřování (krosvalidace) Rozdělení datového souboru do k skupin (zde k=5) testovací trénovací

Křížové ověřování - krosvalidace Pokud se počet krosvalidačních podsouborů rovná počtu pozorování, pak se jedná o "leave-one-out" (LOO) krosvalidaci LOO krosvalidace byla navržena pro velmi malé datové soubory Je vhodná pro odhad obecné chyby v modelu pro spojité funkce, jako je střední kvadratická chyba není optimální pro nespojité odhady chyby např. počet chybně zařazených pozorování Krosvalidace je velmi často používána k určení optimální velikosti při tvorbě rozhodovacích stromů Pro výběr podmnožiny proměnných v lineární regrese má 10-fold a 5- fold krosvalidace lepší výsledky než LOO

Bootstrap založen na náhodných výběrech s opakováním z původního výběru Soubor se v každém kroku náhodně rozdělí na testovací a trénovací, jako procento z celkového souboru Testovací soubory však nejsou nezávislé jako u krosvalidace Při každém novém náhodném výběru se vychází vždy ze všech dat Vzorky se tedy v jednotlivých testovacích souborech mohou opakovat Výhodou je možnost použití i pro menší datové soubory V moha případech funguje bootstrap lépe než krosvalidace pro rozhodovací stromy, dávají horší výsledky – odhady jsou příliš optimistické použití v Random forest a baggingu se používají k tvorbě lesa, k odhadu celkové chyby, v kombinaci s randomizací k odhadu významnosti proměnných u neuronových sítí je bootstrap používán pro výpočet intervalů spolehlivosti jejich výsledků