ANOVA (s použitím materiálů Petra Šmilauera)

Slides:



Advertisements
Podobné prezentace
Statistické testy z náhodného výběru vyvozuji závěry ohledně základního souboru často potřebuji porovnat dva výběry mezi sebou, porovnat průměr náhodného.
Advertisements

Úvod do analýzy rozptylu
Neparametrické metody
Testování parametrických hypotéz
Ideový závěr Co si mám z přednášky odnést (+ komentáře k užití statistiky v biologii)
Testování statistických hypotéz
Jednofaktorová ANOVA Jednofaktorová analýza rozptylu
Monte Carlo permutační testy & Postupný výběr
Odhady parametrů základního souboru
F-test a dvouvýběrový t-test (oba testy předpokládají normalitu dat)
Chováme králíčky Liší se tato tři králičí plemena hmotností?
Cvičení 6 – 25. října 2010 Heteroskedasticita
Analýza variance (Analysis of variance)
Diskrétní rozdělení a jejich použití
t-rozdělení, jeho použití
Porovnání průměrů více než dvou normálních rozdělení
Faktory a jejich uspořádání
Náhodná proměnná Rozdělení.
Testování hypotéz vymezení důležitých pojmů
také Gaussovo rozdělení (normal or Gaussian distribution)
Obecný lineární model Analýza kovariance Nelineární modely
8. listopadu 2004Statistika (D360P03Z) 6. předn.1 chování výběrového průměru nechť X 1, X 2,…,X n jsou nezávislé náhodné veličiny s libovolným rozdělením.
Jak správně interpretovat ukazatele způsobilosti a výkonnosti
Biostatistika 9. přednáška Aneta Hybšová
Odhady parametrů základního souboru
Inference jako statistický proces 1
Porovnání středních hodnot: t-test, ANOVA, Tukeyho m.v.p.
Kontingenční tabulky Závislost dvou kvalitativních proměnných.
Testy významnosti Karel Mach. Princip (podstata): Potvrzení H O Vyvrácení H O →přijmutí H 1 (H A ) Ptáme se:  1.) Pochází zkoumaný výběr (jeho x, s 2.
Lineární regresní model Statistická inference Tomáš Cahlík 4. týden.
základní principy a použití
Lineární regrese.
Lineární regresní analýza
Závislost dvou kvantitativních proměnných
Analýza variance (ANOVA).
Ekonometrie „ … ekonometrie je kvantitativní ekonomická disciplína, která se zabývá především měřením v ekonomice na základě analýzy reálných statistických.
Pohled z ptačí perspektivy
V. Analýza rozptylu ANOVA.
MATEMATICKÁ STATISTIKA
Fitování Konstrukce křivky (funkce), která co nejlépe odpovídá naměřeným hodnotám. - může podléhat dodatečným podmínkám Lineární vs. nelineární regrese.
Jiří Šafr jiri.safr(AT)seznam.cz Poslední aktualizace 11/3/2014
8. Kontingenční tabulky a χ2 test
T - testy Párový t - test Má se zjistit, zda se sjíždějí přední pravé pneumatiky stejně jako přední levé pneumatiky. Bylo vybráno 6 vozů stejné značky:
Korelace.
PSY717 – statistická analýza dat
Analýza variance (ANOVA). ANOVA slouží k porovnávání středních hodnot 2 a více náhodných proměnných. Tam, kde se používal dvouvýběrový t-test, je možno.
Mann-Whitney U-test Wilcoxonův test Znaménkový test
PSY117/454 Statistická analýza dat v psychologii II Seminář 7 - 8
IV..
Testování hypotéz Testování hypotéz o rozdílu průměrů  t-test pro nezávislé výběry  t-test pro závislé výběry.
Sledujeme (např.): Chceme prokázat: závisí plat na dosaženém vzdělání? závisí plat na dosaženém vzdělání? je u všech čtyř strojů délka výlisků srov- natelná.
Ústav lékařské informatiky, 2. LF UK 2008 STATISTIKA II.
Testování hypotéz Otestujte,… Ověřte,… Prokažte,… že střední věk (tj.  ) …činí 40 let (= 40) …je alespoň 40 let (≥ 40)
Korelace. Určuje míru lineární vazby mezi proměnnými. r < 0
Statistické testování – základní pojmy
Přednáška č. – 4 Extrémní hodnoty a analýza výběrových souborů
Testování hypotéz párový test
Neparametrické testy parametrické a neparametrické testy
Přednáška č. 3 – Posouzení nahodilosti výběrového souboru
Induktivní statistika
Neparametrické testy parametrické a neparametrické testy
Regresní analýza výsledkem regresní analýzy je matematický model vztahu mezi dvěma nebo více proměnnými snažíme se z jedné proměnné nebo lineární kombinace.
Úvod do statistického testování
ORDINÁLNÍ VELIČINY Měření variability ordinálních proměnných
Neparametrické testy pro porovnání polohy
T-testy, neparametrické metody a analýza rozptylu (lekce 5-6)
Lineární regrese.
7. Kontingenční tabulky a χ2 test
Základy statistiky.
Testování hypotéz - pojmy
Transkript prezentace:

ANOVA (s použitím materiálů Petra Šmilauera) Analýza variance ANOVA (s použitím materiálů Petra Šmilauera)

Příklady problémů Srovnáváme obsah dusíku v listech u pěti příbuzných druhů rostlin, a ptáme se, zda se druhy v dané charakteristice liší Srovnávám stav pacientů léčených placebem, se stavem pacientů léčených lékem A a léčených lékem B Obecně - srovnávám více skupin než 2

Proč nesrovnat po dvojicích, a nepoužít řadu t-testů? Druh A Druh B Druh C

Pokud máme k skupin (a srovnáváme k průměrů) Provádíme k.(k-1)/2 testů. Pravděpodobnost chyby prvního druhu je α v každém z nich. Šance, že uděláme alespoň jednu chybu prvního druhu pak roste s počtem porovnávaných průměrů

Pravděpodobnost, že se dopustíme chyby I Pravděpodobnost, že se dopustíme chyby I. druhu, budeme-li užívat více t testů při hledání rozdílů mezi všemi páry ve skupině k průměrů. „Statistical fishing“ Neužívá se

Proto testujeme jen jednu hypotézu “Všechny skupiny jsou stejné” nebo přesněji H0: 1=2=3= ...= k. za přepokladu homogenity variance (a normality). HA potom říká: není pravda, že jsou všechny střední hodnoty stejné (tedy alespoň jedna se liší od ostatních)

Analýza variance = ANOVA (ANalysis Of VAriance) V nejjednosušším případě - jednoduché třídění - jednocestná ANOVA Single Factor ANOVA, one-way ANOVA

Chováme králíčky (randomizovat!) HA: alespoň jeden se liší H0:m1=m2=m3 Liší se tato tři králičí plemena hmotností? 3, 3, 4, 5, 5 4, 4, 6, 5, 6 7, 5, 6, 5, 7 Mezi plemeny nemusí být skutečný rozdíl: průměry skupin se mohou lišit jen proto, že mám malý počet pozorování Příklad výběrů z normální distribuce N(5,2), každý s 5 případy: průměry jsou například: 5.89, 4.50, 5.69, 5.73, ....

Zas ti králíci ... SStot = SSG + SSe Celková suma čtverců Total sum of squares SStot rozptyl kolem společného průměru Skupinová (modelová) suma čtverců Among-group sum of squares SSG rozptyl hodnot předpovídaných plemenem kolem celkového průměru Residuální suma čtverců Error sum of squares SSe rozptyl hodnot kolem průměrů předpovídaných plemenem SStot = (3-5)2+(3-5)2+(4-5)2+(5-5)2+ (5-5)2+(4-5)2+(4-5)2+...+(7-5)2 = 22 SSG = (4-5)2+(4-5)2+(4-5)2+(4-5)2+ (4-5)2+(5-5)2+(5-5)2+...+(6-5)2 = 10 SSe = (3-4)2+(3-4)2+(4-4)2+(5-4)2+ (5-4)2+(4-5)2+(4-5)2+...+(7-6)2 = 12 SStot = SSG + SSe Jaký počet nezávislých informací jsme použili? DFtot = počet pozorování – 1 (pro celkový průměr) = 14 DFG = počet skup. průměrů – 1 (pro celkový průměr) = 2 DFe = počet pozorování – počet nezávislých průměrů = 12 MStot = SStot/DFtot = 22/14 = 1.5714 MSG = SSG/DFG = 10/2 = 5.0 MSe = SSe/DFe = 12/12 = 1.0

Platí Proto ANALÝZA VARIANCE - rozkládám varianci na jednotlivé její složky

Mám dva odhady variance (MSG a MSe) za předpokladu platnosti nulové hypotézy Pokud nulová hypotéza platí, odhadují tutéž veličinu. Poměr dvou odhadů variance (proměnných s normálním rozdělením) má F-rozdělení. Pokud se jedná o skupiny s různými průměry, potom variabilita mezi skupinami bude větší, než variabilita uvnitř skupin.

Variabilitu mezi skupinami mohu prokázat jen proti variabilitě uvnitř skupin!!!

A pořád ještě králíci ... MSG a MSe odhadují mezi-skupinovou a vnitro-skupinovou variabilitu na srovnatelné škále Pokud platí nulová hypotéza, měly by být obě variability zhruba stejné – jejich poměr lze popsat F distribucí, se dvěma parametry: DFG a DFe V našem příkladě F = 5.0 / 1.0 = 5.0 Pravděpodnost, že takto velkou nebo větší hodnotu „si vytáhnu“ z F2,12 distribuce je asi 0.0263 Zamítám tedy H0 ve prospěch HA s p=0.0263

Test probíhá klasicky Pozor, opět máme dvojí stupně volnosti Najdu kritickou hodnotu, tj. 95% kvantil F rozdělení, a provnám s hodnotou testového kriteria. Stačí 95% - ne 97.5%, protože kdyby H0 neplatila, tak hodnota F bude vysoká. Velmi malé F je podezřelá shoda s nulovou hypotézou, too good to be true.

Dnes spíše P=0,026 Nebo přímo odečtu hodnotu ocásku

Model: Xij = μ+αi + εij náhodná variability N(0, σ2) Nezávislá na α – tudíž předpokládám homogenitu variance Všimněte si také, že předpokládám normalitu uvnitř skupin “posunutí” i-té skupiny proti společnému průměru Společná střední hodnota Nulovou hypotézu tedy mohu vyjádřit αi = 0 pro všechna i (jinými slovy - posunutí mezi skupinami není, je tam jen náhodná variabilita)

Statistica nám napíše Intercept je test nulové hypotézy, že společný průměr je 0. Ve velké většině případů je taková nulová hypotéza na první pohled nesmyslná, a pak nemá smysl tento test prezentovat v diplomkách ani článcích.

Mám dvě skupiny (k=2), mám užít ANOVu, nebo t=test? Je to jedno, P vyjde v obou případech přesně strejně (F je druhou mocninou příslušného t)

Síla testu Roste s odchylkou od H0 - ale to my neovlivníme :-( Roste s počtem pozorování ve skupině Roste s vyvážeností skupin Klesá s počtem skupin (nesnažte se porovnávat všechno možné, s malým počtem opakování ve skupině!)

Narušení předpokladů Robustnost Robustnost k narušení normality stoupá s počtem pozorování ve skupině Robustnost k narušení homogenity variancí výrazně klesá při nevyvážených počtech ve skupinách (Existují testy pro otestování obou – u normality testujeme normalitu reziduálů; u homogenity variancí je to Bartlet nebo Levene). Ale pozor, i síla těchto testů je závislá na počtu pozorování

Shoda variancí Test shody variancí mezi skupinami: Bartlettův test

Faktory s pevným a náhodným efektem Chci zjistit limitaci prvkem ve stravě: Králíci krmení stravou normální a vylepšenou hořčíkem, vápníkem, a železem. - Pevný efekt – zajímají mě ty čtyři typy stravy, a vybral jsem si tyhle záměrně a úmyslně. Mám 10 náhodně vybraných rostlin z louky, a zajímá mě, jestli se liší jejich potomstvo - náhodný efekt - jestli má lepší potomstvo moje rostlina 1 nebo moje rostlina 3 je jedno, hlavně jestli se jejich potomstvo liší. Dobrá zpráva – pro jednocestnou ANOVu vyjde výsledek (tedy F an P) stejně, bez ohledu na to, jestli je efekt pevný, nebo náhodný

Pevné a náhodné efekty Králičí příklad představoval problém, ve kterém faktor (nezávislá proměnná) plemeno obsahoval hladiny, které nás konkrétně zajímaly – podobně hnojené vs. nehnojené plochy, srovnání vlivu několika druhů léků. Plemeno, hnojení, druh léku jsou faktory s pevným efektem (fixed effect factor) V jiných situacích: porovnáváme variabilitu hodnot mezi kategoriemi vs. uvnitř kategorií: liší se hmotnost plodů mezi mateřskými rostlinami, tj. existuje systematický vliv rostliny? Konkrétní rostlina mne nezajímá, faktor rostlina odpovídá tzv. náhodnému efektu (random effect factor) ANOVA s náhodnými efekty se označuje také jako model II ANOVA (x model I – s pevnými efekty). Mixed-effect ANOVA V případě faktorů s náhodným efektem nemá smysl testovat rozdíly mezi konkrétními hladinami faktoru (nemá smysl dělat multiple comparisons)

Pro faktory s pevným efektem mě obvykle nestačí vědět, že všechny skupiny nejsou stejné, chci vědět, co se liší od čeho. Tahle otázka nemá jednoznačné dobré řešení (proto má řešení spoustu). Experiment-wise vs. comparison-wise Type I error rate. Bonferroni, False Discovery Rate

Mnohonásobná porovnání Tukey - asi “klasika” (aby pravděpodobnost chyby prvního druhu alespoň v jednom testu byla menší než α - tj. předem daná hladina významnosti, obvykle 5%). Obdoba mnoha t-testů kritické hodnoty závisí na k. Pro velká k je test zoufale slabý (dělám moc dílčích testů). SE se odhaduje na základě variability ve všech skupinách, nejen těch srovnávaných (abych zvětšil denominator DF a tím i sílu testu) - pozor - tady je velká citlivost k narušení homogenity variancí. Existuje ale i varianta Tukeyho testu pro nestejně velké výběry

Typické výsledky

V grafické formě Tady něco nehraje - zřejmě jsme se dopustili chyby druhého druhu [a tváříme se, že to nevadí]. Tukey zřetelně není ideální, ale nikdo vás za něj moc nezkritizuje

Jaké mám jiné možnosti? Dunnet - testuji jednotlivé zásahy jen vůči kontrole: méně testů (roste jen lineárně s počtem skupin) => silnější test. Mohu užít i jednostranné testy. Kontrasty - testování “skupin skupin”, většinou logicky plánované Plánovaná pozorování

Neparametrické možnosti Permutační testy (náhodně rozděluju pozorování do skupin o stejné velikosti, jako jsou v experimentu, a tím si generuji rozdělení testové statistiky za platnosti nulové hypotézy) - PERMANOVA Kruskal-Wallisův test - založený na pořadí Oba testy testují H0, že se jedná o výběry z téhož základního souboru. Mají-li být formulovány jako testy o poloze, musím mít předpoklad, že tvar rozdělení je ve všech skupinách stejný. Mediánový test - porovnávám počet pozorování nad a pod mediánem v jednotlivých skupinách.

Kruskal-Wallis Ri - součet pořadí v jednotlivých skupinách ni - počet pozorování v jednotlivých skupinách N - celkový počet pozorování

Kruskal – Wallisův test: příklad Porovnáváme četnost určitého druhu hmyzu ve třech vegetačních patrech. Původní data nahradíme pořadím

I po průkazném K-W testu Mohu užít mnohonásobná porovnání - testuji, které skupiny se liší průměrným pořadím.