Quantitative Data Analysis II.

Slides:



Advertisements
Podobné prezentace
Statistické testy z náhodného výběru vyvozuji závěry ohledně základního souboru často potřebuji porovnat dva výběry mezi sebou, porovnat průměr náhodného.
Advertisements

Testování parametrických hypotéz
Jiří Šafr jiri.safr(AT)seznam.cz Poslední aktualizace 11/3/2014
Neparametrické metody a analýza rozptylu (lekce 3-7)
Testování neparametrických hypotéz
Analýza kvantitativních dat II.
Testování statistických hypotéz
Analýza kvantitativních dat: 1. Popisné statistiky a testování hypotéz
Chováme králíčky Liší se tato tři králičí plemena hmotností?
Analýza variance (Analysis of variance)
Statistika II Michal Jurajda.
Testování hypotéz vymezení důležitých pojmů
MUDr. Michal Jurajda, PhD. ÚPF LF MU
Řízení a supervize v sociálních a zdravotnických organizacích
SUMMARY. critical region Z* Z-critical value Decision errors Type I: you reject the null, but you shouldn't. (α) Type II: You do not reject the null,
Inference jako statistický proces 1
Odhady parametrů základního souboru. A) GNR B) neznámé r. ZS (přesné parametry) : ,   VS (odhady parametrů): x, s x.
Kurz SPSS : Jednoduchá analýza dat 1
Testy významnosti Karel Mach. Princip (podstata): Potvrzení H O Vyvrácení H O →přijmutí H 1 (H A ) Ptáme se:  1.) Pochází zkoumaný výběr (jeho x, s 2.
Lineární regresní model Statistická inference Tomáš Cahlík 4. týden.
Lineární regrese.
Lineární regresní analýza
Biostatistika 6. přednáška
Biostatistika 7. přednáška
Kontingenční tabulky.
Ekonometrie „ … ekonometrie je kvantitativní ekonomická disciplína, která se zabývá především měřením v ekonomice na základě analýzy reálných statistických.
ODDS RATIO Relationships between categorical variables in contingency table Jiří Šafr jiri.safr(AT)seznam.cz updated 29/12/2014 Quantitative Data Analysis.
Pohled z ptačí perspektivy
V. Analýza rozptylu ANOVA.
Jiří Šafr jiri.safr(AT)seznam.cz Poslední aktualizace 11/3/2014
Praktikum elementární analýzy dat Třídění 2. a 3. stupně UK FHS Řízení a supervize (LS 2012) Jiří Šafr jiri.safr(zavináč)seznam.cz poslední aktualizace.
8. Kontingenční tabulky a χ2 test
Statistická významnost a její problémy
Biostatistika 8. přednáška
Analýza kvantitativních dat II.
RNDr. Monika Pávková Goldbergová
Třídění 2. a 3. stupně: orientační mapa možností bivariátních analýz
Quantitative Data Analysis II.
Quantitative Data Analysis II.
ADDS cviceni Pavlina Kuranova. Testy pro dva nezávislé výběry Mannův Whitneyho test - Založen na Wilcoxnově statistice W - založen na pořadí jednotlivých.
Základy testování hypotéz
PSY117/454 Statistická analýza dat v psychologii II Seminář 7 - 8
Course Outline1. Instructor: Martin Hála, PhD. Mathematics DPT, B105,  Further information and downloads on my personal website:
Testování hypotéz Testování hypotéz o rozdílu průměrů  t-test pro nezávislé výběry  t-test pro závislé výběry.
Testování hypotéz Otestujte,… Ověřte,… Prokažte,… že střední věk (tj.  ) …činí 40 let (= 40) …je alespoň 40 let (≥ 40)
INDUKTIVNÍ STATISTIKA
PSY117 Statistická analýza dat v psychologii Přednáška
Historická sociologie
Statistické testování – základní pojmy
Dvoufaktorová analýza rozptylu
Přednáška č. 3 – Posouzení nahodilosti výběrového souboru
Induktivní statistika
TESTOVÁNÍ STATISTICKÝCH HYPOTÉZ
- váhy jednotlivých studií
Induktivní statistika
Regresní analýza výsledkem regresní analýzy je matematický model vztahu mezi dvěma nebo více proměnnými snažíme se z jedné proměnné nebo lineární kombinace.
Úvod do statistického testování
ORDINÁLNÍ VELIČINY Měření variability ordinálních proměnných
PSY117 Statistická analýza dat v psychologii Přednáška
Neparametrické testy pro porovnání polohy
Úvod do induktivní statistiky
T-testy, neparametrické metody a analýza rozptylu (lekce 5-6)
Statistika a výpočetní technika
Analýza kardinálních proměnných
Lineární regrese.
7. Kontingenční tabulky a χ2 test
Induktivní statistika
Summary.
Základy statistiky.
NOMINÁLNÍ VELIČINY Odhad hodnoty pravděpodobnosti určitého jevu v základním souboru Test hodnoty pravděpodobnosti určitého jevu v základním souboru Srovnání.
Transkript prezentace:

Quantitative Data Analysis II. UK FHS Historical sociology (2014+) Quantitative Data Analysis II. Statistical hypothesis testing (1): principles and tests for numerical variables Jiří Šafr jiri.safr(AT)seznam.cz Last modified 9/12/2014 ® Jiří Šafr, 2014

CONTENT Principles of statistical hypothesis testing General procedure of confirmation/rejection null hypothesis For numerical variables 2. Z-test 3. Testing hypotheses of two means differences (T-tests) a simple analysis of variance ANOVA (F-test) 4. 3-fold data sorting and elaboration (some notes) 5. Nonparametric tests 6. Tools for analysis on Web

Principles of statistical hypothesis testing

Why do we test hypotheses? (statistical induction) Because we (mostly) operate only with sample data (data from sample surveys) → we need to know, whether (and to which extent) results (parameter estimates) we have measured in the sample are valid in whole population, i.e. whether results from the sample can be generalised to the population. Sourse: [Příručka pro sociology 1980: 218-220]

Statistical criteria and hypothesis testing To test the null hypothesis we use specific random quantity - test statistic (criteria) (K), which exact distribution is known (i.e. we can find it in statistical tables). Which criterion to use it depends (not only) on level of variable measurement. For this statistic K we choose critical area of a distribution – values of test statistic criteria, for which we reject null hypothesis. Point K is the critical value (Kkr) when it separates region of rejection from, area where we accept the hypothesis. Přijetí/odmítnutí hypotézy provádíme na základě odpovídajícího statistického kriteria s určitou pravděpodobností. Rejection region Reject H0 Accept H0 Reject H0 Zdroj: [Příručka pro sociology 1980: 218-220]

Statistická kritéria a ověřování hypotéz We assume, that the null hypothesis is true when, probability of the fact that, criterion K will have higher value* than Kkr (i.e. it will be within the critical region) equals to chosen probability → level of statistical significance * for Two-tailed tests in absolute terms Zdroj: [Příručka pro sociology 1980: 218-220]

General principle of acceptance/ rejection of the null hypothesis We select adequate criterion (according the type of variable), We compute observed value KH (from observed empirical data), We choose level of statistical significance (mostly 0,05 or more strict 0,01) In 0the statistical tables we find values of criterion K for chosen level of significance we find critical point KKR If: KH > Kkr → we can‘t confirm (we „reject“) H0 KH < Kkr → we can‘t reject H0 (it is „true“). Alternatively suing statistical software we can compute p-value (see later). We cant use this procedure automaticaly and mechanicaly, because …

Statistická hypotéza je tvrzení o  rozdělení pozorované náhodné veličiny, např. o rozdělení nějaké statistiky (parametru jako průměr, podíl, rozptyl) náhodného výběru. Pokud rozdělení výběrové statistiky známé, pak lze hypotézu formulovat přímo jako tvrzení o hodnotě parametru příslušného rozdělení (např. že určitá politická strana má podporu 25 %). Hypotéza se týká celého základního souboru, z nějž jsme vybírali (nebo který experimentálně zkoumáme), např. všech dospělých osob v ČR, ale její testování se odehrává pouze na vybraných jedincích, které jsme skutečně zkoumali. Smyslem testování je správně zobecnit z vybrané podmnožiny (výběru) na celek. [Soukup 2010: 79]

Research and Statistical (Null) hypothesis Null hypothesis (H0) A statement of “no difference” that contradicts the research hypothesis and is always expressed in terms of population parameters. Research hypothesis (H1) A statement reflecting the substantive hypothesis. It is always expressed in terms of population parameters, but its specific form varies from test to test. Source: [Leon-Guerrero, Frankfort-Nachmias 2012: 160-161

Testování statistických hypotéz Z výběrových dat vypočteme testovou statistiku na základě porovnání s kvantily rozdělení této statistiky (za předpokladu platnosti nulové hypotézy) zjistíme, zda je na zvolené hladině spolehlivosti možno nulovou hypotézu zamítnout. [Soukup 2010: 79]

H0 rejection: Observed and Critical Value If the calculated value from the statistical test is less than the critical value, then you fail to reject the null hypothesis. Obtained (observed) test statistic < critical (tabulated) value → we can‘t reject H0 → „there are no differences within the population“ (at chosen significance level) K testování hypotéz podrobněji viz [Hendl 2006: 176-188]

Testování hypotéz Statistical hypothesis H0: „no difference“ (variability in sample data is merely random) → via test we assess power of úroof against this assumption H1: alternative, is true, when H0 is rejected „there exist differences / dependencies“ Level of significance α = probability that we will reject H0, when it is in fact true. → „level of our willingness to reconcile with presence of error in our results“. Usually it is arbitrary set to 0,05 or 0,01, which is only convention. Hodnota významnosti p - pravděpodobnost realizace hodnoty testovací statistiky, pokud platí H0. Dosažená hladina hodnoty p < α ukazuje na neplatnost H0. Hodnota p-value vyjadřuje nejmenší hodnotu α, při které ještě zamítneme H0 a přijmeme H1 (alternativní hypotézu).

Platnost hypotéz o základním souboru a možná rozhodnutí na základě testování chyba I. druhu → když je nulová hypotéza zamítnuta, přestože H0 platí. chyba II. druhu → když nulová hypotéza zamítnuta není, přestože neplatí. Kvalita testu je dána pravděpodobnostmi, s jakými tyto chyby mohou nastat (α a β v  tabulce). Pro výběrový soubor nelze současně minimalizovat pravděpodobnosti obou druhů chyb. Proto se statistici rozhodli omezit riziko chyby prvního druhu na rozumnou velikost, nejčastěji na 5 % (α = 0,05). Chyba I. druhu → H0 ve skutečnosti-v populaci platí, ale my jí ale zamítneme. Chyba II druhu → H0 neplatí, ale my jí nezamítneme (přijmeme). [Soukup 2010: 80]

Testování hypotéz Zamítání nulové hypotézy se tedy děje nejčastěji s  5% rizikem, tj. stanovujeme pravděpodobnost zamítání nulové hypotézy při její platnosti v  základním souboru na maximální hodnotu 0,05. Protože chybu druhého druhu nemáme jasně pod kontrolou, volíme v případě, že nedokážeme na základě hodnoty testové statistiky zamítnout nulovou hypotézu, opatrný závěr: „nezamítáme H0“ místo závěru „zamítáme H1 a přijímáme H0“. [Soukup 2010: 80]

Normální rozložení ukazující hladinu významnosti α = 0,05 Hladinou významnosti rozumíme pravděpodobnost zamítnutí nulové hypotézy, pakliže ve skutečnosti (v základním souboru-populaci) platí. Pokládat hodnotu za významnou na hladině 0,05 znamená, že má pravděpodobnost 0,05 nebo menší, že se vyskytne na jednom z konců normálního rozložení. Poněvadž je rozložení symetrické, jsou oba konce rozložení stejné a hladina významnosti 0,05 znamená useknutí konců ukázané v grafu → vyšrafovaná plocha je pravděpodobnost 0,05/2 = 0,025. Hladina významnosti 0,05 znamená, že u 100 výběrů bude mít 5 z nich větší než očekávanou hodnotu pozorovaného rozdílu způsobenou náhodně. [Köniová a kol. 1988: 140]

Co znamená „statisticky významný výsledek“? Tvrzeni, že výsledky jsou statisticky významné na hladině a = 0,05 má přesně tento (a žádný jiný) význam [Rabušic, Soukup 2007: 381]: U náhodného reprezentativního výběru znamená, že riziko nesprávného zobecnění z náhodného reprezentativního výběru na cely základní soubor je nejvýše 0,05 (tj. 5 %). Např. riziko, že v základním souboru studentů není procento spokojenosti vyšší než 50 %. Jde o riziko tzv. chyby I. druhu, že nesprávně zamítneme statistickou nulovou hypotézu H0. Tj. zde hypotézu, že rozdíl mezi skutečným procentem spokojených v základním souboru a zadaným procentem 50 % je nulový. Chybně zamítneme hypotézu, že rozdíl mezi hodnotou u výběru (60 %) a pesimisticky předpokládanou možnou hodnotou v základním souboru (50 %) je jen náhodný. Tedy chybně učiníme závěr, že z výběru lze provést zobecnění (zde zobecnění, že v souboru studentů je počet spokojených větší než 50 %). Statistická významnost tedy znamená pouze, že výsledek je „‚statisticky zobecnitelný z reprezentativního-randomizovaného výběru na základní soubor, a to se zvoleným rizikem. [Blahuš 2000]

Limits of statistical hypothesis testing p-values do not give evidence of the strength of the evidence → apart from other things they are dependent on the sample size! Not rejecting the H0 doesn't imply its proof.

Statistická indukce a testování hypotéz → zobecňování výsledků z výběrového souboru na základní soubor Při tom musí být splněny předpoklady: velkého náhodného výběru (n > 30) z dostatečně velké populace (min 100x větší než plánovaný vzorek), musí jít o výběr, pro celou populaci (census) nedává smysl Podrobně viz [Soukup, Rabušic 2007].

Statistická významnost a síla testu H0 platí H0 neplatí Nezamítne H0 1-  Chyba II. druhu Zamítne H0  Chyba I. druhu 1- Síla Chyba I. druhu. Hodnota  je pravděpodobnost zamítnutí nulové hypotézy za předpokladu, že ona platí. Chyba II. druhu. Hodnota  je pravděpodobnost nezamítnutí nulové hypotézy za předpokladu, že ona neplatí. Síla testu nebo-li 1- je pravděpodobnost zamítnutí nulové hypotézy za předpokladu, že ona neplatí.

Síla testu Síla testu (S) = 1 - , tj. jako pravděpodobnost, že test správně zamítne hypotézu, která ve skutečnosti neplatí.

Síla testu je určena třemi faktory Velikostí účinku (ES): hodnota efektu (např. rozdíl mezi průměry nebo velikost korelace mezi proměnnými). Alfa (): volba menší hodnoty, čím menší tak zmenšujeme sílu. Nejčastěji  = 0.05. Velikost výběru: větší výběr → větší síla. Proto při velkých výběrech i malou odchylku hodnotíme jako statisticky významnou. A na to pozor!

Velikost chyby I. a II. druhu Velikost chyby I. a II. druhu a síly testu je spolu úzce provázána. Pokud vzrůstá velikost jedné chyby, klesá velikost druhé a naopak. Jejich vzájemný vztah je také ovlivněn velikostí výběru a velikostí efektu:

Statistical tests are Most common statistical tests (on the basis of the test criterion): 1. Parametric tests – they are dependent on assumptions about parameters of population, tested variable features normal distribution in the population : Z-test → means comparison, if the population StD is known T-test → means comparison, if the population StD is unknown F-test → variance comparison (for more than 2 catagories Oneway ANOVA) 2. Non-parametric tests – not so dependent to assumptions about the population/sample distribution: Chi-square, Komolgor-Smirnov distribution in 2populations, Mann-Whitney test (Independent-samples t-test for median in two sub-populations) Wilkoxnův, … The test choice and its application depends (not only) on type of the dependent variable.

Statistical tests can be One-tailed → directional hypothesis: we test whether value is on the left or right, i.e. either higher or lower from specific (theoretical) value Two-tailed → non-directional hypothesis: deviation from H0 regardless of the direction (higher or lower value) For the following examples we will use two-tailed method.

We will explain the principle of testing hypothesis on Z-test Testing hypotheses about statistically significant differences between two arithmetic means and variances We will explain the principle of testing hypothesis on Z-test

Z-test → normal distribution Useful for testing many parameters of numeric variables (means, but also differences of in values, proportions or correlation coefficients) Assumptions : Random sample, sample size > 30, normal distribution and the population standard deviation is known. Sample X (observed value) – Population (tested) μ (expected value) mean observed value – specific (theoretical) value Z = –––––––––––––––––––––––––––––––––– standard error of observed value If we don‘t know population StD, we can substitute it with sampling StD/ square root of sample size, i.e. standard error (SE). If obtained (testing) value < critical (tabular) value → we can‘t reject H0 (but don‘t say „we confirm“ H0)

Standard normal distribution → Z-scores Standard normal distribution N(0;1) has parameters: Mean µ =0 Standard deviation σ = 1 (here: mean = median = modus) Multiples of Standard deviation α   10% 5% 1% z α/2 z.1 z.05 z.025 z.01 z.005 z.001 z.0005 Z 1.282 1.645 1.960 2.326 2.576 3.090 3.291 http://www.stat.tamu.edu/~west/applets/ci.html

Example: Z-test (population variance is unknown) Empirical value Z is higher than both critical values (1,96 for α = 5 % and 2,58 for α = 1 %), therefore we can‘t confirm (we reject) null hypothesis. Německé abstrakty jsou statisticky významně kratší než všechny abstrakty. Zdroj: [Köniová a kol. 1988: 149]

Z-test Very easy to compute, it is versatile It can be used to test for example: Mean value in sample Comparison of proportion with specific (theoretical) value Comparison of two proportions (p1-p2) But also for comparison of two correlation coefficients It assumes normal distribution of values and large sample (asymptotic method)

T-test → modification of Z-test If we don‘t know standard deviation in the population, we can estimate it using sample standard deviation (as measured in our sample) and sample size is small then we use instead of Z-distribution (normal) Student's t distribution. Its a distribution (shape) depends on degrees of freedom (df), df = n – 1. → tabulated values (for df and chosen level of statistical significance (again distinguishing one-tailed and two-tailed) are compared with the obtained value Ověřovat pomocí T-testu můžeme: rozdíl naměřené hodnoty vůči určité hodnotě (teoretické, nebo naměřené v jiném souboru, např. čase/zemi) (one-sample location test) zda dva průměry jsou ve dvou (či více) sub-populacích stejné (two-sample location test) zda se průměrný rozdíl mezi dvěma proměnnými u stejných případů rovná nule (paired nebo repeated measures t-test) (v regresní analýze, zda se regresní koeficient (tj. sklon regr. přímky) lišší od nuly). As the df/sample size increases shape of the t- distribution gets closer to the normal distribution.

T-test: testing means One-sample t-test → testing the null hypothesis that the population mean is equal to a specified value μ0 . Hypotézou je, že střední hodnota normálního rozdělení (průměr), z něhož výběr pochází, se rovná μ0. (Example: H0: sample estiamte of mean income is not different from specific value 10.500.) T-TEST /TESTVAL 10.5 /VARIABLES income. Pair-sampled t-test comparison of means in dependent samples, i.e. when each observation is in a pair (the variables are dependent - correlated). Nejčastěji jde o zjišťování velikosti či obměny znaku u téže osoby ve dvou časových okamžicích (např. názor před a po shlédnutí filmu). A nebo porovnání průměrů u dvou věcně „srovnatelných“ proměnných, tj. hodnoty musí mít stejný rozsah. Např. intenzita sledování TV (q1_a) a intenzita chození do kina (q1_b) (H0: Průměry sou shodné.) T-TEST PAIRS q1_a WITH q1_b (PAIRED). Independent-samples t-test → comparison of two means in independent samples, i.e. test of difference between mean values between two groups (along the categories of independent dichotomous variable) Example: Income (income) along gender (S30) (H0: Means difference in soubgroups is zero.) First wee need to test equality of the variances in subgroups (F- test) → there are different methods for computing t-test for 1 = 2 and 1  2. T-TEST GROUPS s30(1 2)/ VARIABLES income.

One-sample t-test Non-directional (2-tailed) Output from SPSS T-TEST /TESTVAL 10.5 /VARIABLES income. H0: Mean of income (in the sample data) is 10,500 CZK. Obtained test value t Výsledek testu (nezamítnutí H0) potvrzuje i to, že interval spolehlivosti pro rozdíl X a X=10,5 tis. obsahuje nulu. Alternative method – comparison with critical tabulated value: t1-α/2 (n) Student t distribution H0 can‘t be rejected: obtained level of statistical significance p is higher than 0,05 (and 0,01). Obtained test value (0,960) < critical-tabulated value 1,644) → we can‘t reject H0 Mean value of income in the sample 10 720 CZK is not different (statistically significant at p < 0,01) from tested-theoretical value 10,500 CZK. The difference 220 CZK is due to random disturbances and can‘t be generalized from the sample to the population. T-TEST /TESTVAL 13 /VARIABLES income. H0: Mean of income (in the sample data) is 13,000 CZK. We reject H0: obtained level of statistical significance p is lower than 0,05 and even 0,01. Hodnota průměrného příjmu ve výběru 10 720 Kč se statisticky významně (na p < 0,01) liší od testované-teoretické hodnoty 13 tis. Kč. Rozdíl 2280 Kč je nenáhodný. vypočítaná testová (|-9,964|) > kritická-tabulková 1,644) hodnota → H0 zamítáme interval spolehlivosti pro rozdíl X a X=13 tis. neobsahuje nulu. Zdroj: data ISSP 2007, ČR

Pair-sampled t-test Non-directional (2-tailed) Output from SPSS T-TEST PAIRS q1_a WITH q1_b (PAIRED). H0: Average frequency of watching TV and going to cinema is the same (within one sample). Alternative method – comparison with critical tabulated value: t1-α/2 (n) Student t distribution H0 is rejected: obtained level of statistical significance p is lower than 0,05 and even 0,01. Průměrná frekvence sledování TV a chození do kina se statisticky významně (na p < 0,01) odlišuje. Rozdíl 3 bodů (na 5ti bodové škále intenzity trávení volného času) není způsoben náhodnými vlivy, lze ho tedy zobecnit z výběru na populaci. Zdroj: data ISSP 2007, ČR

Independent-samples t-test Non-directional (2-tailed) Output from SPSS T-TEST GROUPS s30(1 2)/ VARIABLES income. H0: Mean income of men and women is not different, i.e. the income difference is zero. 1. step: Test of variances equality (F-test) Alternative method – comparison with critical tabulated value: t1-α/2 (n) Student t distribution H0 is rejected: obtained level of statistical significance p is lower than 0,05 and even 0,01. Výsledek testu (zamítnutí H0) potvrzuje i to, že interval spolehlivosti pro rozdíl X muži a X ženy neobsahuje nulu. Hodnota průměrného příjmu v sub-populaci mužů 12 930 Kč se statisticky významně (na p < 0,01) liší od průměrného příjmu žen 9 060 Kč. Rozdíl v příjmech 3 870 Kč není způsoben náhodnými vlivy a lze ho zobecnit z výběru na populaci. Expansion of it for independent Variable with 3 and more categories is simple - Oneway analysis of variance using F-test (in SPSS OneWay ANOVA). Zdroj: data ISSP 2007, ČR

F-test and Analysis of variance F-test - alternativní metoda pro srovnání výběrů pomocí podílu jejich rozptylů. (Předchozí testy T-testy a Z-test byly založeny na rozdílech průměru a směrodatné odchylky.) (připomeňme si: rozptyl = součet čtverců rozdílů jednotlivých pozorování od průměru) Analysis of variance with simple design (one-way ANOVA): zkoumá rozdíly průměrů závislé (kardinální-číselné) proměnné mezi několika skupinami danými jednou nezávislou kategoriální proměnnou (tzv. faktorem). Pokud má faktor jen dvě kategorie pak je test totožný s dvouvýběrovým T-testem. Jsou tyto skupiny shodné nebo průměry tvoří nějaké identifikované shluky? H0: všechny průměrné hodnoty jsou v jednotlivých (sub)populacích stejné. Princip: rozdělíme celkový rozptyl závisle proměnné na variabilitu uvnitř skupin (→ jak se každá hodnota ve skupině liší od skupinového průměru; residuální variabilita) a variabilitu mezi skupinami (→ jak se navzájem liší skupinové průměry, tj. porovnání všech skupinových průměrů s celkovým průměrem ze všech pozorování). ST = SE + SA neboli Celkový součet čtverců = součet čtverců uvnitř skupin + součet čtverců mezi výběry Pokud skutečně neexistuje žádný rozdíl mezi skupinovými průměry, pak variabilita mezi skupinami i variabilita uvnitř skupiny reprezentují stejný jev - stejný populační rozptyl. Porovnání variability v rámci skupiny a mezi skupinami se provádí pomocí F testu. Testové kritérium F (rozklad součtu čtverců odchylek měření od společného průměru) srovnáme s tabulkovým F-rozdělením. vážený rozptyl mezi průměry skupin F = ––––––––––––––––––––––––––––––– rozptyl mezi jedinci ve stejné skupině Zdroj: podle [Königová et al. 1988: 154; Hendl 2006: 349-353]

Analysis of variance (one-way ANOVA): Simultaneous comparison among the groups (post-hoc tests) F-test considers only global hypothesis – „means are among the groups along the factor the same“. However we don't know, which groups and even how many of them are possibly different. That's why we in the next step we complete multiple comparisons, i.e. we compare each pair of means: mostly via Post-hoc tests or using inspection of confidence intervals. Post-hoc tests use adjusted level of statistical significance: the more comparisons (groups along the factor), the more we need to have lower (more rigorous) level of α. Jejich cílem je udržet danou hladinu pravděpodobnosti chyby prvního druhu α (5 %) tak, že ji rozdělí mezi všechna porovnání. Některé z těchto testů jsou velmi konzervativní. Může se stát, že F test zamítne hypotézu o rovnosti průměrů, a přitom žádná dvojice průměrů se od sebe podle výsledků metod mnohonásobného porovnávání navzájem významně neliší! There are several variants (Typically it is adjusted Independent-samples T-test): Bonferroni (conservative), Fisher‘s LSD – least significant difference (the most liberal), Tukey, Duncan etc. Zdroj: podle [Hendl 2006: 354-356; Zvárová 2009: kap. 12]

Analysis of variance ANOVA (F-test) (in SPSS ONEWAY ANOVA) ONEWAY income BY educ4 / STATISTICS DESCRIPTIVES /POSTHOC = BONFERRONI. H0: The mean income is not different among educational categories. 2. step: Post Hoc Tests → Které kategorie se statisticky významně významně odlišují? Bonferroniho test je jednoduchý a konzervativní - přísný; použít lze i jiné testy (LSD, Tukey atd.). 1. step: F-Test (test H0) Hodnota průměrného příjmu se statisticky významně (na p < 0,01) liší podle úrovně vzdělání. Minimálně jedna kategorie se liší od ostatních. Rozdíly v příjmu nejsou způsobeny náhodnými vlivy a lze je zobecnit z výběru na populaci. Následný Post-hoc test (Bonferroniho nerovnost) ukazuje, že od všech ostatních stupňů se odlišuje pouze příjem ZŠ (platí pro p < 0,05). H0 is rejected: obtained level of statistical significance p is lower than 0,05 and even 0,01. Znázorněno graficky (shoda průměrů): ZŠ VY SŠ VŠ Identifikovat statisticky významné rozdíly můžeme také pomocí intervalů spolehlivosti a ty zobrazit v grafu (ERRORBAR). Zdroj: data ISSP 2007, ČR

It is nonlinear correlation coefficient, which ranges between 0–1. Analysis of variance (one-way ANOVA): Effect size (extent of dependency) Effct of dependent variable on independent variable (effect size) can be (within the ANOVA) method expressed as coefficient Eta2 (Eta-squared) η2 = SA / ST = Between-Groups Sum of Squares / Total Sum of Squares It is nonlinear correlation coefficient, which ranges between 0–1. It says, how much variability of the dependent variable is explained by the factor (indep. var.). It enables comparison of effects of different factors (variables) or comparison of the factor in different environment. Zdroj: podle [Hendl 2006: 356]

Eta2 = Between Groups SS / Total SS Analysis of variance ANOVA s Eta2 in SPSS in MEANS (possibly in CROSSTABS) Eta2 is not in One-Way, but can be easily computed by hand. Oneway ANOVA can be run via MEANS (STATISTICS = ANOVA), where we get Eta2. MEANS income BY educ4 /STATISTICS ANOVA. H0: The mean income is not different among educational categories. Eta2 = Between Groups SS / Total SS = 2785,592 / 37591,231 = 0,0741 Zdroj: data ISSP 2007, ČR

Statistical tests for categorical variables Testing Distribution of data within categories for one variable and test of two variables association (Chi-square tests) see presentation http://metodykv.wz.cz/QDA2_hypotheses1.ppt

Neparametrické testy (Non-parametric Tests) Parametrické metody předpokládají: náhodný výběr, normální rozdělní (distribuce znaku), velké výběry z populace, známé (shodné) rozptyly v sub/populacích, z nichž byl proveden výběr Neparametrické metody: - nezávislé na rozdělní - méně citlivé na odchylky extrémních hodnot i pro výběry velmi malého rozsahu vhodné pro nominální i ordinální znaky Ale dochází častěji k chybnému nezamítnutí nepravdivé H0. Např. Chí-kvadrát testy, binomický test, testy středních hodnot (Mann-Whitney, Kruskal-Wallis atd.)

Principy viz prezentace: S tříděním druhého stupně bychom se neměli spokojit. → třídění třetího stupně a elaborace vztahů: statistický test provedeme nejen za celek ale také zvlášť v každé kategorii třetí - kontrolní proměnné. Principy viz prezentace: Kontingenční tabulka: vztahy mezi kategorizovanými znaky - míry asociace/korelace, znaménkové schéma (AKD2_kontg_tab2.ppt) a Standardizace v kontingenční tabulce – kontrola vlivu 3 faktoru (AKD2_kontg_tab_standardizace.ppt)

Vyloučení (posouzení) vlivu třetí proměnné → Třídění 3 stupně Kontingenční tabulka A x B x C Příklad pro tři proměnné: Volil (závislá) x VŠ (nezávislá-vysvětlující) x Pohlaví (nezávislá kontrolní) → Sledujeme vztah mezi A a B odděleně v kategoriích C, nejjednodušeji pomocí koeficientů asociace/korelace (kontingenční koef., Cramérovo V, Phi,… pořadové korelace Spermanovo Rho, TauB), detailněji pak klasicky % rozdíly mezi kategoriemi nebo adjustovaná residua. Parciální korelace – pro spojité proměnné Multivariační metody (např. regresní analýza, vícerozm. analýzu rozptylu ANOVA)

Web tools for statistical analysis Index of On-line Stats Calculators http://www.physics.csbsju.edu/stats/Index.html Exact r×c Contingency Table: http://www.physics.csbsju.edu/stats/exact_NROW_NCOLUMN_form.html Statistical Calculations http://statpages.org/ R. Webster West applets http://www.stat.tamu.edu/~west/ http://www.stat.tamu.edu/~west/ph/ Textbooks: StatSoft - Elektronická učebnice statistiky (in english) http://www.statsoft.com/textbook/ Statnotes: Topics in Multivariate Analysis, by G. David Garson http://faculty.chass.ncsu.edu/garson/PA765/index.htm Interstat - hypertext interactive textbook of statistics for economist http://www.stahroun.me.cz/interstat/ (in czech only)

Readings / references De Vaus, D. A. 1986. Surveys in Social Research. London: George Allen & Unwin (Publishers) Ltd. Hendl, J. (2006) 2009. Přehled statistických metod. Praha: Portál. Leon-Guerrero, Anna, Chava Frankfort-Nachmias. 2012. Essentials of social statistics for a diverse society. Thousand Oaks (Calif.): SAGE Publications. Zvárová, J. 1999. Základy statistiky pro biomedicínské obory. [on-line] Dostupné na http://new.euromise.org/czech/tajne/ucebnice/html/html/statist.html