Prezentace se nahrává, počkejte prosím

Prezentace se nahrává, počkejte prosím

Quantitative Data Analysis II.

Podobné prezentace


Prezentace na téma: "Quantitative Data Analysis II."— Transkript prezentace:

1 Quantitative Data Analysis II.
UK FHS Historical sociology (2014+) Quantitative Data Analysis II. Statistical hypothesis testing (1): principles and tests for numerical variables Jiří Šafr jiri.safr(AT)seznam.cz Last modified 9/12/2014 ® Jiří Šafr, 2014

2 CONTENT Principles of statistical hypothesis testing
General procedure of confirmation/rejection null hypothesis For numerical variables 2. Z-test 3. Testing hypotheses of two means differences (T-tests) a simple analysis of variance ANOVA (F-test) 4. 3-fold data sorting and elaboration (some notes) 5. Nonparametric tests 6. Tools for analysis on Web

3 Principles of statistical hypothesis testing

4 Why do we test hypotheses? (statistical induction)
Because we (mostly) operate only with sample data (data from sample surveys) → we need to know, whether (and to which extent) results (parameter estimates) we have measured in the sample are valid in whole population, i.e. whether results from the sample can be generalised to the population. Sourse: [Příručka pro sociology 1980: ]

5 Statistical criteria and hypothesis testing
To test the null hypothesis we use specific random quantity - test statistic (criteria) (K), which exact distribution is known (i.e. we can find it in statistical tables). Which criterion to use it depends (not only) on level of variable measurement. For this statistic K we choose critical area of a distribution – values of test statistic criteria, for which we reject null hypothesis. Point K is the critical value (Kkr) when it separates region of rejection from, area where we accept the hypothesis. Přijetí/odmítnutí hypotézy provádíme na základě odpovídajícího statistického kriteria s určitou pravděpodobností. Rejection region Reject H0 Accept H0 Reject H0 Zdroj: [Příručka pro sociology 1980: ]

6 Statistická kritéria a ověřování hypotéz
We assume, that the null hypothesis is true when, probability of the fact that, criterion K will have higher value* than Kkr (i.e. it will be within the critical region) equals to chosen probability → level of statistical significance * for Two-tailed tests in absolute terms Zdroj: [Příručka pro sociology 1980: ]

7 General principle of acceptance/ rejection of the null hypothesis
We select adequate criterion (according the type of variable), We compute observed value KH (from observed empirical data), We choose level of statistical significance (mostly 0,05 or more strict 0,01) In 0the statistical tables we find values of criterion K for chosen level of significance we find critical point KKR If: KH > Kkr → we can‘t confirm (we „reject“) H0 KH < Kkr → we can‘t reject H0 (it is „true“). Alternatively suing statistical software we can compute p-value (see later). We cant use this procedure automaticaly and mechanicaly, because …

8 Statistická hypotéza je tvrzení o  rozdělení pozorované náhodné veličiny, např. o rozdělení nějaké statistiky (parametru jako průměr, podíl, rozptyl) náhodného výběru. Pokud rozdělení výběrové statistiky známé, pak lze hypotézu formulovat přímo jako tvrzení o hodnotě parametru příslušného rozdělení (např. že určitá politická strana má podporu 25 %). Hypotéza se týká celého základního souboru, z nějž jsme vybírali (nebo který experimentálně zkoumáme), např. všech dospělých osob v ČR, ale její testování se odehrává pouze na vybraných jedincích, které jsme skutečně zkoumali. Smyslem testování je správně zobecnit z vybrané podmnožiny (výběru) na celek. [Soukup 2010: 79]

9 Research and Statistical (Null) hypothesis
Null hypothesis (H0) A statement of “no difference” that contradicts the research hypothesis and is always expressed in terms of population parameters. Research hypothesis (H1) A statement reflecting the substantive hypothesis. It is always expressed in terms of population parameters, but its specific form varies from test to test. Source: [Leon-Guerrero, Frankfort-Nachmias 2012:

10 Testování statistických hypotéz
Z výběrových dat vypočteme testovou statistiku na základě porovnání s kvantily rozdělení této statistiky (za předpokladu platnosti nulové hypotézy) zjistíme, zda je na zvolené hladině spolehlivosti možno nulovou hypotézu zamítnout. [Soukup 2010: 79]

11 H0 rejection: Observed and Critical Value
If the calculated value from the statistical test is less than the critical value, then you fail to reject the null hypothesis. Obtained (observed) test statistic < critical (tabulated) value → we can‘t reject H0 → „there are no differences within the population“ (at chosen significance level) K testování hypotéz podrobněji viz [Hendl 2006: ]

12 Testování hypotéz Statistical hypothesis H0: „no difference“ (variability in sample data is merely random) → via test we assess power of úroof against this assumption H1: alternative, is true, when H0 is rejected „there exist differences / dependencies“ Level of significance α = probability that we will reject H0, when it is in fact true. → „level of our willingness to reconcile with presence of error in our results“. Usually it is arbitrary set to 0,05 or 0,01, which is only convention. Hodnota významnosti p - pravděpodobnost realizace hodnoty testovací statistiky, pokud platí H0. Dosažená hladina hodnoty p < α ukazuje na neplatnost H0. Hodnota p-value vyjadřuje nejmenší hodnotu α, při které ještě zamítneme H0 a přijmeme H1 (alternativní hypotézu).

13 Platnost hypotéz o základním souboru a možná rozhodnutí na základě testování
chyba I. druhu → když je nulová hypotéza zamítnuta, přestože H0 platí. chyba II. druhu → když nulová hypotéza zamítnuta není, přestože neplatí. Kvalita testu je dána pravděpodobnostmi, s jakými tyto chyby mohou nastat (α a β v  tabulce). Pro výběrový soubor nelze současně minimalizovat pravděpodobnosti obou druhů chyb. Proto se statistici rozhodli omezit riziko chyby prvního druhu na rozumnou velikost, nejčastěji na 5 % (α = 0,05). Chyba I. druhu → H0 ve skutečnosti-v populaci platí, ale my jí ale zamítneme. Chyba II druhu → H0 neplatí, ale my jí nezamítneme (přijmeme). [Soukup 2010: 80]

14 Testování hypotéz Zamítání nulové hypotézy se tedy děje nejčastěji s  5% rizikem, tj. stanovujeme pravděpodobnost zamítání nulové hypotézy při její platnosti v  základním souboru na maximální hodnotu 0,05. Protože chybu druhého druhu nemáme jasně pod kontrolou, volíme v případě, že nedokážeme na základě hodnoty testové statistiky zamítnout nulovou hypotézu, opatrný závěr: „nezamítáme H0“ místo závěru „zamítáme H1 a přijímáme H0“. [Soukup 2010: 80]

15 Normální rozložení ukazující hladinu významnosti α = 0,05
Hladinou významnosti rozumíme pravděpodobnost zamítnutí nulové hypotézy, pakliže ve skutečnosti (v základním souboru-populaci) platí. Pokládat hodnotu za významnou na hladině 0,05 znamená, že má pravděpodobnost 0,05 nebo menší, že se vyskytne na jednom z konců normálního rozložení. Poněvadž je rozložení symetrické, jsou oba konce rozložení stejné a hladina významnosti 0,05 znamená useknutí konců ukázané v grafu → vyšrafovaná plocha je pravděpodobnost 0,05/2 = 0,025. Hladina významnosti 0,05 znamená, že u 100 výběrů bude mít 5 z nich větší než očekávanou hodnotu pozorovaného rozdílu způsobenou náhodně. [Köniová a kol. 1988: 140]

16 Co znamená „statisticky významný výsledek“?
Tvrzeni, že výsledky jsou statisticky významné na hladině a = 0,05 má přesně tento (a žádný jiný) význam [Rabušic, Soukup 2007: 381]: U náhodného reprezentativního výběru znamená, že riziko nesprávného zobecnění z náhodného reprezentativního výběru na cely základní soubor je nejvýše 0,05 (tj. 5 %). Např. riziko, že v základním souboru studentů není procento spokojenosti vyšší než 50 %. Jde o riziko tzv. chyby I. druhu, že nesprávně zamítneme statistickou nulovou hypotézu H0. Tj. zde hypotézu, že rozdíl mezi skutečným procentem spokojených v základním souboru a zadaným procentem 50 % je nulový. Chybně zamítneme hypotézu, že rozdíl mezi hodnotou u výběru (60 %) a pesimisticky předpokládanou možnou hodnotou v základním souboru (50 %) je jen náhodný. Tedy chybně učiníme závěr, že z výběru lze provést zobecnění (zde zobecnění, že v souboru studentů je počet spokojených větší než 50 %). Statistická významnost tedy znamená pouze, že výsledek je „‚statisticky zobecnitelný z reprezentativního-randomizovaného výběru na základní soubor, a to se zvoleným rizikem. [Blahuš 2000]

17 Limits of statistical hypothesis testing
p-values do not give evidence of the strength of the evidence → apart from other things they are dependent on the sample size! Not rejecting the H0 doesn't imply its proof.

18 Statistická indukce a testování hypotéz
→ zobecňování výsledků z výběrového souboru na základní soubor Při tom musí být splněny předpoklady: velkého náhodného výběru (n > 30) z dostatečně velké populace (min 100x větší než plánovaný vzorek), musí jít o výběr, pro celou populaci (census) nedává smysl Podrobně viz [Soukup, Rabušic 2007].

19 Statistická významnost a síla testu
H0 platí H0 neplatí Nezamítne H0 1- Chyba II. druhu Zamítne H0 Chyba I. druhu 1- Síla Chyba I. druhu. Hodnota  je pravděpodobnost zamítnutí nulové hypotézy za předpokladu, že ona platí. Chyba II. druhu. Hodnota  je pravděpodobnost nezamítnutí nulové hypotézy za předpokladu, že ona neplatí. Síla testu nebo-li 1- je pravděpodobnost zamítnutí nulové hypotézy za předpokladu, že ona neplatí.

20 Síla testu Síla testu (S) = 1 - , tj. jako pravděpodobnost, že test správně zamítne hypotézu, která ve skutečnosti neplatí.

21 Síla testu je určena třemi faktory
Velikostí účinku (ES): hodnota efektu (např. rozdíl mezi průměry nebo velikost korelace mezi proměnnými). Alfa (): volba menší hodnoty, čím menší tak zmenšujeme sílu. Nejčastěji  = 0.05. Velikost výběru: větší výběr → větší síla. Proto při velkých výběrech i malou odchylku hodnotíme jako statisticky významnou. A na to pozor!

22 Velikost chyby I. a II. druhu
Velikost chyby I. a II. druhu a síly testu je spolu úzce provázána. Pokud vzrůstá velikost jedné chyby, klesá velikost druhé a naopak. Jejich vzájemný vztah je také ovlivněn velikostí výběru a velikostí efektu:

23 Statistical tests are Most common statistical tests (on the basis of the test criterion): 1. Parametric tests – they are dependent on assumptions about parameters of population, tested variable features normal distribution in the population : Z-test → means comparison, if the population StD is known T-test → means comparison, if the population StD is unknown F-test → variance comparison (for more than 2 catagories Oneway ANOVA) 2. Non-parametric tests – not so dependent to assumptions about the population/sample distribution: Chi-square, Komolgor-Smirnov distribution in 2populations, Mann-Whitney test (Independent-samples t-test for median in two sub-populations) Wilkoxnův, … The test choice and its application depends (not only) on type of the dependent variable.

24 Statistical tests can be
One-tailed → directional hypothesis: we test whether value is on the left or right, i.e. either higher or lower from specific (theoretical) value Two-tailed → non-directional hypothesis: deviation from H0 regardless of the direction (higher or lower value) For the following examples we will use two-tailed method.

25 We will explain the principle of testing hypothesis on Z-test
Testing hypotheses about statistically significant differences between two arithmetic means and variances We will explain the principle of testing hypothesis on Z-test

26 Z-test → normal distribution
Useful for testing many parameters of numeric variables (means, but also differences of in values, proportions or correlation coefficients) Assumptions : Random sample, sample size > 30, normal distribution and the population standard deviation is known. Sample X (observed value) – Population (tested) μ (expected value) mean observed value – specific (theoretical) value Z = –––––––––––––––––––––––––––––––––– standard error of observed value If we don‘t know population StD, we can substitute it with sampling StD/ square root of sample size, i.e. standard error (SE). If obtained (testing) value < critical (tabular) value → we can‘t reject H0 (but don‘t say „we confirm“ H0)

27 Standard normal distribution → Z-scores
Standard normal distribution N(0;1) has parameters: Mean µ =0 Standard deviation σ = 1 (here: mean = median = modus) Multiples of Standard deviation α 10% 5% 1% z α/2 z.1 z.05 z.025 z.01 z.005 z.001 z.0005 Z 1.282 1.645 1.960 2.326 2.576 3.090 3.291

28 Example: Z-test (population variance is unknown)
Empirical value Z is higher than both critical values (1,96 for α = 5 % and 2,58 for α = 1 %), therefore we can‘t confirm (we reject) null hypothesis. Německé abstrakty jsou statisticky významně kratší než všechny abstrakty. Zdroj: [Köniová a kol. 1988: 149]

29 Z-test Very easy to compute, it is versatile
It can be used to test for example: Mean value in sample Comparison of proportion with specific (theoretical) value Comparison of two proportions (p1-p2) But also for comparison of two correlation coefficients It assumes normal distribution of values and large sample (asymptotic method)

30 T-test → modification of Z-test
If we don‘t know standard deviation in the population, we can estimate it using sample standard deviation (as measured in our sample) and sample size is small then we use instead of Z-distribution (normal) Student's t distribution. Its a distribution (shape) depends on degrees of freedom (df), df = n – 1. → tabulated values (for df and chosen level of statistical significance (again distinguishing one-tailed and two-tailed) are compared with the obtained value Ověřovat pomocí T-testu můžeme: rozdíl naměřené hodnoty vůči určité hodnotě (teoretické, nebo naměřené v jiném souboru, např. čase/zemi) (one-sample location test) zda dva průměry jsou ve dvou (či více) sub-populacích stejné (two-sample location test) zda se průměrný rozdíl mezi dvěma proměnnými u stejných případů rovná nule (paired nebo repeated measures t-test) (v regresní analýze, zda se regresní koeficient (tj. sklon regr. přímky) lišší od nuly). As the df/sample size increases shape of the t- distribution gets closer to the normal distribution.

31 T-test: testing means One-sample t-test
→ testing the null hypothesis that the population mean is equal to a specified value μ0 . Hypotézou je, že střední hodnota normálního rozdělení (průměr), z něhož výběr pochází, se rovná μ0. (Example: H0: sample estiamte of mean income is not different from specific value ) T-TEST /TESTVAL 10.5 /VARIABLES income. Pair-sampled t-test comparison of means in dependent samples, i.e. when each observation is in a pair (the variables are dependent - correlated). Nejčastěji jde o zjišťování velikosti či obměny znaku u téže osoby ve dvou časových okamžicích (např. názor před a po shlédnutí filmu). A nebo porovnání průměrů u dvou věcně „srovnatelných“ proměnných, tj. hodnoty musí mít stejný rozsah. Např. intenzita sledování TV (q1_a) a intenzita chození do kina (q1_b) (H0: Průměry sou shodné.) T-TEST PAIRS q1_a WITH q1_b (PAIRED). Independent-samples t-test → comparison of two means in independent samples, i.e. test of difference between mean values between two groups (along the categories of independent dichotomous variable) Example: Income (income) along gender (S30) (H0: Means difference in soubgroups is zero.) First wee need to test equality of the variances in subgroups (F- test) → there are different methods for computing t-test for 1 = 2 and 1  2. T-TEST GROUPS s30(1 2)/ VARIABLES income.

32 One-sample t-test Non-directional (2-tailed) Output from SPSS
T-TEST /TESTVAL 10.5 /VARIABLES income. H0: Mean of income (in the sample data) is 10,500 CZK. Obtained test value t Výsledek testu (nezamítnutí H0) potvrzuje i to, že interval spolehlivosti pro rozdíl X a X=10,5 tis. obsahuje nulu. Alternative method – comparison with critical tabulated value: t1-α/2 (n) Student t distribution H0 can‘t be rejected: obtained level of statistical significance p is higher than 0,05 (and 0,01). Obtained test value (0,960) < critical-tabulated value 1,644) → we can‘t reject H0 Mean value of income in the sample CZK is not different (statistically significant at p < 0,01) from tested-theoretical value 10,500 CZK. The difference 220 CZK is due to random disturbances and can‘t be generalized from the sample to the population. T-TEST /TESTVAL 13 /VARIABLES income. H0: Mean of income (in the sample data) is 13,000 CZK. We reject H0: obtained level of statistical significance p is lower than 0,05 and even 0,01. Hodnota průměrného příjmu ve výběru Kč se statisticky významně (na p < 0,01) liší od testované-teoretické hodnoty 13 tis. Kč. Rozdíl 2280 Kč je nenáhodný. vypočítaná testová (|-9,964|) > kritická-tabulková 1,644) hodnota → H0 zamítáme interval spolehlivosti pro rozdíl X a X=13 tis. neobsahuje nulu. Zdroj: data ISSP 2007, ČR

33 Pair-sampled t-test Non-directional (2-tailed) Output from SPSS
T-TEST PAIRS q1_a WITH q1_b (PAIRED). H0: Average frequency of watching TV and going to cinema is the same (within one sample). Alternative method – comparison with critical tabulated value: t1-α/2 (n) Student t distribution H0 is rejected: obtained level of statistical significance p is lower than 0,05 and even 0,01. Průměrná frekvence sledování TV a chození do kina se statisticky významně (na p < 0,01) odlišuje. Rozdíl 3 bodů (na 5ti bodové škále intenzity trávení volného času) není způsoben náhodnými vlivy, lze ho tedy zobecnit z výběru na populaci. Zdroj: data ISSP 2007, ČR

34 Independent-samples t-test Non-directional (2-tailed) Output from SPSS
T-TEST GROUPS s30(1 2)/ VARIABLES income. H0: Mean income of men and women is not different, i.e. the income difference is zero. 1. step: Test of variances equality (F-test) Alternative method – comparison with critical tabulated value: t1-α/2 (n) Student t distribution H0 is rejected: obtained level of statistical significance p is lower than 0,05 and even 0,01. Výsledek testu (zamítnutí H0) potvrzuje i to, že interval spolehlivosti pro rozdíl X muži a X ženy neobsahuje nulu. Hodnota průměrného příjmu v sub-populaci mužů Kč se statisticky významně (na p < 0,01) liší od průměrného příjmu žen Kč. Rozdíl v příjmech Kč není způsoben náhodnými vlivy a lze ho zobecnit z výběru na populaci. Expansion of it for independent Variable with 3 and more categories is simple - Oneway analysis of variance using F-test (in SPSS OneWay ANOVA). Zdroj: data ISSP 2007, ČR

35 F-test and Analysis of variance
F-test - alternativní metoda pro srovnání výběrů pomocí podílu jejich rozptylů. (Předchozí testy T-testy a Z-test byly založeny na rozdílech průměru a směrodatné odchylky.) (připomeňme si: rozptyl = součet čtverců rozdílů jednotlivých pozorování od průměru) Analysis of variance with simple design (one-way ANOVA): zkoumá rozdíly průměrů závislé (kardinální-číselné) proměnné mezi několika skupinami danými jednou nezávislou kategoriální proměnnou (tzv. faktorem). Pokud má faktor jen dvě kategorie pak je test totožný s dvouvýběrovým T-testem. Jsou tyto skupiny shodné nebo průměry tvoří nějaké identifikované shluky? H0: všechny průměrné hodnoty jsou v jednotlivých (sub)populacích stejné. Princip: rozdělíme celkový rozptyl závisle proměnné na variabilitu uvnitř skupin (→ jak se každá hodnota ve skupině liší od skupinového průměru; residuální variabilita) a variabilitu mezi skupinami (→ jak se navzájem liší skupinové průměry, tj. porovnání všech skupinových průměrů s celkovým průměrem ze všech pozorování). ST = SE + SA neboli Celkový součet čtverců = součet čtverců uvnitř skupin + součet čtverců mezi výběry Pokud skutečně neexistuje žádný rozdíl mezi skupinovými průměry, pak variabilita mezi skupinami i variabilita uvnitř skupiny reprezentují stejný jev - stejný populační rozptyl. Porovnání variability v rámci skupiny a mezi skupinami se provádí pomocí F testu. Testové kritérium F (rozklad součtu čtverců odchylek měření od společného průměru) srovnáme s tabulkovým F-rozdělením. vážený rozptyl mezi průměry skupin F = ––––––––––––––––––––––––––––––– rozptyl mezi jedinci ve stejné skupině Zdroj: podle [Königová et al. 1988: 154; Hendl 2006: ]

36 Analysis of variance (one-way ANOVA): Simultaneous comparison among the groups (post-hoc tests)
F-test considers only global hypothesis – „means are among the groups along the factor the same“. However we don't know, which groups and even how many of them are possibly different. That's why we in the next step we complete multiple comparisons, i.e. we compare each pair of means: mostly via Post-hoc tests or using inspection of confidence intervals. Post-hoc tests use adjusted level of statistical significance: the more comparisons (groups along the factor), the more we need to have lower (more rigorous) level of α. Jejich cílem je udržet danou hladinu pravděpodobnosti chyby prvního druhu α (5 %) tak, že ji rozdělí mezi všechna porovnání. Některé z těchto testů jsou velmi konzervativní. Může se stát, že F test zamítne hypotézu o rovnosti průměrů, a přitom žádná dvojice průměrů se od sebe podle výsledků metod mnohonásobného porovnávání navzájem významně neliší! There are several variants (Typically it is adjusted Independent-samples T-test): Bonferroni (conservative), Fisher‘s LSD – least significant difference (the most liberal), Tukey, Duncan etc. Zdroj: podle [Hendl 2006: ; Zvárová 2009: kap. 12]

37 Analysis of variance ANOVA (F-test) (in SPSS ONEWAY ANOVA)
ONEWAY income BY educ4 / STATISTICS DESCRIPTIVES /POSTHOC = BONFERRONI. H0: The mean income is not different among educational categories. 2. step: Post Hoc Tests → Které kategorie se statisticky významně významně odlišují? Bonferroniho test je jednoduchý a konzervativní - přísný; použít lze i jiné testy (LSD, Tukey atd.). 1. step: F-Test (test H0) Hodnota průměrného příjmu se statisticky významně (na p < 0,01) liší podle úrovně vzdělání. Minimálně jedna kategorie se liší od ostatních. Rozdíly v příjmu nejsou způsobeny náhodnými vlivy a lze je zobecnit z výběru na populaci. Následný Post-hoc test (Bonferroniho nerovnost) ukazuje, že od všech ostatních stupňů se odlišuje pouze příjem ZŠ (platí pro p < 0,05). H0 is rejected: obtained level of statistical significance p is lower than 0,05 and even 0,01. Znázorněno graficky (shoda průměrů): ZŠ VY SŠ VŠ Identifikovat statisticky významné rozdíly můžeme také pomocí intervalů spolehlivosti a ty zobrazit v grafu (ERRORBAR). Zdroj: data ISSP 2007, ČR

38 It is nonlinear correlation coefficient, which ranges between 0–1.
Analysis of variance (one-way ANOVA): Effect size (extent of dependency) Effct of dependent variable on independent variable (effect size) can be (within the ANOVA) method expressed as coefficient Eta2 (Eta-squared) η2 = SA / ST = Between-Groups Sum of Squares / Total Sum of Squares It is nonlinear correlation coefficient, which ranges between 0–1. It says, how much variability of the dependent variable is explained by the factor (indep. var.). It enables comparison of effects of different factors (variables) or comparison of the factor in different environment. Zdroj: podle [Hendl 2006: 356]

39 Eta2 = Between Groups SS / Total SS
Analysis of variance ANOVA s Eta2 in SPSS in MEANS (possibly in CROSSTABS) Eta2 is not in One-Way, but can be easily computed by hand. Oneway ANOVA can be run via MEANS (STATISTICS = ANOVA), where we get Eta2. MEANS income BY educ4 /STATISTICS ANOVA. H0: The mean income is not different among educational categories. Eta2 = Between Groups SS / Total SS = 2785,592 / 37591,231 = 0,0741 Zdroj: data ISSP 2007, ČR

40 Statistical tests for categorical variables
Testing Distribution of data within categories for one variable and test of two variables association (Chi-square tests) see presentation

41 Neparametrické testy (Non-parametric Tests)
Parametrické metody předpokládají: náhodný výběr, normální rozdělní (distribuce znaku), velké výběry z populace, známé (shodné) rozptyly v sub/populacích, z nichž byl proveden výběr Neparametrické metody: - nezávislé na rozdělní - méně citlivé na odchylky extrémních hodnot i pro výběry velmi malého rozsahu vhodné pro nominální i ordinální znaky Ale dochází častěji k chybnému nezamítnutí nepravdivé H0. Např. Chí-kvadrát testy, binomický test, testy středních hodnot (Mann-Whitney, Kruskal-Wallis atd.)

42 Principy viz prezentace:
S tříděním druhého stupně bychom se neměli spokojit. → třídění třetího stupně a elaborace vztahů: statistický test provedeme nejen za celek ale také zvlášť v každé kategorii třetí - kontrolní proměnné. Principy viz prezentace: Kontingenční tabulka: vztahy mezi kategorizovanými znaky - míry asociace/korelace, znaménkové schéma (AKD2_kontg_tab2.ppt) a Standardizace v kontingenční tabulce – kontrola vlivu 3 faktoru (AKD2_kontg_tab_standardizace.ppt)

43 Vyloučení (posouzení) vlivu třetí proměnné
→ Třídění 3 stupně Kontingenční tabulka A x B x C Příklad pro tři proměnné: Volil (závislá) x VŠ (nezávislá-vysvětlující) x Pohlaví (nezávislá kontrolní) → Sledujeme vztah mezi A a B odděleně v kategoriích C, nejjednodušeji pomocí koeficientů asociace/korelace (kontingenční koef., Cramérovo V, Phi,… pořadové korelace Spermanovo Rho, TauB), detailněji pak klasicky % rozdíly mezi kategoriemi nebo adjustovaná residua. Parciální korelace – pro spojité proměnné Multivariační metody (např. regresní analýza, vícerozm. analýzu rozptylu ANOVA)

44 Web tools for statistical analysis
Index of On-line Stats Calculators Exact r×c Contingency Table: Statistical Calculations R. Webster West applets Textbooks: StatSoft - Elektronická učebnice statistiky (in english) Statnotes: Topics in Multivariate Analysis, by G. David Garson Interstat - hypertext interactive textbook of statistics for economist (in czech only)

45 Readings / references De Vaus, D. A Surveys in Social Research. London: George Allen & Unwin (Publishers) Ltd. Hendl, J. (2006) Přehled statistických metod. Praha: Portál. Leon-Guerrero, Anna, Chava Frankfort-Nachmias Essentials of social statistics for a diverse society. Thousand Oaks (Calif.): SAGE Publications. Zvárová, J Základy statistiky pro biomedicínské obory. [on-line] Dostupné na


Stáhnout ppt "Quantitative Data Analysis II."

Podobné prezentace


Reklamy Google