Informație

Decizia între testul chi pătrat și t

Decizia între testul chi pătrat și t


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Sunt întotdeauna atât de confuz dacă să fac un test chi pătrat sau un test t în sumele date de profesorul meu de biostats. Are cineva o regulă simplă care să decidă acest lucru?


Aceasta este o întrebare foarte subtilă și vă încurajez să citiți articolele de pe Wikipedia despre aceste subiecte diferite (testul t, testul chi-pătrat, valoarea p, etc.), deoarece autorii au lucrat din greu pentru a combate concepțiile greșite comune despre aceste teste statistice utilizate în mod obișnuit. . Iată o regulă generală destul de simplificată pentru aceste teste diferite:

  1. T-test: utilizat atunci când vă uitați la mijloace a diferitelor populaţii. De exemplu, s-ar putea să doriți să stabiliți dacă diferența dintre nivelul mediu de expresie genică dintre celulele tratate și cele netratate este diferită sau dacă nivelul de expresie genică al celulelor dintr-un anumit mediu diferă de ceea ce v-ați aștepta într-o ipoteză nulă. Ipoteze: Presupuneți că populațiile la care vă uitați sunt distribuite în mod normal. Varianța populațiilor nu este cunoscută (ar fi un test Z), dar se presupune că varianța fiecărei populații este aceeași. În cele din urmă, pentru ca testul t să funcționeze, eșantioanele de date de la cele două populații sunt presupuse a fi independente.
  2. $chi^2$ test: Mai multe posibilități pentru aceasta. Cel mai frecvent în biologie este testul Pearson $ chi ^ 2 $, care este utilizat atunci când te uiți la date categorice, cum ar fi numărul de plante de mazăre cu flori albe sau violete și semințe rotunde sau ridate și încercarea de a vedea dacă numărul de indivizi din fiecare categorie este în concordanță cu unele ipoteze nule (cum ar fi numărul din fiecare categorie la care v-ați aștepta dacă genele pentru culoarea florii și forma semințelor nu sunt legate). Ipoteze: Punctele de date au fost colectate aleatoriu și independent de la populație și aveți un număr rezonabil de mare de eșantioane.

Mi-ar plăcea să fi făcut o greșeală uriașă, așa că vă rugăm să editați răspunsul meu și/sau să contribuiți cu al dvs. dacă credeți că denaturam complet aceste subiecte!


Informații suplimentare

Testul T

După cum a spus A.Kennard, testul t este aplicat atunci când variabila aleatoare este distribuită normal. Cum să știți ce este distribuit în mod normal este o întrebare relevantă. Măsurile regulate care suferă o eroare aleatorie de măsurare sunt distribuite în mod normal. Valorile medii estimate din diferite eșantioane (experimentul care generează eșantionul poate avea orice distribuție) urmează distribuția normală. De exemplu, pentru intervalul de timp mediu al unei dezintegrare radioactivă - intervalul în sine este distribuit exponențial, dar media intervalului mediu de dezintegrare va fi distribuită în mod normal. Puteți argumenta că este din nou o eroare de măsurare care duce la variația valorii medii calculate în diferite eșantioane. Aceasta se numește teorema limitei centrale.

O distribuție normală are doi parametri - medie și varianță, adică trebuie să cunoașteți aceste valori în prealabil pentru a construi o distribuție normală. O distribuție uniformă nu are parametri - asta nu înseamnă că eșantioanele distribuite uniform nu au medie sau varianță (în acest caz, media și varianța sunt proprietăți ale eșantionului, nu parametri de distribuție). Se face un test t sau un test z pentru a vedea dacă o probă este un reprezentant al unei distribuții normale date. Asta înseamnă din nou că media calculată și varianța sunt echivalente cu parametrii de distribuție corespunzători. În cazul testului z, cunoașteți varianța populației (parametrul de distribuție). Puteți întreba cum poate cineva să cunoască în prealabil varianța populației. Un exemplu este un caz în care cunoașteți deja rata de eroare a dispozitivului dvs. de măsurare (poate fi furnizat de producător sau interpretat din proiectarea acestuia).

$ chi ^ 2 $ test

Există mai multe variante ale testului $chi^2$. Dar ceea ce este comun între ei este că se referă $ chi ^ 2 $ distribuție. Varianțele, care sunt întotdeauna pozitive, nu pot fi distribuite în mod normal. Acestea urmează distribuția $ chi ^ 2 $. Testul F pentru varianțe folosește raportul statisticii $ chi ^ 2 $ a celor două variabile aleatorii care denotă varianțe. Chiar și în testul Pearson $ chi ^ 2 $, statistica testului este o sumă de pătrate care îl face întotdeauna pozitiv. De fapt, această distribuție $ chi ^ 2 $ este utilizată și în testul t. La fel de . Kennard a spus, una dintre ipotezele testului t este că varianța populației este necunoscută, dar presupusă a fi egală. Deoarece varianța populației este necunoscută, trebuie estimată din eșantion. La fel ca în cazul tuturor estimărilor, nu aveți o valoare fixă, dar o serie de valori acceptabile care se încadrează în anumite intervale de încredere. Distribuția T este practic o medie a mai multor distribuții normale cu valori de varianță care se încadrează în intervalul de încredere permis al unei distribuții $ chi ^ 2 $.

Nu este necesar ca datele categorice să fie testate prin testul $ chi ^ 2 $. Experimentul aruncării de monede dă naștere unui categoric, dar poate fi testat împotriva unei distribuții binomiale. Deci testul $ chi ^ 2 $ poate fi folosit pentru date categorice, dar nu este singurul test.

Concluzie: o statistică testată cu un test $ chi ^ 2 $ are $ chi ^ 2 $ distributie ca distribuție a eșantionării. Această statistică ar trebui să fie un pătrat / sumă de pătrate - ceva care nu poate avea niciodată o valoare negativă. Poate de aceea se numește $ chi $ pătrat.


Este adevărat că testul T este utilizat atunci când variabila dvs. dependentă este numerică, iar testul Chi-Square este utilizat atunci când sunteți variabilă categorie de analiză. Dar ce zici de asta:

Aveți un răspuns categoric (0,1) la o campanie. 1 care a cumpărat produsul și 0 care nu. Dacă rezumați răspunsurile din grupul de testare și grupul de control și le împărțiți în funcție de dimensiunea populației respective, să presupunem că obțineți ceva de genul acesta - Rată de răspuns de .23% în grupul de testare și Rata de răspuns de .01% în grupul de control.

Nu puteți utiliza T-Test pentru a vedea dacă aceste rate de răspuns sunt diferite? Dacă da, atunci permiteți-mi să reamintesc că aceste variabile au fost categorice (0,1), dar le-am folosit în continuare ca numerice.

Tot ce vreau să spun este că, dacă comparăm ratele de răspuns sau procentele, atunci T-Tests pot fi utilizate indiferent dacă variabila dependentă este de caracter sau numerică.

Sachin


Care este diferența dintre un test T și un ANOVA?

Acest tutorial explică diferența dintre a testul t si un ANOVA, împreună cu când să utilizați fiecare test.

T-test

A testul t este utilizat pentru a determina dacă există sau nu o diferență semnificativă statistic între mijloacele a două grupuri. Există două tipuri de teste t:

1. Testul t pentru probe independente. Aceasta este utilizată atunci când dorim să comparăm diferența dintre mijloacele a două grupuri, iar grupurile sunt complet independente una de cealaltă.

De exemplu, cercetătorii ar putea dori să știe dacă dieta A sau dieta B îi ajută pe oameni să piardă mai mult în greutate. 100 de persoane repartizate aleatoriu sunt repartizate la dieta A. Alte 100 de persoane repartizate aleatoriu sunt repartizate la dieta B. După trei luni, cercetătorii înregistrează pierderea totală în greutate pentru fiecare persoană. Pentru a determina dacă pierderea medie în greutate între cele două grupuri este semnificativ diferită, cercetătorii pot efectua un test independent de eșantioane.

2. Testare t probe pereche. Acesta este folosit atunci când dorim să comparăm diferența dintre mediile a două grupuri și unde fiecare observație dintr-un grup poate fi asociată cu o observație din celălalt grup.

De exemplu, să presupunem că 20 de elevi dintr-o clasă susțin un test, apoi studiază un anumit ghid, apoi repetă testul. Pentru a compara diferența dintre scorurile din primul și al doilea test, folosim un test t asociat, deoarece pentru fiecare elev primul scor al testului poate fi asociat cu al doilea scor.

Pentru ca un test t să producă rezultate valide, trebuie îndeplinite următoarele ipoteze:

  • Aleatoriu: Un eșantion aleatoriu sau un experiment aleatoriu trebuie utilizat pentru a colecta date pentru ambele eșantioane.
  • Normal: Distribuția de eșantionare este normală sau aproximativ normală.

Dacă aceste ipoteze sunt îndeplinite, atunci este sigur să folosiți un test t pentru a testa diferența dintre mediile a două grupuri.


Cum se calculează mărimea eșantionului în studiile pe animale?

Calculul dimensiunii eșantionului este una dintre componentele importante de proiectare a oricărei cercetări, inclusiv studiile pe animale. Dacă un cercetător selectează un număr mai mic de animale, poate duce la lipsa oricărei diferențe semnificative, chiar dacă există în populație și dacă este selectat un număr mai mare de animale, atunci poate duce la irosirea inutilă a resurselor și poate duce la probleme etice. În acest articol, pe baza revizuirii literaturii făcute de noi, am sugerat câteva metode de calcul al mărimii eșantionului pentru studii pe animale.

Câte animale ar trebui să folosesc pentru studiul meu? Aceasta este una dintre cele mai confuze întrebări cu care se confruntă un cercetător. Dimensiunea prea mică a eșantionului poate pierde efectul real în experiment, iar dimensiunea prea mare a eșantionului va duce la irosirea inutilă a resurselor și a animalelor.[1] Problema dimensiunii eșantionului a fost evidențiată în mod adecvat pentru studiile clinice și studiile clinice, dar nu a fost explorată prea mult în cazul studiilor pe animale în literatura publicată. Este foarte important să învățați tinerii cercetători și studenții postuniversitari cu privire la importanța și metodele de calcul al mărimii eșantionului. Pentru a clarifica această problemă a dimensiunii eșantionului în studiile pe animale, am decis să căutăm diferite articole disponibile cu privire la dimensiunea eșantionului în studiile pe animale. Am făcut căutare PubMed folosind diverși termeni MeSH, cum ar fi 𠇍imensiunea eșantionului,” �lculele dimensiunii eșantionului,” “studii pe animale” etc. și combinațiile acestora. De asemenea, am căutat diverse articole prin Google și Google Scholar. De asemenea, am căutat diverse site-uri web legate de cercetarea animalelor (http://www. 3rs-reduction.co.uk/html/6__power_and_sample_size.html, http://www.acuc.berkeley.edu/, http://www. bu.edu/orccommittee/iacuc/policies-and-guidelines/sample-size-calculations/, http://www.ucd.ie/researchethics/etc.). Primul autor a citit toată literatura disponibilă și o înțelegere a conceptului se face în consultare cu al doilea autor. Aici, explicăm pe scurt despre metoda de calcul a mărimii eșantionului în studiile pe animale, pe baza revizuirii literaturii efectuate de noi.

Practic, există două metode de calcul al mărimii eșantionului în studiile pe animale. Cea mai favorizată și mai științifică metodă este calcularea mărimii eșantionului prin analiza puterii. [2] Trebuie depus toate eforturile pentru a calcula dimensiunea eșantionului prin această metodă. Această metodă este similară cu metoda utilizată pentru calcularea mărimii eșantionului pentru studii clinice și studii clinice. Calculul simplu poate fi efectuat manual cu ajutorul unei formule [Anexa 1], dar pentru calcule complexe poate fi utilizat software statistic sau poate fi solicitat ajutorul unui statistic. Pentru a calcula dimensiunea eșantionului prin analiza puterii, un cercetător trebuie să aibă cunoștințe și informații despre aceste concepte:

Mărimea efectului: Aceasta este diferența dintre media a două grupuri (date cantitative) sau proporțiile evenimentelor din două grupuri (date calitative). Un cercetător ar trebui să decidă înainte de începerea studiului că diferența minimă dintre două grupuri poate fi considerată semnificativă clinic. Ideea despre diferența semnificativă clinic între grupuri ar trebui luată de preferință din studii publicate anterior [2,3,4,5]

Abaterea standard: Abaterea standard măsoară variabilitatea în cadrul eșantionului. Informațiile despre abaterea standard sunt necesare numai în cazul variabilelor cantitative. Informații despre abaterea standard a unei anumite variabile pot fi luate din studii publicate anterior. Dacă nu este disponibil un astfel de studiu, autorul ar trebui să efectueze mai întâi un studiu pilot, iar abaterea standard poate fi calculată din studiul pilot [2,3,4,5]

Eroare de tip 1: Aceasta se măsoară după nivelul de semnificație, care este de obicei fixat la nivelul de 5% (P = 0,05). Aceasta este o valoare arbitrară și poate fi micșorată sau mărită în funcție de întrebarea de cercetare[2,3,4,5]

Puterea: Puterea unui studiu este probabilitatea de a găsi un efect, pe care studiul urmărește să îl găsească. Acest lucru poate fi menținut între 80% și chiar 99%, în funcție de întrebarea cercetării, dar, de obicei, este menținut la 80% [2,3,4,5]

Direcția efectului (cu o coadă sau cu două cozi): Când un cercetător dorește să exploreze efectul unei intervenții, efectul efectiv observat în eșantion poate fi în aceeași direcție pe care a crezut-o cercetătorul sau poate fi chiar opus aceleia. Dacă cercetătorul consideră că efectul poate fi în ambele direcții, atunci ar trebui să folosească testul cu două cozi și, dacă are motive temeinice să creadă că efectul se află într-o singură direcție, atunci poate folosi un test cu coadă. În cercetarea pe animale, se folosesc de obicei teste cu două cozi[2]

Testele statistice: Pentru calcularea dimensiunii eșantionului, este important să aveți o idee despre testul statistic, care trebuie aplicat pe date. Pentru teste statistice simple, cum ar fi Student t-test sau Chi-square test, se poate efectua calcul manual pe bază de formulă [Anexă], dar pentru teste complexe precum ANOVA sau teste neparametrice este nevoie de ajutor al statisticianului sau utilizarea software-ului [ 2,4]

Uzură preconizată sau moartea animalelor: dimensiunea probei finale trebuie ajustată pentru uzura preconizată. Să presupunem că un cercetător se așteaptă la 10% uzură, atunci dimensiunea eșantionului calculată prin formulă sau software ar trebui împărțită la 0,9 pentru a obține dimensiunea eșantionului real. Să presupunem că mărimea eșantionului calculată prin software este de 10 animale pe grup și cercetătorul așteaptă 10% uzură, iar dimensiunea sa finală a eșantionului va fi de 11 animale pe grup (10 / 0,9 = 11,11). În mod similar, pentru o reducere de 20%, dimensiunea eșantionului trebuie împărțită la 0,8. [5] Acest lucru poate fi explicat sub forma unei formule structurate, adică

Mărimea eșantionului corectată = Dimensiunea eșantionului / (1 și # x02212 [% uzură / 100])

Vă sugerăm utilizarea software-ului G Power (Faul, Erdfelder, Lang și Buchner, 2007) care poate fi descărcat gratuit pentru calcularea dimensiunii eșantionului. Acest software este la fel de bun pentru calcularea dimensiunii eșantionului și pentru studiile clinice. Acest software poate fi utilizat pentru calcule simple și complexe ale dimensiunii eșantionului.[6] G Power poate calcula dimensiunea eșantionului pe baza mărimii efectului pre-proiectat la diferențe mici, medii și mari între grupuri pe baza principiilor lui Cohen. [7] Informațiile despre alte programe software disponibile și calculatoare pentru calcularea dimensiunii eșantionului sunt date în Anexa 2. Dimensiunea eșantionului mai complexă va necesita software mai sofisticat, cum ar fi & # x0201cnConsilier de consultare & # x0201d sau & # x0201cMINITAB. & # X0201d

A doua metodă de calcul este o metodă brută bazată pe legea randamentului diminuat. Această metodă se numește & # x0201cursation ecuație & # x0201d metodă. [2,8,9] Această metodă este utilizată atunci când nu este posibil să presupunem dimensiunea efectului, pentru a ne face o idee despre abaterea standard, deoarece nu sunt disponibile descoperiri anterioare sau când sunt multiple obiectivele sunt măsurate sau este utilizată o procedură statistică complexă pentru analiză. Această metodă poate fi utilizată și în unele studii exploratorii în care testarea ipotezelor nu este scopul principal, dar cercetătorul este interesat doar să găsească orice nivel de diferență între grupuri.

Conform acestei metode se măsoară o valoare & # x0201cE & # x0201d, care nu este altceva decât gradul de libertate de analiză a varianței (ANOVA). Valoarea lui E ar trebui să fie cuprinsă între 10 și 20. Dacă E este mai mică de 10, atunci adăugarea mai multor animale va crește șansa de a obține un rezultat mai semnificativ, dar dacă este mai mare de 20, atunci adăugarea mai multor animale nu va crește șansa de a deveni semnificativă rezultate. Deși, această metodă se bazează pe ANOVA, este aplicabilă tuturor experimentelor pe animale. Orice dimensiune a eșantionului, care păstrează E între 10 și 20, ar trebui considerată ca fiind adecvată. E poate fi măsurată prin următoarea formulă:

E = Numărul total de animale & # x02212 Numărul total de grupuri

Să presupunem că un cercetător dorește să vadă efectul unui medicament și a făcut cinci grupuri (un grup ca martor și patru grupuri de doze diferite din acel medicament) cu 10 șobolani fiecare. În acest caz, E va fi

E = 50 − 5 = 45, care este mai mult de 20, prin urmare dimensiunea eșantionului din acest experiment este mai mult decât este necesar. Cu toate acestea, dacă dimensiunea eșantionului este de cinci pe grup, atunci E va fi 20, care este limita acceptabilă și, prin urmare, poate fi considerată o dimensiune adecvată a eșantionului.

Această metodă este ușoară, dar nu poate fi considerată la fel de robustă ca metoda de analiză a puterii.

Vrem să sugerăm cercetătorilor să includă o declarație despre metoda de calcul a mărimii eșantionului și justificarea mărimii eșantionului în manuscrisul pe care doresc să îl publice. Animale în cercetare: raportare in vivo ghidul experimentelor recomandă includerea unei declarații care menționează justificarea mărimii eșantionului utilizate în cercetare și detaliile metodei de calcul a mărimii eșantionului. [10] Toate componentele calculului mărimii eșantionului, cum ar fi dimensiunea efectului, eroarea de tip 1 și tip 2, testul cu o singură coadă / testul cu două cozi, deviația standard etc., trebuie raportate în manuscrisul trimis spre publicare așa cum este sugerat pentru cercetarea clinică. [11 ] Lipsa de resurse (buget, forță de muncă), constrângerile de timp etc., nu pot fi considerate drept justificare valabilă în ceea ce privește decizia privind dimensiunea eșantionului. Mulți cercetători consideră șase animale pe grup ca mărime adecvată a eșantionului, dar după ce am analizat literatura disponibilă pe această temă, am ajuns la concluzia că această noțiune de șase animale pe grup are puține baze științifice și statistice. Aceasta este o scurtă descriere, iar cititorilor li se cere să citească mai multe resurse disponibile pentru o mai bună înțelegere a diferitelor concepte legate de calculul mărimii eșantionului în studiile pe animale.


VARIABILE

Variabila este o caracteristică care variază de la un membru individual al populației la altul.[3] Variabile precum înălțimea și greutatea sunt măsurate printr-un anumit tip de scară, transmit informații cantitative și sunt numite variabile cantitative. Sexul și culoarea ochilor oferă informații calitative și sunt numite variabile calitative [3] [Figura 1].

Clasificarea variabilelor

Variabile cantitative

Datele cantitative sau numerice sunt împărțite în măsurători discrete și continue. Datele numerice discrete sunt înregistrate ca un număr întreg, cum ar fi 0, 1, 2, 3 și # x02026 (întreg), în timp ce datele continue pot lua orice valoare. Observațiile care pot fi numărate constituie datele discrete și observațiile care pot fi măsurate constituie datele continue. Exemple de date discrete sunt numărul de episoade de arestări respiratorii sau numărul de re-intubări într-o unitate de terapie intensivă. În mod similar, exemple de date continue sunt nivelurile serice de glucoză serică, presiunea parțială a oxigenului din sângele arterial și temperatura esofagiană.

O scară ierarhică de precizie crescândă poate fi utilizată pentru observarea și înregistrarea datelor care se bazează pe scale categorice, ordinale, de intervale și de raporturi [Figura 1].

Variabilele categorice sau nominale sunt neordonate. Datele sunt doar clasificate în categorii și nu pot fi aranjate într-o anumită ordine. Dacă există doar două categorii (ca la sexul masculin și feminin), se numește date dihotomice (sau binare). Diferitele cauze ale reintubării într-o unitate de terapie intensivă datorită obstrucției căilor aeriene superioare, clearance-ului afectat al secrețiilor, hipoxemiei, hipercapniei, edemului pulmonar și afectarii neurologice sunt exemple de variabile categorice.

Variabilele ordinale au o ordonare clară între variabile. Cu toate acestea, este posibil ca datele comandate să nu aibă intervale egale. Exemple sunt statutul Societății Americane a Anestezilor sau scala Richmond de agitație-sedare.

Variabilele de interval sunt similare cu o variabilă ordinală, cu excepția faptului că intervalele dintre valorile variabilei de interval sunt la fel de distanțate. Un bun exemplu de scară de interval este scara de grade Fahrenheit utilizată pentru a măsura temperatura. Cu scara Fahrenheit, diferența dintre 70° și 75° este egală cu diferența dintre 80° și 85°: unitățile de măsură sunt egale pe întregul interval al scalei.

Scalele de raport sunt similare cu scalele de interval, prin aceea că diferențele egale între valorile scării au semnificație cantitativă egală. Cu toate acestea, scalele raportului au și un adevărat punct zero, ceea ce le oferă o proprietate suplimentară. De exemplu, sistemul de centimetri este un exemplu de scară de raport. Există un adevărat punct zero și valoarea de 0 cm înseamnă o absență completă a lungimii. Distanța tiromentală de 6 cm la un adult poate fi de două ori mai mare decât a unui copil la care poate fi de 3 cm.


Când să folosiți testul z versus testul t

Cum știu când să folosesc testul t în loc de testul z?

Aproape fiecare student la statistici pe care l-am îndrumat vreodată mi-a pus această întrebare la un moment dat. Când am început să mă îndrum, aș explica că depinde de problemă și am început să merg pe teorema limitei centrale până când ochii lor s-au stins. Atunci mi-am dat seama că este mai ușor de înțeles dacă fac doar o diagramă. Deci, iată-l!

Practic, depinde de patru lucruri:

  1. Indiferent dacă lucrăm cu o medie (de exemplu, „37 de studenți”) sau cu o proporție (de exemplu, „15% din toți studenții”).
  2. Indiferent dacă știm sau nu populației abaterea standard ( (sigma) ). În viața reală, de obicei, nu, dar cursurilor de statistică le place să creeze probleme acolo unde le facem.
  3. Indiferent dacă populația este sau nu distribuită în mod normal. Acest lucru este important în principal atunci când aveți de-a face cu eșantioane mici.
  4. The mărimea din eșantionul nostru. Numărul magic este de obicei 30 - mai jos, care este considerat un eșantion „mic”, iar 30 sau mai mare este considerat „mare”. Când dimensiunea eșantionului este mare, teorema limită centrală ne spune că nu trebuie să ne îngrijorăm dacă populația este distribuită în mod normal sau nu.

Când lucrați la o problemă cu cuvintele statistice, acestea sunt lucrurile pe care trebuie să le căutați. Problemele de proporție nu sunt niciodată probleme de testare t - folosiți întotdeauna z! Cu toate acestea, trebuie să verificați dacă (np_ <0> ) și (n (1-p_ <0>) ) sunt mai mari decât 10, unde (n ) este dimensiunea eșantionului dvs. și (p_ < 0>) este proporția ipotetică a populației. Acest lucru înseamnă, practic, că proporțiile populației (de exemplu, % bărbați și % femei) ar trebui să fie ambele suficient de mari astfel încât să fie reprezentate în mod adecvat în eșantion.

În general, problema vă va spune în mod explicit dacă abaterea standard a populației este cunoscută - dacă nu spun, presupuneți că este necunoscută. Același lucru este valabil și pentru o populație distribuită în mod normal - dacă nu spun „presupuneți că populația este distribuită în mod normal”, sau ceva în acest sens, atunci nu face doar alcătuiește această presupunere. Din fericire, dacă dimensiunea eșantionului este suficient de mare, nu contează!

Începeți cu un tutor de statistică la IU astăzi!

Îți place acest articol? Consultați mai multe postări despre statistici.

Bloomington Tutors & copy 2013 - 2021 servește studenții din Bloomington, Indiana, 47405. Vrei să lucrezi cu noi? Aplicați astăzi. Trebuie să ne contactați? Vizitați pagina noastră de contact sau trimiteți un SMS / sunați-ne la (812) 269-2380. Consultați College Park Tutors pentru îndrumare la Universitatea din Maryland (UMD).

Termeni și condiții și politica de confidențialitate pentru middot și sănătate și siguranță pentru middot
Acest site este protejat de reCAPTCHA și se aplică Politica de confidențialitate Google și Termenii și condițiile.
Nu suntem afiliați la Indiana University (IU) sau Ivy Tech.


Testul Chi-pătrat vs. Regresia logistică: Este mai bun un test amator?

Bună Karen,
Sunt student MPH în biostatistică și sunt curios să folosesc regresia pentru testele asociațiilor în analiza statistică aplicată. De ce se folosește regresia sau regresia logistică & # 8220 mai bună & # 8221 decât efectuarea analizei bivariate precum Chi-pătratul?

Am citit o mulțime de studii în studiile mele postuniversitare și se pare că jumătate dintre studii folosesc Chi-Square pentru a testa asocierea între variabile, iar cealaltă jumătate, care pare să încerce să fie fantezistă, conduce o regresie complicată -adaptat pentru-controlat de- model. Dar rezultatele finale par să fie aceleași. Am lucrat cu câțiva profesioniști care spun că simplu este mai bine și că folosirea Chi- Square este bine, dar am lucrat cu alți profesori care insistă să construiască modele. De asemenea, pare mult mai simplu să faci chi-pătrat atunci când faci o analiză în primul rând categorică.

Profesorii mei nu par să-mi dea o simplă justificare
răspunde, așa că am crezut că te voi întreba. Îmi place să vă citesc site-ul și intenționez să particip la seminariile dvs. web.

Mulțumesc!

Doamne, mulțumesc. Aștept cu nerăbdare să vă văd pe webinarii.

În funcție de întrebarea dvs., există o serie de motive diferite pe care le-am văzut.

Ai dreptate că există multe situații în care o abordare sofisticată (și complicată) și o abordare simplă funcționează ambele la fel de bine, iar toate celelalte fiind egale, simplu este mai bine.

Desigur, nu pot spune de ce cineva folosește o anumită metodologie într-un anumit studiu fără a o vedea, dar pot ghici din anumite motive.

Sunt sigur că există o părtinire în rândul cercetătorilor pentru a merge complicat, deoarece chiar și atunci când revistele spun că vor simplu, lucrurile fanteziste sunt atât de strălucitoare și frumoase și sunt acceptate mai mult. În principal pentru că comunică (la un anumit nivel) că înțelegeți statistici sofisticate și că ați verificat variabilele de control, deci nu este nevoie ca recenzenții să se opună. Și dacă oricare dintre acestea este adevărat, sunt sigur că oamenii își fac griji.

Includerea controalelor este cu adevărat importantă în multe relații. Paradoxul Simpson & # 8217s, în care o relație se inversează fără controale adecvate, se întâmplă cu adevărat.

Acum puteți discuta că regresia logistică nu este cel mai bun instrument. Dacă toate variabilele, predictorii și rezultatele sunt categorice, o analiză log-liniară este cel mai bun instrument. O analiză log-liniară este o extensie a Chi-pătratului.

Acestea fiind spuse, personal nu am găsit niciodată modelele log-liniare intuitive de utilizat sau interpretat. Deci, dacă mi se oferă alegerea, voi folosi regresia logistică. Filozofia mea personală este că, dacă două instrumente sunt rezonabile și unul este atât de obtuz, publicul dvs. nu a înțeles-o, mergeți cu cel mai ușor.

Ceea ce ne readuce la chi-pătrat. De ce nu folosiți cel mai simplu dintre toate?

Un test Chi-pătrat este într-adevăr un test descriptiv, asemănător unei corelații. Nu este o tehnică de modelare, deci nu există nicio variabilă dependentă. Așadar, întrebarea este: vrei să descrii puterea unei relații sau vrei să modelezi factorii determinanți și să prezici probabilitatea unui rezultat?

Deci, chiar și într-un model foarte simplu, bivariat, dacă doriți să definiți în mod explicit o variabilă dependentă și să faceți predicții, este necesară o regresie logistică.


3 Răspunsuri 3

Există un motiv pentru care „chi-pătratul cu două cozi” este rar folosit: dacă faceți un test $ chi ^ 2 $ pentru tabelele de contingență, atunci statistica testului este (fără corectarea continuității):

unde $ o_$ sunt numărul observat în celula $ i, j $ și $ e_$ sunt numărul de celule așteptat din celula $ i, j $. Sub ipoteze relativ slabe se poate arăta că $ X ^ 2 $ urmează aproximativ o distribuție $ chi ^ 2 $ cu 1 $ grad de libertate (aceasta este pentru un tabel 2x2 ca în cazul dvs.).

Dacă presupuneți independență între variabila rând și coloană, (care este $H_0$ ), atunci $e_$ sunt estimate din probabilitățile marginale.

Aceasta este doar pentru o scurtă introducere la $ chi ^ 2 $ pentru tabelele de contingență. Cel mai important lucru este că numeratorul fiecărui termen din $ X ^ 2 $ este pătrat diferența dintre „numărările observate” și „numărările așteptate”. Asa de dacă $ o_ & lt e_$ sau $o_ & gt e_$ nu face nicio diferență în rezultat pentru $ X ^ 2 $.

Deci testul $ chi ^ 2 $ pentru tabelul de contingență testează dacă observațiile sunt fie mai mici, fie mai mari decât se aștepta! Deci este un test pe două fețe chiar dacă regiunea critică este definită într-o coadă (dreapta) a distribuţiei $chi^2$.

Deci, ideea este că testul $ chi ^ 2 $ este un test pe două fețe (poate respinge valorile $ o_$ care sunt fie prea mici, fie prea mari), dar folosește o regiune critică unilaterală (coada dreaptă de $ chi ^ 2 $).

Deci, cum trebuie să interpretați rezultatul: dacă $H_0: ext< 'variabila rând și variabila coloană sunt independente' >$ atunci probabilitatea de a observa o valoare cel puțin la fel de extremă ca $X^2$ calculat este 0,059. Aceasta se numește valoarea p a testului.

(Rețineți că, prin cele de mai sus, „independent” include „fie prea mare, fie prea scăzut”.)

Pentru a „decide” ceva, trebuie mai întâi să alegeți un nivel de semnificație. Acesta este un „risc pe care îl acceptați pentru a comite erori de tip I”. Nivelul de semnificație de $5\%$ este utilizat în mod obișnuit.

Acum veți respinge ipoteza nulă atunci când valoarea p (0,059) este mai mică decât nivelul de semnificație ales (0,05). Nu este așa pentru masa ta, așa vei face nu respinge $ H_0 $ la un nivel de semnificație de $ 5 \% $.

În ceea ce privește întrebarea dvs. din partea de jos, ar trebui să spuneți (dar în exemplul dvs. nu este cazul): valoarea p este mai mică sau egală cu nivelul de semnificație ales de 0,05, deci $ H_0 $ este respins și concluzionăm că rândurile și variabilele de coloană sunt dependente. (dar, după cum s-a spus, în exemplul dvs., valoarea p este mai mare decât nivelul de semnificație de 0,05).

Poate ar trebui să aruncați și o privire la Neînțelegerea unei valori P ?.


Testul chi-pătrat: un exemplu de lucru cu rânduri și coloane în SAS

Ca regulă generală, atunci când programatorii SAS doresc să manipuleze datele rând cu rând, ajung la pasul SAS DATA. Când calculul necesită statistici pe coloane, procedura SQL este de asemenea utilă. Atunci când sunt necesare atât operațiuni pe rând, cât și pe coloană, limbajul SAS/IML este un plus puternic la cutia de instrumente a unui programator SAS.

Mi s-a amintit de acest fapt recent, când un programator SAS (eventual un student) a întrebat cum să efectueze „manual” testul clasic chi-pătrat pentru asociere într-un tabel de frecvență bidirecțional. Calculul necesită calcularea mijloacelor pe rânduri și coloane în jos, iar studentul se lupta cu implementarea calculelor în etapa DATA. Acest articol ilustrează modul în care SAS/IML poate simplifica calculele pe rând și pe coloană în testul clasic chi-pătrat.

Testul chi-pătrat pentru asociere în PROC FREQ

În SAS, modalitatea ușoară de a calcula testul chi-pătrat pentru asociere este utilizarea PROC FREQ. Următoarele date provin din mai multe exemple din documentația PROC FREQ. Datele arată culoarea părului și culoarea ochilor a 762 de copii europeni. Apelul la PROC FREQ calculează testul chi-pătrat și o tabulare încrucișată care afișează valoarea observată, valorile așteptate (în ipoteza că culoarea părului și culoarea ochilor sunt independente) și abaterile, care sunt valorile „observate minus așteptate” :

În tabelul ochi cu păr, fiecare celulă conține trei valori. Prima valoare este numărul de celule observat, a doua valoare este numărul de celule așteptat (presupunând independență), iar a treia valoare este diferența lor, care este uneori numită „deviație”. Statistica testului și valoarea p pentru testul chi-pătrat sunt subliniate cu roșu. Statistica testului este 20,92. Probabilitatea de a observa acea valoare dintr-o extragere aleatorie a unei distribuții chi-pătrat cu 8 grade de libertate este 0,0073. Deoarece această probabilitate este atât de mică, respingem ipoteza nulă conform căreia culoarea părului și culoarea ochilor sunt independente.

Calculați testul chi-pătrat „manual” în SAS

Testul chi-pătrat pe o masă 3 x 4 este suficient de simplu pentru a calcula manual, dar să presupunem că doriți să utilizați SAS pentru a valida sau reproduce numerele pe care le produce PROC FREQ? Acesta este un exercițiu de programare bun pentru elevi, pentru a se asigura că înțeleg calculele. Documentația PROC FREQ furnizează formula pentru statistica testului utilizând ecuația

Unde nij este numărul observat în rândul i și coloana j și eij este numărul așteptat, dar nu există nimic ca programarea unei formule pentru a asigura înțelegerea.

    for each row and column, and the grand mean for all cells.
  1. Use an outer product to form the table of expected values from the mean vectors.
  2. Compute the test statistic by using elementwise matrix operations. to compute the p-value.

Notice that the program does not contain any loops, although the formulas contain double summations over the elements of the table. This is an example of "vectorizing" the computations, which means writing the computations as vector or matrix computations rather than scalar operations in a loop.

You can see that the 'Expected' matrix matches the PROC FREQ output for the expected values for each cell. Similarly, the 'Deviance' matrix matches the PROC FREQ output for the difference between observed and expected values. The test statistic is the sum of the ratios of the squared deviances and the expected values. A call to the CDF function computes the p-value.

In summary, you can use the high-level SAS/IML language to implement basic statistical tests such as the chi-square test for association in a two-way frequency table. Such an exercise enables students to understand the details of elementary statistical tests. For programmers who know the statistical details but who are new to the SAS/IML language, this short exercise provides a way to gain proficiency with vectorized programming techniques.

About Author

Rick Wicklin, PhD, is a distinguished researcher in computational statistics at SAS and is a principal developer of PROC IML and SAS/IML Studio. His areas of expertise include computational statistics, simulation, statistical graphics, and modern methods in statistical data analysis. Rick is author of the books Statistical Programming with SAS/IML Software și Simulating Data with SAS.

1 Comment

Rick,
I think the following code is more readable.

proc iml
cName = <"black" "dark" "fair" "medium" "red">
rName = <"blue" "brown" "green">
C = < 6 51 69 68 28,
16 94 90 94 47,
0 37 69 55 38>
colMarg = C[+, ]/c[+] /* margin probability of each column */
rowMarg = C[ ,+]/c[+] /* margin probability of each row */
expect=(rowMarg*colMarg)#c[+]


Introducere

In hypothesis testing a decision between two alternatives, one of which is called the null hypothesis and the other the alternative hypothesis, must be made. As an example, suppose you are asked to decide whether a coin is fair or biased in favor of heads. In this situation the statement that the coin is fair is the null hypothesis while the statement that the coin is biased in favor of heads is the alternative hypothesis. To make the decision an experiment is performed. For example, the experiment might consist of tossing the coin 10 times, and on the basis of the 10 coin outcomes, you would make a decision either to accept the null hypothesis or reject the null hypothesis (and therefore accept the alternative hypothesis). So, in hypothesis testing acceptance or rejection of the null hypothesis can be based on a decision rule. As an example of a decision rule, you might decide to reject the null hypothesis and accept the alternative hypothesis if 8 or more heads occur in 10 tosses of the coin.

The process of testing hypotheses can be compared to court trials. A person comes into court charged with a crime. A jury must decide whether the person is innocent (null hypothesis) or guilty (alternative hypothesis). Even though the person is charged with the crime, at the beginning of the trial (and until the jury declares otherwise) the accused is assumed to be innocent. Only if overwhelming evidence of the person's guilt can be shown is the jury expected to declare the person guilty--otherwise the person is considered innocent.

Errors

In the jury trial there are two types of errors: (1) the person is innocent but the jury finds the person guilty, and (2) the person is guilty but the jury declares the person to be innocent. In our system of justice, the first error is considered more serious than the second error. These two errors along with the correct decisions are shown in the next table where the jury decision is shown in bold on the left margin and the true state of affairs is shown in bold along the top margin of the table.


With respect to hypothesis testing the two errors that can occur are: (1) the null hypothesis is true but the decision based on the testing process is that the null hypothesis should be rejected, and (2) the null hypothesis is false but the testing process concludes that it should be accepted. These two errors are called Type I and Type II errors. As in the jury trial situation, a Type I error is usually considered more serious than a Type II error. The probability of a Type I error is denoted by the Greek letter alpha and is also called the significance level of the test, while the probability of a Type II error is denoted by the Greek letter beta. The next table is analogous to the previous table with the decision reached in hypothesis testing shown in bold along the left margin and the true situation shown in bold along the top margin of the table.

Ipoteze

In a jury trial the person accused of the crime is assumed innocent at the beginning of the trial, and unless the jury can find overwhelming evidence to the contrary, should be judged innocent at the end of the trial. Likewise, in hypothesis testing, the null hypothesis is assumed to be true, and unless the test shows overwhelming evidence that the null hypothesis is not true, the null hypothesis is accepted.

Exemplu

Suppose that you are trying to decide whether a coin is fair or biased in favor of heads. The null hypothesis is H0: the coin is fair (i.e., the probability of a head is 0.5), and the alternative hypothesis is Ha: the coin is biased in favor of a head (i.e. the probability of a head is greater than 0.5). To make this problem easier, assume that the alternative hypothesis is Ha: the probability of a head is 0.7. You are allowed to toss the coin only 10 times, and on the basis of the outcomes, make your decision.

The next graphs show Type I and Type II errors made in testing a null hypothesis of the form H0:p=p0 against H1:p=p1 where p1>p0. In these graphs n is taken to be 10. The red outlined bars show the probability distribution of the number of heads under the assumption that the null hypothesis (fair coin or p=0.5) is true , while the blue shaded bars show the probability distribution of the number of heads under the assumption that the null hypothesis is false (and p=0.7) . The decision rule is based on a critical value--if the number of heads is greater than or equal to this critical value, the null hypothesis is rejected--otherwise the null hypothesis is accepted. At the top of each graph you find the null, H0, and alternative, Ha, hypotheses, the critical value (CV) ranging from 6 to 10, Alpha, the probability of a Type I error, and Beta, the probability of a Type II error. These errors are show by the red and blue shadings, respectively.

Decreasing the Probability of a Type II Error (beta) Without Increasing the Probability of a Type I Error (alpha)

The previous example shows that decreasing the probability of a Type I error leads to an increase in the probability of a Type II error, and vice versa. How probability of a Type I error be held at some (preferably small level) while decreasing the probability of a Type II error? The next series of graphs show that this can be done by using a larger n, that is by increasing the number of coin tosses. An increase in n can be viewed as increasing the sample size for the experiment. In the middle graph of the series of five graphs shown above, the probability of a Type I error, alpha, is approximately 0.05. Suppose the coin was tossed 30 times instead of 10 times. With 30 tosses you would want the critical value to be some number greater than 15. Suppose that 20 is used as the critical value, that is, if 20 or more heads occur in the 30 tosses you would reject the null hypothesis that the coin is fair and accept the alternative hypothesis that the coin is biased in favor of heads (in this situation, we are looking at the alternative that the probability of a head is p=0.7). The next graph displays the results with the probability distribution of the number of heads under the assumption that the null hypothesis is true shown in red , and the probability distribution of the number of heads under the assumption that the null hypothesis is false (and the probability of a head is 0.7) is displayed in blue .

Notice that the probability of a Type I error is approximately 0.05, while the probability of a Type II error is approximately 0.27. Contrast this with the situation when the coin was tossed 10 times--from the middle graph of that series of graphs, alpha is approximately 0.05 but beta, the probability of a Type II error, is about 0.62.

The P-Value Approach to Hypothesis Testing

In the previous examples, a critical value was used in each of the situations in which a coin was tested for fairness. Although it was not explained how the critical value was selected in those examples, the critical value is usually chosen so that the test will have a small probability of Type I error. The values usually used for alpha, the probability of a Type I error, are 0.10, 0.05, or 0.01. Recall that alpha is also called the significance level. These are called 10%, 5%, or 1%, respectively, significance levels.

In the p-value approach neither a significance level nor a critical value are determined before the experiment is carried out or the sample taken. The null and alternative hypotheses are stated, and the experiment is run. A statistic is computed from the outcome of the experiment--the p-value is the probability of the observed outcome or something more extreme than the observed outcome, computed under the assumption that the null hypothesis is true. The determination of an outcome being more extreme than the observed outcome is based on the null and alternative hypotheses. Examples of this will be shown later.

For now, go back to the coin tossing experiment where the null hypothesis is that the coin is fair (p=0.5) and the alternative hypothesis is that the coin is biased in favor of heads (p>0.5). Suppose the coin is tossed 10 times and 8 heads are observed. Since the alternative hypothesis is p>0.5, more extreme values are numbers of heads closer to 10. So, to compute the p-value in this situation, you need only compute the probability of 8 or more heads in 10 tosses assuming the coin is fair. But, the number of heads in 10 tosses of a coin assuming that the coin is fair has a binomial distribution with n=10 and p=0.5. The p-value is P[8 heads] + P[9 heads] + P[10 heads]. From the binomial probability distribution, P[8 heads]=0.044, P[9 heads]=0.01, and P[10 heads]=0.001. Thus the p-value is 0.044+0.010+0.001=0.055.

Now that the p-value is computed, how do you decide whether to accept or reject the null hypothesis? Since the p-value is simply the probability of getting the observed number of heads under the assumption that the null hypothesis is true, if this probability is small, it is unlikely that the null hypothesis is true. So 'small' p-values lead to rejection of the null hypothesis. But 'small' is not defined. The definition of small is up to the reader--if in the opinion of the reader, the p-value is small, the null hypothesis is rejected, while larger values would cause the null hypothesis to be accepted. In statistical practice, 'small' values are usually 0.10, 0.05, or 0.01. In the coin tosses above, the p-value is 0.055, and if a 'small' p-value for you is 0.05, you would fail to reject the null hypothesis, that is, you would say 8 heads in 10 tosses is not enough evidence to conclude that the coin is not fair.

One and Two Tail Tests

In each of the coin tests shown above, the null hypotheses was H0: coin is fair (p=0.5) and the alternative hypothesis was Ha: coin is biased toward heads (p>0.5). With these hypotheses the null hypothesis would only rejected if the number of heads in 10 coin tosses was some number greater than 5. For example, you might reject the null only if you observe 9 or 10 heads in the 10 tosses. The 'rejection region' (shown as the red bars in the above graphs) lies in the right tail of the distribution of the number of heads in 10 tosses of a fair coin. This is a one-tail rejection region or one-tail test. Note that the 'greater than' symbol (>) in Ha points toward the rejection region.

If you were testing H0: coin is fair (p=0.5) against the alternative hypothesis Ha: coin is biased toward tails (p<0.5), you would only reject the null hypothesis in favor of the alternative hypothesis if the number of heads was some number less than 5. For example, you might decide to reject H0 and accept Ha if the number of heads was 2 or fewer. Then the rejection region would lie in the left-hand tail of the probability distribution as shown by the shaded portion of the next graph. This is again a one-tail test. The 'less than' symbol (<) points toward the rejection region.

On the other hand if you were testing H0: coin is fair (p=0.5) against the alternative hypothesis Ha: coin is not fair (p not equal to 0.5), you would reject the null hypothesis in favor of the alternative hypothesis if the number of heads was some number much less than 5 or some number much greater than 5. For example, you might decide to reject H0 and accept Ha if the number of heads was 2 or fewer or 8 or more. Then the rejection region would lie in both tails of the probability distribution of the number of heads. This is shown by the shaded portion of the next graph. This is a two-tail test with rejection regions in both tails.

Specific Hypothesis Tests

Summary of the p-value method

  • Determine the null and alternative hypotheses
  • Determine the test statistic
  • Take a random sample of size n and compute the value of the test statistic
  • Determine the probability of observed value or something more extreme than the observed value of the test statistic (more extreme is based on the null and alternative hypotheses). This is the p-value.
  • Reject the null hypothesis if the p-value is 'small.' (Where a significance level is give for the test, 'small' is usually meant to be any p-value less than or equal to the significance level)

For a population mean with known population standard deviation

(1) Sample is random
(2) If the sample is small (n<30), the population is normal or close to normal.

For a population mean with unknown population standard deviation

(1) Sample is random
(2) If the sample is small (n<30), the population is normal.

For a population proportion

(1) Sample is random
(2) Sample is large (n is 30 or more)
(3) x is the number of sample elements that have the characteristic


Confidence Intervals and Levels

The interval de încredere is the plus-or-minus figure usually reported in newspaper or television opinion poll results. For example, if you use a confidence interval of 4 and 47% percent of your sample picks an answer you can be “sure” that if you had asked the question of the entire relevant population between 43% (47-4) and 51% (47+4) would have picked that answer.

The nivel de încredere tells you how sure you can be. It is expressed as a percentage and represents how often the true percentage of the population who would pick an answer that lies within the confidence interval. The 95% confidence level means you can be 95% certain the 99% confidence level means you can be 99% certain. Most researchers work for a 95% confidence level.

When you put the confidence level and the confidence interval together, you can say that you are 95% sure that the true percentage of the population is between 43% and 51%.

Factors that Affect Confidence Intervals
The confidence interval is based on the margin of error. There are three factors that determine the size of the interval de încredere for a given nivel de încredere. Acestea sunt: marime de mostra, percentage și mărimea populației.

Marime de mostra
The larger your sample, the more sure you can be that their answers truly reflect the population. This indicates that for a given nivel de încredere, the larger your sample size, the smaller your interval de încredere. However, the relationship is not linear (i.e., doubling the sample size does not halve the confidence interval).

Procent
Your accuracy also depends on the percentage of your sample that picks a particular answer. If 99% of your sample said “Yes” and 1% said “No” the chances of error are remote, irrespective of sample size. However, if the percentages are 51% and 49% the chances of error are much greater. It is easier to be sure of extreme answers than of middle-of-the-road ones.

When determining the sample size needed for a given level of accuracy you must use the worst case percentage (50%). You should also use this percentage if you want to determine a general level of accuracy for a sample you already have. To determine the confidence interval for a specific answer your sample has given, you can use the percentage picking that answer and get a smaller interval.

Population Size
How many people are there in the group your sample represents? This may be the number of people in a city you are studying, the number of people who buy new cars, etc. Often you may not know the exact population size. This is not a problem. The mathematics of probability proves the size of the population is irrelevant, unless the size of the sample exceeds a few percent of the total population you are examining. This means that a sample of 500 people is equally useful in examining the opinions of a state of 15,000,000 as it would a city of 100,000. For this reason, the sample calculator ignores the population size when it is “large” or unknown. Population size is only likely to be a factor when you work with a relatively small and known group of people .

Notă:
The confidence interval calculations assume you have a genuine random sample of the relevant population. If your sample is not truly random, you cannot rely on the intervals. Non-random samples usually result from some flaw in the sampling procedure. An example of such a flaw is to only call people during the day, and miss almost everyone who works. For most purposes, the non-working population cannot be assumed to accurately represent the entire (working and non-working) population.

Most information on this page was obtained from The Survey System


  • This table is designed to help you choose an appropriate statistical test for data with two or more dependent variables .
  • Hover your mouse over the test name (in the Test column) to see its description.
  • The Methodology column contains links to resources with more information about the test.
  • The Cum să columns contain links with examples on how to run these tests in SPSS, Stata, SAS, R and MATLAB.
  • The colors group statistical tests according to the key below:

* This is a user-written add-on

This page was adapted from the UCLA Statistical Consulting Group. We thank the UCLA Institute for Digital Research and Education (IDRE) for permission to adapt and distribute this page from our site.


Priveste filmarea: chi kwadrat 2 (Februarie 2023).