Multikolinearitāte

Vikipēdijas raksts
Pārlēkt uz: navigācija, meklēt

Multikolinearitāte pilna nozīme jeb stingra Multikolinearitāte
Pieņemsim, ka prediktoru matrica sastāv no k+1 prediktora (faktora) X=x(0)+x(1)+...+x(k). Par multikolinearitāti stingra nozīme sauc situāciju, kas prediktoru matricas X kolonnas ir atkarīgas, t.i. eksistē skaitļi v0,v1,...vk tādi, ka vox(0)+v1x(1)+...+vkx(k)=0, turklāt vismaz viens no v0,v1,...vk≠0.

Pilnas Multikolinearitātes gadījumā vismaz vienu no prediktoriem var izteikt, ka pārējo prediktoru lineāru kombināciju. Šajā gadījumā tiek pārkāpts viens no klasiska daudzfaktoru lineāras regresijas modeļa pieņēmumiem: rank(X)=k+1. Statistisko pētījumu praksē pilna multikolinearitāte ir reti sastopama, tas ir saistīts ar to, ka pirmkārt tas ir viegli izvairīties pētījumā plānošanās posmā, izvēloties prediktorus, kuri nav savstarpēji atkarīgi. Bet jābūt labi pazīstams no kurienes rodas mainīgie, lai nerodas situācija, ka mainīgais ir citu mainīgo summa utt. Otrkārt, ja teorētiski multikolinearitāte pastāv, praksē parasti mērījumi ir ar kļūdām, pateicoties kuram pilnas multikolinearitātes nebūs, tāpēc prakse bieži sastopams ir daļēja multikolinearitāte, t.i. lineāra nozīme, kas aptuveni būs vienāda ar 0.

Tātad ar multikolinearitāti mēs sapratīsim neatkarīgo mainīgo saistību. Gadījumā ja regresijas dati nav iegūti no speciāli plānota eksperimenta, neatkarīgie mainīgie tipiski ir saistīti. Tāpēc jautājums ir par multikolinearitāti nevis par tas klātbūtni, bet par tas pakāpi.

Multikolinearitātes pazīmes

Tā, ka multikolinearitāte ir daudzpusīgs jēdziens, tad grūti arī atrast tādu raksturojumu, kas būtu labāks par visiem pārējiem. Pašreiz vēl nav izdomāta metode, ka mērīt multikolinearitāti precīzi, tāpēc tiek izstrādāti tā saucamas empīriska pieejas, t.i. matemātiskie raksturojumi.

Multikolinearitātes pazīmes, kurus var redzēt novērtētajā modelī.

Pēc būtības šīs pazīmes ir multikolinearitātes sekas. Turklāt attiecināmi:

  • dažiem bi novērtējumiem ir nepareizas no teorijas viedokļa vai nepamatotas lielas vērtības.
  • nelielas izmaiņas sākotnējos statistikas datos, tas ir nelielo novērojumu skaita ieslēgšana vai izslēgšana, noved pie bibūtiskām izmaiņām, līdz pat zīmes maiņai.
  • lielāka daļa koeficientu novērtējumu, vai iespējams, ka arī visi novērtējumi izradās statistiski nenozīmīgi, bet tajā paša laikā F kritiskā vērtība ir pietiekoši liela, tā, ka mēs noraidām H0 hipotēzi, H0: bi=0

Ja korelācija starp diviem jebkuriem prediktoriem , tad var rasties problēma ar multikolinearitāti. Nedrīkst pieļaut lai korelācijas starp prediktoriem būtu stiprāka nekā starp prediktoru un atkarīgo mainīgo.

Problēma tādam raksturotajam var rasties tādos gadījumos, kad, piemēram, korelācijas starp x1 un x3 , x2 un x3 prediktoriem ir vājas , bet starp x1, x2 un x3 pastāv lineāra funkcija tāda, ka x3=a1x1+a2x2 , tāda gadījuma multikolinearitāti mēs nepamanīsim.