Lineārās regresijas analīze

Vikipēdijas lapa
Pārlēkt uz: navigācija, meklēt

Regresijas analīzes galvenais uzdevums ir pētīt sakarības starp rezultatīvo pazīmi y un faktoriālo pazīmi x un novērtēt šīs sakarības funkciju. Regresijas analīze nosaka, pēc kādas likumsakarības mainās rezultatīvā pazīme, ja mainās faktoriālās pazīmes vērtība. Pilnīgi lineārajām funkcionālām sakarībām ir raksturīgs, ka katrai x_i vērtībai atbilst viena noteikta y_i vērtība, tātad attiecības ir pilnībā prognozējamas.

Termins[labot šo sadaļu | labot pirmkodu]

Terminu regresija ir ieviesis Frānsiss Galtons. Savā rakstā viņš atzīmēja, ka, lai gan garākiem vecākiem ir tendence piedzimt garākiem bērniem un īsākiem otrādi, tomēr abiem vecāku veidiem bērnu augumam ir tendence virzīties jeb regresēt uz vidējo augumu visā populācijā. Galtona likumu apstiprināja Karls Pīrsons, kas savāca vairāk nekā tūkstoti ierakstu par cilvēku augumiem. Tātad ar parastās viena faktora regresijas palīdzību ir iespējams prognozēt dēla augumu, ja ir zināms viņa tēva augums.

Lineārā regresija[labot šo sadaļu | labot pirmkodu]

Korelācijas diagramma un regresijas taisne

Lineāro regresijas modeli vispārīgā veidā var pierakstīt šādi:


    Y = \hat\alpha + \hat\beta X.

kur Y — rezultatīvā pazīme, X — faktoriālā pazīme, \hat\alpha, \hat\beta - modeļa parametri, kuri jāaprēķina.

Plašākos pētījumos, kad vienā darbā jāaplūko vairāki modeļi ar dažādām rezultatīvām un faktoriālām pazīmēm, tās kodē ar skaitļiem. Sakarību starp divām pazīmēm sauc par korelatīvu, ja faktoriālās pazīmes izmaiņas ir saistītas ar rezultatīvās pazīmes vidējo vērtību izmaiņām.

Modeli statistikā un ekonometrijā sauc par vienkāršu (pāru) lineāru regresijas vienādojumu, tā koeficientu \hat\beta par regresijas koeficientu, bet \hat\alpha — par vienādojuma brīvo locekli. Lai modelis kļūtu konkrēts un atspoguļotu interesējošās sakarības, ir jānosaka, izmantojot statistikas datus, parametru \hat\alpha un \hat\beta vērtības. To, var izdarīt ar vairākām metodēm. Statistikā un ekonometrijā visplašāko pielietojumu ir guvusi mazāko kvadrātu metode.

Saskaņā ar to, \hat\alpha un \hat\beta jāizvēlas tā, lai noviržu kvadrātu summa faktiski novērotām un ar modeli aprēķinātām rezultatīvās pazīmes vērtībām būtu minimāla. Matemātiskajā statistikā pierāda, ka šīm prasībām atbilst taisne, kuras parametri a un b ir šādi:


    \hat\beta = \frac{ n\sum{x_iy_i} - \sum{x_i}\sum{y_i} }
                     { n\sum{x_i^2} - (\sum{x_i})^2 } , \quad
    \hat\alpha = \overline{y} - \hat\beta\,\overline{x}\ .

Skatīt arī[labot šo sadaļu | labot pirmkodu]

Ārējās saites[labot šo sadaļu | labot pirmkodu]