2.1 Het lineaire regressiemodel
Het lineaire regressiemodel wordt veel gebruikt binnen de economische wetenschap om situaties of gebeurtenissen te verklaren of te voorspellen. De relaties tussen verschillende variabelen worden door toepassing van dit regressiemodel verklaard. Wiskundig gezien wordt het lineaire regressiemodel als volgt weergegeven: Yt = α + βxt + ut. Y is de afhankelijke variabele, de onafhankelijke en verklarende variabele is x, α is een constante, β geeft de helling van de lijn weer en de storingsterm wordt weergegeven als u (Brooks, 2002, p.45). De meest toegepaste methode om een lineaire lijn bij de data te creëren is de ordinary least squares (OLS) methode. De OLS methode is een methode om bij een gegeven set datapunten, die verondersteld worden praktisch op een rechte lijn te liggen, de "best passende" lijn te bepalen. Het totaal van de gekwadrateerde afwijkingen in verticale zin van de punten ten opzichte van de lijn moet geminimaliseerd worden (Brooks, 2002, p.47). De parameters die bij de minimale kwadratensom horen worden dan bepaald. Autocorrelatie is van belang binnen de lineaire regressiemethode. Het is belangrijk om te weten in welke mate de gemeten waarnemingen onderling correleren. Autocorrelatie in afhankelijke variabelen kan de schattingen van de parameters beïnvloeden, het wordt dan onduidelijk of deze parameters zuiver zijn.
2.2 Monte Carlosimulatie
Om te onderzoeken in hoeverre autocorrelatie invloed heeft op het lineaire regressiemodel wordt er een model gecreëerd. Dit model bevat een onafhankelijke variabele (X) en een afhankelijke variabele (Y), het Monte Carlosimulatiemodel wordt hierop toegepast (Dougherty, 2002, p.72).
Met Monte Carlosimulatie als toepassing wordt als eerste voor het lineaire regressiemodel willekeurig de waarden voor α en β gekozen. Vervolgens wordt met EViews 5.0 voor een vastgesteld aantal waarnemingen, hier uitgaande van 1000 waarnemingen per simulatie (T=1000), waarden