 |
Textbook
(Chapter 6 - Page 2 / 5)
lineare Regression
Die Regressionsgerade kann also als eine Schätzfunktion aufgefaßt
werden, mit der - bei gegebenen x-Werten - y-Werte berechnet werden
können. Da es sich hier um eine Gerade handelt, ist die Funktion:
beschrieben, wobei a der Wert von y ist, der für die Ausprägung
x = 0 geschätzt wird (der Schnittpunkt mit der y-Achse) und b
ein Wert, der die Steigung der Geraden angibt: Je höher b zahlenmäßig
ist, desto steiler verläuft die Regressionsgerade, d.h. desto
geringere Veränderungen der unabhängigen Variablen bewirken desto
größere Veränderungen der abhängigen Variablen.
Die Gerade soll nun bestmöglich angepaßt werden, d.h. die Fehler,
die man bei der Schätzung macht, sollen möglichst klein sein.
Als Fehler kann man die Differenz zwischen jedem Paar aus einem
tatsächlichen Meßwert yi und dem dazugehörenden, aufgrund der Regressionsgleichung errechneten
Schätzwert auffassen. Es wird gefordert, b genauso zu wählen, daß die Summe
aller quadrierten 'Fehler' möglichst klein ist:
= Minimum
was gleichwertig ist zu
= Minimum
Daß man hier die quadrierten Fehler betrachtet (= Methode der
kleinsten Quadrate), hängt damit zusammen, daß man einem Fehler
mehr Gewicht zuerkennen will, je größer er ist. Ein Fehler von
z.B. fünf Einheiten wird dann eben stärker ins Gewicht fallen
als zwei kleine Fehler von z.B. 2,5 Einheiten (2,5 + 2,5 = 5 aber
2,52 + 2,52 < 52).
|