 |
Textbook
(Chapter 6 - Page 5 / 5)
Voraussetzungen der Regression
Voraussetzungen und Einschränkungen
- Beide in Frage kommenden Variablen müssen intervallskaliert sein.
- Innerhalb jeder Stichprobe der x-Werte müssen die y-Werte normal
verteilt sein (d.h. wenn man eine beliebige Zufallsauswahl von
x-Werten trifft, dann gilt das auch für die y-Werte).
- Voraussagen über y-Werte können nur über den durch die tatsächlich
in die Regressionsrechnung eingegangenen eingegrenzten Werte-Bereich
von x gemacht werden.
Der Grund dafür ist folgender:
Voraussetzung der Anwendung der linearen einfachen Regression
ist die Annahme, daß der Zusammenhang zwischen x- und y-Variabler
linear ist. Der Punkteschwarm muß also am besten durch eine Gerade
repräsentiert werden können. Über die Art des Zusammenhangs läßt
sich aber nur im Wertebreich der tatsächlich aufgetretenen x-Werte
eine Aussage machen. Ob außerhalb dieses Wertebereichs der Zusammenhang
mit der Kriteriumsvariablen ebenfalls linear oder aber eher kurvenlinear
ist, bleibt unklar. Bei kurvenlinearem Zusammenhang (z.B. U-förmig)
ist eine Gerade zur Repräsentation des Punkteschwarmes nicht mehr
angemessen. Es müssen dann andere "Regressionskurven" (z.B. Parabel)
verwendet werden.
- Es können nur Vorhersagen in eine Richtung getroffen werden, nämlich
für die y-Werte aufgrund der x-Werte, nicht umgekehrt (d.h. für
die abhängige Variable aufgrund der unabhängigen).
- Die Aussagen über den gerichteten Zusammenhang zwischen abhängiger
und unabhängiger Variable beziehen sich ausschließlich auf einen
linearen Zusammenhang.
- Jede Form von Regressionsrechnung setzt fundierte theoretische
Überlegungen über die Angemessenheit der angenommenen Regressionsrichtung
voraus.
Eine weitere inhaltliche - nicht statistische - Einschränkung
für die Anwendung der einfachen Regression ist darin begründet,
daß sie nur in seltenen Fällen psychologischer Fragestellungen
sinnvoll eingesetzt werden kann.
Um eine Vorhersage machen zu können, brauchen wir - die Höhe der
Korrelation zwischen abhängiger und unabhängiger Variabler, sowie
- die Standardabweichungen beider Variablen. Nur dann ist der
Regressionskoeffizient zu berechnen.
Von diesen Parametern haben wir nur sehr selten Kenntnis (es müßten
die Parameter aus der Literatur entnommen werden). Ob diese Parameter
auch für die uns interessierende Stichprobe Gültigkeit haben,
bleibt dabei meist offen. Außerdem sind zuverlässige Voraussagen
erst bei sehr hohen Korrelationen (r >= 85) möglich; bei niedrigeren
Korrelationen ist der Fehler bzw. das Unsicherheitsintervall der
Voraussage häufig größer als die gesamte Skalenbreite der vorauszusagenden
Variablen. In solchen Fällen sind Prognosen natürlich wertlos.
Bleibt die Frage, warum dann überhaupt einfache Regression, wo
doch in der psychologischen Forschung kaum Korrelationen von r
>=70 beobachtet werden.
Der Hauptgrund für die Beschäftigung mit der einfachen Regression
ist der, daß hierbei das Prinzip der Vorhersage gut veranschaulicht
werden kann. Damit ist eine Grundlage vorhanden, die es ermöglicht,
besser in die Problematik der multiplen Regression einzusteigen,
welche weitaus häufiger, wenn auch nicht immer mit großem Erfolg
angewandt wird. Darüberhinaus kann in den folgenden Fällen einfache
Regression sinnvolle Anwendung finden:
Sind x- und y-Werte gemessen worden, so kann mit Hilfe der einfachen
Regressionsrechnung für jeden möglichen x-Wert eine Vorhersage
des y-Wertes vorgenommen werden (allerdings nur als Schätzung),
auch für solche x-Werte, die in der untersuchten Stichprobe nicht
vorgekommen sind. Es ist jedoch darauf zu achten, daß eine Vorhersage
nur für solche x-Werte erfolgen sollte, die innerhalb der Spannweite
der x-Werte liegen. So mag z.B. in einer Stichprobe das Merkmal
Neurotizismus als x-Wert gemessen worden sein auf einer Skala,
die von eins bis neun reicht, ohne daß der x-Wert 2 in der Stichprobe
beobachtet worden ist. Aufgrund der einfachen Regressionsrechnung
läßt sich nun auch vorhersagen, welchen y-Wert ein Proband mit
dem x-Wert 2 wahrscheinlich aufweisen wird.
Auch im Zusammenhang mit Veränderungsmessungen kann die einfache
Regressionsanalyse eingesetzt werden (Berechnung sog. Regressionsabweichungswerte).
Dabei wird etwa bei der Berechnung eines Therapiebehandlungseffektes
der Veränderungseffekt herausgefiltert, der sich allein aus der
Tatsache ergibt, daß mit ein und demselben Meßinstrument zweimal
(zu Beginn und am Ende der Therapie) gemessen wird. Diese durch
die zweimalige Messung hervorgerufene Veränderung ist jedoch nicht
interessant, sondern die Veränderung, die durch die Therapie bedingt
ist.
Dazu ein Beispiel:
Durch eine Therapie soll das Ausmaß an Angst bei Klienten vermindert
werden. Zu Beginn der Therapie wird mittels eines Fragebogens
das Ausmaß an Angst festgestellt. Derselbe Fragebogen wird auch
nach Abschluß der Therapie verwendet. Nun ist es möglich, daß
der Angstwert einer Kontrollgruppe, die zwischenzeitlich keine
Therapie bekommen hat, bei der zweiten Messung niedriger liegt
als bei der ersten Messung (vielleicht, weil Testsituation und
Versuchsleiter bereits bekannt sind). Diese sich von selbst vermindernde
Angst ist nun aber auch bei denen zu vermuten, die in der Zwischenzeit
eine Therapie erhalten haben; ihr Ausmaß an Angst wird - im Falle
erfolgreicher Therapie - noch geringer geworden sein als in der
Kontrollgruppe. Ein Teil dieser Veränderung geht aber nicht auf
den Therapieeinfluß zurück, sondern erklärt sich aus der Tatsache
der Mehrfachtestung.
Mit Hilfe der einfachen Regression kann nun geschätzt werden,
welchen Angstwert die Klienten zum Zeitpunkt der zweiten Messung
(y-Wert), ausgehend von den x-Werten der ersten Messung, aufweisen
werden (ohne den Einfluß der Therapie). Dieser Schätzwert wird dann verglichen mit dem tatsächlichen y-Wert (zweite Messung
nach Erhalt der Therapie). Erst die Differenz zwischen und y läßt den Einfluß der Therapie auf die Veränderung der Angstwerte
erkennen.
|