Regressionsvoraussetzungen testen &
Alternativen bei verletzten Regressionsannahmen
Arndt Regorz, Dipl. Kfm. & M.Sc. Psychologie, 03.06.2022
Wenn man eine multiple Regression durchführt, sind eine Reihe von Voraussetzungen zu testen, um zu gültigen Ergebnissen zu kommen. Hier werden die wesentlichen Voraussetzungen vorgestellt und ggf. mögliche Maßnahmen erläutert, wenn die Voraussetzungen verletzt sind.
Inhalt
- Normalverteilung
- Homoskedastizität
- Linearität
- Keine starke Multikollinearität
- Unkorreliertheit der Fehler
- Skaleneigenschaften
- Keine starken Ausreißer
- Testen der Regressionsvoraussetzungen mit R
1. Normalverteilung
Dieses Tutorial erläutert die Voraussetzung normalverteilter Fehlerterme bei der Regression:
Normalverteilung als Regressionsvoraussetzung
Und hier wird mit Bootstrapping eine mögliche Alternative erklärt, wenn die Normalverteilungsvoraussetzung verletzt ist (theoretische Grundlagen und Umsetzung mit SPSS):
Bootstrapping bei Regression
Der Einsatz von Bootstrapping bei der Regression mit R wird hier gezeigt:
Regression mit Bootstrapping in R
2. Homoskedastizität
Dieses Tutorial erläutert die Voraussetzung der Homoskedastizität (Varianzhomogenität):
Homoskedastizität als Regressionsvoraussetzung
Und hier wird als mögliche Alternative bei Heterkoskedastizität der Einsatz robuster Standardfehler erklärt:
Robuste Standardfehler bei Heteroskedastizität
3. Linearität
Dieses Tutorial erläutert die Voraussetzung der Linearität:
Linearität als Regressionsvoraussetzung
Und hier wird als mögliche Alternative bei einem nicht linearen Zusammenhang die polynomiale Regression erklärt:
Polynomiale Regression
4. Keine starke Multikollinearität
Dieses Tutorial erläutert die Voraussetzung, dass keine starke Multikollinearität zwischen den verschiedenen Prädiktoren herrscht:
Regressionsvoraussetzung: Keine starke Multikollinearität
Hier wird die Interpretation der SPSS-Tabelle „Kollinearitätsdiagnose“ erklärt:
SPSS-Tabelle "Kollinearitätsdiagnose" bei Regression
Die Voraussetzung, dass es keine starke Multikollinearität gibt, gilt anders als die anderen auf dieser Seite aufgeführten Voraussetzungen nur bei einer multiplen Regression, also mit zwei oder mehr Prädiktoren. Bei einer einfachen Regression können/müssen Sie das nicht prüfen.
5. Unkorreliertheit der Fehlerterme
Dieses Tutorial erläutert die Voraussetzung unkorrelierter Fehler (manchmal auch ausgedrückt als unabhängige Fehler):
Regressionsvoraussetzung: Unkorreliertheit der Fehler bzw. Residuen
Wenn eine genestete Datenstruktur vorliegt, einer der Hauptgründe für eine Verletzung dieser Voraussetzung, kommen i.d.R. Verfahren der Mehrebenenanalyse (HLM, Linear Mixed Effects Models) zum Einsatz, siehe Mehrebenenanalyse (HLM, Linear Mixed Effects Models).
6. Skaleneigenschaften
Dieses Tutorial erläutert die notwendigen Skaleneigenschaften für die multiple lineare Regression:
Regressionsvoraussetzung: Geeignete Skaleneigenschaften
Wenn Ihr Prädiktor / Ihre UV lediglich ordinalskaliert ist, gibt es eine Reihe von Optionen, wie man dennoch eine multiple lineare Regression durchführen kann:
Ordinale Prädiktoren/UVs in der Regression
7. Keine starken Ausreißer
Dieses Tutorial erläutert die Diagnose von Ausreißern bei der Regression:
Regressionsvoraussetzung: Keine starken Ausreißer
Dieses Tutorial erläutert Optionen für den Umgang mit diagnostizierten Ausreißern bei der Regression:
Umgang mit Ausreißern in der Regressionsanalyse
Mit R können Sie eine robuste Regression durchführen, ein Verfahren, das robust gegen den Einfluss von Ausreißern ist:
Robuste Regression mit R
8. Testen der Regressionsvoraussetzungen mit R
Hier wird der Test der Regressionsvoraussetzungen mit R demonstriert (R-Syntax)
Regressionsvoraussetzungen mit R testen
(Der Test der Regressionsvoraussetzungen mit SPSS ist jeweils in die o.g. Tutorials integriert.)