@@sxdkah4788 Hallo, die Signifikanz des Tests unter 0,05 sorgt für die Ablehnung der Nullhypothese von Homoskedastizität. Demnach läge Heteroskedastizität vor. Viele Grüße, Björn.
Hallo Björn. Herzlichen Dank für das hilfreiche Video. Nehme ich bei einer Moderatoranalyse auch den Moderator mit in die Berechnung als Kovariate auf? Welche Werte kommen in die Abschlussarbeit? Nur der p-Wert? Und was bedeutet es, wenn die Tests auf Zwischensubjekt signifikant werden?
Hallo Björn, vielen Dank auch für dieses hilfreiche Video! Mein Streudiagramm lässt keine Heteroskedastizität vermuten (ich erkenne dort eine Kastenform), jedoch zeigt der Breusch-Pagan-Test (NV liegt vor) Signifikanz, was also doch auf Heteroskedastizität hindeutet. Meine Stichprobe umfasst n = 250. Soll ich in diesem Fall nun besser auf die Sichtprüfung vertrauen, oder den statistischen Test annehmen und die Regression mit dem HC3-PlugIn durchführen? Für einen Rat wäre ich sehr dankbar! Viele Grüße, Larissa Brümmer
Mal wieder super hilfreich danke Dir! Leider zu spät gesehen, nachdem ich den White Test aus dem älteren Video schon aufwändiger nachgebastelt habe. Meine Frage zu diesem Video: Auf welche Quelle verweise ich denn am besten bei Entscheidungen wie "wegen sehr hoher Kurtosis kann ich den Breusch Pagan-Test durchführen"?
Hallo Marcus, schau mal hier: Koenker, R. (1981). A note on studentizing a test for heteroscedasticity. Journal of econometrics, 17(1), 107-112. Viele Grüße, Björn.
Erstmal vielen Dank für die hilfreichen Videos. Ich habe noch eine Frage: Wenn man eine schrittweise multiple lineare Regression analytisch auf Heteroskedastizität überprüfen möchte, schiebe ich dann alle (also auch die im finalen Modell ausgeschlossenen Variablen) in die Kovariaten-Box oder nur die ins finale Modell eingeschlossen unabhängigen Variablen? Über eine Antwort würde ich mich sehr freuen und ich hoffe du weißt, dass viele ohne deine Videos aufgeschmissen wären :)
Hallo Tim und danke für deine lobenden Worte! Dir geht es um Heteroskedastizität im finalen Modell. Die anderen Modelle verwirfst du ja quasi. Von daher prüfst du auch nur für das finale Modell die Heteroskedastizität. Viele Grüße, Björn.
Erstmal vielen Dank für deine wirklich sehr hilfreichen Videos! Eine Frage habe ich zu diesem Thema hier: Welche Folge hat die Verwerfung der H0 beim Breusch Pagan Test (und damit die Feststellung von Heteroskedaszitität ), wenn ich ein Mixed Modell (Panelregression mit 2 Ebenen und random effects) anwenden möchte? Treten dieselben negativen Effekte wie bei einer normalen ANOVA auch bei einem Mixed Model auf? Vielen Dank im Voraus!
Hallo Nicholas, danke für dein Lob! Heteroskedastizität sorgt immer für verzerrte Standardfehler, was zu verzerrten t-Werten und damit verzerrten p-Werte führt.Im schlimmsten Fall begehst du also Fehler 1. oder 2. Art. Viele Grüße, Björn.
Zunächst einmal herzlichen Dank für all die hilfreichen Videos für die Auswertung der Masterarbeit! Da verstehe ich wenigsten, was ich warum machen soll. :) Wie gehe ich denn bei einer bzw. Mehreren hierarchischen linearen Regression vor? Nehme ich dazu alle UVs (auch die laut hierarchisch linearer Regression keinen signifikanten Erklärwert haben) in 'einem Block' in der ALM zum Test der Heteroskedastizität auf, und das jeweils für jede AV? Dann habe ich ja am Ende immer wieder mit denselben Daten auf unterschiedliche AVs gerechnet, das kommt mir irgendwie falsch vor.
Hallo und danke für dein Lob! Am einfachsten ist wohl direkt robuste Standardfehler für das jeweilige Modell (wahlweise auch blockweise) zu rechnen und sich Test auf Heteroskedastizität und Autokorrelation gänzlich schenken zu können. Wäre zumindest mein Rat. th-cam.com/video/dOf03X1CHyM/w-d-xo.html Quelle, die dieses Vorgehen stützt: Hayes, A. F., & Cai, L. (2007). Using heteroskedasticity-consistent standard error estimators in OLS regression: An introduction and software implementation. Behavior research methods, 39(4), 709-722, S. 714: "Thus, we echo Long and Ervin’s (2000) recommendation that investigators should employ a heteroskedasticity-consistent estimator such as HC3-if not as a matter of routine, at least as a means of doublechecking one’s inferences to see if they might be influenced by heteroskedasticity. In the event that a few cases exhibit high leverage, HC4 can be used instead." Viele Grüße, Björn.
Sehr cool! Der BP/White Test ist allerdings nur für lineare Regressionsmodelle gültig oder? Wie sieht es aus wenn ich die Residuen eines nicht-linearen fits an meine Daten auf Heteroskedastizität testen möchte?
Hallo Philipp, soweit ich weiß, ja. DIe Prüfung von nichtlinearen Modellen auf Hetersoskedastizität habe ich in typischer Software wie SPSS noch nicht gesehen. In R gibt es da sicher ein Paket für, aber auch da muss ich passen. Die Literatur ist auch nicht gerade ergiebig, Lin, J. G., & Wei, B. C. (2003). Testing for heteroscedasticity in nonlinear regression models. Communications in Statistics-Theory and Methods, 32(1), 171-192. Viele Grüße, Björn.
Hallo Björn, vielen Dank für Deine informativen und sehr hilfreichen Erklärungsvideos. Eine Frage zu Deinem Tutorial: Leider werden mir unter Analysieren/Allgemeines Lineares Modell/Optionen nicht die unterschiedlichen Tests zur Auswahl angezeigt. Hast Du eine Idee, woran das liegen könnte? Ich arbeite mit SPSS Version 23. Schon einmal vielen Dank und Grüße, Andreas
Hallo Andreas, danke für dein Lob! Die Tests wurden - wenn ich mich richtig erinnere - in SPSS 26 eingeführt. In 27 sind sie definitiv drin und auch weiterhin implementiert. Leider ist deine Version zu alt, dass die Tests drin sind. Alternativ kann man den White-Test in alten Versionen selbst nachbauen: th-cam.com/video/L2mfp-qrSS0/w-d-xo.html Bequemer wäre es im Endeffekt, sofern es analytisch sein muss, eine neue Version zu haben oder man schreckt vor R nicht zurück: th-cam.com/video/nDX61CFnee4/w-d-xo.html Wenn es nicht zwingend analytisch sein muss, würde ich grafisch prüfen, da mit zunehmender Stichprobengröße analytische Tests auch kleine Abweichungen von Homoskedastizität als signifikant einstufen und so falsche Schlüsse nach sich ziehen. Viele Grüße, Björn.
Sehr schöne Video Björn, vielen Dank! Sag doch mal bitte, wie es mit denn Voraussetzungen der Skalenniveau der unabhängigen Variablen bei den drei genannten Tests (White, Breusch-Pagan...) ausschaut? Müssen sie für die richtige Durchführung sowie Interpretation der Ergebnisse (wie auch bei der Multiplen Linearen Regression) metrisch skaliert sein oder dürfen sie auch nominal und ordinal skaliert sein bzw. müsste man sie in Dummy Variablen umkodieren? Bedanke mich im Voraus für die Antowort! :)
Hallo Ilia und danke für dein Lob! Das Skalenniveau ist nicht interessant, da es um die Varianz der Residuen, also der Abstände zwischen geschätzer AV und tatsächlicher AV geht. Kurzum: man kann, sofern die normalen Voraussetzungen der Regression erfüllt sind, immer diese Tests anwenden. Viele Grüße, Björn.
Hallo Johannes, danke! Der White-Test ist ungeeignet bei kleinen Stichprobengrößen, besonders bei einer hohen Zahl von UVs. Er gibt auch gerne fälschlicherweise Heteroskedastiztät an. Ich prüfe ohnehin lieber grafisch bzw. rechne direkt mit HC3 oder HC4 robuste Standardfehler aus und ignoriere diese eher wackligen Tests daher. Ich würde dir bei Interesse empfehlen, das mal in Ruhe nachzulesen: Kaufman (2013) Heteroskedasticity in Regression, S. 13 ff. Viele Grüße, Björn.
Hallo, da ich multivariate Regressionsanalyse durchführen muss, wie wäre hier die Vorgehensweise? In SPSS kann man auch "Multivariat" anwählen, aber diese Tests werden dann nicht angezeigt. Sind diese nur für univariate Analysen geeignet?
Was mache ich wenn alle Tests nicht signifikant und auch nicht Mal in der Nähe sind, es graphisch aber nach Heteroskedastozität aussieht (Diamantform)?
Jetzt ist es ja schon länger ruhig hier in der Kommentarspalte gewesen. Aber gibt es denn die Möglichkeit, dass man an diesen Datensatz irgendwie kommt. Für meinen Uni-Kurs muss ich meinen Mitstudierenden erklären, wie multiple Regression funktioniert und ich mag den Datensatz. Geht das irgendwie? :D
Hallo Charlotte, es gibt auf jeden Fall einen abgespeckten Datensatz zum Download: bjoernwalther.com/daten-in-spss-importieren-csv-excel-txt/ Da sollten alle wesentlichen Dinge drin sein, wenn ich mich richtig erinnere. Viele Grüße, Björn.
Hallo, die Videos helfen echt super!! Allerdings habe ich das Problem, dass ich den Breusch Pagan-Test nicht unter den "Optionen" finden kann. Ich kann da lediglich das Fenster "Anzeige" und "Geschätzte Randmitte" sehen. Evtl. habe ich nicht die aktuelle Version? Gibt es eine andere Möglichkeit den Test durchzuführen?
Hallo Alexa und danke für dein Lob! Ich kann es nicht genau sagen, der BP-Test war aber wohl erst ab SPSS 26 integriert. Mein Tipp: grafische Prüfung: th-cam.com/video/BCNf2HwcGnk/w-d-xo.html Ansonsten einfach robuste Standardfehler berechnen: th-cam.com/video/dOf03X1CHyM/w-d-xo.html Das folgt der Empfehlung von Hayes, Cai: Using heteroskedasticity-consistent standard error estimators in OLS regression (2007), S. 714: "Thus, we echo Long and Ervin’s (2000) recommendation that investigators should employ a heteroskedasticity-consistent estimator such as HC3-if not as a matter of routine, at least as a means of doublechecking one’s inferences to see if they might be influenced by heteroskedasticity. In the event that a few cases exhibit high leverage, HC4 can be used instead." Viele Grüße, Björn.
Ich bin ein bisschen verwirrt, da das was Sie erzählen von dem abweicht, was ich in meiner Recherche gelesen habe: 1. Der studentized BP Test ist dem BP Test überlegen, da der BT Test nur dann verlässlich ist, wenn die Variable perfekt normalverteilt ist. Bei der studentized Version gibt es das Problem nicht, er ist bei jeder Art der Verteilung sinnvoll. 2. Der White Test funktioniert genauso wie der studentized BP Test, berücksichtig jedoch auch die quadrierten unabhängigen Variablen sowie die Interaktionen verschiedener Variablen. Somit werden mehr Formen der Heteroskedaszität erkannt, als beim BP Test oder studentized BP Test. Er ist ebenfalls nicht auf die Normalverteilung beschränkt. Er klärt jedoch nicht nur Heteroskedaszität, sondern auch falsche Modellspezifikationen auf. Ich verstehe nicht, warum Sie ausgerechnet den BP Test empfehlen . Gut, man darf ihn hier verwenden, aber das gilt genauso für die anderen. Scheinbar hat in Ihrem Beispiel der White Test entweder Heteroskedaszität oder eine falsche Modellspezifikation (z.B. eine nicht berücksichtige Interaktion der zwei unabhängigen Variablen) oder beides aufgedeckt. Achja, teilweise werden robuste Standardfehler HC3 sogar bei Homoskedaszizät empfohlen (hat eine Simulationsstudie gezeigt). Liegt aufgrund des White-Tests Verdacht auf Heteroskedaszität vor, macht es also sehr viel Sinn HC3 zu verwenden. Möglicherweise kennen Sie eine Quelle, welche besagt, dass der BP Test im Falle der Normalverteilung besser funktioniert. Wenn ja, schicken Sie mir bitte diese, denn ich kenne so eine Quelle nicht.
Hallo und danke für dein Feedback. Um es kurz zu fassen, halte ich, wie viele andere Autoren auch, wenig von analytischen Tests, die eine angestrebte Eigenschaft als Nullhypothese haben. Das Problem zunehmender Power bei steigendem N führen zu Fehlern 1. Art (Lantz, B. (2013). The large sample size fallacy. Scandinavian journal of caring sciences, 27(2), 487-492.) und bei kleinen Stichproben aufgrund fehlender Power zu Fehlern 2. Art (in dem Fall zugegebnermaßen der "schlimmere" Fehler) - das Durchführen des Tests wird in manchen Disziplinen noch erwartet, weshalb ich ihn primär zeigte. Ich persönlich bin seit Erstellung des Videos weit davon abgerückt überhaupt einen analytischen Test zu empfehlen und folge Hayes, Cai: Using heteroskedasticity-consistent standard error estimators in OLS regression (2007), S. 714: "Thus, we echo Long and Ervin’s (2000) recommendation that investigators should employ a heteroskedasticity-consistent estimator such as HC3-if not as a matter of routine, at least as a means of doublechecking one’s inferences to see if they might be iinfluenced by heteroskedasticity. In the event that a few cases exhibit high leverage, HC4 can be used instead." Viele Grüße, Björn Edit: ich habe in die Videobeschreibung noch einen Hinweis eingefügt.
@@StatistikamPC_BjoernWalther Danke für die Ausführliche Antwort! Die Simulation, die ich vorhin meinte, ist die von Long und Erwin. Also wenn HC3/ HC4 standardmäßig als best practice durchgeführt werden, spielen die Tests dann eh keine Rolle, da bin ich ganz Ihrer Meinung! Diese large sample falacy Sache notier ich mir, eine Zitation wäre denke ich sehr wichtig in der Argumentation der Methodenwahl, vielen Dank! Ich war kürzlich etwas genervt davon, dass Normalitätstests mit viel Power vergöttlicht werden, obwohl im Falle von T-Tests der Fehler 1. Art deutlich gefährlicher ist. Hab neulich mal gelesen, dass der Welch-Test in 98% der Fälle dem Studenten T Test und nichtparametrischen Tests überlegen ist und deswegen standardmäßig ohne vorherigem Testen genutzt werden sollte. Die nervige Sache ist, dass sowas immer super ausführlich begründet werden muss. Manche Leute sitzen so fest in den alten Traditionen, dass sie für neue Entwicklungen gar kein Verständnis mehr haben. Vor allem Leute, die Statistik nicht mögen …. „Aber das ist doch eine Annahme!“ …
@@StatistikamPC_BjoernWalther Verstehe ich das richtig, dass HC Fehler nur dann riesig werden, wenn Heteroskedaszität vorliegt? Das würde erklären, warum das Standardmäßige Nutzen von HC so vorteilhaft ist. Wenn ich das richtig verstehe, können große Standardfehler einen Effekt nicht signifikant werden lassen.
@pagecollector4856 , immer gerne. Auch beim t-Test hatte sich Field (2018), Discovering Statistics, S. 259 ähnlich geäußert: "Statisticians used to recommend testing for homogeneity of variance using Levene’s test and, if the assumption was violated, using an adjustment to correct for it. People have stopped using this approach for two reasons. First, violating this assumption matters only if you have unequal group sizes; if group sizes are equal this assumption is pretty much irrelevant and can be ignored. Second, tests of homogeneity of variance work best when you have equal group sizes and large samples (when it doesn’t matter if you have violated the assumption) and are less effective with unequal group sizes and smaller samples - which is exactly when the assumption matters. *Plus, there are adjustments to correct for violations of this assumption that can be applied (as we shall see): typically, a correction is applied to offset whatever degree of heterogeneity is in the data (no heterogeneity = no correction)*. The take-home point is that you might as well always apply the correction and forget about the assumption. Ifyou’re really interested in this issue, I like the article by Zimmerman (2004)." Die Standardfehler sind bei Heteroskedastizität verzerrt, das kann nach oben oder unten bedeuten. Folglich sind auch die t-Werte bei der Regression verzerrt und damit auch die p-Werte - nach oben oder unten. Große Standardfehler sorgen (wenn man gedanklich den Koeffizienten konstant hält) allerdings für tendenziell kleinere t-Werte. Koeffizient geteilt durch den Standardfehler ergibt den t-Wert. Kleine t-Werte wiederum haben größere p-Werrte zur Folge. Zusammengefasst;: größere Standardfehler ziehen größere p-Werte nach sich. Der Standardfehler wird aber nicht nur von Heteroskedastizität beeinflusst, u.a. auch von der Stichprobengröße - je größer, desto besser gelingt eine Koeffizientenschätzung und desto geringer ist dessen Standardfehler. Viele Grüße, Björn.
Würde man das auch für den Mediator als abhängige Variable eingesetzt testen oder nur mit der "richtigen" abhängigen Variable und dem Mediator als unabhängiger Variable?
@@StatistikamPC_BjoernWalther Danke für deine Antwort! Sicherheitshalber könnte ich aber auch ohnehin mit HC3 die Analysen vornehmen, oder? Also, ich meine, nachteilig kann das Rechnen mit robusten Standardfehlern ja nicht sein, oder?
Bei Fragen und Anregungen zu Breusch Pagan-Test und White-Test für Heteroskedastizität in SPSS, nutzt bitte die Kommentarfunktion.
Ist der „ Grenzwert“ um die H0 abzulehnen die 0,05 (Alpha Niveau ) oder muss der Wert kleiner als 0,00 bzw. ungleich 0,00 sein ?
@@sxdkah4788 Hallo, die Signifikanz des Tests unter 0,05 sorgt für die Ablehnung der Nullhypothese von Homoskedastizität. Demnach läge Heteroskedastizität vor.
Viele Grüße, Björn.
Besser als jeder Uni-Kurs! Schnell, kompakt und einfach erklärt! Dankeeee!
Das hört man gerne! :-)
Viele Grüße, Björn.
Vielen Dank für die tollen Videos !! Super Mehrwert, kann man kaum besser erklären. Dank dir wird die Masterarbeit ein riesen Erfolg :D
Danke für dein Lob, Gino! Na dann drück ich die Daumen! ;-)
Viele Grüße, Björn.
Hallo Björn. Herzlichen Dank für das hilfreiche Video. Nehme ich bei einer Moderatoranalyse auch den Moderator mit in die Berechnung als Kovariate auf? Welche Werte kommen in die Abschlussarbeit? Nur der p-Wert? Und was bedeutet es, wenn die Tests auf Zwischensubjekt signifikant werden?
Hallo Björn, vielen Dank auch für dieses hilfreiche Video! Mein Streudiagramm lässt keine Heteroskedastizität vermuten (ich erkenne dort eine Kastenform), jedoch zeigt der Breusch-Pagan-Test (NV liegt vor) Signifikanz, was also doch auf Heteroskedastizität hindeutet. Meine Stichprobe umfasst n = 250. Soll ich in diesem Fall nun besser auf die Sichtprüfung vertrauen, oder den statistischen Test annehmen und die Regression mit dem HC3-PlugIn durchführen? Für einen Rat wäre ich sehr dankbar! Viele Grüße, Larissa Brümmer
Mal wieder super hilfreich danke Dir! Leider zu spät gesehen, nachdem ich den White Test aus dem älteren Video schon aufwändiger nachgebastelt habe.
Meine Frage zu diesem Video:
Auf welche Quelle verweise ich denn am besten bei Entscheidungen wie "wegen sehr hoher Kurtosis kann ich den Breusch Pagan-Test durchführen"?
Hallo Marcus, schau mal hier: Koenker, R. (1981). A note on studentizing a test for heteroscedasticity. Journal of econometrics, 17(1), 107-112.
Viele Grüße, Björn.
@@StatistikamPC_BjoernWalther besten Dank!,❤️
Erstmal vielen Dank für die hilfreichen Videos. Ich habe noch eine Frage: Wenn man eine schrittweise multiple lineare Regression analytisch auf Heteroskedastizität überprüfen möchte, schiebe ich dann alle (also auch die im finalen Modell ausgeschlossenen Variablen) in die Kovariaten-Box oder nur die ins finale Modell eingeschlossen unabhängigen Variablen?
Über eine Antwort würde ich mich sehr freuen und ich hoffe du weißt, dass viele ohne deine Videos aufgeschmissen wären :)
Hallo Tim und danke für deine lobenden Worte! Dir geht es um Heteroskedastizität im finalen Modell. Die anderen Modelle verwirfst du ja quasi. Von daher prüfst du auch nur für das finale Modell die Heteroskedastizität.
Viele Grüße, Björn.
Erstmal vielen Dank für deine wirklich sehr hilfreichen Videos! Eine Frage habe ich zu diesem Thema hier: Welche Folge hat die Verwerfung der H0 beim Breusch Pagan Test (und damit die Feststellung von Heteroskedaszitität ), wenn ich ein Mixed Modell (Panelregression mit 2 Ebenen und random effects) anwenden möchte? Treten dieselben negativen Effekte wie bei einer normalen ANOVA auch bei einem Mixed Model auf? Vielen Dank im Voraus!
Hallo Nicholas, danke für dein Lob!
Heteroskedastizität sorgt immer für verzerrte Standardfehler, was zu verzerrten t-Werten und damit verzerrten p-Werte führt.Im schlimmsten Fall begehst du also Fehler 1. oder 2. Art.
Viele Grüße, Björn.
Zunächst einmal herzlichen Dank für all die hilfreichen Videos für die Auswertung der Masterarbeit! Da verstehe ich wenigsten, was ich warum machen soll. :)
Wie gehe ich denn bei einer bzw. Mehreren hierarchischen linearen Regression vor? Nehme ich dazu alle UVs (auch die laut hierarchisch linearer Regression keinen signifikanten Erklärwert haben) in 'einem Block' in der ALM zum Test der Heteroskedastizität auf, und das jeweils für jede AV? Dann habe ich ja am Ende immer wieder mit denselben Daten auf unterschiedliche AVs gerechnet, das kommt mir irgendwie falsch vor.
Hallo und danke für dein Lob!
Am einfachsten ist wohl direkt robuste Standardfehler für das jeweilige Modell (wahlweise auch blockweise) zu rechnen und sich Test auf Heteroskedastizität und Autokorrelation gänzlich schenken zu können. Wäre zumindest mein Rat. th-cam.com/video/dOf03X1CHyM/w-d-xo.html
Quelle, die dieses Vorgehen stützt: Hayes, A. F., & Cai, L. (2007). Using heteroskedasticity-consistent standard error estimators in OLS regression: An introduction and software implementation. Behavior research methods, 39(4), 709-722, S. 714: "Thus, we echo Long and Ervin’s (2000) recommendation that investigators should employ a heteroskedasticity-consistent estimator such as HC3-if not as a matter of routine, at least as a means of doublechecking one’s inferences to see if they might be influenced by heteroskedasticity. In the event that a few cases exhibit high leverage, HC4 can be used instead."
Viele Grüße, Björn.
@@StatistikamPC_BjoernWalther Ehrenmann, du hilfst mir gerade mit diesem Kommentar sogar noch zwei Jahre nach dem Schreiben bei meiner Masterarbeit
Sehr cool! Der BP/White Test ist allerdings nur für lineare Regressionsmodelle gültig oder? Wie sieht es aus wenn ich die Residuen eines nicht-linearen fits an meine Daten auf Heteroskedastizität testen möchte?
Hallo Philipp, soweit ich weiß, ja. DIe Prüfung von nichtlinearen Modellen auf Hetersoskedastizität habe ich in typischer Software wie SPSS noch nicht gesehen. In R gibt es da sicher ein Paket für, aber auch da muss ich passen. Die Literatur ist auch nicht gerade ergiebig, Lin, J. G., & Wei, B. C. (2003). Testing for heteroscedasticity in nonlinear regression models. Communications in Statistics-Theory and Methods, 32(1), 171-192.
Viele Grüße, Björn.
Hallo Björn, vielen Dank für Deine informativen und sehr hilfreichen Erklärungsvideos. Eine Frage zu Deinem Tutorial: Leider werden mir unter Analysieren/Allgemeines Lineares Modell/Optionen nicht die unterschiedlichen Tests zur Auswahl angezeigt. Hast Du eine Idee, woran das liegen könnte? Ich arbeite mit SPSS Version 23. Schon einmal vielen Dank und Grüße, Andreas
Hallo Andreas, danke für dein Lob!
Die Tests wurden - wenn ich mich richtig erinnere - in SPSS 26 eingeführt. In 27 sind sie definitiv drin und auch weiterhin implementiert. Leider ist deine Version zu alt, dass die Tests drin sind. Alternativ kann man den White-Test in alten Versionen selbst nachbauen: th-cam.com/video/L2mfp-qrSS0/w-d-xo.html
Bequemer wäre es im Endeffekt, sofern es analytisch sein muss, eine neue Version zu haben oder man schreckt vor R nicht zurück: th-cam.com/video/nDX61CFnee4/w-d-xo.html
Wenn es nicht zwingend analytisch sein muss, würde ich grafisch prüfen, da mit zunehmender Stichprobengröße analytische Tests auch kleine Abweichungen von Homoskedastizität als signifikant einstufen und so falsche Schlüsse nach sich ziehen.
Viele Grüße, Björn.
Sehr schöne Video Björn, vielen Dank! Sag doch mal bitte, wie es mit denn Voraussetzungen der Skalenniveau der unabhängigen Variablen bei den drei genannten Tests (White, Breusch-Pagan...) ausschaut? Müssen sie für die richtige Durchführung sowie Interpretation der Ergebnisse (wie auch bei der Multiplen Linearen Regression) metrisch skaliert sein oder dürfen sie auch nominal und ordinal skaliert sein bzw. müsste man sie in Dummy Variablen umkodieren? Bedanke mich im Voraus für die Antowort! :)
Hallo Ilia und danke für dein Lob!
Das Skalenniveau ist nicht interessant, da es um die Varianz der Residuen, also der Abstände zwischen geschätzer AV und tatsächlicher AV geht. Kurzum: man kann, sofern die normalen Voraussetzungen der Regression erfüllt sind, immer diese Tests anwenden.
Viele Grüße, Björn.
Hallo super Video ! Ich hätte noch eine Frage: Was sind denn die Vor- und Nachteile des White-Tests? Danke
Hallo Johannes, danke!
Der White-Test ist ungeeignet bei kleinen Stichprobengrößen, besonders bei einer hohen Zahl von UVs. Er gibt auch gerne fälschlicherweise Heteroskedastiztät an. Ich prüfe ohnehin lieber grafisch bzw. rechne direkt mit HC3 oder HC4 robuste Standardfehler aus und ignoriere diese eher wackligen Tests daher. Ich würde dir bei Interesse empfehlen, das mal in Ruhe nachzulesen: Kaufman (2013) Heteroskedasticity in Regression, S. 13 ff.
Viele Grüße, Björn.
Hallo, da ich multivariate Regressionsanalyse durchführen muss, wie wäre hier die Vorgehensweise? In SPSS kann man auch "Multivariat" anwählen, aber diese Tests werden dann nicht angezeigt. Sind diese nur für univariate Analysen geeignet?
Was mache ich wenn alle Tests nicht signifikant und auch nicht Mal in der Nähe sind, es graphisch aber nach Heteroskedastozität aussieht (Diamantform)?
Jetzt ist es ja schon länger ruhig hier in der Kommentarspalte gewesen. Aber gibt es denn die Möglichkeit, dass man an diesen Datensatz irgendwie kommt. Für meinen Uni-Kurs muss ich meinen Mitstudierenden erklären, wie multiple Regression funktioniert und ich mag den Datensatz.
Geht das irgendwie? :D
Hallo Charlotte, es gibt auf jeden Fall einen abgespeckten Datensatz zum Download: bjoernwalther.com/daten-in-spss-importieren-csv-excel-txt/
Da sollten alle wesentlichen Dinge drin sein, wenn ich mich richtig erinnere.
Viele Grüße, Björn.
Hallo! Ich wollte noch fragen: in R gibt es die Funktion bptest(). Entspricht diese Funktion dem modifizierten Breusch-Pagan Test? vielen dank!
Hallo Yoanna, ich glaube ja, in der Dokumentation ist das aber nicht ganz eindeutig. Das müsste man mal nachrechnen.
Viele Grüße, Björn.
Hallo, die Videos helfen echt super!! Allerdings habe ich das Problem, dass ich den Breusch Pagan-Test nicht unter den "Optionen" finden kann. Ich kann da lediglich das Fenster "Anzeige" und "Geschätzte Randmitte" sehen. Evtl. habe ich nicht die aktuelle Version? Gibt es eine andere Möglichkeit den Test durchzuführen?
Hallo Alexa und danke für dein Lob!
Ich kann es nicht genau sagen, der BP-Test war aber wohl erst ab SPSS 26 integriert. Mein Tipp: grafische Prüfung: th-cam.com/video/BCNf2HwcGnk/w-d-xo.html
Ansonsten einfach robuste Standardfehler berechnen: th-cam.com/video/dOf03X1CHyM/w-d-xo.html
Das folgt der Empfehlung von Hayes, Cai: Using heteroskedasticity-consistent standard error estimators in OLS regression (2007), S. 714: "Thus, we echo Long and Ervin’s (2000) recommendation that investigators should employ
a heteroskedasticity-consistent estimator such as HC3-if not as a matter of routine, at least as a means of doublechecking one’s inferences to see if they might be influenced by heteroskedasticity. In the event that a few cases exhibit high leverage, HC4 can be used instead."
Viele Grüße, Björn.
Ich bin ein bisschen verwirrt, da das was Sie erzählen von dem abweicht, was ich in meiner Recherche gelesen habe:
1. Der studentized BP Test ist dem BP Test überlegen, da der BT Test nur dann verlässlich ist, wenn die Variable perfekt normalverteilt ist. Bei der studentized Version gibt es das Problem nicht, er ist bei jeder Art der Verteilung sinnvoll.
2. Der White Test funktioniert genauso wie der studentized BP Test, berücksichtig jedoch auch die quadrierten unabhängigen Variablen sowie die Interaktionen verschiedener Variablen. Somit werden mehr Formen der Heteroskedaszität erkannt, als beim BP Test oder studentized BP Test. Er ist ebenfalls nicht auf die Normalverteilung beschränkt. Er klärt jedoch nicht nur Heteroskedaszität, sondern auch falsche Modellspezifikationen auf.
Ich verstehe nicht, warum Sie ausgerechnet den BP Test empfehlen . Gut, man darf ihn hier verwenden, aber das gilt genauso für die anderen. Scheinbar hat in Ihrem Beispiel der White Test entweder Heteroskedaszität oder eine falsche Modellspezifikation (z.B. eine nicht berücksichtige Interaktion der zwei unabhängigen Variablen) oder beides aufgedeckt.
Achja, teilweise werden robuste Standardfehler HC3 sogar bei Homoskedaszizät empfohlen (hat eine Simulationsstudie gezeigt). Liegt aufgrund des White-Tests Verdacht auf Heteroskedaszität vor, macht es also sehr viel Sinn HC3 zu verwenden.
Möglicherweise kennen Sie eine Quelle, welche besagt, dass der BP Test im Falle der Normalverteilung besser funktioniert. Wenn ja, schicken Sie mir bitte diese, denn ich kenne so eine Quelle nicht.
Hallo und danke für dein Feedback. Um es kurz zu fassen, halte ich, wie viele andere Autoren auch, wenig von analytischen Tests, die eine angestrebte Eigenschaft als Nullhypothese haben.
Das Problem zunehmender Power bei steigendem N führen zu Fehlern 1. Art (Lantz, B. (2013). The large sample size fallacy. Scandinavian journal of caring sciences, 27(2), 487-492.) und bei kleinen Stichproben aufgrund fehlender Power zu Fehlern 2. Art (in dem Fall zugegebnermaßen der "schlimmere" Fehler) - das Durchführen des Tests wird in manchen Disziplinen noch erwartet, weshalb ich ihn primär zeigte. Ich persönlich bin seit Erstellung des Videos weit davon abgerückt überhaupt einen analytischen Test zu empfehlen und folge Hayes, Cai: Using heteroskedasticity-consistent standard error estimators in OLS regression (2007), S. 714: "Thus, we echo Long and Ervin’s (2000) recommendation that investigators should employ a heteroskedasticity-consistent estimator such as HC3-if not as a matter of routine, at least as a means of doublechecking one’s inferences to see if they might be iinfluenced by heteroskedasticity. In the event that a few cases exhibit high leverage, HC4 can be used instead."
Viele Grüße, Björn
Edit: ich habe in die Videobeschreibung noch einen Hinweis eingefügt.
@@StatistikamPC_BjoernWalther Danke für die Ausführliche Antwort! Die Simulation, die ich vorhin meinte, ist die von Long und Erwin. Also wenn HC3/ HC4 standardmäßig als best practice durchgeführt werden, spielen die Tests dann eh keine Rolle, da bin ich ganz Ihrer Meinung! Diese large sample falacy Sache notier ich mir, eine Zitation wäre denke ich sehr wichtig in der Argumentation der Methodenwahl, vielen Dank! Ich war kürzlich etwas genervt davon, dass Normalitätstests mit viel Power vergöttlicht werden, obwohl im Falle von T-Tests der Fehler 1. Art deutlich gefährlicher ist. Hab neulich mal gelesen, dass der Welch-Test in 98% der Fälle dem Studenten T Test und nichtparametrischen Tests überlegen ist und deswegen standardmäßig ohne vorherigem Testen genutzt werden sollte. Die nervige Sache ist, dass sowas immer super ausführlich begründet werden muss. Manche Leute sitzen so fest in den alten Traditionen, dass sie für neue Entwicklungen gar kein Verständnis mehr haben. Vor allem Leute, die Statistik nicht mögen …. „Aber das ist doch eine Annahme!“ …
@@StatistikamPC_BjoernWalther Verstehe ich das richtig, dass HC Fehler nur dann riesig werden, wenn Heteroskedaszität vorliegt? Das würde erklären, warum das Standardmäßige Nutzen von HC so vorteilhaft ist. Wenn ich das richtig verstehe, können große Standardfehler einen Effekt nicht signifikant werden lassen.
@pagecollector4856 , immer gerne. Auch beim t-Test hatte sich Field (2018), Discovering Statistics, S. 259 ähnlich geäußert: "Statisticians used to recommend testing for homogeneity of variance using Levene’s test and, if the assumption was violated, using an adjustment to correct for it. People have stopped using this approach for two reasons. First, violating this assumption matters only if you have unequal group sizes; if group sizes are equal this assumption is pretty much irrelevant and can be ignored. Second, tests of homogeneity of variance work best when you have equal group sizes and large samples (when it doesn’t matter if you have violated the assumption) and are less effective with unequal group sizes and smaller samples - which is exactly when the assumption matters. *Plus, there are adjustments to correct for violations of this assumption that can be applied (as we shall see): typically, a correction is applied to offset whatever degree of heterogeneity is in the data (no heterogeneity = no correction)*. The take-home point is that you might as well always apply the correction and forget about the assumption. Ifyou’re really interested in this issue, I like the article by Zimmerman (2004)."
Die Standardfehler sind bei Heteroskedastizität verzerrt, das kann nach oben oder unten bedeuten. Folglich sind auch die t-Werte bei der Regression verzerrt und damit auch die p-Werte - nach oben oder unten. Große Standardfehler sorgen (wenn man gedanklich den Koeffizienten konstant hält) allerdings für tendenziell kleinere t-Werte. Koeffizient geteilt durch den Standardfehler ergibt den t-Wert. Kleine t-Werte wiederum haben größere p-Werrte zur Folge.
Zusammengefasst;: größere Standardfehler ziehen größere p-Werte nach sich.
Der Standardfehler wird aber nicht nur von Heteroskedastizität beeinflusst, u.a. auch von der Stichprobengröße - je größer, desto besser gelingt eine Koeffizientenschätzung und desto geringer ist dessen Standardfehler.
Viele Grüße, Björn.
@@StatistikamPC_BjoernWalther Vielen Dank!
Würde man das auch für den Mediator als abhängige Variable eingesetzt testen oder nur mit der "richtigen" abhängigen Variable und dem Mediator als unabhängiger Variable?
Hallo Sophia, du würdest beide Modelle, die PROCESS dir ausgibt, separat prüfen müssen.
Viele Grüße, Björn.
@@StatistikamPC_BjoernWalther Danke für deine Antwort! Sicherheitshalber könnte ich aber auch ohnehin mit HC3 die Analysen vornehmen, oder? Also, ich meine, nachteilig kann das Rechnen mit robusten Standardfehlern ja nicht sein, oder?
Wenn die Signifikanz bei 0,732 liegt, heißt es also das Homoskedasitizät vorliegt?!
Exakt.
Viele Grüße, Björn.