Logistische Regression in SPSS

Die logistische Regression ist eine weitverbreitete Methode zur Analyse einer binären abhängigen Variable. Das bedeutet dass die abhängige Variable nur zwei Ausprägungen hat, wie z.B. "Ja oder Nein", "Berufstätig oder nicht berufstätig", etc. Solche Variablen mit nur zwei möglichen Variablen werden entweder als binär oder als dichotom bezeichnet. 

Wenn Sie eine Analyse mit einer binären abhängigen Variable durchführen möchten, dürfen Sie keine lineare Regression verwenden. In diesem Fall ist die logistische Regression die korrekte Analysemethode. In einer logistischen Regression dürfen die unabhängigen Variablen sowohl metrisch als auch kategoriell skaliert sein.

 

Beachten Sie folgendes: Die Koeffizienten der logistischen Regression beziehen sich immer auf die Ausprägung, der unabhängigen Variable, die mit dem größeren Zahlenwert kodiert ist.

Nehmen wir z.B. an Sie möchten eine abhängige Variable mit den Ausprägungen "Patient nicht geheilt" und "Patient geheilt" untersuchen, wobei "Patient nicht geheilt" mit 1 und "Patient geheilt" mit 2 kodiert ist. Dann beziehen sich die Regressionsergebnisse auf die Wahrscheinlichkeit, dass der Patient geheilt wurde.

 

Berechnung logistische Regression in SPSS

Um ein logistisches Regressionsmodell in SPSS zu berechnen, wählen Sie den Menüpunkt Analysieren -> Regression -> Binär logistisch und gehen Sie dann folgendermaßen vor:

  • Wählen Sie links die abhängige Variable (In obigen Beispiel die Varaible welche anzeigt ob ein Patient überlebt hat oder nicht) aus, und fügen Sie sie rechts bei abhängige Variable ein.
  • Wählen Sie nun alle metrischen unabhängigen Variablen aus, d.h. diejenigen metrischen Variablen bei denen es sich um Zahlenwerte handelt (Beispiele für metrische Variablen: Einkommen in €, Alter in Jahren, Dosis eines Medikamentes in mg, ect). Fügen sie alle metrischen unabhängigen Variablen rechts bei Kovariaten ein. 
  • Klicken Sie nun auf den Button Kategorial. Wählen Sie hier nun alle kategoriellen unabhängigen Variablen aus. Dies sind Variablen wie z.B. Geschlecht, Bildungsabschluss, Heimatland oder Behandlungsgruppe. Fügen Sie alle kategoriellen unabhängigen Variablen rechts bei Kategoriale Kovariaten ein. Drücken Sie auf Weiter und dann auf OK.

Im SPSS-Output-Fenster erscheint nun das Ergebnis der logistischen Regression. Wie dieser Output zu interpretieren ist, erfahren Sie im nächsten Abschnitt. 

 

Interpretation logistische Regression SPSS

Der Regressionsoutput, den Sie soeben erhalten haben muss nun noch interpretiert werden. Suchen Sie hierzu im Output die Überschrift

Block 1: Methode = Eingabe. Den Teil des Outputs, der über dieser Überschrift steht, können Sie ignorieren.

  • Unterhalb der Überschrift Block 1: Methode = Eingabe finden Sie eine Tabelle mit der Überschrift Omnibus-Test der Modellkoeffizienten. Dies ist ein Test, der das gesamte Regressionsmodell darauf überprüft, ob es eine signifikante Erklärungsgüte aufweist. In der rechten Spalte mit der Überschrift Sig. finden Sie den Signifikanzwert.
  • Ist dieser Signifikanzwert kleiner als 0.05, dann hat das Regressionsmodell eine signifikante Erklärungsgüte. Das bedeutet, das Modell ist dazu geeignet, die abhängige Variable zu erklären. Wenn der Signifikanzwert dieses Test größer ist als 0.05, dann wissen Sie dass das Regressionsmodell nichts taugt.

Betrachten Sie nun im SPSS-Output die Tabelle mit der Überschrift Modellzusammenfassung. Hier finden Sie rechts die Kennzahl Nagelkerke R Quadrat

  • Anhand des Nagelkerke R-Quadrates können Sie beurteilen, wie gut Ihr Regressionsmodell ist, d.h. wie gut die abhängige Variable erklärt wird. Das Nagelkerke R-Quadrat kann Werte zwischen 0 und 1 annehmen. Je näher der Wert an 1 liegt, desto besser ist die Regression.  
  • Zur Einschätzung des Nagelkerke-R-Quadrates existiert die folgende Faustregel:
  • Ist das Nagelkerke R-Quadrat kleiner als 0.1, hat das Modell eine schlechte Erklärungsgüte. 
  • Liegt das Nagelkerke R-Quadrat zwischen 0.1 und 0.3, so hat das Modell eine "bescheidene" Erklärungsgüte
  • Liegt das Nagelkerke R-Quadrat zwischen 0.3 und 0.5, dann hat das Modell eine moderate Erklärungsgüte.
  • Wenn das Nagelkerke R-Quadrat über 0.5 liegt, dann hat das Regressionsmodell eine gute Erklärungsgüte.

Ich wurde in der Vergangenheit von Lesern nach der Quelle gefragt, aus der diese Faustregel stammt. Hier finden Sie die Quelle bei Google Books:

 

Google Books: Doing Quantitative Research in Education with SPSS

 

Das waren die Kennzahlen, die Informationen über das Gesamtmodell enthalten. Nun müssen Sie den Koeffizientenblock interpretieren. Suchen Sie hierzu im Output die Tabelle mit der Überschrift Variablen in der Gleichung.

In der Tabelle ist in jeder Zeile das Ergebnis für eine unabhängige Variable dargestellt. Sie müssen hierbei jeweils nur auf zwei Spalten der Tabelle achten, nämlich auf und auf Sig.

  • Die Spalte Sig. enthält den Signifikanzwert. Ist der Signifikanzwert kleiner als 0.05, dann bedeutet das dass diese unabhängige Variable einen signifikanten Einfluss auf die abhängige Variable aufweist.
  • Die Spalte enthält den Regressionskoeffizienten der unabhängigen Variable. Dieser gibt Ihnen die Wirkungsrichtung der jeweiligen unabhängigen Variable an. Wenn der Regressionskoeffizient größer als Null ist, hat die Variable einen positiven Effekt, d.h. wenn sich die Variable erhöht, dann wird es wahrscheinlicher dass der Patient geheilt wird.

Wie finden Sie die logistische Regression, nun da Sie sie anwenden können? Nehmen Sie Kontakt zu uns auf und sagen Sie uns Ihre Meinung oder informieren Sie sich über unser Angebot der SPSS-Beratung.