Das Chaos der inferenzstatistischen Methoden


Für viele Menschen im Marketing ist Inferenzstatistik ein Buch mit sieben Siegeln. Sie erscheint komplex, trocken oder sogar bedrohlich – nicht zuletzt, weil sie im Studium oft unzureichend behandelt wurde. Entsprechende Eindrücke werden durch Schaubilder, die ein komplexes Wirrwarr zeigen, wie unser Header-Bild, bestärkt. Was wäre aber, wenn man das Schaubild massiv vereinfachen könnte? Denn Tatsache ist: Benötigen tut man nur eine Klasse von statistischen Modellen – der Rest kann weg. In diesem Blogbeitrag besprechen wir, warum Inferenzstatistik auch im Marketing wichtig ist, was man nicht braucht und worauf man sich konzentrieren sollte.
Die Kernpunkte
Die Kernpunkte
Was ist Inferenzstatistik
und warum ist sie wichtig?
Im Marketing, aber insbesondere im Performance-Marketing, kommt man regelmäßig mit Daten in Kontakt. Je nach Unternehmensgröße sind die Datenmengen so groß, dass man sogar von Big Data reden kann. Viele Marketeers arbeiten mit den Daten und analysieren diese – allerdings meist nur auf deskriptiver Basis. Das Problem an deskriptiven Daten ist jedoch, dass diese lediglich für den bisherigen Datensatz gelten und somit für die Vergangenheit. Auf die Zukunft oder auf kausale Zusammenhänge können wir so nicht schließen. Dafür benötigen wir inferenzstatistische Methoden. Genau das ist entscheidend, um Marketingstrategien evidenzbasiert zu entwickeln.

Die Inferenzstatistik ist daher nicht nur eine Spielart unter vielen, sondern im Regelfall die einzige relevante Statistikform. Ohne sie bleibt man im Beschreibenden stecken – mit ihr kann man Hypothesen testen, Kausalitäten untersuchen, der Zukunft näherkommen und strategische Entscheidungen absichern. Das gilt nicht nur im Marketing, sondern in nahezu allen Anwendungsbereichen der Statistik.

Abbildung 1: Korrelationen
Was braucht man nicht?
Korrelationen, t-Tests & ANOVA-Variationen
Bevor wir auf die sinnvollen Methoden eingehen, lohnt sich ein Blick auf das, was nicht gebraucht wird – obwohl es häufig verwendet wird. Dazu gehören vor allem die Korrelation, der t-Test und ANOVA-Variationen. Ungünstigerweise werden diese Methodengruppen typischerweise als erstes im Studium gelehrt. Unnötig sind sie im Regelfall, da sie entweder nichts aussagen, geringe Möglichkeiten aufweisen oder die Komplexität im Umgang mit inferenzstatistischen Methoden erhöhen.
Häufig aber unnötig – die Korrelation
Die statistische Methode, die vielleicht sogar am häufigsten benutzt wird, allerdings de facto nichts aussagt, ist die Korrelation. Sie ist ein Maß für den statistischen Zusammenhang zwischen zwei Variablen. Ein klassisches Beispiel ist die Beziehung zwischen Körpergröße und Gewicht. Größere Menschen wiegen in der Regel mehr – doch das ist nur die halbe Wahrheit. Korrelationen ignorieren konfundierende Variablen, also Einflussfaktoren, die den Zusammenhang verzerren können. So können kleine Menschen schwer und große Menschen leicht sein – abhängig von Ernährung, Muskelmasse oder genetischen Faktoren. Eine hohe Korrelation suggeriert also einen Zusammenhang, der nicht zwangsläufig kausal ist. Ein weiteres Beispiel: In ländlichen Regionen mit hoher Geburtenrate leben mehr Störche – daraus folgt nicht, dass Störche Babys bringen.
Ein Marketeer kann wenig bis nichts mit einem Korrelationswert anfangen. Die Korrelation ist ein Varianzwert. Liegt sie bei 0,3, dann bedeutet dies nicht, dass sich Variable B um 0,3 erhöht, wenn sich Variable A um 1 erhöht. Sondern lediglich, dass die eine Variable dazu neigt, sich zu bewegen, wenn sich die andere bewegt – und umgekehrt. Je niedriger der Korrelationswert, desto häufiger gibt es jedoch Ausnahmen von der gemeinsamen Bewegung. Abbildung 1 zeigt, wie eine Korrelation von 0,3 und 0,9 aussieht. Man sieht deutlich, wie je nach Korrelationswert die Varianz der Datenpunkte um eine gedachte Linie stärker oder schwächer ausfällt. Letztlich sagt eine Korrelation nur aus, wie groß die Varianz um die gedachte Linie ist. Über die Linie selbst – wie stark diese steigt, fällt oder Kurven macht – sagt sie wenig aus. Im Marketing möchte man jedoch wissen, wie stark sich z. B. die Conversions-Anzahl verändert, wenn Produkte in der pMax-Kampagne berücksichtigt werden, oder ausgeschlossen werden. Nur so kann festgestellt werden, welche Produkte die relevantesten sind.
Der t-Test und seine Beschränkungen
t-Tests und je nach Datentyp verwandte Varianten sind in ihren Möglichkeiten enorm eingeschränkt. Sie können stets nur zwei Gruppen vergleichen. Es gibt also nur eine unabhängige Variable – die Gruppenzugehörigkeit – und die vorherzusagende Variable darf keine Kategorien darstellen (wie männlich/weiblich). Für einfache Experimente mögen diese Tests noch funktionieren, so werden sie häufig bei A/B-Tests eingesetzt. Allerdings gibt es hier schon Einschränkungen zu bedenken. Bei t-Tests und Vergleichbarem handelt es sich um die einfachsten inferenzstatistischen Tests. Einfache Modelle erhöhen jedoch nicht zwangsläufig die Vorhersagequalität. Mehrebenenmodelle bspw. verbessern die Vorhersagequalität häufig deutlich – diese sind jedoch nur innerhalb von Regressionen umsetzbar. Zudem müssen verschiedene Anforderungen an die Daten vorliegen (unabhängige, varianzgleiche, normalverteilte Daten). Diese und weitere Anforderungen müssen zwar für alle inferenzstatistischen Tests des Frequentismus geprüft werden, allerdings lädt erfahrungsgemäß die Einfachheit von t-Tests und Konsorten dazu ein, die Anforderungen nicht zu prüfen. Machen Sie sich einfach mal den Spaß und fragen Sie Ihre A/B-Test-Agentur, ob diese stets z. B. die Varianzgleichheit prüft …
Die vielen ANOVAs
Die vielen Varianten der ANOVA (ANCOVA, MANOVA, MANCOVA) weisen verschiedene Möglichkeiten auf, die Unzulänglichkeiten der t-Tests auszugleichen. Es können mehr als zwei Gruppen verglichen werden, und weitere Kontrollvariablen sind aufnehmbar. Allerdings verkomplizieren die vielen ANOVA-Varianten das Vorgehen, und die vorherzusagende Variable muss immer metrisch sein. Das ist allerdings häufig nicht der Fall. Es gibt jedoch eine Methode, die alles kann, was ein t-Test und eine ANOVA kann – und noch mehr. Es muss also nur ein Vorgehen gelernt werden, das mit leichten Abweichungen stets gleichbleibt: die Regression

Abbildung 1: Korrelationen
Die Regression
Ein Modell für (fast) alle Fälle
Die Regression ist der methodische Dreh- und Angelpunkt moderner statistischer Analyse. Tatsächlich sind t-Test und ANOVA auch nur Varianten der Regression. Warum also nicht direkt das Original nehmen?
Maximal flexibel
Im Gegensatz zu den zuvor genannten Verfahren erlaubt sie es, beliebig viele Vorhersagevariablen zu kombinieren, egal ob diese kategorial (männlich, weiblich) oder metrisch (Körpergewicht) sind. Auch mit mehreren Gruppen oder verschiedenen Skalentypen lässt sich arbeiten. Das macht die Regression zum Alleskönner unter den Analysemethoden.

Ein konkretes Beispiel: Statt nur die Körpergröße zur Vorhersage des Gewichts heranzuziehen, kann man auch Ernährungsgewohnheiten, körperliche Aktivität und genetische Prädispositionen einbeziehen. Damit wird das Modell deutlich präziser und realitätsnäher. Darüber hinaus ermöglicht die Regression sogenannte Mediatoranalysen. Dabei wird untersucht, wie eine unabhängige Variable (z. B. Ernährung) über eine vermittelnde Variable (z. B. Stoffwechselrate) die abhängige Variable (z. B. Körpergewicht) beeinflusst. So lassen sich mehrschichtige Zusammenhänge elegant abbilden.
Die Regression lässt sich zudem mit weiteren statistischen Verfahren ergänzen, wie z. B. Mehrebenenmodellen oder Korrekturen für Heteroskedastizität und Endogenität. Einzig der Typ der vorherzusagenden Variable (z. B. kategorial, ordinal, metrisch) spielt bei der Auswahl des genauen Regressionsmodells eine Rolle – in der praktischen Umsetzung stellt das jedoch kein großes Hindernis dar.
Bei der nächsten Auswertung
Wenn also Überlegungen im Raum stehen sollten, Daten statistisch auszuwerten, dann einfach die KI der eigenen Wahl nach der passenden Regression fragen – am besten für Statsitik-Software wie R/R-Studio oder Python. Empfehlenswert ist auch, direkt nach einer robusten Variante zu fragen, dann muss man sich über die meisten Bedingungen keine Sorgen machen. Alternativ kann man auch bayes’statistisch arbeiten. Im Großen und Ganzen existieren zwei grundlegende Konzepte der inferenzstatistischen Auswertung: Sobald von einem Signifikanztest die Rede ist, nutzt man ein frequentistisches Konzept. Wenn von Wahrscheinlichkeiten die Rede ist, arbeitet man bayes’statistisch. Ein Vorteil von Letzterem ist, dass die meisten Bedingungen, auf die im Frequentismus zu achten ist, entfallen. Zudem sind Wahrscheinlichkeitsaussagen möglich. Wir arbeiten ausschließlich bayes’statistisch.
Die wichtigste Erkenntnis lautet daher: Nutze keine deskriptive Methoden, keine Korrelationen, keine t-Tests und keine ANOVAs – nutze die Regression. Nach etwas Übung mit einfachen Modellen, z. B. für A/B-Tests, gelingen einem dann auch komplexe Modelle.
