A/B-Test-Signifikanz Berechnen

Bestimmen Sie, ob die Ergebnisse Ihres A/B-Tests mit einem Zwei-Proportionen-Z-Test statistisch signifikant sind.

Der A/B-Test-Signifikanzrechner bestimmt, ob der Unterschied in den Conversion-Raten zwischen zwei Varianten statistisch signifikant ist. Unter Verwendung eines Zwei-Proportionen-Z-Tests mit gepoolter Proportion berechnet er P-Werte, Konfidenzniveaus, relativen Anstieg und statistische Power-Schatzungen. Ob Sie Landing Pages, E-Mail-Kampagnen oder Produktfunktionen optimieren, dieses Tool bietet Ihnen rigorose statistische Analyse direkt in Ihrem Browser ohne Serververarbeitung und ohne Anmeldung.

Analyzing Variants...
Deine Daten bleiben in deinem Browser
War dieses Tool hilfreich?
Anleitung

Anleitung

1
1

Kontrolldaten Eingeben

Geben Sie die Anzahl der Besucher und Conversions fur Ihre Kontrollgruppe (Variante A) ein. Dies ist typischerweise Ihre ursprungliche Seite oder Ihr Design.

2
2

Variationsdaten Eingeben

Geben Sie die Anzahl der Besucher und Conversions fur Ihre Variationsgruppe (Variante B) ein. Dies ist der Herausforderer, den Sie mit der Kontrolle vergleichen mochten.

3
3

Ergebnisse Uberprufen

Das Tool berechnet sofort Conversion-Raten, relativen Anstieg, P-Wert und Konfidenzniveau. Uberprufen Sie, ob Ihr Ergebnis bei 90%, 95% oder 99% Konfidenz statistisch signifikant ist.

Guide

Vollstandiger Leitfaden zur statistischen Signifikanz von A/B-Tests

Was ist ein A/B-Test?

Ein A/B-Test (auch Split-Test genannt) ist eine Methode zum Vergleich zweier Versionen einer Webseite, E-Mail oder eines anderen digitalen Assets, um festzustellen, welche besser abschneidet. Besucher werden zufallig entweder der Kontrolle (A) oder der Variation (B) zugewiesen, und ihr Verhalten wird anhand einer vordefinierten Metrik wie der Conversion-Rate gemessen.

Statistische Signifikanz Verstehen

Statistische Signifikanz hilft Ihnen festzustellen, ob ein beobachteter Unterschied zwischen zwei Gruppen wahrscheinlich real ist oder nur das Ergebnis zufalliger Variation. Bei A/B-Tests ist der Standardschwellenwert ein Konfidenzniveau von 95% (P-Wert < 0.05). Das bedeutet, es besteht nur eine 5%ige Wahrscheinlichkeit, dass der beobachtete Unterschied zufallig aufgetreten ist.

Der Zwei-Proportionen-Z-Test

Dieser Rechner verwendet den Zwei-Proportionen-Z-Test, eine weithin akzeptierte Methode zum Vergleich zweier unabhangiger Proportionen. Der Test berechnet eine gepoolte Proportion aus beiden Gruppen, leitet den Standardfehler ab, berechnet einen Z-Wert, der die Anzahl der Standardabweichungen zwischen den beiden Raten darstellt, und wandelt ihn in einen P-Wert um.

Haufige Fehler bei A/B-Tests

Der haufigste Fehler ist das Uberprufen der Ergebnisse, bevor die erforderliche Stichprobengrosse erreicht ist, was die Rate falsch-positiver Ergebnisse erhoht. Andere Fehler umfassen das Durchfuhren von Tests fur zu kurze Zeitraume, das Testen zu vieler Varianten ohne Korrektur fur Mehrfachvergleiche und das Ignorieren des Unterschieds zwischen statistischer und praktischer Signifikanz.

Examples

Ausgearbeitete Beispiele

Beispiel: Button-Farb-Test auf Landing Page

Gegeben: Variante A hat 10.000 Besucher mit 500 Conversions. Variante B hat 10.000 Besucher mit 550 Conversions.

1

Schritt 1: Rate A = 500/10000 = 5,00%. Rate B = 550/10000 = 5,50%.

2

Schritt 2: Gepoolte Proportion = (500+550)/(10000+10000) = 0,0525.

3

Schritt 3: SE = sqrt(0,0525 * 0,9475 * (1/10000 + 1/10000)) = 0,00316.

4

Schritt 4: Z = (0,055 - 0,05) / 0,00316 = 1,583.

5

Schritt 5: P-Wert = 2 * (1 - normalCDF(1,583)) = 0,1135.

Ergebnis: P-Wert = 0,1135. Nicht signifikant bei 95% Konfidenz.

Beispiel: E-Mail-Betreffzeilen-Test

Gegeben: Betreff A an 5.000 Empfanger mit 750 Offnungen. Betreff B an 5.000 Empfanger mit 900 Offnungen.

1

Schritt 1: Rate A = 750/5000 = 15,00%. Rate B = 900/5000 = 18,00%.

2

Schritt 2: Gepoolte Proportion = (750+900)/(5000+5000) = 0,165.

3

Schritt 3: SE = sqrt(0,165 * 0,835 * (1/5000 + 1/5000)) = 0,00743.

4

Schritt 4: Z = (0,18 - 0,15) / 0,00743 = 4,038.

5

Schritt 5: P-Wert = 2 * (1 - normalCDF(4,038)) = 0,0001.

Ergebnis: P-Wert < 0,001. Hoch signifikant bei 99% Konfidenz.

Anwendungsfälle

Anwendungsfalle

Landing-Page-Uberschriften-Test

Vergleichen Sie zwei verschiedene Uberschriften auf einer Landing Page, um festzustellen, welche mit statistischer Sicherheit mehr Anmeldungen generiert.

E-Mail-Betreffzeilen-Optimierung

Testen Sie verschiedene E-Mail-Betreffzeilen, indem Sie die Offnungsraten in zwei Segmenten messen und die Signifikanz uberprufen, bevor Sie den Gewinner ausrollen.

Preisseiten-Layout

Bewerten Sie, ob ein neues Preisseiten-Layout die Kauf-Conversion-Raten im Vergleich zum ursprunglichen Design verbessert.

CTA-Button-Farb-Test

Bestimmen Sie, ob die Anderung einer Call-to-Action-Button-Farbe zu einer statistisch signifikanten Verbesserung der Klickraten fuhrt.

Formel

Z-Test-Formeln fur A/B-Tests

Gepoolte Proportion

p^=xA+xBnA+nB\hat{p} = \frac{x_A + x_B}{n_A + n_B}
VariableBedeutung
\hat{p}Gepoolte Conversion-Rate
x_A, x_BConversions in jeder Variante
n_A, n_BBesucher in jeder Variante

Standardfehler

SE=p^(1p^)(1nA+1nB)SE = \sqrt{\hat{p}(1-\hat{p})\left(\frac{1}{n_A}+\frac{1}{n_B}\right)}
VariableBedeutung
SEStandardfehler der Differenz
\hat{p}Gepoolte Proportion

Z-Wert

Z=p^Bp^ASEZ = \frac{\hat{p}_B - \hat{p}_A}{SE}
VariableBedeutung
ZTeststatistik
\hat{p}_A, \hat{p}_BConversion-Raten jeder Variante

P-Wert (zweiseitig)

p=2×(1Φ(Z))p = 2 \times (1 - \Phi(|Z|))
VariableBedeutung
pZweiseitiger P-Wert
\PhiStandard-Normal-CDF

Haufig Gestellte Fragen

?Was ist statistische Signifikanz bei A/B-Tests?

Statistische Signifikanz gibt die Wahrscheinlichkeit an, dass der beobachtete Unterschied zwischen zwei Varianten nicht auf Zufall zuruckzufuhren ist. Ein Ergebnis gilt typischerweise als signifikant bei 95% Konfidenz (P-Wert < 0.05), was bedeutet, dass die Wahrscheinlichkeit, dass der Unterschied zufallig aufgetreten ist, weniger als 5% betragt.

?Welche Formel verwendet dieser Rechner?

Dieser Rechner verwendet den Zwei-Proportionen-Z-Test. Er berechnet eine gepoolte Proportion aus beiden Gruppen, ermittelt den Standardfehler, leitet einen Z-Wert ab und wandelt ihn in einen zweiseitigen P-Wert um unter Verwendung der normalen kumulativen Verteilungsfunktion.

?Wie viele Besucher brauche ich fur einen validen A/B-Test?

Die erforderliche Stichprobengrosse hangt von der Basis-Conversion-Rate und dem minimal erkennbaren Effekt ab, den Sie beobachten mochten. Als Faustregel benotigen Sie mindestens mehrere hundert Conversions pro Variante fur zuverlassige Ergebnisse.

?Was ist der P-Wert?

Der P-Wert stellt die Wahrscheinlichkeit dar, den gemessenen Unterschied (oder einen extremeren) zu beobachten, wenn es wirklich keinen Unterschied zwischen den Varianten gabe. Ein niedrigerer P-Wert bedeutet starkere Beweise gegen die Nullhypothese, dass kein Unterschied besteht.

?Was bedeutet das Konfidenzniveau?

Das Konfidenzniveau entspricht 1 minus dem P-Wert, ausgedruckt als Prozentsatz. Ein Konfidenzniveau von 95% bedeutet, dass eine 5%ige Chance besteht, dass der beobachtete Unterschied auf zufallige Variation zuruckzufuhren ist.

?Was ist statistische Power?

Statistische Power ist die Wahrscheinlichkeit, dass der Test einen realen Unterschied korrekt erkennt, wenn einer vorhanden ist. Hohere Power reduziert das Risiko eines falsch-negativen Ergebnisses. Streben Sie mindestens 80% Power fur zuverlassige A/B-Tests an.

?Kann ich mehr als zwei Varianten testen?

Dieser Rechner ist fur Zwei-Varianten-A/B-Tests konzipiert. Fur Tests mit drei oder mehr Varianten (A/B/n-Tests) wurden Sie andere statistische Methoden wie ANOVA oder Korrekturen fur Mehrfachvergleiche benotigen.

?Sind meine Daten bei der Nutzung dieses Tools privat?

Absolut. Alle Berechnungen werden vollstandig in Ihrem Browser ausgefuhrt. Keine Daten werden an einen Server gesendet oder irgendwo gespeichert. Ihre Testdaten bleiben vollstandig privat.

?Ist dieser A/B-Test-Rechner kostenlos?

Ja. Dieses Tool ist vollig kostenlos ohne Nutzungsbeschrankungen und erfordert keine Anmeldung oder Installation.

?Wann sollte ich einen A/B-Test stoppen?

Stoppen Sie einen Test erst, nachdem Sie eine vorbestimmte Stichprobengrosse oder Laufzeit erreicht haben. Das wiederholte Uberprufen der Ergebnisse und das vorzeitige Stoppen bei gefundener Signifikanz erhoht die Rate falsch-positiver Ergebnisse.

Hilf uns besser zu werden

Wie gefällt Ihnen dieses Tool?

Jedes Tool bei Kitmul wird auf Basis echter Nutzeranfragen gebaut. Ihre Bewertung und Ihre Vorschläge helfen uns, Bugs zu beheben, fehlende Funktionen hinzuzufügen und die Tools zu bauen, die Sie wirklich brauchen.

Dieses Tool bewerten

Tippen Sie auf einen Stern, um uns zu sagen, wie nützlich dieses Tool für Sie war.

Vorschlag machen oder Bug melden

Eine Funktion fehlt? Einen Bug gefunden? Haben Sie eine Idee? Sagen Sie es uns und wir schauen es uns an.

Ähnliche Tools

Empfohlene Lektüre

Empfohlene Bucher zu A/B-Tests und Datengetriebenem Marketing

Als Amazon-Partner verdienen wir an qualifizierten Verkäufen.

Erweitern Sie Ihre Fähigkeiten

Professionelle Werkzeuge fur die Datenanalyse

Als Amazon-Partner verdienen wir an qualifizierten Verkäufen.

Newsletter

Erhalte Produktivitätstipps und Neue Tools Zuerst

Schließe dich Machern und Entwicklern an, die Datenschutz schätzen. Jede Ausgabe: neue Tools, Produktivitäts-Hacks und Updates — kein Spam.

Prioritätszugang zu neuen Tools
Jederzeit abbestellen, ohne Rückfragen