Zum Inhalt springen
RAAB Online-Marketing

A/B-Testing

A/B-Testing ist die kontrollierte Gegenüberstellung zweier Varianten von Webseiten oder Anzeigen — mit statistisch belegbaren Performance-Unterschieden.

Was ist A/B-Testing?

A/B-Testing (auch: Split-Testing) ist eine empirische Methode, mit der zwei Varianten — Variante A und Variante B — gleichzeitig gegen Live-Traffic getestet werden, um statistisch belegbare Performance-Unterschiede zu messen. Im Marketing-Kontext werden typischerweise getestet:

  • Headlines — welche Formulierung erzeugt mehr Klicks oder Konversionen?
  • CTAs — welcher Button-Text oder welche Farbe trägt besser?
  • Hero-Sektionen — welches Wertversprechen passt zur Zielgruppe?
  • Formulare — welche Felder-Anzahl optimiert das Verhältnis von Lead-Anzahl zu Lead-Qualität?
  • Pricing-Darstellung — welche Struktur reduziert Drop-Off auf der Pricing-Seite?

Voraussetzungen für sinnvolle A/B-Tests

Drei harte Voraussetzungen entscheiden, ob ein A/B-Test überhaupt statistisch belastbar ist:

  1. Traffic-Volumen — mindestens ca. 1.000 relevante Visits pro Variante und Woche
  2. Konversions-Volumen — mindestens ca. 100 Konversionen pro Variante über die Test-Laufzeit
  3. Klare Hypothese — was genau wird getestet, und was wäre das erwartete Ergebnis?

Realismus-Hinweis: Wer mit 200 Besuchern im Monat „A/B-testet“, führt kein Experiment durch — er sammelt zufallsbedingte Beobachtungen, die als Test verkleidet sind. Das ist im Mittelstand der häufigste CRO-Fehler.

A/B-Testing-Tools

Im Marktstand 2026:

  • VWO — etablierter B2B-Standard, gute Integration mit GA4
  • PostHog — Open-Source-Alternative mit eigener Analytics-Schicht
  • Google Optimize — eingestellt 2023, nicht mehr empfehlenswert
  • Convert — günstig für kleinere Sites mit moderatem Traffic

Tool-Wahl folgt aus Traffic-Volumen, Integrations-Anforderungen und Datenschutz-Setup — nicht aus dem schicksten Marketing-Slide.

Was A/B-Testing nicht ist

A/B-Testing ist kein Generator für neue Ideen und keine Ersatzhandlung für strategische Marken-Arbeit. Tests prüfen Hypothesen, die aus einer klaren Position kommen. Wer ohne Hypothese testet, optimiert auf den nächsten zufälligen Effekt — und verwechselt Statistik-Schwankungen mit Erkenntnis.

Häufige Fragen

Was unterscheidet ein A/B-Test von einem Multivariate-Test?
A/B-Test vergleicht zwei Varianten einer einzelnen Variable (z. B. Headline A vs. Headline B). Multivariate-Test verändert mehrere Elemente gleichzeitig (Headline × Bild × CTA). Multivariate-Tests brauchen drastisch mehr Traffic und sind im B2B-Mittelstand fast nie praktikabel — A/B reicht in 95 % der Fälle.
Wie lange muss ein A/B-Test mindestens laufen?
Mindestens eine volle Geschäfts-Woche, idealerweise zwei — um Wochentagseffekte auszugleichen. Stop-bei-erstem-Signifikanz-Signal („peeking“) ist statistisch problematisch. Wir definieren die Test-Dauer vorab anhand der erwarteten Effektgröße und der Traffic-Verfügbarkeit.