A/B-Testing
A/B-Testing ist die kontrollierte Gegenüberstellung zweier Varianten von Webseiten oder Anzeigen — mit statistisch belegbaren Performance-Unterschieden.
Was ist A/B-Testing?
A/B-Testing (auch: Split-Testing) ist eine empirische Methode, mit der zwei Varianten — Variante A und Variante B — gleichzeitig gegen Live-Traffic getestet werden, um statistisch belegbare Performance-Unterschiede zu messen. Im Marketing-Kontext werden typischerweise getestet:
- Headlines — welche Formulierung erzeugt mehr Klicks oder Konversionen?
- CTAs — welcher Button-Text oder welche Farbe trägt besser?
- Hero-Sektionen — welches Wertversprechen passt zur Zielgruppe?
- Formulare — welche Felder-Anzahl optimiert das Verhältnis von Lead-Anzahl zu Lead-Qualität?
- Pricing-Darstellung — welche Struktur reduziert Drop-Off auf der Pricing-Seite?
Voraussetzungen für sinnvolle A/B-Tests
Drei harte Voraussetzungen entscheiden, ob ein A/B-Test überhaupt statistisch belastbar ist:
- Traffic-Volumen — mindestens ca. 1.000 relevante Visits pro Variante und Woche
- Konversions-Volumen — mindestens ca. 100 Konversionen pro Variante über die Test-Laufzeit
- Klare Hypothese — was genau wird getestet, und was wäre das erwartete Ergebnis?
Realismus-Hinweis: Wer mit 200 Besuchern im Monat „A/B-testet“, führt kein Experiment durch — er sammelt zufallsbedingte Beobachtungen, die als Test verkleidet sind. Das ist im Mittelstand der häufigste CRO-Fehler.
A/B-Testing-Tools
Im Marktstand 2026:
- VWO — etablierter B2B-Standard, gute Integration mit GA4
- PostHog — Open-Source-Alternative mit eigener Analytics-Schicht
- Google Optimize — eingestellt 2023, nicht mehr empfehlenswert
- Convert — günstig für kleinere Sites mit moderatem Traffic
Tool-Wahl folgt aus Traffic-Volumen, Integrations-Anforderungen und Datenschutz-Setup — nicht aus dem schicksten Marketing-Slide.
Was A/B-Testing nicht ist
A/B-Testing ist kein Generator für neue Ideen und keine Ersatzhandlung für strategische Marken-Arbeit. Tests prüfen Hypothesen, die aus einer klaren Position kommen. Wer ohne Hypothese testet, optimiert auf den nächsten zufälligen Effekt — und verwechselt Statistik-Schwankungen mit Erkenntnis.