Lesen Sie unseren Leitfaden, um zu erfahren, was A/B-Tests sind und wie diese Ihnen dabei helfen können, Ihr Verlagsgeschäft zu skalieren, indem sie das Rätselraten beenden.
A/B-Tests sind für Publisher und Blogger gleichermaßen ein Segen. Sie haben die Entscheidungsfindung verändert und sie von Intuition auf Daten umgestellt. Als Publisher neigen wir dazu, Zufall, Wahrscheinlichkeit und sogar Zufälligkeit bei Entscheidungen falsch zu interpretieren oder gar zu ignorieren. Hier kommt die statistische Signifikanz von A/B-Tests ins Spiel.
Im Laufe der Jahre haben uns A/B-Tests für Publisher eines gelehrt: Wenn die Daten es nicht unterstützen, ist es nicht die richtige Entscheidung.
Unser Leitfaden untersucht alle Facetten des Split-Tests für Publisher: Was ist A/B-Testing, seine Vorteile und Herausforderungen und wie Publisher damit beginnen können.

Was ist A/B-Testing für Publisher? (Bedeutung von A/B-Testing)
Lassen Sie uns zunächst A/B-Tests verstehen. Es ist eine Form von Conversion-Rate-Optimierung Test (CRO-Test), bei dem zwei Versionen eines bestimmten Elements einem Abschnitt des Live-Verkehrs ausgesetzt werden, um zu ermitteln, welche Variante mehr Conversions erzielt. Vereinfacht ausgedrückt: Der A/B-Split-Test identifiziert die leistungsstärkere Variante anhand von Daten zur Zielgruppeninteraktion.
A/B-Tests werden im digitalen Marketing umfassend eingesetzt. Ob Anzeigentexte, Newsletter oder Werbekreationen – sie haben den Entscheidungsprozess optimiert.
Wenn wir über Split-Tests für Publisher sprechen, heben wir insbesondere die Prozesse hervor, die häufig von Publishern implementiert werden. Dies kann Folgendes umfassen: Anzeigenplatzierungendie Wahl der Anzeigenformate, und Präsentation von Website-Inhalten unter anderem.
Nachdem wir nun besprochen haben, was A/B-Tests sind, wollen wir uns Beispiele ansehen, um es besser zu verstehen.
Beispiele für A/B-Tests
A/B-Tests im digitalen Marketing sind ein branchenweites Phänomen. Sowohl Publisher als auch Werbetreibende nutzen dieses Tool, um ihre Marketingprozesse zu verbessern.
Sehen wir uns einige A/B-Testbeispiele an, um zu verstehen, in welchen Fällen Sie diese Technik anwenden können.
1. HubSpots Newsletter-Abonnenten-Erlebnis
Ziel: Um zu testen, wie Ausrichtung der Newsletter-Inhalte kann CTA-Klicks beeinflussen.
Variante A (Kontrolle): Zentrierte Ausrichtung für E-Mail-Text
Variante B: Linksbündige Ausrichtung für E-Mail-Text
Ergebnis: HubSpot stellte fest, dass Variante B weniger Klicks erhielt als Variante A. Von allen mit Variante B gesendeten E-Mails erhielten weniger als 25 % mehr Klicks als die Kontrollgruppe.
2. Highrise-Überschrift- und Unterüberschrift-Test
Ziel: Um zu testen, welche Schlagzeile würde zu mehr Anmeldungen führen
Variante A: Eröffnen Sie ein Highrise-Konto – Pay-as-you-go. 30 Tage kostenlose Testversion für alle Konten. Keine versteckten Gebühren.
Variante B: 30 Tage kostenlose Testversion für alle Konten – Die Anmeldung dauert weniger als 60 Sekunden. Wählen Sie einen Plan, um loszulegen!
Ergebnis: Der Google Analytics-Experimenttest ergab, dass die Variante, die die Besucher darüber informiert, dass der Anmeldevorgang schnell ist, zu einer Steigerung der Klicks um 30 % führte.
Nachdem wir nun die brennende Frage „Was ist A/B-Testing?“ beantwortet haben, wollen wir uns ansehen, wie es durchgeführt wird.
Wie führt man A/B-Tests durch?
A/B-Tests, auch Split-Tests genannt, werden kontrolliert durchgeführt.
Stellen Sie sich vor: Sie sind ein Publisher und planen, Bannerwerbung auf Ihrer Website zu schalten. Ihr Ziel ist es, Maximieren Sie die Werbeeinnahmen ohne die UI/UX der Website zu beeinträchtigen.
1. Sie definieren Ihr Ziel: Welche Bannerplatzierung generiert mehr eCPMs – Platzierung A oder Platzierung B?
2. Nun erstellen Sie zwei Varianten. Option A (Kontrolle) ist Ihr aktuelles Setup und Option B (Test) ist die modifizierte Version.
3. Anschließend teilen Sie den Datenverkehr zufällig auf, sodass 50 % Ihrer Besucher das aktuelle Setup und 50 % die geänderte Version sehen.
4. Führen Sie den Test lange genug durch, um aussagekräftige Daten für die Analyse zu sammeln.
5. Schließlich messen Sie die wichtigsten Kennzahlen wie CTR, Eindrücke, Absprungrate, RPM, Seitenladegeschwindigkeit und Dauer der Benutzerinteraktion.

Basierend auf den Ergebnissen wählen Sie die Platzierung aus, die gute Ergebnisse erzielt.
Et voilà! Der A/B-Test war erfolgreich!
Was können Publisher mit A/B-Tests tun?
A/B-Tests und Mehrarmiger Bandit Lösungen können Verlage nutzen, um datenbasierte Entscheidungen zu treffen und ihr Verlagsgeschäft zu skalieren. Sie können auch Ihre Optimierungsbemühungen zur Steigerung der Werbeeinnahmen vorantreiben. Folgendes ist möglich:
Optimieren Sie die Anzeigenplatzierung
Durch kontinuierliche Split-Tests können Publisher optimale Anzeigenplatzierungen für ihre Websites ermitteln. Sie können verschiedene Positionen innerhalb der Website testen:
- Oberhalb der Falte vs. unterhalb der Falzlinie
- Zwischen Inhalt und Seitenleiste
- Klebrige Anzeigen vs. schwebende Anzeigen
Dies kann dabei helfen, die Platzierungen zu identifizieren, die maximale Impressionen oder Klicks bringen, ohne die User Experience.
Anzeigenformate vergleichen
Neben Anzeigenplatzierungen können Sie auch vergleichen Anzeigenformate um herauszufinden, welche Formate am besten zu Ihrer Website passen. Sie können verschiedene Anzeigenformate testen:
- Display-Anzeige vs native Anzeigen
- Statische Anzeigen vs Video-Anzeigen
- Responsive Anzeigen vs Werbebanner
Inhaltslayout und UX
Das Content-Layout spielt eine entscheidende Rolle für Engagement und Monetarisierung. Als Publisher können Sie Folgendes testen:
- Anzahl der Zwischenüberschriften/Absätze vor der Anzeige einer Anzeige
- Artikelformat und -länge
- Mobiles vs. Desktop-Rendering
Durch Split-Tests des Inhaltslayouts können Sie das optimale Gleichgewicht zwischen der Lesbarkeit des Inhalts und den Werbeeinnahmen erreichen.
Bewerten Sie verschiedene Werbenetzwerke oder SSPs
Neben websitezentrierten Elementen können Publisher auch A/B-Tests durchführen, um ihren Anzeigenstapel zu bewerten. Durch den Vergleich von Kennzahlen wie Füllrate, eCPMs und Anzeigenrelevanzkönnen Publisher zwischen mehreren Werbenetzwerke und SSPs um ihren Anzeigenertrag zu maximieren.
Herausgeber können auch A/B-Tests durchführen, um:
- Testen Sie Paywall-Strategien oder Abonnementaufforderungen
- Verbessern Sie SEO und Benutzerengagement
- Arbeiten Sie an der Seitenlatenz
- Zielgruppensegmentierung zur Personalisierung
3 Vorteile von A/B-Tests für Publisher
A/B-Tests bieten den Herausgebern eine Reihe von Vorteilen, beispielsweise:
Kein Rätselraten oder Intuition
Durch die Durchführung eines A/B-Tests wird jeglicher Raum für Vermutungen, Intuition oder Bauchgefühl eliminiert. Wenn Sie also Zweifel haben, können Sie einfach einen A/B-Test durchführen und sich von Ihrem Publikum bei der Entscheidung leiten lassen.
Datengesteuerte Entscheidungen
A/B-Tests arbeiten ausschließlich mit Daten, d. h. sie präsentieren die Daten in Form von Benutzerinteraktionen, CPMund andere Kennzahlen, um die leistungsstärkere Variante klar abzugrenzen. Auf diese Weise können Sie fundierte Entscheidungen über Ihre Renditestrategien.
Intelligentere Content-Strategie
Durch kontinuierliches Testen von Metabeschreibungen, Überschriften, Unterüberschriften und Schreibstil können Publisher Traffic- und Conversion-fördernde Elemente identifizieren. So können sie eine Content-Roadmap entwickeln, die den Interessen der Zielgruppe entspricht.
3 Einschränkungen aktueller A/B-Testsoftware
Die meisten A/B-Testprogramme sind nicht für Publisher gedacht. Hier ist der Grund:
Anzeigenklicks können nicht verfolgt werden, um Ergebnisse zu messen
Da die meisten Werbenetzwerke die Creatives in Form eines Iframes bereitstellen, kann A/B-Testsoftware keine Anzeigenklicks erfassen. Darüber hinaus verstößt es für viele Werbenetzwerke gegen die Programmrichtlinien, Anzeigenklicks direkt mithilfe von Analyse- oder Testsoftware zu messen.
Keine Unterstützung für die automatische Erstellung von Variationen
A/B-Tests von Anzeigen können etwas komplizierter sein, da die Anzahl der Variationen exponentiell steigt. Typischerweise möchten Sie drei Anzeigenblöcke auf einer Seite anzeigen, sechs bis sieben Schlüsselpositionen, zwei bis drei wichtige Anzeigengrößen für jede Position und fünf bis sechs Farbthemen für jede Position.
Die Anzahl der Variationen würde leicht Hunderte erreichen, und es gibt keinen Grund, die Erstellung von Variationen nicht zu automatisieren. Natürlich ist die Erstellung einer sehr großen Anzahl von Variationen nur für große Verlage ratsam.
Auch das manuelle Bearbeiten des Codes hilft nicht
Auch wenn Sie den neuen Anzeigencode (mit dem Sie die Kontrolle vergleichen möchten) manuell erstellen, sagen wir in AdsenseIm Anzeigenverwaltungsbereich von können Sie den HTML-Code der Variante nicht einfach in gängigen A/B-Testtools bearbeiten (die meisten davon sind clientseitig). Das wird nicht funktionieren.
Dies liegt daran, dass A/B-Testtools (wiederum die clientseitigen) die von Ihnen vorgenommenen Aktualisierungen/Änderungen erst nach dem Laden der Seite übertragen. Das AdSense-JavaScript funktioniert dann nicht. Nicht zu vergessen: Die Manipulation des AdSense-JS-Codes verstößt gegen die Programmrichtlinien.
5 Best Practices für effektives A/B-Testing
Publisher müssen bei der Durchführung eines A/B-Tests bestimmte Dinge beachten, beispielsweise:
Testen Sie jeweils ein Element
A/B-Tests funktionieren wie jedes andere Experiment. Sie testen ein einzelnes Element und behalten alle anderen Variablen bei, um genaue Ergebnisse zu erhalten. Kurz gesagt: Der Schlüssel zur Präzision bei A/B-Tests liegt darin, jeweils einen Aspekt einzeln auszuwählen. So können Sie die Auswirkungen jeder Änderung isolieren und entsprechende Anpassungen vornehmen.
Wenn Sie beispielsweise testen möchten Anzeigengrößen, dann bleiben Sie einfach dabei. Behalten Sie alle anderen Variablen bei – sei es das Anzeigenformat, die Anzeigenplatzierung, der Text, die Gestaltung und sogar der Stapel.
Keine Eile
Dieser Punkt ist aus Sicht der Datenerhebung wichtig. Es empfiehlt sich, mit dem Split-Test zu warten, bis Sie mindestens 1000 monatliche Website-Besucher haben. Obwohl es keine feste Regel ist, kann eine kleine Stichprobengröße Ihre Ergebnisse verfälschen, was den Test unschlüssig oder sogar ungültig machen kann.
Führen Sie geräteübergreifende A/B-Tests durch
Ihre Zielgruppe kann von jedem Gerät aus auf Ihre Website zugreifen. Daher ist es absolut sinnvoll, den Test auf mehreren Geräten (Laptops, Handys, Tablets) durchzuführen. So können Sie gerätespezifisches Nutzerverhalten erkennen und die Benutzererfahrung entsprechend optimieren.
Überwachen Sie die Leistung kontinuierlich
Informieren Sie sich während der Durchführung von A/B-Tests am besten täglich über die laufenden Ergebnisse. Sollten Sie eine deutliche Leistungsminderung feststellen, halten Sie einen Plan zur Problembehebung bereit oder brechen Sie den Test ab.
Halten Sie externe Faktoren in Schach
A/B-Tests erfordern eine stabile Umgebung ohne externe Störungen, die den Testablauf stören oder die Leistungsdaten verfälschen könnten. Stellen Sie daher sicher, dass Website-Änderungen oder Marketingkampagnen den Test in keiner Weise beeinflussen. Ein Tipp: Um präzise Ergebnisse zu erhalten, ist es besser, die laufenden Änderungen während der Testdurchführung zu pausieren.
A/B-Teststatistiken
1. TrueList heißt es:
- Der globale Markt für A/B-Testsoftware wird bis 1.08 voraussichtlich 2025 Milliarden US-Dollar erreichen.
- Statistische Signifikanz beim A/B-Test kann mit mindestens 5000 Einzelbesuchern erreicht werden.
- Einfache Betreffzeilen erhalten 541 Prozent mehr Antworten als kreative.
2. Nach LLCBuddy,
- 60 % der Unternehmen verwenden A/B-Tests für Zielseiten und 63 % sagen, dass sie einfach durchzuführen sind.
- 77 % der Vermarkter verwenden A/B-Tests, davon 60 % auf Landingsites, 59 % bei E-Mails und 58 % bei PPC.
- Bing berichtete, dass der Einsatz von A/B-Tests bei Display-Anzeigen zu einer Steigerung der Werbeeinnahmen um 25 % führte.
- Obamas Digitalteam hatte im Jahr 2019 A/B-Tests eingesetzt, um die Beitragskonvertierungen um 49 % zu steigern.
- Laut Hubspot wurden E-Mails mit dem echten Namen des Absenders nach einem A/B-Test 0.53 % häufiger geöffnet als E-Mails mit dem Firmennamen des Absenders.
3. Die komplexesten Split-Test-Methoden werden in Branchen eingesetzt, in denen Konvertierungen entscheidend sind, wie z. B. SaaS, IT, Retain und E-Commerce. (Fibr.AI)
Auf dem Weg zu MAB und kontinuierlicher Optimierung
Technisch gesehen ist A/B-Testing für Publisher kein ideales Produkt. Sie sollten andere Multi-Arm-Bandit-Lösungen (MAB) verwenden, einfach weil die Optimierung als kontinuierlicher Prozess betrachtet werden sollte.
Jeder, der das Layout einer Website mit Anzeigen geändert hat, wird feststellen, dass die Klickrate direkt nach der Design-/Layoutänderung steigt. Dies liegt vor allem daran, dass sich Ihr Layout weiterentwickelt. Bannerblindheit im Laufe der Zeit.
Kontinuierliche MAB-Tests sind die perfekte Lösung. Die Erstellung eines Frühindikators für Veränderungen im Nutzerverhalten gegenüber Anzeigeneinheiten ist keine schwierige Aufgabe und kann dazu beitragen, dass die Leistung Ihrer Anzeigeneinheiten stets gut ist.
Einfach ausgedrückt: Sobald Sie das Experiment auf Ihrer Website starten, sorgen kontinuierliche Optimierung und MAB dafür, dass der Großteil Ihrer Impressionen weiterhin an die leistungsstärkste Variante ausgeliefert wird. Sobald das System jedoch einen (statistisch signifikanten) Rückgang der Klickrate feststellt, findet es selbst die bestmögliche Variante.
Es ist auch technisch möglich, mithilfe von maschinellem Lernen den besten Platz für Ihre Anzeigen (außerhalb der definierten Variationen) zu finden und ihn an das sich ändernde Benutzerverhalten anzupassen.
Key Take Away
Was ist A/B-Testing: Dabei handelt es sich um eine Technik, bei der zwei Varianten eines Elements dem Live-Verkehr ausgesetzt werden, um die Variante zu identifizieren, die die Konvertierung vorantreibt.
Was können Publisher mit A/B-Tests erreichen: Optimieren Sie Anzeigenplatzierungen, vergleichen Sie Anzeigenformate, optimieren Sie das Inhaltslayout und die UX und bewerten Sie unter anderem verschiedene Anzeigennetzwerke/SSPs.
Vorteile von A/B-Tests: Intelligentere und datengesteuerte Entscheidungsfindung, optimiertere, auf die Zielgruppe abgestimmte Inhaltsstrategie und erhebliche SEO-Gewinne.
Einschränkungen des A/B-Tests für Publisher: Anzeigenklicks können nicht verfolgt werden, um Ergebnisse zu messen. Es gibt keine Unterstützung für die automatische Erstellung von Variationen und keine Hilfe bei der manuellen Codierung.
Best Practices für A/B-Tests: Testen Sie jeweils nur ein Element, führen Sie keine A/B-Tests mit einer kleinen Stichprobengröße durch, führen Sie Split-Tests auf mehreren Geräten durch und überwachen Sie die Leistung kontinuierlich.
Multi-Armed Bandit-Lösungen (MAB): Es handelt sich um eine verfeinerte Form des A/B-Tests, die maschinelles Lernen nutzt, um den Datenverkehr auf die leistungsstärkste Variante umzuleiten. Da es in Echtzeit arbeitet, ist es im Vergleich zu herkömmlichen Split-Tests kostengünstiger und potenziell schneller.
Planen Sie, A/B-Tests auf Ihrer Website durchzuführen? Kontakt AdPushup Jetzt anmelden und eine kostenlose Demo erhalten. Wir bieten automatisierte Split-Tests für Publisher als Teil unserer Anzeigenlayout-EditorDie Kontrolle verbleibt bei den Herausgebern, die so jederzeit neue Layouts und deren Variationen testen können.
FAQs zum A/B-Testing für Publisher
Es gibt zahlreiche A/B-Testtools für Publisher, wie beispielsweise VWO und Optimizely. Sie können auch AdPushup für die Durchführung von A/B-Tests auf Ihrer Website in Betracht ziehen. Dank unserer langjährigen Erfahrung bieten wir die besten Möglichkeiten zur Steigerung der Anzeigenrendite.
A/B-Tests sind eine Methode zur Leistungsmessung, bei der zwei Varianten einer Webseite oder App verglichen werden, um die bessere Leistung zu ermitteln. Auch Split-Tests genannt, handelt es sich um eine Methode zur Conversion-Rate-Optimierung, die darauf abzielt, die Conversion-Raten eines Unternehmens zu steigern.
