Ob bei der Ge­stal­tung von News­let­tern oder Online-Wer­be­an­zei­gen: Marketer versuchen ständig ihre Maßnahmen zu ver­bes­sern, nut­zer­freund­li­cher zu gestalten und das Beste aus den Mög­lich­kei­ten des On­line­mar­ke­tings her­aus­zu­ho­len. Das Ziel: mehr Con­ver­si­ons und damit mehr Umsatz für das Un­ter­neh­men. Ob zur Op­ti­mie­rung von ganzen Websites, einzelnen Funk­tio­nen oder Landing­pa­ges: Das A/B-Testing hat sich als gute Methode bewährt, um Schritt für Schritt zur optimalen Ge­stal­tung zu kommen.

A/B-Testing: Das Grund­prin­zip

Das A/B-Testing (auch „Split-Test“ genannt) ist eine Methode zum Vergleich von ver­schie­de­nen Versionen einer Website bzw. einzelner Elemente oder Funk­tio­nen. In der Regel wird die Ori­gi­nal­ver­si­on gegen eine leicht ver­än­der­te, womöglich ver­bes­ser­te Version getestet.

Dafür teilt man die Ziel­grup­pe, also die Website-Besucher oder die Nutzer, denen eine Anzeige aus­ge­spielt wird, in Gruppe A und Gruppe B auf. Im Folgenden werden die zwei ver­schie­de­nen Varianten des Test­ob­jekts (Version A und Version B) der je­wei­li­gen Gruppe gezeigt, deren Re­ak­tio­nen gemessen und mit denen der anderen ver­gli­chen. Die ge­wünsch­ten Re­ak­tio­nen hat man vorher definiert bzw. sie ergeben sich aus dem ge­tes­te­ten Objekt. Bei einer Wer­be­an­zei­ge könnte dies der Klick oder die Con­ver­si­on sein, bei einer Landing­pa­ge ein Download oder die Anmeldung zum News­let­ter.

Wofür wird A/B-Testing ein­ge­setzt?

Das Website-A/B-Testing wird in vielen ver­schie­de­nen Dis­zi­pli­nen des On­line­mar­ke­tings ein­ge­setzt. Ob man dabei ganze Seiten, einzelne Elemente, das Wording oder nur die Farb­ge­bung testet, bleibt einem selbst und dem je­wei­li­gen Interesse über­las­sen. Im Gegensatz zum mul­ti­va­ri­an­ten Testing wird beim Split-Testing nur eine These, also eine Variable getestet. Mithilfe der Ge­gen­über­stel­lung ver­schie­de­ner Version lassen sich zum Beispiel diese Aspekte testen und op­ti­mie­ren:

  • Webdesign
  • über­ar­bei­te­te Features und Funk­tio­nen
  • Landing­pa­ges
  • Website-Elemente wie Call-to-Action-Buttons
  • AdWords-Anzeigen
  • News­let­ter

Dabei kann man beliebig viele in­di­vi­du­el­le An­wen­dungs­sze­na­ri­en durch­spie­len. Nur drei Beispiele:

  • Ein On­line­händ­ler re­gis­triert viele Warenkorb-Abbrüche. Er versucht einzelne Elemente im Warenkorb-Prozess deut­li­cher her­vor­zu­he­ben und lässt die ver­än­der­te Version gegen die Ori­gi­nal­ver­si­on testen.
  • Ein Web­ser­vice möchte gezielt Wer­be­an­zei­gen für eines der an­ge­bo­te­nen Produkte schalten. Man testet dafür zwei un­ter­schied­li­che Versionen einer Anzeige, bei denen jeweils ein anderes Keyword genutzt wird.
  • Ein Blogger, der seine Arbeit über Wer­be­an­zei­gen fi­nan­ziert (= Publisher), möchte die Be­su­cher­zah­len steigern. Er testet bei einzelnen Artikeln ver­schie­de­ne Über­schrif­ten oder variiert den Einsatz von Bildern.

Website-A/B-Testing: Schritt für Schritt

Kein A/B-Testing sollte ohne eine aus­führ­li­che stra­te­gi­sche Pla­nungs­pha­se starten. Dabei halten sich viele Marketer an ein striktes Grund­prin­zip:

1. Probleme iden­ti­fi­zie­ren

Eine Op­ti­mie­rung kann man nur planen, wenn es etwas zu ver­bes­sern gibt. Der erste Schritt ist deshalb immer die Iden­ti­fi­ka­ti­on eines Problems. Das kann z. B. eine zu geringe Klickrate eines Buttons sein. Mit der Pro­blem­er­ken­nung erfolgt meist auch die Ziel­set­zung. In diesem Fall: mehr Klicks auf den CTA-Button.

2. Recherche und Ideen­samm­lung

Bevor man gezielt Hy­po­the­sen for­mu­liert, sollte man sich Hin­ter­grund­wis­sen aneignen und ent­spre­chend re­cher­chie­ren. Zu behaupten, ein blauer Button würde besser funk­tio­nie­ren als ein roter, ist leicht – doch hat diese These ohne einen em­pi­ri­schen Beweis weder Hand noch Fuß. Be­schäf­tigt man sich im Vorhinein z. B. mit Studien, die den Einfluss der Farb­aus­wahl auf das Nut­zer­ver­hal­ten un­ter­su­chen, ist man oft schlauer. Außerdem bekommt man mög­li­cher­wei­se gute An­re­gun­gen, welche Elemente sich wie verändern lassen.

3. De­fi­ni­ti­on von Hy­po­the­sen

Aufgrund der Re­cher­che­er­geb­nis­se for­mu­liert man nun seine These. Diese könnte sein: Ein gelber CTA-Button wird zu einer höheren Klickrate führen. Oder man hat die Po­si­tio­nie­rung eines Me­nü­punk­tes verändert und die Hypothese besagt, dass dieser in der neuen Version leichter zu finden sein wird als in der alten.

4. Testphase

Man erstellt nun zwei Varianten der zu testeten Seite, also z. B. Variante A mit einem blauen CTA-Button und Variante B mit dem neuen, gelben CTA-Button. Im Rahmen des Split-Tests laufen die beiden Versionen nun ge­gen­ein­an­der im Test. Das kann zeitlich getrennt oder durch ver­schie­de­ne URLs erfolgen. Mit einer A/B-Testing-Software ist es möglich, die Nutzer per Zu­falls­prin­zip zu einer der beiden Versionen wei­ter­zu­lei­ten.

5. Analyse und Report

Hat der Test über einen be­stimm­ten Zeitraum eine genügend große Stich­pro­be von Nutzern erreicht, kann die Aus­wer­tung erfolgen. Stellt sich hierbei heraus, dass die Klickrate sich mit dem gelben CTA-Button erheblich ver­bes­sert hat, wird diese Version zum neuen „Original“.

Diese Abfolge kann man beliebig oft wie­der­ho­len: Im nächsten Schritt könnte man nun testen, ob die Position des CTA-Buttons auf der Seite einen zu­sätz­li­chen Einfluss auf die Klickrate hat. Im Grunde kann man jedes noch so kleine Element testen – bei der De­fi­ni­ti­on der Hypothese legt jeder Anwender selbst fest, was getestet werden soll.

Vor- und Nachteile des A/B-Testings

Das A/B-Testing hat viele Vorteile für On­line­mar­keter. Vor allem er­mög­licht sie einen sub­jek­ti­ven Vergleich, der un­ab­hän­gig von der eigenen Sicht­wei­se erfolgt und die Be­trach­tungs­wei­se der Ziel­grup­pe fo­kus­siert. Dank zahl­rei­cher (teils auch kos­ten­lo­ser) Testing-Tools kann man auch ohne tech­ni­sche Vor­kennt­nis­se einen Split-Test durch­füh­ren, der ein­deu­ti­ge Er­geb­nis­se liefert. Diese lassen sich im Anschluss direkt umsetzen.

Auf der anderen Seite ist das Testing nur sinnvoll, wenn man einzelne Elemente mit­ein­an­der ver­gleicht. Verändert man gleich mehrere Aspekte, ist die Aus­wer­tung nicht mehr eindeutig. Es besteht außerdem immer die Gefahr, Nutzer zu über­for­dern oder zu verwirren, indem man Än­de­run­gen vornimmt und wieder rück­gän­gig macht. Es ist deshalb sinnvoll, die Tests vorrangig an Neukunden durch­zu­füh­ren. Schließ­lich stellt sich noch die Frage nach der sta­tis­ti­schen Si­gni­fi­kanz. Bei kleinen Seiten mit nur wenig Traffic ist es schwie­ri­ger und lang­wie­ri­ger, auf Zahlen zu kommen, die wirklich aus­sa­ge­kräf­tig sind.

Vor- und Nachteile im Überblick

Vorteile Nachteile
• Sub­jek­ti­ver Vergleich • Immer nur eine Hypothese pro Test
• Spiegelt das Interesse der Ziel­grup­pe wider • Ver­wir­rung bei Nutzern möglich
• Einfache Umsetzung dank Testing-Tools • Sta­tis­ti­sche Si­gni­fi­kanz für kleine Seiten schwer zu erreichen
• Ein­deu­ti­ge Analyse möglich
• Un­mit­tel­ba­re Umsetzung der Er­geb­nis­se möglich

Testing-Tools

Auf dem Markt gibt es zahl­rei­che mehr oder weniger um­fang­rei­che Testing-Tools, die Split-Tests für Websites er­mög­li­chen. Eine kos­ten­lo­se Option ist das Angebot „Content Ex­pe­ri­ments“, das man über Google Analytics nutzen kann. Der Funk­ti­ons­um­fang der Google-Lösung ist dabei geringer als der von Pro­gram­men wie Op­ti­mi­ze­ly, das gegen eine mo­nat­li­che Gebühr ein relativ einfach zu be­die­nen­des Testing-Tool für kleine und mit­tel­stän­di­sche Un­ter­neh­men bietet.

Ein ähnliches Angebot hat das Tool Kameleoon, das als sehr intuitiv und leicht zu in­stal­lie­ren gilt. Kameleoon bietet außerdem einen kos­ten­lo­sen Freemium-Account für bis zu 2.500 Besucher pro Monat und ist somit eine gute Ein­stei­ger­lö­sung für kleine Websites.

Etwas hoch­prei­si­ger, dafür mit Zu­satz­funk­tio­nen wie Heat- und Clickmaps, ist der Visual Website Optimizer. Für große Un­ter­neh­men, die Website-A/B-Testing nutzen wollen, gibt es um­fang­rei­che­re, aber auch teurere Optionen wie HP Optimost oder SiteSpect.

Zum Hauptmenü