Ongetwijfeld zul je al eens van ze gehoord hebben: A/B testen. Niet gek, want deze krachtige manier van testen wordt gebruikt binnen vrijwel elk online marketingkanaal. SEO, SEA, CRO, Social Ads, noem het maar op. Voor veel bedrijven leveren de resultaten van A/B testen duizenden euro’s per jaar op. Geen verrassing dus dat marketeers en Google Ads specialisten deze tool bijna dagelijks gebruiken tijdens hun werk, toch? Na het lezen van dit blog weet jij ook hoe je dit doet!
Inhoudsopgave
Wat is een A/B test in Google Ads precies?
De naam spreekt eigenlijk voor zich. We testen twee dingen, A en B, en kijken vervolgens welke van de twee het beste werkt. Simpel toch? Ja en nee, maar daar komen we zo op! Met een A/B test in Google Ads kun je testen wat je maar wilt. Denk bijvoorbeeld aan:
- Advertentievariant A versus advertentievariant B
- Brede zoekwoorden versus exacte zoekwoorden
- Conversies maximaliseren versus conversiewaarde maximaliseren
- Locatie A versus locatie B, etc.
De mogelijkheden zijn eindeloos. Maar hoe meet je nu welke variant ‘beter’ werkt? Dat hangt af van jouw doelen, maar eigenlijk kun je bijna alle metrics uit Google Ads gebruiken om dit te meten. Denk aan CTR, klikken en uiteraard de meest populaire: conversies, kosten/conversie of ROAS.
Hoe zet ik een A/B test op in Google Ads?
We nemen je stap voor stap mee in de opzet van een A/B test in Google Ads.
Stap 1: het doel bepalen
Je begint met jezelf 2 vragen te stellen:
- Wat wil ik a/b testen?
- Wat wil ik meten?
Gedurende dit blog zullen we gebruik maken van een voorbeeld. We gaan testen of targeting binnen de randstad (A) voor andere resultaten zorgt dan targeting buiten de randstad (B). We meten het succes aan de hand van de kosten per conversie (deze willen we uiteraard zo laag mogelijk hebben).
Stap 2: een experiment starten
Sorry, we noemen het al de hele tijd A/B testen, maar Google noemt het ‘experimenten’. Wanneer je in je Google Ads account zit, navigeer je in de linker menubalk naar ‘experimenten’. Er opent zich een weergave met al je lopende en afgeronde experimenten. En als je een nieuw experiment wil starten, klik je (surprise surprise) op het blauwe plusje ‘+’.
Stap 3: stap voor stap instellen van de A/B test
Tijd om de A/B test stap voor stap in te stellen in Google Ads!
- Er opent zich nu een weergave met een aantal basisopties om te A/B testen (denk bijvoorbeeld aan advertentieteksten). Een basisoptie voor het testen van verschillende locaties is er niet, dus wij kiezen voor ‘Aangepast experiment.’
- We beginnen met het geven van een naam. Best practice: vernoem je experiment naar hetgeen je gaat testen. In ons geval “randstad vs non-randstad”.
- Selecteer nu de ‘basiscampagne’ die je wilt gaan testen. De ‘A’ versie van je A/B test is dus eigenlijk een bestaande campagne. Klik vervolgens op opslaan en doorgaan. Er wordt nu een kopie gemaakt (B) van je oorspronkelijke campagne (A).
- Automatisch wordt nu de kopie (B) geopend met praktisch dezelfde interface als een normale campagne heeft. We gaan hier aanpassen wat we willen testen. In ons geval gaan we dus naar de instellingen en selecteren we alle gebieden buiten de randstad (en sluiten we de randstad zelf uit voor extra betrouwbaarheid).
- Klink boven in het menu nu op ‘Schedule’ (alweer de laatste stap in het opzetten van een A/B test in Google Ads!). Hier hebben nog 4 instellingen om door te lopen, dus laten we dat doen:
- Doel van de A/B test: hey, dat is handig, dat hebben wij allang bepaald in de eerste stap! We selecteren hier dus ‘Kosten per conversie’. Vervolgens heb je 3 opties: verhogen, verlagen of geen significante wijziging. Vanzelfsprekend kiezen wij verlagen.
- Experimentgroep: Hier bepalen we hoeveel procent van het verkeer focust op A en hoeveel op B. Wij gaan eigenlijk altijd voor een 50/50 verdeling. Idealiter willen we een A/B test altijd zo willekeurig mogelijk maken. Daarom kiezen we voor ‘Op basis van zoekopdrachten’ en niet ‘Op basis van cookies.’
- De datum: Hier kies je hoelang je het experiment wil runnen. Hou hierbij rekening met het feit dat we wel genoeg data willen om te testen op statistische significantie. Desnoods zet je de duur op 1.000 dagen, en stop je het experiment gewoon handmatig zodra je zelf denkt genoeg data te hebben of significante resultaten ziet.
- Synchronisatie: Zet dit altijd aan. Dit houdt in dat eventuele aanpassingen die je aan de basiscampagne ‘A’ doet, automatisch ook doorgevoerd worden in je ‘B’ versie. Als je dit uitzet, zijn je resultaten veel minder zeggend.
- En klaar! Je experiment is aangemaakt. Nu wachten we af op de resultaten.
Hoe meet ik de resultaten van een A/B test in Google Ads?
We maken even een sprong in de tijd. Onze A/B test is afgerond. Laten we kijken wat voor resultaten we zien. Hierbij helpt Google je een handje. Zijn je resultaten significant? Dan vertelt Google je dat gewoon (aan de hand van wat statistische toetsen die we verder niet zullen toelichten). Gefeliciteerd! Je hebt zojuist een campagne variant gevonden waarmee je (nog) betere resultaten behaald. In ons voorbeeld stellen we dat variant B (non-Randstad) significant lagere kosten per conversie heeft. De vervolgstap na een A/B test is erg gemakkelijk. Google bied je 2 opties:
- Je huidige campagne (A) doorzetten.
- Je test campagne doorzetten (B).
Die opties had je zelf vast kunnen raden. Maar welke kies je? Als je geen significante resultaten hebt, kies je altijd voor het behouden van je oorspronkelijke campagne (A). Heb je significante resultaten net als wij in het voorbeeld? Dan zetten we deze campagne (in ons geval B) door!
Is het wel een experiment?
De kosten per conversie liggen veel lager buiten de Randstad dan binnen de Randstad. “Dit moet ik mijn manager vertellen, deze kennis kunnen we gebruiken voor andere kanalen en onze propositie!” Dit is echter waar veel marketeers de fout in gaan. Deze conclusie is volledig onjuist en zelfs gevaarlijk om door te vertalen buiten Google Ads. Om dit iets beter te begrijpen, hebben we (helaas) even wat theoretische achtergrond nodig:
Een experiment of A/B test houdt in dat je bepaalde resultaten (voor ons: kosten per conversie) meet aan de hand van 2 verschillende versies (voor ons: Randstad vs non-Randstad) en voor de rest alle andere variabelen constant houdt en mensen willekeurig toekent aan versie A of B. Op die manier kun je op basis van een A/B test namelijk wel concluderen dat je test (randstad vs non-randstad) direct leidt tot lagere kosten per conversie.
En hoewel Google je graag doet laten geloven dat je deze conclusies kunt trekken, is dat zeker niet het geval. Google’s krachtige algoritme gooit namelijk roet in het eten. Want ondanks dat je test willekeurig lijkt, is dat niet zo. Denk als voorbeeld aan de volgende aannames:
- Misschien is er buiten de Randstad wel veel minder concurrentie in Google Ads, waardoor je CPC veel lager lag of je absolute topvertoningen veel hoger waren dan binnen de Randstad.
- Misschien heeft het algoritme wel een heel ander ‘in-market’ segment gevonden buiten de randstad dan binnen de randstad.
- Heeft het algoritme veel meer mensen ge-retarget buiten de Randstad dan binnen de Randstad?
En hoewel je met aanvullende data-analyse een deel van deze aannames zou kunnen analyseren, is het onmogelijk om ze allemaal te vinden. En al die tientallen aannames die je kunt doen, zorgen ervoor dat je je conclusies niet buiten Google Ads door kunt trekken. Pas daar dus mee op! Uiteraard kun je het wel A/B testen met andere kanalen ;).
Betekent dit dan dat je dan maar niet moet A/B testen in Google Ads? Absoluut niet. A/B testen in Google Ads is ontzettend krachtig. En als uit je A/B test blijkt dat je honderden of duizenden euro’s per maand kunt besparen, natuurlijk ga je hier dan voor! Houd er alleen rekening mee dat Google de waarom vraag altijd deels voor zichzelf zal houden.
Praktische tips A/B testen in Google Ads
Je bent nu helemaal zelf in staat om een A/B test op te zetten in Google Ads. Je kunt zelf zorgvuldig de juiste conclusies trekken! Toch als afsluiting nog een aantal tips om rekening mee te houden:
- Zorg dat je altijd maar één bepaalde variabele per experiment test. Bijvoorbeeld locatie of biedstrategie, maar niet locatie én biedstrategie. We weten al hoe moeilijk conclusies trekken is, maar door meerdere variabelen te testen wordt conclusies trekken nog veel moeilijker. Je kunt uiteraard wel twee aparte A/B testen naast elkaar laten lopen. 1 voor locatie en een andere voor biedstrategie.
- Staar je niet blind op je succesgraadmeter. Wanneer deze niet significant is, was je test zeker niet voor niets. Check bijvoorbeeld andere metrics zoals CTR of CPC. Wie weet kun je hier wel nog andere learnings uithalen.
- Zorg ervoor dat je test lang genoeg loopt. Er is geen specifieke regel, maar een A/B test heeft wel voldoende data nodig om de juiste conclusie te trekken. Een A/B test met 30 klikken heeft weinig zin. In sommige gevallen doet Google een suggestie voor je! Dit zijn vaak prima inschattingen van hoeveel data je nodig hebt.
- Je kunt je test ook buiten Google Ads opzetten. Denk bijvoorbeeld aan het testen van 2 verschillende landingspagina’s voor Google Ads. Zorg er dan wel voor dat alle andere variabelen in je campagne constant blijven!
Zelf A/B testen in Google Ads
Tijd om zelf aan de slag te gaan met het opzetten van je A/B testen in Google Ads. Heb je vragen voor ons of wil je je SEA aan ons uitbesteden? Neem vooral contact op!
Geef een reactie