Je wilt de optimale gebruikersbeleving realiseren. Maar hoe maak je de beste keuzes als de opties oneindig lijken..? Onderzoek kan hierbij helpen! A/B testen worden hier vaak voor gebruikt. Als je niet weet welke keuze het beste is, dan kan jouw doelgroep daarbij helpen. Zonder dat je ze moet storen met vervelende vragenlijsten of belletjes. Ideaal toch? We leggen graag uit hoe je simpel een A/B test op kan zetten.  

Wat is een A/B test?

Het is een vorm van splittesten. Dit houdt in dat er 2 varianten worden vergeleken. Er mag telkens één variabele getest worden ofwel, er kan slechts één aanpassing gedaan worden. 50% van je bezoekers krijgt variant A te zien en 50% van je bezoekers krijgt variant B te zien. Op basis van je doel kan je testen welke versie beter werkt.

Voorbeeld A/B test voor een applicatie

Stel je voor dat je een design hebt, maar twijfelt over de kleur van een knop. Je hebt gelezen dat rood aandacht trekt en blauw vertrouwen wekt. Maar… wat is effectiever voor jouw doelgroep? Dit kan je dus testen met een A/B test. Je meet hierbij het aantal klikken op de knop en vergelijkt dus de kleur van de knop (test variabel). De test wijst uiteindelijk uit of één van de twee varianten beter werkt of dat er misschien geen verschil is. 

Hoe kan je een A/B test uitvoeren?

Wij adviseren om A/B testen uit te voeren met Google Optimize. Hiermee kan je makkelijk, snel en gratis experimenten opzetten. Dit kan je zowel doen voor applicaties als websites of webapplicaties. Google Optimize zorgt ervoor dat je de nodige aanpassing, dus versie A en B, kan maken. Je hebt hier meestal geen alternatieve programma’s of pagina’s voor nodig. In het filmpje hieronder wordt stap voor stap uitgelegd hoe je een A/B test opzet. Erg handig als je het zelf wilt proberen!  

Voorbeeld Google Optimize

Ook wij hebben verschillende testen uitgevoerd met Google Optimize. Op onze low-code pagina staat een blok waarin een whitepaper gedownload kan worden. Dit blok staat midden in de pagina (zie afbeelding hieronder). We wilden checken of dat mensen na het blok nog doorlazen. Het kon immers ook zijn dat ze dachten dat de pagina daar afliep. Hiervoor hebben we verschillende doelen ingesteld. We wilden weten hoe ver mensen doorscrollen op de pagina, de tijd die ze op de pagina besteden en of het blok onderaan de pagina wordt ingevuld. 

Het effect van bovenstaand blok werd getest in de a/b test

Wat waren de resultaten?

De test heeft 90 dagen gedraaid en meer dan 700 mensen hebben de pagina bezocht. De gegevens zijn volledig anoniem verwerkt en de gebruikservaring werd niet beperkt. Uit de A/B test bleek dat variant A (met whitepaper blok) beter presteerde dan variant B (zonder whitepaper blok). Het blok zorgde er dus niet voor dat mensen stopten met lezen. Sterker nog, mensen waaraan het blok getoond werd, bleven zelfs langer op de site. 

Uitslag experiment

Wij helpen graag!

Niet alleen intern, maar ook voor onze klanten voeren wij onderzoeken uit. We helpen je graag op weg met bijvoorbeeld een experiment, zoals een A/B-test. Twijfel is in veel gevallen namelijk helemaal niet nodig! We denken graag met je mee hoe jouw software het beste kan worden opgezet of verbeterd. 

Vrijblijvend advies

Wil je dat we met je meedenken over de mogelijkheden? Laat dan je telefoonnummer achter. We nemen binnen 1 werkdag contact met je op!

    We behandelen je e-mailadres met respect en sturen geen spam.