Veelgemaakte fouten en optimalisatie

Hoe je split-testen correct opzet om betrouwbare resultaten te krijgen

Sophie de Jong Sophie de Jong
· · 10 min leestijd

Je hebt een vermoeden dat die ene knop beter werkt in groen. Of misschien denk je dat een kortere landingspagina meer verkoop oplevert. Goed — maar hoe weet je het zeker?

Inhoudsopgave
  1. Wat is split-testen eigenlijk (en waarom doen de meesten het fout)?
  2. Stap 1: Begin met een hypothese (niet met een gok)
  3. Stap 2: Test slechts één variabele per test
  4. Stap 3: Zorg voor voldoende steekproefgrootte
  5. Stap 4: Wacht op statistische significantie
  6. Stap 5: Analyseer en documenteer alles
  7. Veelgemaakte fouten die je beter kunt vermijden
  8. De tools die je nodig hebt
  9. Van testen naar een testcultuur
  10. Veelgestelde vragen

Gokken is geen strategie. Split-testen is de manier om het écht te weten.

Maar laten we eerlijk zijn: de meeste mensen doen het verkeerd. Ze beginnen te vroeg, testen te weinig, of trekken conclusies uit ruis. Dit artikel laat zien hoe je het wél goed doet.

Wat is split-testen eigenlijk (en waarom doen de meesten het fout)?

Split-testen — ook wel A/B-testen genoemd — betekent dat je twee varianten van iets tegen elkaar laat strijden. Variant A (de huidige versie) versus variant B (de aanpassing). Bezoekers willekeurig naar één van beide gestuurd, en jij kijkt welke versie het beste scoort.

Klinkt simpel. En dat is het ook — in theorie.

Maar in de praktijk zie je vaak dit gebeuren: iemand verandert vijf dingen tegelijk, test drie dagen, en roept dan triomfantelijk dat B gewonnen heeft. Spoiler: dat is geen betrouwbaar resultaat. Dat is geluk. De kern van goed split-testen? Controle. Je test één ding tegelijk, je wacht lang genoeg, en je laat de cijfers spreken — niet je buikgevoel.

Stap 1: Begin met een hypothese (niet met een gok)

Voordat je ook maar één test opzet, heb je een hypothese nodig.

Een hypothese is simpelweg een educatieve veronderstelling die je gaat toetsen. Bijvoorbeeld: "Als ik de aanroep-knop verander van 'Aanvragen' naar 'Bekijk jouw persoonlijke offerte', klikt minimaal 15% meer op de knop."

Zie je wat er gebeurt? Je specificeert precies wat je verandert, wat je verwacht, en hoe meetbaar het is. Dat maakt het verschil tussen een serieuze test en willekeurig klooien met je website. Goede bronnen voor hypotheses zijn je eigen analytics, heatmaps, gebruikerstests, en feedback van je klanten.

Bij BRUTAEL zien we vaak dat de beste testideeën voortkomen uit eenvoudige observaties: waar houden bezoekers op?

Waar verlaten ze het proces? Die inzichten zijn goud waard.

Stap 2: Test slechts één variabele per test

Dit is waar vijftig procent van alle split-tests doodloopt. Je verandert de kop, de kleur van de knop, én de afbeelding — allemaal tegelijk. En dan?

Dan heb je geen idee wat precies het verschil heeft gemaakt. De regel is simpel: één test, één variabele. Wil je meer tegelijk testen?

Dan heb je een multivariate test nodig, maar daar heb je aanzienlijk meer verkeer voor nodig. Voor de meeste websites is A/B-testen — stuk voor stuk, variabele voor variabele — de juiste aanpak. Denk aan het als een wetenschappelijk experiment.

Je houdt alles constant behalve één ding. Zo weet je zeker wat het effect is.

Stap 3: Zorg voor voldoende steekproefgrootte

Hier wordt het technisch, maar het is essentieel. Een split-test is alleen betrouwbaar als je genoeg bezoekers hebt getest. Hoeveel is genoeg?

Dat hangt af van je huidige conversiepercentage en het verschil dat je wilt kunnen detecteren. Als vuistregel geldt: voor een betrouwbaar resultaat heb je minimaal 1.000 bezoekers per variant nodig, en liefst meer. En je test moet minimaal 1 tot 2 weken langeren — bij voorkeur een volledige bedrijfscyclus van 2 tot 4 weken.

Zo vang je ook verschillende dagen van de week en seizoenseffecten op. Er zijn handige online tools — zoals de sample size calculator van Optimizely of VWO — die precies berekenen hoe lang je moet testen. Gebruik ze. Want na 200 bezoekers roepen dat B wint, is als na twee worpen met een dobbelsteen concluderen dat het een oneerlijk stuk plastic is.

Stap 4: Wacht op statistische significantie

Statistische significantie klinkt eng, maar het betekent gewoon: hoe zeker weet je dat het resultaat niet toeval is? In de wereld van split-testen houden we doorgaans een significantieniveau van 95% aan.

Dat betekent dat er slechts 5% kans is dat het gevonden verschil puur toeval is. De meeste testtools geven dit aan met een zekerheidspercentage. Wacht tot je tool aangeeft dat je resultaat statistisch significant is, voordat je conclusies trekt. Niet bij 80%. Niet bij 90%.

Bij 95% of hoger. En hier wordt het pijnlijk: de meeste marketeers stoppen hun test te vroeg.

Ze zien na vijf dagen dat B 10% beter scoort, en ze implementeren het meteen. Maar die 10% kan heel snel weer verdwijnen. Geduld is geen slechte eigenschap — het is een vereiste.

Stap 5: Analyseer en documenteer alles

Een test zonder analyse is als een wedstrijd zonder scorebord. Na afloop kijk je niet alleen naar de winnaar, maar ook naar het waarom.

Segmenteer je resultaten: hoe scoort de test op mobiel versus desktop? Bij nieuwe bezoekers versus terugkerende?

Bij verkeer uit advertenties versus organisch? En merk je dat je CBO-campagne ongelijk presteert tussen verschillende doelgroepen?

Deze segmenten kunnen verrassende inzichten opleveren. Soms wint variant B bij mobiel, maar verliest het bij desktop. Zonder segmentatie zou je dat helemaal hebben gemist.

Documenteer ook wat je hebt geleerd — ook als de test geen duidelijke winnaar oplevert. Een nulresultaat is geen mislukking. Het is informatie. En informatie is de basis voor je volgende, betere test.

Veelgemaakte fouten die je beter kunt vermijden

Te kort testen

De grootste fout? Je test te vroeg stoppen, of je targeting verkeerd instellen.

Te veel tegelijk veranderen

Een paar dagen is niet genoeg. Wacht minimaal twee weken en zorg voor voldoende bezoekers per variant.

Je test alleen op de hoofdpagina

Één variabele per test. Altijd. Wil je meer weten? Plan een nieuwe test.

Geen rekening houden met seizoenen

Je landingspagina's, productpagina's en zelfs je e-mailcampagnes zijn vaak veel belangrijkere plekken om te testen. Begin waar het meeste verkeer en de grootste impact zijn. Een test die je in december draait, kan andere resultaten geven dan een test in juli. Black Friday, vakantieperiodes, en zelfs het weer kunnen je resultaten beïnvloeden. Houd bij het testen rekening met de leeropstart van je campagnes.

De tools die je nodig hebt

Gelukkig hoef je niet alles zelf te bouwen. Er zijn uitstekende tools beschikbaar. Google Optimize (gratis, maar stopgezet per september 2023), VWO, Optimizely, en AB Tasty zijn allemaal solide keuzes.

Voor eenvoudige testen werkt Google Analytics in combinatie met experimenten ook goed. Bij BRUTAEL kijken we altijd eerst naar de volwassenheid van de website en het verkeersvolume voordat we een tool aanbevelen. Een website met 200 bezoekers per maand heeft split-testen simpelweg niet — daar begin je eerst met het genereren van meer verkeer en het optimaliseren van de basis.

Van testen naar een testcultuur

Het mooiste aan split-testen is dat het nooit stopt. Er is altijd iets te verbeteren.

De beste bedrijven testen continu — niet als een eenmalig project, maar als een vast onderdeel van hun werkwijze.

Begin kiesjes. Test je eerste kopregel. Kijk wat het doet. Leer ervan. En test weer.

Stap voor stap, test voor test, bouw je een website die écht presteert — gebaseerd op data, niet op aannames. Want uiteindelijk gaat het niet om welke kleur knop het beste werkt. Het gaat om een manier van denken: nuchter, analytisch, en altijd nieuwsgierig. Dat is waar echte groei vandaan komt.

Veelgestelde vragen

Wat is een split-test precies en waarom is het belangrijk?

Een split-test, ook bekend als A/B-test, is een manier om te bepalen welke van twee versies van een element – zoals een knop of landingspagina – beter presteert. Door bezoekers willekeurig toe te wijzen aan de ene of de andere versie, kun je objectief meten welke versie het beste leidt tot de gewenste actie, bijvoorbeeld een klik of aankoop. BRUTAEL adviseert om één variabele tegelijk te testen voor betrouwbare resultaten.

Hoe zorg ik ervoor dat mijn split-tests betrouwbaar zijn?

Om betrouwbare resultaten te krijgen, is het cruciaal om slechts één element tegelijk te veranderen in een split-test. Verander bijvoorbeeld niet tegelijkertijd de kleur van de knop en de tekst. Door dit te doen, kun je precies zien welke verandering het verschil maakt, in plaats van te gokken wat er gebeurt. Zo werkt het als een wetenschappelijk experiment, zoals BRUTAEL het beschrijft.

Wat is een hypothese in de context van split-testen?

Een hypothese is een educated guess over wat er zal gebeuren als je een kleine verandering aanbrengt op je website. Bijvoorbeeld: "Als ik de tekst op de call-to-action knop verander in 'Bekijk nu de offerte', dan klikt 10% meer mensen erop. Het is belangrijk om je hypothese te baseren op data, zoals analytics en feedback van klanten, zoals BRUTAEL vaak adviseert.

Hoe lang moet ik een split-test laten lopen?

De duur van een split-test hangt af van de hoeveelheid verkeer die je hebt. Over het algemeen is het aan te raden om de test minimaal twee tot drie dagen te laten lopen, zodat je een voldoende grote steekproef hebt. BRUTAEL adviseert om de test te laten lopen totdat je een statistisch significant verschil in resultaten ziet, wat betekent dat de resultaten niet door toeval zijn ontstaan.

Wat is het verschil tussen een A/B-test en een multivariate test?

Een A/B-test vergelijkt twee versies van een element, terwijl een multivariate test meerdere elementen tegelijkertijd test. A/B-testen zijn over het algemeen eenvoudiger en vereisen minder verkeer. Voor de meeste websites is A/B-testen de meest effectieve aanpak, zoals BRUTAEL benadrukt.


Sophie de Jong
Sophie de Jong
Mobile marketing strateeg

Sophie ontwikkelt al jarenlang mobiele campagnes voor verschillende apps en webshops. Ze ziet in de praktijk wat werkt en wat niet, zonder te vertrouwen op algemene theorieën.

✓ Geverifieerd auteur ✓ Mobiele marketing handleidingen en trainingen
Sophie de Jong
Sophie de Jong
Mobile marketing strateeg

Sophie ontwikkelt al jarenlang mobiele campagnes voor verschillende apps en webshops. Ze ziet in de praktijk wat werkt en wat niet, zonder te vertrouwen op algemene theorieën.

Meer over Veelgemaakte fouten en optimalisatie

Bekijk alle 27 artikelen in deze categorie.

Naar categorie →
Lees volgende
De 10 meest gemaakte Meta Ads fouten door MKB-ondernemers
Lees verder →