Hoe A / B-testresultaten te segmenteren om extra winst te behalen.

14 min


123

U voert een A / B-test uit en het is een winnaar. Of misschien is het plat (geen verschil in prestaties tussen variaties). Betekent dit dat de behandelingen die je hebt getest met niemand resoneerden? Waarschijnlijk niet.

Als u alle bezoekers met de A / B-test target, rapporteert u alleen algemene resultaten – en negeert u wat er in een deel van uw verkeer gebeurt, in segmenten.

Waarom is segmentatie na de test belangrijk?

Uw gebruikers zijn anders. Wat resoneert met één persoon, werkt niet met een andere.

Als u uw A / B-testresultaten segmenteert op basis van de browserversie, merkt u misschien dat klanten uit de Safari-webbrowser veel beter dan het gemiddelde converteren.

U merkt misschien ook dat mensen die de Firefox-browser gebruiken nauwelijks worden geconverteerd wanneer ze variant B zien: dit kan betekenen dat er enkele technische problemen zijn met de front-endcode waardoor de behandelingen niet werken in Firefox.

Het opmerken van welke segmenten goed (of niet allemaal) reageren op bepaalde behandelingen kan het verschil maken om geld te verdienen of niet.

Dit geldt vooral voor grote bedrijven:

Chad Sanderson, metro

“Voor grotere bedrijven is segmentatie absoluut noodzakelijk.

Hoe bekender uw bedrijf wordt, hoe moeilijker het wordt om directe KPI’s rechtstreeks te beïnvloeden op geaggregeerd niveau, omdat de meerderheid van de klanten die dit doen dit doet, ongeacht of uw knopkleur rood of blauw is.

In elk experiment verandert sommige metriek binnen een groep meestal, maar of we hebben geïnvesteerd in de statistische nauwkeurigheid om het te ontdekken, is een andere vraag. “

Als u deze fijnere details kent, kunt u uw meetwaarden op een zinvolle manier in positieve richting verplaatsen, waar ze ooit een plateau hebben gehad.

Afbeeldingsbron

Analyse van gegevens in uw analyse na de test

A / B / n-testresultaten bevatten resultaten van alle bezoekers waarop de test was gericht. Als de doelgroep groot genoeg is, geven ze u een idee van de algemene trends, maar niet specifieke trends binnen bepaalde groepen.

Geaggregeerde gegevens kunnen gemiddeld in de tijd geen significant verschil in sitegegevens vertonen; Wanneer u deze gegevens echter in groepen opsplitst, is er vaak een aanzienlijk verschil in een bepaald gebruikerssegment – waaruit opnieuw blijkt dat alle gegevens in totaal crap zijn .

Jakub Linowski gaat nader in op het onderscheid tussen bepaalde groepen dat segmentatie in post-testanalyse kan aanwijzen.

Jakub Linowski, GoodUI.org

“Een veelgebruikt segment dat we instellen voordat we een test starten, kan zijn: desktop 
versus mobiel verkeer.

Omdat de ervaring en lay-out tussen deze twee zo ingrijpend zijn, zelfs als we een positief resultaat in één segment detecteren, kunnen we ervoor kiezen om alleen die specifieke uit te voeren.

Een tweede segment dat we doorgaans opzetten, kan zijn: bestaande klanten versus first-time klanten. Als beide segmenten door dezelfde schermen of trechter gaan, is het de moeite waard ze afzonderlijk te volgen.

Wat werkt voor nieuwe klanten kan minder effect hebben op (en wordt verdund door) mensen die terugkeren om opnieuw te kopen. Evenzo, als we een positief signaal detecteren voor nieuwe klanten, maar niet voor bestaande klanten, raden we toch aan om een ​​dergelijk resultaat te implementeren. “

TIm Stewart biedt een voorbeeld in de browser van Internet Explorer om te illustreren hoe gegevenssegmentering na uw test u kan vertellen over de functionaliteit van uw site:

Tim Stewart, TRS Digital
“Ik zie vaak een verschil in het feit dat [low] Internet Explorer [performance] wordt uitgelegd als ‘deze zijn meestal minder technisch bewuste gebruikers, en dit is een technisch product; daarom kunnen we een lagere prestatie verwachten. ‘ Dus we zullen het negeren.

Maar een eenvoudiger en waarschijnlijker mogelijke verklaring dat de testvariant minder goed werkte omdat de compatibiliteit van oudere browsers slechter is, en vaak overgeslagen, in QA om de kosten te verlagen.

De variant was aangetast versus controle; het was geen eerlijke test van de verandering in de variant. Het was een test op variantfunctionaliteit, op een kleiner voorbeeld, van een browser die waarschijnlijk meer problemen heeft met de compatibiliteit.

Ja, in dat geval is het vrij waarschijnlijk dat er meer afwijking is, meer uitschieters en meldt een meer extreem verschil met de controle. Genoeg om significant te zijn.

Ik heb ook het omgekeerde gezien – de variant was grondig QA’d voor die browser, maar er was een niet-gerapporteerde fout op de besturing. Dit betekende dat de variant het oneerlijke voordeel had; je testte de hypothese niet, je testte per ongeluk fixed vs broken. Pro tip: vaste beats gebroken.

Dus dat is handig om te weten, en een reden waarom je naar segmenten in post-analyse kijkt.

Maar het is niet om een ​​’winnaar’ te vinden, maar om ervoor te zorgen dat gegevens over het algehele resultaat worden ingewonnen door potentiële problemen te onderzoeken en meer inzicht te krijgen in factoren die in latere tests moeten worden overwogen. ‘

Het uitvoeren van QA op uw A / B-tests is een must, maar bugs kunnen nog steeds doorsijpelen. Segmentatie na tests kan u helpen ontdekken of bepaalde behandelingen nog steeds buggy zijn.

De methodiek

Chad Sanderson legt uit dat je een methodologie voor segmentatie moet hebben:

Chad Sanderson, Subway
“Zoals alles in CRO, is het construeren van een segmentatiemethodologie een proces, en niet iets dat in een opwelling gedaan moet worden zodra een test is afgelopen.

Begin met het stellen van vragen zoals:

  • ‘Welke segmenten hebben echte waarde voor ons bedrijf?’
  • ‘Welke segmenten zijn uitvoerbaar?’
  • ‘Welke zijn het meest waarschijnlijk beïnvloed door de test die we uitvoeren?’
  • ‘Welk type correctie moet ik doen om rekening te houden met meerdere observaties van de behandeling?’ “

Als je jezelf deze vragen eenmaal hebt gesteld en een aantal antwoorden hebt ontwikkeld, kun je je gegevens doorzoeken en de door jou gekozen regels delen.

Avinash Kaushik biedt een uitstekende handleiding voor het segmenteren van uw gebruikers tussen bron, gedrag en uitkomst .

Een woord van waarschuwing bij segmentering: hoe meer segmenten met elkaar worden vergeleken, hoe groter de kans op fouten , dus kies verstandig en zorg ervoor dat uw gegevens relevant zijn. Het is niet nodig appels met peren te vergelijken.

Uw gegevens segmenteren: vóór of na uw test?

Veel optimizers houden niet van segmenteren in de analyse na de test, maar geven de voorkeur aan gesegmenteerde tests vanaf het begin.

Chad Sanderson legt uit waarom hij het segmenteren van tevoren verkiest, wat hij ‘pre-registratie’ noemt.

Chad Sanderson, metro

“Het idee achter preregistratie is eenvoudig: door de segmenten te kiezen waarvan u denkt dat deze waarschijnlijk van te voren door de test worden beïnvloed en (hier is het belangrijkste deel) dat aan deze analytische regels is voldaan, hebt u de kans op willekeurig struikelen aanzienlijk verkleind. valse positieven per ongeluk.

Om te begrijpen waarom, stel je voor dat we een 3-puntsschietwedstrijd met basketbalspelers uit de recreatiecompetitie uitvoeren. De deelnemers omvatten enkele echt slechte spelers, enkele gemiddelde spelers en enkele goede spelers.

Op basis van de schietwedstrijd willen we uitzoeken welke segmenten van mensen meer goede spelers hebben dan slechte spelers.

Na van tevoren veel metingen te hebben gedaan, hebben we ontdekt dat gemiddeld gematigde spelers gemiddeld 2 van de 10 keer scoren. Dit betekent dat een gemiddelde speler alleen geluk mag hebben en 4 van de 10 schoten 8% van de tijd moet maken.

Nadat de wedstrijd voorbij is, zien we dat er een aantal verrassende groepen zijn die gemiddeld 4 van de 10 schoten of meer hebben gemaakt: 18-20-jarigen die houden van The Daily Show, tankstationmedewerkers, mensen die Gordon Ramsay, middelbare school verafgoden basketballers en veganistische pokerexperts.

Als je moest raden, welke groep is het meest waarschijnlijk beter in basketbal, en welke kans is eerder het gevolg van toeval?

We kunnen ditzelfde fenomeen observeren in segmentering. Hoe meer segmenten we via verkennende analyse waarnemen, hoe hoger de kans dat we uiteindelijk een cluster van gebruikers vinden die statistische significantie bereiken.

Door vooraf een publiek te kiezen, kunnen we het aantal type I-fouten dat we in onze gegevens kunnen zien, drastisch beperken. “

Het segmenteren van tests vanaf het begin helpt u niet altijd bij uw ontdekkingsproces. Het doel van een test is om erachter te komen welke segmenten reageren op welke behandelingen, en dat is vaak moeilijk als u deze deelt voordat u begint met testen .

Tim Stewart geeft de voorkeur aan segmentering vooraf, maar zegt dat fouten zowel vóór als na de test kunnen optreden.

Tim Stewart, TRS Digital
“Het opdelen van de gegevens in ‘n’-samples verhoogt het risico van typefouten. Naast het lagere statistische vertrouwen en de hogere volatiliteit van kleinere monsters, is het zeer waarschijnlijk dat u een resultaat vindt dat een significantie rapporteert maar een vals-positief resultaat oplevert.

Het ziet er anders uit, het rapporteert zo significant anders bij het vertrouwen dat je hebt gekozen voor de volledige test, maar dat is het niet.

Het is heel gemakkelijk en inderdaad verleidelijk om de patroon-spottende mens-aap een vreemd resultaat te laten vinden en vervolgens achteraf een reden te veronderstellen waarom dat het geval zou kunnen zijn. Een uitleg bedenken om in de gegevens te passen, niet testen met de oorspronkelijke hypothese.

Dus, als u post-testsegmentanalyse uitvoert, moet u verdubbelen – en drievoudig – controleren of u geen cherry-picking bent om een ​​resultaat te vinden.

Doe dit met begrip van de statistische complicaties en de cognitieve vooringenomenheid die u introduceert. Houd er rekening mee dat dit wordt gebruikt om de samenstellende factoren van het algehele resultaat te begrijpen, en misschien om verdere verkenningen en hypothesen die moeten worden getest te informeren.

Zorg ervoor dat u uw sample niet selectief aanpast om een ​​resultaat te vinden dat u als definitief kunt declareren voor een anderszins onduidelijk of onverwacht resultaat. “

Hoe te testen om geldige resultaten te garanderen

Zoals Tim al zei, telkens wanneer u besluit te testen, moet u ervoor zorgen dat u de richtlijnen voor het testproces efficiënt volgt om ervoor te zorgen dat geldige resultaten cruciaal zijn. Het opzetten van een test is niet het moment om rogue te gaan en het rulebook uit het raam te gooien.

Claire Keser van WiderFunnel biedt enkele tips om te testen:

Claire Keser, WiderFunnel
“[…] Resultaten zijn niet altijd betrouwbaar. Te vaak ontbreekt het aan de cijfers die u in casestudy’s ziet over geldige statistische gevolgtrekkingen: ze zijn te zwaar afhankelijk van de onbetrouwbare statistiekengine van een A / B-testtool en / of ze hebben de gebruikelijke valkuilen niet aangepakt […] Casestudy’s gebruiken als een bron van inspiratie, maar zorg ervoor dat u uw tests op de juiste manier uitvoert door het volgende te doen:

  • Als uw A / B-testtool niet aanpast voor het probleem van meervoudige vergelijking, moet u uw significantieniveau corrigeren voor tests met meer dan 1 variatie.
  • Wijzig halverwege het experiment uw experimentinstellingen niet.
  • Gebruik geen statistische significantie als een indicatie wanneer u een test moet stoppen en zorg ervoor dat u de steekproefomvang berekent die u moet bereiken voordat u een test voltooit.
  • Eindelijk, segmenteer uw gegevens na de test. Maar zorg ervoor dat u niet in de meervoudige vergelijkingsval valt en vergelijk segmenten die significant zijn en een voldoende grote steekproefomvang hebben. “

De olifant in de kamer: steekproefomvang

Over het algemeen is een goede richtlijn om een A / B-test te stoppenwanneer aan drie voorwaarden is voldaan:

  • Groot genoeg steekproefomvang (gebaseerd op pre-test steekproefgrootteberekeningen)
  • Lang genoeg testduur (minimaal 2 businesscycli, dus 2-4 weken)
  • Statistische significantie 95% of beter

Wanneer gegevens zijn gesegmenteerd, kan dit echter uw steekproefomvang verdelen in blokken die eenvoudig niet groot genoeg zijn .

Als het voorbeeld te klein is, krijgt u niet het volledige beeld – u ziet slechts een klein percentage van uw bezoekers en uw gegevens kunnen niet worden meegeteld voor statistische validiteit. (U wilt een uniforme sampling om The Simpson’s Paradox te vermijden .)

Tim Stewart is het ermee eens dat je ervoor moet zorgen dat de steekproefomvang van je kleinste segment groot genoeg is om het verwachte verschil te detecteren.

Uw experimentele bedieningselementen moeten volgens Stewart gelijk zijn: steekproefomvang, prestatiegebied en verspreiding van uitbijtergedrag. Controle-ongelijkheden kunnen verschillende gewogen gemiddelden introduceren binnen een segment, tussen segmenten en tegen het geheel, waardoor u onnauwkeurige gegevens krijgt.

Tim Stewart, TRS Digital

“Ik bekijk segmenten in een test zowel bij de planning als bij de analyse na de test. Het algemene gemiddelde bestaat uit de prestaties van de samenstellende delen. Begrijpen wat bijdroeg tot dat totaal kan een belangrijke leerervaring zijn van een […]

Denk aan een Formule 1-race. De race is gepland voor 70 ronden, de snelste tijd om al deze rondes te winnen. Maar als je maar twee auto’s uitkiest om te onderzoeken en 10 ronden waarbij het verschil tussen hen groot genoeg was om zichtbaar en consistent te zijn voor de meeste van die 10 ronden – heb je de winnaar gekozen?

Als je vervolgens naar beneden kijkt en slechts in één hoek kijkt, gemiddeld over die 10 ronden. Is de snelste auto door die ene hoek de winnaar? Mogelijk. Mogelijk niet.

Je kunt antwoorden welke sneller is voor die hoek voor de momentopname die je hebt gemaakt. Maar dat is een andere vraag. Je kunt niet vergelijken met de rest van de race en andere hoeken zonder heel veel meer context. “

Kleinere wijzigingen worden niet weerspiegeld in de algemene gegevens omdat het aantal meestal te klein is om de lift te beïnvloeden. Zonder segmentatie zouden dergelijke inzichten gemist worden – segmentatie geeft context.

Follow-up tests

Om rekening te houden met de afgenomen steekproefomvang, moet u uw originele A / B-test uitvoeren voor een verdubbeling van de tijd die u normaal gesproken zou doen, vooral als u van tevoren weet dat u uw resultaten gaat segmenteren.

Jakub Linowski legt uit dat wanneer je besluit om te segmenteren aangeeft of je opnieuw testen zou moeten uitvoeren:

Jakub Linowski, GoodUI.org

“Een belangrijk criterium om te beslissen of er al dan niet actie moet worden ondernomen, is of het segment vóór of na een experiment is gedefinieerd.

Als de test is ontworpen met een segment in gedachten, heeft de setup meestal voldoende statistische kracht om een ​​beslissing mogelijk te maken. Als aan de andere kant enig signaal wordt gedetecteerd door willekeurige segmenten te snijden en in stukken te snijden, wordt het belangrijk om ervoor te zorgen dat er voldoende stroom is (door de testduur te verlengen of opnieuw te testen). “

Als u niet van tevoren weet dat u uw resultaten in segmenten opsplitst, start u vervolgtests voor specifieke, goed presterende segmenten totdat u een juiste steekproefomvang krijgt.

Dit laat je weten of er iets is of niet. Zonder dit te doen, vertrouwt u op misleidende, ongeldige gegevens. “

Hoe groot moet uw steekproefgrootte zijn voor vervolgtests?

U moet de steekproefomvang van tevoren voor dat specifieke segment berekenen. U kunt de verwachte stijging instellen op wat u in uw oorspronkelijke test zag.

Voor Bijvoorbeeld : als in de oorspronkelijke test u een grote opwaartse kracht binnen dat segment (. Ex + 30%) zag, je hoeft niet zo veel mensen om een deel van de test om statistische validiteit te bereiken.

Het voorbehoud is echter dat als de lift klein is (bijv. 5%), je een veel grotere steekproefomvang nodig hebt.

Voorspellende vooroordelen en focus op gegevens

priori veronderstellingen maken over redenen waarom gegevens zich op een bepaalde manier hebben gemanifesteerd, kunnen u in de problemen brengen.

Tim Stewart bespreekt enkele testproblemen die hij in zijn carrière tegenkwam:

“Ook vaak wordt een apparaatdeling genoemd, soms met mogelijk waardevol inzicht dat wordt afgedaan vanwege vooraf geaccepteerde ‘kennis’.

Mensen melden: ‘We weten dat de conversie naar de verkoop lager is op mobiele apparaten; consumenten onderzoeken op mobiel, kopen op hun desktop. [We zien dit patroon de hele tijd] buiten een test. ‘

Als de desktopvariant beter presteert dan het besturingselement, laat de mobiele versie geen verschil zien, of wist hij klein negatief, maar een netto winst op het totaal. Dus het is uitgeroepen tot winnaar.

Maar het zou handiger zijn om te vragen en te testen waarom mobiel ‘geaccepteerd’ wordt om slechter te presteren. Waarom is het eenvoudiger om 10% vs 12% desktop te detecteren dan 5% versus 6% mobiel?

Vraag: Waarom is de basislijn lager? Waarom was het effect minder / meer uitgesproken – vanwege de feitelijke verandering, of omdat een lagere basislijn meer gevoeligheid voor volatiliteit betekent?

Was de variant eerst mobiel ontworpen? Of was het concept voor de desktop gepropt tot minder onroerend goed en werkt het echt minder goed.

Of is de belangrijkste hefboom in de test, de hypothese die u aan het verkennen bent, gewoon duidelijker op een groter scherm, nauwelijks zichtbaar op een mobiel scherm?

Zijn de mobiele gebruikers anders gemotiveerd? Meer tijdsdruk, ander deel van de koopcyclus, ander weekpatroon van de dag van de week?

Is het mobiele monster groot en verschillend genoeg om te rapporteren als ‘significant’, maar niet representatief genoeg voor een verschillende cyclus van kopen, onderzoek of gebruikersmotivatie?

Ik heb met verschillende klanten gewerkt die een duidelijk patroon hadden in ingelogde gebruikerstests, waar we dezelfde gebruikerservaring op verschillende apparaten kunnen volgen en consequent kunnen testen.

Patronen zoals: een klant die doordeweeks op een desktop onderzoekt en vervolgens via mobiel koopt op de gewenste locatie in het weekend. Of zelfs ‘s avonds op de bank surfen op het web, gevolgd door een aankoop op de desktop tijdens de lunch de volgende dag.

Er was ook het patroon van een consument die de hele week op de desktop aan het kopen was en vervolgens de site op mobiel controleerde voor een ander doel op de gewenste locatie (vluchten / evenementen met een ticket).

Er zijn veel scenario’s waarbij de gebruiker in de test zou worden geteld, maar die op een ander apparaat is gekocht of een andere motivatie heeft voor hun mobiele bezoek (check vertragingen, details bevestigen, toegang instapkaart, etc.), wat betekent dat ze niet kopen.

Dat zorgt voor een grote onbalans in signaal-naar-geluid op het ene apparaat of een ander apparaat, waarmee rekening moet worden gehouden. Ideaal bij de planning, maar ook bij de segmentatie na de test.

De motivatie voor bezoek, het gewenste resultaat van de gebruiker en niet-representatieve voorbeelden kunnen ook een grote factor zijn in marketingkanaalsegmenten.


Een voorbeeld van een van onze gesegmenteerde tests, voor illustratieve doeleinden.

Doet de variant er beter aan een belangrijk aanbod prominent te maken en vervolgens aan een betaald zoekpubliek te laten zien dat een hoog percentage gebruikers bezoekt voor die aanbieding?

Segmentering helpt dit soort patronen, fouten en weglatingen te ontdekken, maar dit is iets dat moet worden vastgesteld voordat het wordt getest en gepland.

Analyse na de test en interpreteer segmenten met dit in gedachten. Maar het is statistisch twijfelachtig om deze als definitief te verklaren als de hypothese en steekproef niet bewust voor dit detail zijn gebouwd.

In die scenario’s, waarbij u ervoor kunt zorgen dat de gebruiker wordt toegewezen aan dezelfde ervaring, kunt u soms een hybride test uitvoeren – een andere behandeling voor hetzelfde concept tussen apparaten / schermformaten / aanbiedingen / verwachte motivatie van de gebruiker.

Maar de belangrijkste hypothese wordt dan: ‘Hebben we het evenwicht goed gevonden?’

Je bent tweede gissingen verschillende motivaties / segmenten en het ontwikkelen van verschillende oplossingen voor de context. De test en analyse rapporteren dus of die hybride aanpak voordelen heeft.

Met segmentatie kunt u kijken naar zaken als of een winst op mobiel een verlies op een desktop annuleert (of omgekeerd), of dat een campagne of e-mail betekende dat de steekproef in de testperiode onterecht bevooroordeeld was.

Segmentering na tests kan helpen bij het identificeren van deze gebieden, hetgeen bijdraagt ​​tot de pre-testplanning en het mogelijk testen van specifieke gebieden met de juiste context- en monsterplanning.

Vervolgens kunt u volledig verschillende tests plannen en uitvoeren met apparaatspecifieke hypothesen, concepten, voorbeeldgroottes om rekening te houden met de verschillende niveaus van ruis, effectgrootte en gebruikersmotivatie.

Maar uiteindelijk hangt het ervan af of dit de moeite waard is. Het berekenen van de opportunitykosten, risicoblootstelling, testcadans versus uw vermogen om segmentspecifieke resultaten te implementeren, en de waarde daarbij.

Want als u niet kunt implementeren (of het is onbetaalbaar om dat te doen), dan is het testen van een contextspecifieke behandeling nuttige informatie, maar geen inkomstenpositief. “

Wat doe je als je eenmaal ontdekt dat een bepaalde behandeling beter werkt voor een segment?

Als de segmenten in kwestie groot genoeg zijn, is het typische antwoord personalisatie: geef verschillende segmenten een andere ervaring, afhankelijk van wat het beste voor hen werkt.

Het is moeilijk om dit te beheren door handmatige regels te maken in uw personalisatietool. Machines zijn hier veel beter dan mensen. Het algoritme voor machine-learning van Conductrics kan deze personalisatieregels bijvoorbeeld zelf leren (welke specifieke segmenten reageren op welke behandeling), en het verkeer tussen verschillende ervaringen automatisch aanpassen.

Chad Sanderson beschrijft enkele van de tools en het belang van zeroing in op een specifiek publiek:

Chad Sanderson, Metro
“Om te kunnen profiteren van gesegmenteerde gegevens, moet je een manier hebben om winnende variaties voor die gebruikers weer te geven. Wat heeft het voor zin om een ​​test uit te voeren op ‘bezoekers die aankomen als het buiten mistig is’, als je in de eerste plaats zelfs geen content naar dat segment kunt sturen?

Er zijn verschillende programma’s die dit op een effectieve manier doen: de profielscripts van Adobe Target zijn de top van de klasse, evenals de op regels gebaseerde targetingmogelijkheden van Oracle Maxymiser en Conductrics , maar er zijn bepaalde tagbeheersystemen en natuurlijk aangepaste oplossingen die dit net doen zoals goed.

Het is echter belangrijk om te onthouden dat het feit dat een bepaald segment kan worden geanalyseerd, niet noodzakelijk betekent dat het gericht kan zijn. Adobe Analytics (Omniture) staat bijvoorbeeld alleen het gebruik van historische gegevens toe voor personalisatie.

Dit betekent dat rapportagegegevens niet beschikbaar zijn voor weergave op bezoekersniveau tot 48 uur nadat die gebruiker de webproperty heeft bereikt.

Dat snijdt elk “eerste bezoek” -segment uit zoals ‘nieuwe bezoekers’. (Hoewel, zoals gezegd, Adobe veel andere manieren heeft om dit te bereiken).

Overweeg in dezelfde geest een statistiek als ‘tijd op site’.

Zeker, misschien hebben bezoekers die meer dan 4 minuten ter plaatse doorbrengen, een grotere kans om te converteren wanneer ze worden blootgesteld aan een bepaalde testbehandeling, maar als ze die tijd doorbrengen na het bekijken van de testcontent, hoe zal je ze dan targeten?

Segmentering is zeer contextueel en de regels variëren sterk, afhankelijk van het type segment dat wordt geanalyseerd. “

Conclusie

Gebruikerssegmentatie kan van vitaal belang zijn voor het verkrijgen van inzichten en het maximaliseren van de omzet. Houd er bij het segmenteren rekening mee dat u voldoende grote, geldige steekproefgroottes nodig hebt voor elk van de segmenten die u analyseert.

Of u nu voor een preregistratie- of post-testanalysemethode moet gaan, moet worden bepaald door uw bedrijfsbehoeften en specifieke problemen met uw webeigendom.


Erwin@delaatbusiness.com
Dag, Hulp nodig met internet marketing of websites maken? neem dan contact op

0 Comments

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Choose A Format
Personality quiz
Series of questions that intends to reveal something about the personality
Trivia quiz
Series of questions with right and wrong answers that intends to check knowledge
Poll
Voting to make decisions or determine opinions
Story
Formatted Text with Embeds and Visuals
List
The Classic Internet Listicles
Countdown
The Classic Internet Countdowns
Open List
Submit your own item and vote up for the best submission
Ranked List
Upvote or downvote to decide the best list item
Meme
Upload your own images to make custom memes
Video
Youtube, Vimeo or Vine Embeds
Audio
Soundcloud or Mixcloud Embeds
Image
Photo or GIF
Gif
GIF format