4.1 Waarom peer review? Of: hoe ik ontsnap aan de WC-Eend
„Wij van WC Eend vinden WC Eend geweldig." — Frans, expert review 9 april 2026
Ik had eerlijk gezegd totaal niet zien aankomen dat Frans hier zó hard op in zou zoomen tijdens de expert
review. Mijn plan was: zelf een vergelijkingsmatrix uitschrijven, de plusjes en minnetjes per concept tegen
elkaar afwegen obv theorie, en dan mijn eigen conclusie trekken. Dat leek me de juiste manier. Spoiler: dat
was het dus niet.
Frans veegde dat idee eigenlijk direct van tafel met een WC-Eend opmerking. En... ja, als ik er nu op
terugkijk, geef ik hem geen ongelijk. Als ontwerper heb ik enorme blinde vlekken, hoe "objectief" ik het ook
probeer aan te vliegen. Ik wil stiekem toch gewoon dat mijn favoriete ontwerp wint. Dan ga je
onbewust toch die kant op sturen.
Dus we gooien het over een compleet andere boeg. Ik laat de echte voor- en nadelen vaststellen door peers.
Mensen die óók die theorie in hun systeem hebben zitten, maar die in tegenstelling tot ikzelf geen enkele
emotionele binding hebben met de alternatieven. Zij kijken, zij scoren. En díé harde data gebruik ik dan weer
voor mijn convergentie.
Even over die methodiek (C2)
Kleine sidenote hier: de CMD-richtlijn (Experts vs. Peers vs. Gebruikers) scheidt rollen heel strikt. Peers
zijn geen eindgebruikers — dus ze gaan het niet beoordelen op "gebruiksgemak" in de context van een
bezichtiging. Daar kunnen ze niks zinnigs over roepen. Maar ze zijn ook zeker geen experts met 30 jaar
ervaring. Wat peers wél heel goed kunnen is analytisch meedenken vanuit theorie. En dat is exact wat we hier
gaan afvinken.
Wat we absoluut niet doen, is "Design by Committee". Ik ga ze niet vragen: "Welke vind je
nou eigenlijk het mooist?" of "Hoe zou jij dit knopje hebben ontworpen?". In plaats daarvan stel ik gerichte
theorievragen. Maar ik kopieer hun antwoorden niet kritiekloos. De data is input; ik blijf de ontwerper die
beslist.
4.2 De harde opzet
N
3 CMD Peers
Geselecteerd op (recente) kennis van UX-theorie. Geen rando's.
T
20–30 min sessies
Korte briefing, dan diep erin duiken per alternatief.
K
1 Kader
Gulf of Execution, Recognition vs. Recall, Mapping, Mental Models.
Waarom 20-30 minuten? Omdat dit geen
ordinaire A/B test is waarbij iemand even snel z'n mening over een kleur of vorm roept. De peers moeten echt
hun hersens gebruike om na te denken over drie verschillende interactieconcepten (touch vs. panorama vs.
camera). Dat heeft tijd nodig. Als ze het in 5 minuutjes zouden afraffelen, is mijn data academisch gezien
waardeloos voor de bewijslast.
4.3 De theorie meetlat (en de keuzestress daarachter)
Dit was nog wel even een dingetje. Tijdens het divergeren strooide ik met theorieën. Logische vraag: waarom
staan die nu ineens niet op het beoordelingsformulier?
Nou, heel simpel eigenlijk: theorie is soms vreselijk specifieke materie. Dus ben ik op zoek gegaan naar de
gemene delers.
Gulf of Execution (Norman, 2013)
Kort samengevat: het gat tussen wat de gebruiker wil doen (een gebrek vastleggen) en wat de
interface van hem eist (tikken, swipen, wachten, klooien). Hoe kleiner die kloof, hoe soepeler het
gaat.
Waarom selecteerde ik deze?
Omdat de cognitieve load van de koper tijdens een bezichtiging al gigantisch is. Dit concept draait om
load-verlaging. De Gulf of Execution is de metric om te kijken hoeveel mentale brandstof het de
koper kost op het moment zélf.
Recognition vs. Recall (Nielsen, 1994; Budiu, 2014)
Een absolute driver natuurlijk. Dingen herkennen (een foto zien van die lelijke vlek) kost vrijwel
nauwelijks moeite, vergeleken met informatie uit je geheugen ophalen op basis van tekst (een notitie
"woonkamer vocht").
Waarom selecteerde ik deze?
Het concept heet Spatial Anchor! De hele belofte van dit concept is dat informatie verbonden blijft
aan z'n locatie, zodat je achteraf met één blik de situatie herkent. Doet een alternatief dat niet? Dan kun
je 'm eigenlijk al meteen wegdoen.
Mapping (Norman, 2013)
Hoe verhoudt de digitale laag zich tot de echte realiteit?
Waarom selecteerde ik deze?
Elk alternatief pakt de brug tussen "fysiek huis" en "digitale data" op een compleet eigen manier aan.
Mapping filtert eruit welke brug stabiel voelt, en welke wankel is.
Mental Models (Norman, 2013)
Wat zijn de gebruikers al gewend? Mensen swipen Instagram, gebruiken Google Maps. En dan komen we nu aan
met een interactie-patroon dat van een andere planeet overkomt waaien, dan ben je de gebruiker kwijt. Of op
z'n minst geef je ze een enorme leercurve.
Waarom selecteerde ik deze?
Een woningbezichtiging duurt hooguit een 20 minuten tot een half uurtje. Tijd voor een uitgebreide
onboarding of leercurve is er niet. Als het niet aansluit op wat mensen al kennen, werkt het simpelweg niet
in de context.
4.4 De vragenlijst
Dus wat krijgen die peers dan voor hun kiezen? Zes specifieke theorievragen per alternatief, plus nog eens
vier afrondende vergelijkingsvragen (waaronder ranking). Alles is zo opgebouwd dat ik voorkom dat ze hun
'smaak' of 'mening' geven.
Vragen per alternatief
V1
Gulf of Execution — Hoeveel stappen of mentale vertaalslagen moet
de gebruiker doorlopen om een gebrek vast te leggen? Beschrijf het pad van intentie naar actie.
V2
Recognition vs. Recall — Stel: de koper zit thuis en opent de app.
Herkent hij het gebrek direct (recognition), of moet hij het zich herinneren op basis van tekst of
abstracte data (recall)?
V3
Mapping — Hoe goed spiegelt de digitale interface de fysieke
ruimte? Moet de gebruiker een vertaalslag maken tussen wat hij ziet en wat het scherm toont?
V4
Mental Models — Sluit het interactiepatroon aan op iets dat de
gebruiker al kent? Welk bestaand product of gedrag komt het dichtst in de buurt?
V5
Voordelen en risico's — Wat wint de gebruiker met dit alternatief,
en wat verliest hij? Denk aan: interactietijd, flow-behoud, kwaliteit van de data achteraf, sociale
context.
V6
Kritiek punt — Waar gaat dit alternatief fout als het fout gaat?
Wat is het zwakste punt bij echt gebruik tijdens een bezichtiging?
Vergelijking (na alle 3
alternatieven)
Na het doorlopen van alle alternatieven vraag ik de peer om de
alternatieven naast elkaar te leggen. Dit levert de data op die ik nodig heb om patronen te zien en een
onderbouwd convergentiebesluit te nemen.
R
Ranking — Welk alternatief verlaagt de cognitieve load tijdens de
bezichtiging het meest? Zet ze in volgorde met toelichting.
V7
Doelgroepfit — Welk alternatief past het beste bij iemand die voor
het éérst een huis bezichtigt en dus geen ervaring heeft met dit soort tools?
V8
Combinatiepotentieel — Zie je sterke elementen uit verschillende
alternatieven die gecombineerd zouden moeten worden? Welke, en waarom?
V9
Blinde vlekken — Wat mist er volgens jou in alle drie de
alternatieven? Is er een aspect van de bezichtigingservaring dat geen enkel alternatief goed
oplost?