CMD Cursus 7 — Ontwerpstudies & Detailontwerp

Spatial Anchor

Een methodologische ontwerpstudie over het verlagen van cognitive load tijdens woningbezichtigingen door middel van ruimtelijke verankering van observaties.

OntwerperJoran Kooij
BewijslastLUK 7.2.3
ExpertsFrans
CaseFunda — Bezichtigingen

03Voorbereiding op Convergentie

3.1 Status: Divergentie afgerond

De drie alternatieven zijn uitgewerkt en bestudeerd. Elk alternatief is vanuit de theorie geanalyseerd, met interactieve flows en storyboards.

De volgende stap is convergentie, maar niet op basis van deze tabel. Daar worden de peers voor ingezet.

3.2 Vergelijkingsmatrix: Trade-offs per alternatief

Let op: dit is mijn eigen analyse

Onderstaande matrix is mijn eigen theoretische verkenning vanuit het divergentieproces. Tijdens de expert review met Frans werd duidelijk dat deze analyse niet als basis mag dienen voor het convergentiebesluit want ik kan niet mijn eigen rechter zijn. De matrix blijft staan als context voor de peers, maar de definitieve voor- en nadelen worden vastgesteld door de externe beoordelaars in Hoofdstuk 5.

Onderstaande matrix vat de theoretische trade-offs samen zoals ik ze tijdens het divergeren heb geïdentificeerd. Peers gebruiken dit als startpunt, maar vormen hun eigen oordeel.

Criterium A — Pin op Kaart B — Panorama Tap C — Foto & Tag
Gulf of Execution Groot 3D→2D Klein panorama Klein foto = actie
Recognition Indirect kaart Direct 360°-foto Direct foto
Flow-behoud Laag scherm Medium kort scherm Laag-Med camera
Privacy Geen issue stil Geen issue stil Medium foto zichtbaar
Tech complexiteit Laag plattegrond Medium 360° viewer Zeer laag camera API
Sociale frictie Laag normaal Laag normaal app Med-Hoog fotograferen
Terugkijken thuis Plattegrond + pins 2D kaart 360° + ankers ruimtelijk + visueel Foto-galerij visueel rijk
Ruimtelijke verankering Indirect pin Direct panorama-anker Indirect kamer-tag

04Peer Review: Convergeren door Externen

4.1 Waarom peer review? Of: hoe ik ontsnap aan de WC-Eend

„Wij van WC Eend vinden WC Eend geweldig." — Frans, expert review 9 april 2026

Ik had eerlijk gezegd totaal niet zien aankomen dat Frans hier zó hard op in zou zoomen tijdens de expert review. Mijn plan was: zelf een vergelijkingsmatrix uitschrijven, de plusjes en minnetjes per concept tegen elkaar afwegen obv theorie, en dan mijn eigen conclusie trekken. Dat leek me de juiste manier. Spoiler: dat was het dus niet.

Frans veegde dat idee eigenlijk direct van tafel met een WC-Eend opmerking. En... ja, als ik er nu op terugkijk, geef ik hem geen ongelijk. Als ontwerper heb ik enorme blinde vlekken, hoe "objectief" ik het ook probeer aan te vliegen. Ik wil stiekem toch gewoon dat mijn favoriete ontwerp wint. Dan ga je onbewust toch die kant op sturen.

Dus we gooien het over een compleet andere boeg. Ik laat de echte voor- en nadelen vaststellen door peers. Mensen die óók die theorie in hun systeem hebben zitten, maar die in tegenstelling tot ikzelf geen enkele emotionele binding hebben met de alternatieven. Zij kijken, zij scoren. En díé harde data gebruik ik dan weer voor mijn convergentie.

Even over die methodiek (C2)

Kleine sidenote hier: de CMD-richtlijn (Experts vs. Peers vs. Gebruikers) scheidt rollen heel strikt. Peers zijn geen eindgebruikers — dus ze gaan het niet beoordelen op "gebruiksgemak" in de context van een bezichtiging. Daar kunnen ze niks zinnigs over roepen. Maar ze zijn ook zeker geen experts met 30 jaar ervaring. Wat peers wél heel goed kunnen is analytisch meedenken vanuit theorie. En dat is exact wat we hier gaan afvinken.

Wat we absoluut niet doen, is "Design by Committee". Ik ga ze niet vragen: "Welke vind je nou eigenlijk het mooist?" of "Hoe zou jij dit knopje hebben ontworpen?". In plaats daarvan stel ik gerichte theorievragen. Maar ik kopieer hun antwoorden niet kritiekloos. De data is input; ik blijf de ontwerper die beslist.

4.2 De harde opzet

N
3 CMD Peers Geselecteerd op (recente) kennis van UX-theorie. Geen rando's.
T
20–30 min sessies Korte briefing, dan diep erin duiken per alternatief.
K
1 Kader Gulf of Execution, Recognition vs. Recall, Mapping, Mental Models.

Waarom 20-30 minuten? Omdat dit geen ordinaire A/B test is waarbij iemand even snel z'n mening over een kleur of vorm roept. De peers moeten echt hun hersens gebruike om na te denken over drie verschillende interactieconcepten (touch vs. panorama vs. camera). Dat heeft tijd nodig. Als ze het in 5 minuutjes zouden afraffelen, is mijn data academisch gezien waardeloos voor de bewijslast.

4.3 De theorie meetlat (en de keuzestress daarachter)

Dit was nog wel even een dingetje. Tijdens het divergeren strooide ik met theorieën. Logische vraag: waarom staan die nu ineens niet op het beoordelingsformulier?

Nou, heel simpel eigenlijk: theorie is soms vreselijk specifieke materie. Dus ben ik op zoek gegaan naar de gemene delers.

Gulf of Execution (Norman, 2013)

Kort samengevat: het gat tussen wat de gebruiker wil doen (een gebrek vastleggen) en wat de interface van hem eist (tikken, swipen, wachten, klooien). Hoe kleiner die kloof, hoe soepeler het gaat.

Waarom selecteerde ik deze? Omdat de cognitieve load van de koper tijdens een bezichtiging al gigantisch is. Dit concept draait om load-verlaging. De Gulf of Execution is de metric om te kijken hoeveel mentale brandstof het de koper kost op het moment zélf.

Recognition vs. Recall (Nielsen, 1994; Budiu, 2014)

Een absolute driver natuurlijk. Dingen herkennen (een foto zien van die lelijke vlek) kost vrijwel nauwelijks moeite, vergeleken met informatie uit je geheugen ophalen op basis van tekst (een notitie "woonkamer vocht").

Waarom selecteerde ik deze? Het concept heet Spatial Anchor! De hele belofte van dit concept is dat informatie verbonden blijft aan z'n locatie, zodat je achteraf met één blik de situatie herkent. Doet een alternatief dat niet? Dan kun je 'm eigenlijk al meteen wegdoen.

Mapping (Norman, 2013)

Hoe verhoudt de digitale laag zich tot de echte realiteit?

Waarom selecteerde ik deze? Elk alternatief pakt de brug tussen "fysiek huis" en "digitale data" op een compleet eigen manier aan. Mapping filtert eruit welke brug stabiel voelt, en welke wankel is.

Mental Models (Norman, 2013)

Wat zijn de gebruikers al gewend? Mensen swipen Instagram, gebruiken Google Maps. En dan komen we nu aan met een interactie-patroon dat van een andere planeet overkomt waaien, dan ben je de gebruiker kwijt. Of op z'n minst geef je ze een enorme leercurve.

Waarom selecteerde ik deze? Een woningbezichtiging duurt hooguit een 20 minuten tot een half uurtje. Tijd voor een uitgebreide onboarding of leercurve is er niet. Als het niet aansluit op wat mensen al kennen, werkt het simpelweg niet in de context.

4.4 De vragenlijst

Dus wat krijgen die peers dan voor hun kiezen? Zes specifieke theorievragen per alternatief, plus nog eens vier afrondende vergelijkingsvragen (waaronder ranking). Alles is zo opgebouwd dat ik voorkom dat ze hun 'smaak' of 'mening' geven.

Vragen per alternatief

V1 Gulf of Execution — Hoeveel stappen of mentale vertaalslagen moet de gebruiker doorlopen om een gebrek vast te leggen? Beschrijf het pad van intentie naar actie.
V2 Recognition vs. Recall — Stel: de koper zit thuis en opent de app. Herkent hij het gebrek direct (recognition), of moet hij het zich herinneren op basis van tekst of abstracte data (recall)?
V3 Mapping — Hoe goed spiegelt de digitale interface de fysieke ruimte? Moet de gebruiker een vertaalslag maken tussen wat hij ziet en wat het scherm toont?
V4 Mental Models — Sluit het interactiepatroon aan op iets dat de gebruiker al kent? Welk bestaand product of gedrag komt het dichtst in de buurt?
V5 Voordelen en risico's — Wat wint de gebruiker met dit alternatief, en wat verliest hij? Denk aan: interactietijd, flow-behoud, kwaliteit van de data achteraf, sociale context.
V6 Kritiek punt — Waar gaat dit alternatief fout als het fout gaat? Wat is het zwakste punt bij echt gebruik tijdens een bezichtiging?

Vergelijking (na alle 3 alternatieven)

Na het doorlopen van alle alternatieven vraag ik de peer om de alternatieven naast elkaar te leggen. Dit levert de data op die ik nodig heb om patronen te zien en een onderbouwd convergentiebesluit te nemen.

R Ranking — Welk alternatief verlaagt de cognitieve load tijdens de bezichtiging het meest? Zet ze in volgorde met toelichting.
V7 Doelgroepfit — Welk alternatief past het beste bij iemand die voor het éérst een huis bezichtigt en dus geen ervaring heeft met dit soort tools?
V8 Combinatiepotentieel — Zie je sterke elementen uit verschillende alternatieven die gecombineerd zouden moeten worden? Welke, en waarom?
V9 Blinde vlekken — Wat mist er volgens jou in alle drie de alternatieven? Is er een aspect van de bezichtigingservaring dat geen enkel alternatief goed oplost?

05Peer Review Uitvoeren

5.1 Start de evaluatiesessies

De peer reviews zijn opgesplitst in losse, afzonderlijke formulieren voor het overzicht. Klik hieronder om het formulier voor de specifieke peer te openen tijdens hun sessie. De data wordt na verzenden per mail verstuurd voor de uiteindelijke synthese.

📝 Open Formulier: Peer 1 📝 Open Formulier: Peer 2 📝 Open Formulier: Peer 3

06Convergentiebesluit

6.1 Synthese peer review-resultaten

Hieronder vat ik de feedback van de 3 peers samen. Het punt is niet om te tellen wie "wint" maar het punt is om patronen te zien. Waar zijn de peers het eens? Waar zitten de tegenstrijdigheden? En wat zegt dat over welk alternatief het best aansluit op het concept Spatial Anchor?

De keuze die ik uiteindelijk maak is van mij. Maar de onderbouwing is niet van mij. Die komt van buiten.

📊

Dit onderdeel wordt ingevuld na afronding van alle drie de peer reviews. Hier komt:

  • Samenvatting van de overlappende conclusies tussen de peers
  • Analyse van afwijkende meningen en hun onderbouwing
  • De ranking-uitkomst: welk alternatief scoort het beste over 3 peers
  • De ontwerpbeslissing: welk alternatief (of combinatie) ga ik doorontwikkelen

6.2 Het convergentiebesluit

⚖️ Gekozen richting voor detail-divergentie

6.3 Vervolgstappen na convergentie

🔜

Na het convergentiebesluit volgt:

  • Detail-divergentie op het gekozen alternatief: wireflows, edge cases, error states
  • Tweede peer review op de gedetailleerde uitwerkingen
  • Feedback moment 2 bij Frans: het complete convergentietraject tonen