Probleem en context
De opkomst van AI-gestuurde zoekervaringen — denk aan ChatGPT (met RAG), Perplexity, Google AI Mode en Claude — verandert hoe mensen zoeken en hoe verkeer naar sites stroomt. Steeds vaker krijgen gebruikers een kant-en-klaar antwoord zonder door te klikken.
Dat zero-click‑fenomeen is geen kleinigheid: meldingen lopen op tot ~95% bij Google AI Mode en 78–99% bij sommige ChatGPT-implementaties.
Dat zie je terug in harde cijfers: uitgevers melden forse dalingen in referrals — Forbes rapporteerde ongeveer -50%, Daily Mail rond -44% — en meerdere nieuwsorganisaties zien vergelijkbare teruglopen.
Minder clicks betekent minder directe inkomsten en een vertekend beeld van bereik. Het oude KPI‑pakket (impressies, posities, CTR) blijkt onvoldoende. Een nieuw meetpunt wordt dominant: citability — hoe vaak en hoe betrouwbaar jouw site als bron wordt aangehaald door AI-antwoorden.
Waarom gebeurt dit nu?
Modellen leveren compacte, samengestelde overzichten en gebruiken een beperkte, herbruikbare set bronnen. RAG-systemen (Retrieval-Augmented Generation) koppelen retrieval aan generatie: antwoorden worden “gegrondeerd” op externe bronnen. AI kiest bronnen op basis van autoriteit, actualiteit en semantische match — en dat verandert wie zichtbaar blijft.
Belangrijke gevolgen:
– CTR en organisch verkeer dalen.
– AI-citaties concentreren zich op goed gestructureerde en vaak oudere content (gemiddelde geciteerde leeftijden: ~1000 dagen bij sommige ChatGPT-answers, ~1400 dagen bij Google-gedreven samenvattingen).
– Crawlrates verschillen sterk tussen spelers (indicatief: Google ~18:1, OpenAI ~1500:1, Anthropic ~60000:1), wat bepaalt welke content überhaupt beschikbaar is voor modellen.
Kort: zichtbaarheid verschuift van klikken naar geciteerd worden. Tijd om je source landscape te mappen en je content daarop in te sturen.
Technische eye-openers (kort)
– Foundation models + RAG = generatieve antwoorden met bronvermelding; grounding bepaalt betrouwbaarheid.
– Citation patterns: welke paginalagen en contenttypes worden gekozen?
– Platforms verschillen: Perplexity legt veel nadruk op citeerbare snippets; Google AI Mode combineert index + samenvattingen; ChatGPT‑implementaties wisselen per setup.
Operationeel framework — wat te doen (samengevat)
Het raamwerk bestaat uit vier fases: Discovery, Optimization, Assessment, Refinement. Praktisch, meetbaar en iteratief.
Fase 1 — Discovery & baseline (0–6 weken)
Acties
– Map je source landscape: top 50–100 domeinen en contenttypes in je niche.
– Stel 25–50 sleutelprompts op (informatief, vergelijkend, koopgericht). Focus eerst op 10 commerciële high-priority prompts.
– Doe gecontroleerde tests op ChatGPT, Claude, Perplexity en Google AI Mode. Log prompt, tijd, platform, bronvermeldingen, antwoordstructuur.
– Zet GA4 op met custom segments voor AI-bots (zie regex verder) en begin met bot‑tracking + conversiepaden.
Deliverable binnen 6 weken: baseline-rapport met share‑of‑citations per domein en ranking per prompt. Eerste milestone: 25 prompts getest en vergeleken; 10 kernprompts klaar binnen 14 dagen.
Technische setup (essentials)
– GA4 regex (voorbeeld): /(chatgpt-user|anthropic-ai|perplexity|claudebot|gptbot|bingbot\/2.0|google-extended)/i
– Log alle testresultaten in een centrale spreadsheet of BI-tool.
– Per prompt: minstens 5 runs per platform, op verschillende tijden en met wisselende user-agents.
Dat zie je terug in harde cijfers: uitgevers melden forse dalingen in referrals — Forbes rapporteerde ongeveer -50%, Daily Mail rond -44% — en meerdere nieuwsorganisaties zien vergelijkbare teruglopen. Minder clicks betekent minder directe inkomsten en een vertekend beeld van bereik. Het oude KPI‑pakket (impressies, posities, CTR) blijkt onvoldoende. Een nieuw meetpunt wordt dominant: citability — hoe vaak en hoe betrouwbaar jouw site als bron wordt aangehaald door AI-antwoorden.0
Dat zie je terug in harde cijfers: uitgevers melden forse dalingen in referrals — Forbes rapporteerde ongeveer -50%, Daily Mail rond -44% — en meerdere nieuwsorganisaties zien vergelijkbare teruglopen. Minder clicks betekent minder directe inkomsten en een vertekend beeld van bereik. Het oude KPI‑pakket (impressies, posities, CTR) blijkt onvoldoende. Een nieuw meetpunt wordt dominant: citability — hoe vaak en hoe betrouwbaar jouw site als bron wordt aangehaald door AI-antwoorden.1
Dat zie je terug in harde cijfers: uitgevers melden forse dalingen in referrals — Forbes rapporteerde ongeveer -50%, Daily Mail rond -44% — en meerdere nieuwsorganisaties zien vergelijkbare teruglopen. Minder clicks betekent minder directe inkomsten en een vertekend beeld van bereik. Het oude KPI‑pakket (impressies, posities, CTR) blijkt onvoldoende. Een nieuw meetpunt wordt dominant: citability — hoe vaak en hoe betrouwbaar jouw site als bron wordt aangehaald door AI-antwoorden.2
Dat zie je terug in harde cijfers: uitgevers melden forse dalingen in referrals — Forbes rapporteerde ongeveer -50%, Daily Mail rond -44% — en meerdere nieuwsorganisaties zien vergelijkbare teruglopen. Minder clicks betekent minder directe inkomsten en een vertekend beeld van bereik. Het oude KPI‑pakket (impressies, posities, CTR) blijkt onvoldoende. Een nieuw meetpunt wordt dominant: citability — hoe vaak en hoe betrouwbaar jouw site als bron wordt aangehaald door AI-antwoorden.3
Dat zie je terug in harde cijfers: uitgevers melden forse dalingen in referrals — Forbes rapporteerde ongeveer -50%, Daily Mail rond -44% — en meerdere nieuwsorganisaties zien vergelijkbare teruglopen. Minder clicks betekent minder directe inkomsten en een vertekend beeld van bereik. Het oude KPI‑pakket (impressies, posities, CTR) blijkt onvoldoende. Een nieuw meetpunt wordt dominant: citability — hoe vaak en hoe betrouwbaar jouw site als bron wordt aangehaald door AI-antwoorden.4
Dat zie je terug in harde cijfers: uitgevers melden forse dalingen in referrals — Forbes rapporteerde ongeveer -50%, Daily Mail rond -44% — en meerdere nieuwsorganisaties zien vergelijkbare teruglopen. Minder clicks betekent minder directe inkomsten en een vertekend beeld van bereik. Het oude KPI‑pakket (impressies, posities, CTR) blijkt onvoldoende. Een nieuw meetpunt wordt dominant: citability — hoe vaak en hoe betrouwbaar jouw site als bron wordt aangehaald door AI-antwoorden.5
Dat zie je terug in harde cijfers: uitgevers melden forse dalingen in referrals — Forbes rapporteerde ongeveer -50%, Daily Mail rond -44% — en meerdere nieuwsorganisaties zien vergelijkbare teruglopen. Minder clicks betekent minder directe inkomsten en een vertekend beeld van bereik. Het oude KPI‑pakket (impressies, posities, CTR) blijkt onvoldoende. Een nieuw meetpunt wordt dominant: citability — hoe vaak en hoe betrouwbaar jouw site als bron wordt aangehaald door AI-antwoorden.6
Dat zie je terug in harde cijfers: uitgevers melden forse dalingen in referrals — Forbes rapporteerde ongeveer -50%, Daily Mail rond -44% — en meerdere nieuwsorganisaties zien vergelijkbare teruglopen. Minder clicks betekent minder directe inkomsten en een vertekend beeld van bereik. Het oude KPI‑pakket (impressies, posities, CTR) blijkt onvoldoende. Een nieuw meetpunt wordt dominant: citability — hoe vaak en hoe betrouwbaar jouw site als bron wordt aangehaald door AI-antwoorden.7
Dat zie je terug in harde cijfers: uitgevers melden forse dalingen in referrals — Forbes rapporteerde ongeveer -50%, Daily Mail rond -44% — en meerdere nieuwsorganisaties zien vergelijkbare teruglopen. Minder clicks betekent minder directe inkomsten en een vertekend beeld van bereik. Het oude KPI‑pakket (impressies, posities, CTR) blijkt onvoldoende. Een nieuw meetpunt wordt dominant: citability — hoe vaak en hoe betrouwbaar jouw site als bron wordt aangehaald door AI-antwoorden.8
Dat zie je terug in harde cijfers: uitgevers melden forse dalingen in referrals — Forbes rapporteerde ongeveer -50%, Daily Mail rond -44% — en meerdere nieuwsorganisaties zien vergelijkbare teruglopen. Minder clicks betekent minder directe inkomsten en een vertekend beeld van bereik. Het oude KPI‑pakket (impressies, posities, CTR) blijkt onvoldoende. Een nieuw meetpunt wordt dominant: citability — hoe vaak en hoe betrouwbaar jouw site als bron wordt aangehaald door AI-antwoorden.9
Waarom gebeurt dit nu?
Modellen leveren compacte, samengestelde overzichten en gebruiken een beperkte, herbruikbare set bronnen. RAG-systemen (Retrieval-Augmented Generation) koppelen retrieval aan generatie: antwoorden worden “gegrondeerd” op externe bronnen. AI kiest bronnen op basis van autoriteit, actualiteit en semantische match — en dat verandert wie zichtbaar blijft.0
Waarom gebeurt dit nu?
Modellen leveren compacte, samengestelde overzichten en gebruiken een beperkte, herbruikbare set bronnen. RAG-systemen (Retrieval-Augmented Generation) koppelen retrieval aan generatie: antwoorden worden “gegrondeerd” op externe bronnen. AI kiest bronnen op basis van autoriteit, actualiteit en semantische match — en dat verandert wie zichtbaar blijft.1
Waarom gebeurt dit nu?
Modellen leveren compacte, samengestelde overzichten en gebruiken een beperkte, herbruikbare set bronnen. RAG-systemen (Retrieval-Augmented Generation) koppelen retrieval aan generatie: antwoorden worden “gegrondeerd” op externe bronnen. AI kiest bronnen op basis van autoriteit, actualiteit en semantische match — en dat verandert wie zichtbaar blijft.2
Waarom gebeurt dit nu?
Modellen leveren compacte, samengestelde overzichten en gebruiken een beperkte, herbruikbare set bronnen. RAG-systemen (Retrieval-Augmented Generation) koppelen retrieval aan generatie: antwoorden worden “gegrondeerd” op externe bronnen. AI kiest bronnen op basis van autoriteit, actualiteit en semantische match — en dat verandert wie zichtbaar blijft.3
Waarom gebeurt dit nu?
Modellen leveren compacte, samengestelde overzichten en gebruiken een beperkte, herbruikbare set bronnen. RAG-systemen (Retrieval-Augmented Generation) koppelen retrieval aan generatie: antwoorden worden “gegrondeerd” op externe bronnen. AI kiest bronnen op basis van autoriteit, actualiteit en semantische match — en dat verandert wie zichtbaar blijft.4
Waarom gebeurt dit nu?
Modellen leveren compacte, samengestelde overzichten en gebruiken een beperkte, herbruikbare set bronnen. RAG-systemen (Retrieval-Augmented Generation) koppelen retrieval aan generatie: antwoorden worden “gegrondeerd” op externe bronnen. AI kiest bronnen op basis van autoriteit, actualiteit en semantische match — en dat verandert wie zichtbaar blijft.5
Waarom gebeurt dit nu?
Modellen leveren compacte, samengestelde overzichten en gebruiken een beperkte, herbruikbare set bronnen. RAG-systemen (Retrieval-Augmented Generation) koppelen retrieval aan generatie: antwoorden worden “gegrondeerd” op externe bronnen. AI kiest bronnen op basis van autoriteit, actualiteit en semantische match — en dat verandert wie zichtbaar blijft.6
Waarom gebeurt dit nu?
Modellen leveren compacte, samengestelde overzichten en gebruiken een beperkte, herbruikbare set bronnen. RAG-systemen (Retrieval-Augmented Generation) koppelen retrieval aan generatie: antwoorden worden “gegrondeerd” op externe bronnen. AI kiest bronnen op basis van autoriteit, actualiteit en semantische match — en dat verandert wie zichtbaar blijft.7
Waarom gebeurt dit nu?
Modellen leveren compacte, samengestelde overzichten en gebruiken een beperkte, herbruikbare set bronnen. RAG-systemen (Retrieval-Augmented Generation) koppelen retrieval aan generatie: antwoorden worden “gegrondeerd” op externe bronnen. AI kiest bronnen op basis van autoriteit, actualiteit en semantische match — en dat verandert wie zichtbaar blijft.8