Bereik je doelen met een doordachte strategie. Wij helpen je met het formuleren en implementeren van effectieve strategieën om je bedrijf te laten groeien.
Verhoog je online zichtbaarheid. Met onze expertise in SEO, SEA, Social Ads, CRO, GEO en meer helpen wij je om je doelgroep effectief te bereiken en je merk te versterken.
Ontwikkel en ontwerp met precisie. Van concept tot realisatie, wij leveren maatwerkoplossingen die jouw visie tot leven brengen.
Tijdens de eerste dag van Google I/O 2025 viel er een mengeling van opwinding en bezorgdheid op. Zowel onder gebruiker als ontwikkelaar heerse er enthousiasme over de nieuwe producten en functies die Google presenteerde, zoals Flow, AndroidXR en Search, die de moderne technologische wonderen van het bedrijf in volle glorie demonstreerden. Tegelijkertijd bestond er een zekere angst over de implicaties voor de SEO-gemeenschap.
De huidige vaardigheden en technologieën die worden ingezet om zichtbaarheid te stimuleren; ze lijken onvoldoende voor de toekomstige ontwikkelingen. Bovendien draagt de aanhoudende discussie – namelijk of generatieve AI-functies van Google wel of geen significant verschil maken voor SEO – die mensen achteroverleunend maakt, bij aan een gevaarlijke stilstand in de vooruitgang van het vakgebied.
Binnen de SEO-community is er de laatste tijd veel discussie geweest over het idee dat de generatieve AI-gedreven functies van Google geen verschil maken; “het is gewoon SEO.” Sterker nog, de meest recente richtlijnen van Google weerspiegelen dit standpunt. Een groot deel van dit argument ligt in de overlappende mechanismen tussen generatieve informatie-opvraging en klassieke informatie-opvraging voor het web.
Jazeker, het blijft belangrijk om content toegankelijk, indexeerbaar en begrijpelijk te maken. Het grote verschil ligt echter in het feit dat bij klassieke informatie-opvraging (IR) content op dezelfde manier verschijnt als het wordt ingevoerd. Bij generatieve IR daarentegen wordt content gemanipuleerd. Het is onzeker hoe of zelfs of het aan de andere kant zal verschijnen, zelfs als alle SEO-best practices correct zijn toegepast en de respons is geïnformeerd. Hierin schuilt de kloof en de laag waarin SEO, zoals het momenteel bestaat, tekortschiet.
Vorige maand, tijdens SEO Week, benadrukte de spreker in de presentatie ‘Brave New World of SEO’ een belangrijk punt. Hoewel er momenteel nog veel overlap is tussen de organische zoekresultaten (SERP’s) en AI Overviews, zijn we absoluut niet voorbereid op de toekomst. Wat gebeurt er als elementen zoals geheugen, personalisatie, MCP (Multi-Context Personalization) en de benodigde agent-achtige functionaliteiten erbij komen? En wat als Google data uit elke applicatie op het web begint te halen?
Met de recente aankondiging van verbeteringen aan AI Mode is vrijwel alles wat toen werd voorspeld nu al live in de Google Zoekervaring, of het staat op het punt dit jaar uit te rollen. Google heeft bovendien al gewaarschuwd sinds de lancering van hun uitlegdocument over AIO en AI Mode: het beste van AI Mode zal uiteindelijk geïntegreerd worden in de kernzoekervaring. Hoe meer er is onderzocht hoe deze functies werken, hoe duidelijker het is geworden dat de SEO-wereld veel groter moet denken.
Laten we daarom bespreken waarom we nog niet klaar zijn en wat we moeten doen om ons voor te bereiden.
De bewering dat AI Mode en AI Overviews (GEO) simpelweg “gewoon SEO” zijn, is op zijn best naïef en in het slechtste geval gewoon enorm gevaarlijk en misleidend.
Dit standpunt schiet niet alleen tekort in technische details; het toont vooral een fundamenteel misverstand over hoe deze nieuwe generatieve zoeksystemen verschillen van de traditionele manier waarop zoekresultaten tot stand kwamen en waarop SEO historisch is gebouwd.
Er wordt vaak gedacht dat alles wat je al doet om zichtbaar te zijn in AI Mode, volledig wordt afgedekt door de bestaande SEO-richtlijnen. Maar als dat echt zo was, zouden we binnen de sector al bezig zijn met het inbedden van content op passage-niveau, het uitvoeren van semantische overeenkomstberekeningen met queryvectoren, en het optimaliseren van de kans op vermeldingen in latente, synthetische zoekopdrachten. Het schokkende gebrek aan gangbare SEO-tools die al deze taken uitvoeren, is een directe afspiegeling van het feit dat het grootste deel van de SEO-wereld nog niet doet wat nodig is. In plaats daarvan doen we veelal wat we altijd al deden, en af en toe levert dat nog resultaat op.
Lees ook ons artikel over hoe je als merk zichtbaar kan blijven met GEO in dit nieuwe AI-tijdperk.
Een deel van de verwarring komt voort uit het feit dat SEO geen vaste afbakening heeft. Door de jaren heen heeft het constant concepten en methoden overgenomen en aangepast uit andere disciplines, zoals performance engineering, informatiearchitectuur, gebruikerservaring (UX), data-analyse en contentstrategie. Vaak gebeurde dit zelfs op expliciet verzoek van Google.
Neem bijvoorbeeld gestructureerde data: dat valt nu onder SEO. Sitesnelheid? Ook SEO. Entiteitsmodellering? Jazeker, SEO. De lijst is eindeloos van dit soort taken die geleidelijk aan tot het domein van SEO zijn gaan behoren.
Sterker nog, als elk team binnen een organisatie de eisen van Google zou meenemen in hun eigen vakgebied, dan zou SEO als aparte discipline eigenlijk niet eens bestaan.
Wat we vandaag de dag SEO noemen, functioneert daarom eerder als een tijdelijke ondersteunende constructie. Het is een organisatorische reactie op de manier waarop Google de structuur van het web vormgeeft. En die constructie staat nu onder zware druk, want er is een fundamenteel nieuw paradigma opgedoken: generatieve, redeneer-gestuurde zoekresultaten en de hevige concurrentie die daaruit voortvloeit.
Er gaapt een diepe kloof tussen wat technisch nodig is om succesvol te zijn in generatieve informatie-opvraging (IR) en de huidige praktijk binnen de SEO-sector.
De meeste SEO-software werkt nog steeds met sparse retrieval modellen (die voornamelijk kijken naar exacte trefwoordmatches), zoals TF-IDF en BM25, in plaats van de modernere dense retrieval modellen (die de diepere betekenis van tekst begrijpen via numerieke representaties genaamd vector embeddings). Wij als SEO-specialisten en marketeers, missen de tools om contentpassages te ontleden en als embeds te verwerken. Dit houdt in dat onze content minder goed wordt begrepen door de geavanceerdere AI-systemen van zoekmachines.
Onze branche is er nog niet aan gewend om kandidaatdocumenten op grote schaal te analyseren of te groeperen in een vectorruimte. Ook meten we de relevantie van onze content niet op basis van de reeks synthetische zoekopdrachten die voor ons onzichtbaar blijven. We weten niet hoe vaak we op deze generatieve platforms worden geciteerd, hoe prominent die vermelding is, of welke intentie tot de citatie heeft geleid.
De grote SEO-tools zijn weliswaar begonnen met het delen van rankingdata voor AI Overviews (AIO’s), maar missen het grootste deel hiervan omdat ze uitgaan van uitgelogde gebruikers. Dit betekent dat de tools de gepersonaliseerde resultaten, die veel gebruikers zien als ze zijn ingelogd, niet meenemen, waardoor het beeld van de werkelijke zichtbaarheid onvolledig is.
De enige situatie waarin iets “gewoon SEO” is, is wanneer het verkeerd wordt uitgevoerd.
AI Mode brengt namelijk ingrijpende veranderingen met zich mee:
We hebben het hier niet over de uitzonderingen. Dit zijn de kernprincipes van het nieuwe systeem.
Dit is dus niet zomaar SEO. Dit is wat ná SEO komt.
Zouden we blijven vasthouden aan de gedachte dat onze oude tools en denkbeelden nog volstaan, dan zullen we in AI Mode niet alleen onzichtbaar worden, maar ook vrijwel irrelevant.
Toegegeven, SEO heeft vaak moeite om een helder onderscheid te maken tussen strategie (de langetermijnvisie en het ‘waarom’) en tactiek (de concrete acties en het ‘hoe’), omdat het vakgebied voortdurend reageert op de steeds veranderende eisen van zoekmachines, waardoor focus op korte termijn acties prevaleert.
Het is misschien daarom dan ook niet zo raar dat veel mensen reageren alsof er eigenlijk weinig écht nieuws onder de zon is voor SEO. Het is echter een reactie die duidt op een zekere mate van cognitieve dissonantie. Als je begrijpt hoe de technologie werkt, is het moeilijk om deze houding te rijmen met de onmiskenbare realiteit dat zoekopdrachten fundamenteel zijn veranderd en veel moeilijker te manipuleren zijn dan voorheen.
De doelen van SEO-professionals liggen niet langer in lijn met wat Google probeert te bereiken. Wij jagen op zichtbaarheid en verkeer, terwijl Google simpelweg de informatiebehoeften van gebruikers wil vervullen, waarbij ze verkeer (oftewel de klikken op websites die gebruikers wegleiden van Google zelf) als een “noodzakelijk kwaad” beschouwen.
Bekijk bijvoorbeeld eens het zoekgedeelte van de Google I/O 2025 keynote, of lees Liz Reid’s blogpost hierover. Het is overduidelijk: Google wil het ‘Googlen’ voor jou doen.
Tijdens een ander panel legde Liz uit hoe gebruikers voorheen, bij complexe zoekvragen, elke vraag afzonderlijk moesten stellen en de informatie zelf moesten samenvoegen. Dit sluit naadloos aan bij de ideeën van Andrei Broder in zijn Delphic Costs paper, waarin hij beschrijft hoe de cognitieve belasting van zoeken te hoog is. Nu is het echter zo dat Google resultaten van talloze zoekvragen kan combineren om vervolgens een compleet en intelligent antwoord te genereren.
De fundamentele SEO-taken, zoals het zorgen dat je site wordt gecrawld, gerenderd, verwerkt, geïndexeerd, gerangschikt en opnieuw gerangschikt, blijven onverminderd belangrijk. Maar voor platforms zoals de AI Mode is dit slechts het begin. Het grote verschil zit hem erin dat we veel minder invloed hebben op hoe onze content uiteindelijk in de zoekresultaten verschijnt.
De AI Mode van Google werkt met geavanceerde technieken zoals redenering en persoonlijke context, en in de toekomst mogelijk zelfs DeepSearch (een geavanceerde methode die honderden zoekopdrachten triggert en duizenden documenten analyseert om een diepgaand antwoord te genereren).
Dit zijn allemaal processen waar we geen inzicht in hebben en waarschijnlijk ook niet zullen krijgen, waardoor zoekresultaten minder voorspelbaar worden. De SEO-gemeenschap mist momenteel de gegevens om prestaties te meten en de juiste hulpmiddelen om te begrijpen wat er moet gebeuren.
Dit betekent dat hoewel we technisch perfecte websites kunnen bouwen, goede content kunnen maken en veel links kunnen verzamelen, dit slechts een klein deel is van de vele factoren die in een complexe mix terechtkomen. Hoe onze content uiteindelijk in de zoekresultaten opduikt, is daardoor vaak onvoorspelbaar en anders dan verwacht.
Momenteel heeft zoekmachineoptimalisatie onvoldoende controle om hogere posities te stimuleren in een omgeving die gebaseerd is op redenering. Redenering houdt in dat Google’s Gemini allerlei conclusies trekt op basis van eerdere gesprekken en het geheugen van de gebruiker. Daar bovenop komt nog een laag van persoonlijke context, waarbij Google data uit al hun diensten haalt, zoals Gmail, MCP (Multi-Context Personalization) en A2A (Application-to-Application). Dit is een enorme verschuiving, want hierdoor wordt veel meer externe context meegewogen. DeepSearch is in feite een uitbreiding van het DeepResearch-principe, toegepast op de zoekresultatenpagina (SERP), waar honderden zoekopdrachten kunnen worden geactiveerd en duizenden documenten worden geanalyseerd.
Een fundamentele verandering is dat AI Mode inherent multimodaal is. Dat wil zeggen dat het niet alleen tekst verwerkt, maar ook video, audio (met transcripties) en afbeeldingen weet te gebruiken.
Dankzij het Multitask Unified Model (MUM) kan content probleemloos vanuit de ene taal vertaald en direct in het antwoord worden opgenomen. Met andere woorden, elk antwoord is een complex, ondoorzichtig geheel, ver voorbij simpele tekstanalyse.
Waar je vroeger je concurrentie analyseerde door tekst met tekst of video met video te vergelijken, werk je nu met een dynamische mix van informatiebronnen. Dit maakt het lastiger om effectief te concurreren.
Google moedigt het investeren in diverse contentformaten aan, terwijl ze tegelijkertijd het aantal klikken met 34,5% verminderen. Dit maakt het lastig om organisaties te overtuigen, vooral omdat “unieke” content ook geen lange levensduur heeft. Google introduceert al aangepaste datavisualisaties direct op de SERP op basis van je data. Het lijkt dan ook logisch dat het dynamisch remixen van je content met tools als Veo en Imagen snel zal volgen. Dit alles verandert radicaal wat we strategisch kunnen bereiken als organisatie.
Na de eerste dag van Google I/O werd al duidelijk hoe zinloos het straks zal zijn om in te loggen op veel van de SEO-software die wordt gebruikt voor werk aan AI Mode. Het lijkt erop dat Google de AI Mode de standaard zal maken, en een groot deel van de SEO-gemeenschap zal dan niet weten wat te doen.
We bevinden ons in een vakgebied waar rankings al twintig jaar lang sterk gepersonaliseerd worden. Ondanks deze personalisatie baseren we ranktracking nog steeds op een hypothetische gebruiker die het web voor het eerst bezoekt en als eerste actie een specifieke zoekopdracht intypt. We werken met een systeem dat al minstens tien jaar semantisch is en zeker vijf jaar hybride werkt, maar toch zijn de beste tools die nu geboden worden nog steeds puur gericht op optimalisatie op basis van losse woorden?
Tijdens SEO Week deed James Cadwallader, medeoprichter en CEO van het platform voor conversationele zoekanalyse Profound, een opvallende uitspraak: “SEO zal een ouderwetse functie worden.” Hij nuanceerde dit snel door te stellen dat Agent Experience (AX) juist een gebied is waar SEO-specialisten een unieke positie hebben om naartoe te bewegen.
Voorafgaand aan die conclusie legde hij zijn argument doordacht uit. Hij stelde dat het web oorspronkelijk functioneerde als een tweezijdige marktplaats. De opkomst van het ‘agentic’ web verandert echter het model van gebruikersinteractie met websites volledig. Cadwallader’s punt was indringend: de gebruiker geeft uiteindelijk niet om de bron van de informatie, zolang er maar bruikbare antwoorden worden geleverd.
Google heeft de SEO-professional historisch gezien gewaarschuwd om niet voor bots te optimaliseren. Maar de nieuwe omgeving vereist nu juist dat we bots als primaire ‘consument’ beschouwen, omdat zij de informatie voor de eindgebruiker vertalen. Zijn stelling houdt dus in dat gebruikers onze website binnenkort mogelijk helemaal niet meer zien. Intelligente agents zullen de informatie afstemmen op hun begrip van de gebruiker en hun interpretatie van onze boodschap.
Op technisch vlak besprak James de hypothese van zijn team over de werking van langetermijngeheugen. Het lijkt erop dat er een voortdurend bijgewerkte representatie van alle conversaties is, die wordt toegevoegd aan de systeemopdracht. Vermoedelijk gaat het om een soort geaggregeerde ‘embedding’ of een andere vorm van langetermijngeheugenopslag die verdere gesprekken informeert. Zoals we verderop in dit artikel bespreken, komt dit overeen met de aanpak die in Google’s patenten wordt beschreven.
Aanvankelijk leken zijn conclusies enigszins alarmistisch, hoewel het zeker slimme positionering was voor hun software. Toch bewonder ik aan Profound dat het technologen zijn, niet gehinderd door de ballast van de SEO-industrie. Ze hebben de omwentelingen zoals Florida, Panda, Penguin, of de ophef over Featured Snippets niet meegemaakt. Ze kijken helder naar de huidige stand van zaken en de toekomst. Hun werkwijze, zoals die van toonaangevende techbedrijven, is gericht op de nieuwste technologie en snelle productontwikkeling. Sinds de I/O keynote is duidelijk geworden dat James gelijk heeft, tenzij er actie wordt ondernomen.
Hoewel James’ presentatie meer gericht was op de aanbiedingen van OpenAI, zien we dat Google een vergelijkbare richting inslaat. Het is daarom zeker de moeite waard om zijn lezing te bekijken voor extra context.
Tijdens Google I/O vonden er gesprekken plaats met ingenieurs van Google. Een belangrijk deel van die discussies ging over de erkenning dat de relatie tussen Google en de SEO-gemeenschap symbiotisch is, maar tegelijkertijd paradoxaal eenzijdig.
Immers, het web zou het beveiligde protocol, gestructureerde data of Core Web Vitals nooit zo snel en volledig hebben omarmd als onze gemeenschap niet het voorbereidende werk had verricht.
Daarnaast werd besproken hoe websites klikken verliezen door AI Overviews (AIO’s) en dat er geen data of duidelijke steun van Google is om bedrijven te bewijzen dat het zoeklandschap is veranderd.
Er werd gesuggereerd dat inzichten uit interne gebruiksonderzoeken of resultaten van Google Labs-tests van AIO’s nuttig zouden zijn geweest om de verandering in zoekgedrag aan te tonen. De ingenieurs leken verrast te horen hoe wijdverspreid de klikverliezen over de hele linie worden gevoeld.
Uiteindelijk werd er verteld dat alles zo snel en onvoorspelbaar verandert, dat het moeilijk was om vooraf data of waarschuwingen te geven om de SEO-gemeenschap door dit proces heen te helpen. Er waren echter wel hints dat toekomstige updates mogelijk uitkomst zullen bieden. Sinds dat gesprek zijn er op Search Central enkele artikelen verschenen die suggereren dat de kwaliteit van zoekbezoeken is verbeterd, en waarin wordt geadviseerd te stoppen met het meten van klikken.
Het is echter moeilijk dit soort antwoorden te accepteren, om vervolgens de volgende dag op Google Marketing Live te horen dat adverteerders wél toegang krijgen tot gedetailleerde zoekvraagdata over AI Overviews (AIO’s). Dit staat in schril contrast met het gebrek aan informatie voor de SEO-gemeenschap, die weliswaar cruciaal is voor de vindbaarheid op het web, maar in het duister tast over deze nieuwe ontwikkelingen. Dit is helaas de realiteit.
Ook werd de vraag gesteld wat de rol van SEO-specialisten zou moeten zijn in een omgeving die wordt gestuurd door ‘agents’, redenering, persoonlijke context en DeepResearch. Afgezien van het gebruikelijke advies om “geweldige, unieke en niet-alledaagse content te creëren”, was het antwoord onzeker.
En dat is prima. De situatie was vergelijkbaar toen RankBrain werd gelanceerd en de officiële lezing was dat Google zelf niet precies wist hoe hun nieuwe ontwikkelingen werkten. Er werd immers niet geadviseerd om direct vector embeddings (een methode om woorden en zinnen als numerieke reeksen te representeren, zodat computers hun betekenis en relaties kunnen begrijpen) te gebruiken om de relevantie van content te begrijpen. Het betekent simpelweg dat het tijd is om de community te activeren en weer volop te experimenteren en te leren.
Helaas zal niet iedereen deze nieuwe fase overleven. Net zoals een deel van de vorige generatie SEO-specialisten de grote verschuivingen na Panda en Penguin niet heeft doorstaan, wordt vermoed dat sommigen de sprong naar deze volgende golf van zoektechnologie niet zullen maken.
Degenen die wel succesvol zullen zijn, moeten beginnen met een diepgaand begrip van de werking van de technologie, om vanuit daar strategische en tactische stappen te bepalen.
Laten we nu verdergaan met een heldere uitleg over de werking van AI Mode.
Je opent Google en stelt een vraag. Wat er vervolgens gebeurt, lijkt echter in niets op zoeken zoals je het kent. Geen blauwe, onderstreepte links meer. Alleen een vriendelijke paragraaf, die antwoord geeft en zelfs al anticipeert op je volgende vraag, nog voordat je die zelf bedacht hebt. Welkom in AI Mode.
Onder de oppervlakte is wat een enkel antwoord lijkt, in werkelijkheid een complex samenspel van machine-intelligentie. Eerst wordt je vraag stilletjes omgezet in een reeks andere vragen – sommige duidelijk, andere impliciet, weer andere voorspellend. Google’s modellen ‘spreiden zich uit’ over dit verborgen web van synthetische zoekopdrachten, waarbij ze niet alleen feiten scannen, maar ook ideeën die een ‘redeneerketen’ kunnen voltooien.
Achter de schermen is het systeem niet alleen bezig met het rangschikken van content, het ‘redeneert’ met zichzelf. Documenten worden niet gekozen omdat ze bovenaan de zoekresultatenpagina (SERP) stonden, maar omdat ze een punt ondersteunen in de versleutelde logica van de machine.
Redeneerketens zijn te vergelijken met die ouderwetse ‘krabbelblok’-gedachten die we allemaal hebben bij het oplossen van een probleem. Deze zijn nu ingebed in de manier waarop antwoorden worden geconstrueerd. Het is niet simpelweg “Wat is de beste elektrische SUV?”, maar eerder “Wat betekent ‘beste’ voor deze specifieke gebruiker, op dit moment, en met welke prioriteiten?”
En alsof dat nog niet genoeg is, zijn de modellen die jouw antwoord genereren niet eendimensionaal. Ze zijn taakspecifiek, afgestemd en geselecteerd op basis van het type antwoord dat nodig is: een samenvatter, een vergelijker, een validator. Het is een ensemble met een roterende schijnwerper. Elk model draagt een deel bij; een afsluitend model stelt het uiteindelijke ‘script’ samen.
Dit alles gebeurt binnen een onzichtbare architectuur die wordt gevoed door jouw verleden. Je klikken, je zoekopdrachten, je locatie, je Gmail-threads – alles wordt samengevat in een gevectoriseerde versie van… “jou”. Dit is een personalisatielaag die niet alleen de randen van het resultaat kleurt, maar de hele selectie van wat als relevant kwalificeert, vervormt.
En wanneer het antwoord uiteindelijk verschijnt, kan jouw webpagina geciteerd worden. Of niet. Jouw content verschijnt mogelijk niet omdat je geoptimaliseerd was voor een trefwoord, maar omdat een enkele zin toevallig overeenkwam met een kleine stap in de onzichtbare logica van de machine.
SEO heeft de afgelopen vijfentwintig jaar besteed aan het voorbereiden van content om te worden geanalyseerd en gepresenteerd op basis van de ranking voor een enkele zoekopdracht. Nu werken we aan het ontwikkelen van relevantie om door te dringen in redeneersystemen die werken met een breed scala aan zoekvragen.
De patentaanvraag voor Search with Stateful Chat geeft een fundamenteel inzicht in de werking van Google’s AI Mode. Het markeert een overgang van traditioneel zoeken naar een blijvend, conversationeel model voor informatie-opvraging. Het systeem leert je na verloop van tijd begrijpen, maakt gebruik van tal van synthetische zoekvragen en combineert antwoorden via gelaagde redenering.
Daarnaast vult het patent Query Response from a Custom Corpus cruciale details aan over de manier waarop antwoorden worden gegenereerd. Het legt niet alleen uit wat het systeem over je weet, maar ook hoe het besluit welke documenten te gebruiken, hoe deze worden gefilterd en wat er wordt geciteerd.
AI Mode functioneert als een meerfasensysteem dat bovenop Google’s traditionele index is gebouwd. In plaats van elke zoekopdracht op zichzelf te behandelen, behoudt het een constante gebruikerscontext. Dit doet het door je eerdere zoekvragen, locaties, gebruikte apparaten en gedragssignalen te volgen, en elke interactie om te zetten in een vector embedding. Deze voortdurende context stelt Google in staat om de intentie over tijd te begrijpen, in plaats van enkel de intentie van het moment.
Wanneer je een nieuwe zoekopdracht invoert, start AI Mode een proces genaamd ‘query fan-out’. Dit genereert tientallen (of zelfs honderden) gerelateerde, impliciete en recente zoekvragen om semantisch relevante documenten te vinden die je niet expliciet hebt aangevraagd. Elk van deze synthetische zoekopdrachten wordt gebruikt om documenten uit de index op te halen. Deze documenten worden vervolgens beoordeeld en gerangschikt op basis van hoe goed hun vector embeddings overeenkomen met zowel de expliciete als de verborgen zoekvragen.
Deze verzameling documenten vormt wat het tweede patent een “custom corpus” noemt. Dit is een specifieke selectie uit de index die het systeem op dat moment, voor jou en jouw specifieke zoekvraag, als relevant heeft beoordeeld. Dit corpus vormt de basis voor de verdere respons van AI Mode.
Zodra het specifieke ‘corpus’ van relevante documenten is samengesteld, schakelt AI Mode verschillende gespecialiseerde Large Language Models (LLM’s) in. Elk van deze modellen heeft een unieke functie, afhankelijk van het type zoekvraag en de vermoedelijke behoefte van de gebruiker. Zo kunnen sommige modellen bijvoorbeeld:
Het patent beschrijft expliciet hoe de respons wordt bepaald op basis van het begrip van de informatiebehoefte van de gebruiker. Hierbij worden afwegingen gemaakt zoals of de gebruiker:
Volgens de patentbeschrijving sluiten deze afwegingen aan bij LLM’s. Het is echter geen klassiek Mixture of Experts (MoE) model met een gedeelde routeringslaag. In plaats daarvan is het een selectieve orkestratie waarbij specifieke LLM’s worden geactiveerd op basis van context en intentie. Dit lijkt meer op een intelligente middleware-stack dan op één enkel, allesomvattend model.
Hoewel er gesproken wordt over het genereren van hypothetische antwoorden ter vergelijking met tekstgedeelten, creëert het systeem geen antwoorden uit het niets. Zoals bij alle RAG (Retrieval-Augmented Generation) pijplijnen, worden relevante stukken informatie uit documenten gehaald, daarvan gestructureerde representaties gemaakt, en vervolgens wordt hieruit een coherent antwoord samengesteld. Sommige van deze stukken worden als bron vermeld; veel andere niet. De patentaanvraag “Query response using a custom corpus” beschrijft hoe de selectie van citaties onafhankelijk van de documentrangschikking plaatsvindt, maar gebaseerd is op de mate waarin een passage het gegenereerde antwoord direct ondersteunt.
Het is nogmaals belangrijk om te benadrukken dat de hele AI Mode-pijplijn draait op ‘dense retrieval’. Elke zoekopdracht, subvraag, document en passage wordt omgezet in een vector embedding. Google berekent de gelijkenis tussen deze vectoren om te bepalen wat er wordt geselecteerd voor de synthese van antwoorden. Wat nu telt, is niet langer alleen “ranken voor de zoekopdracht”, maar hoe goed je document, of zelfs een individuele passage daarbinnen, semantisch overeenkomt met de verborgen reeks van zoekvragen. Dit houdt in dat content moet worden geoptimaliseerd voor betekenis en context, en niet alleen voor specifieke woorden.
Bovendien werkt Google’s ophaalmechanisme niet meer uitsluitend met statische scoringsfuncties zoals TF-IDF of BM25. Dit zijn traditionele methodes die de relevantie van documenten bepalen door vooral te kijken naar hoe vaak trefwoorden voorkomen in een tekst (Term Frequency – TF) en hoe uniek die trefwoorden zijn binnen een hele collectie documenten (Inverse Document Frequency – IDF).
Hoewel een hybride aanpak nog steeds de initiële selectie van potentiële documenten of tekstgedeelten kan ondersteunen, hangt de uiteindelijke rangschikking en opname van content in generatieve antwoorden steeds meer af van de redenering van het taalmodel.
Volgens de patentaanvraag Method for Text Ranking with Pairwise Ranking Prompting heeft Google een nieuw systeem ontwikkeld. Hierin wordt een LLM (Large Language Model) gevraagd om twee passages te vergelijken en te bepalen welke het meest relevant is voor de vraag van een gebruiker. Dit proces wordt herhaald voor vele passageparen, en de resultaten worden samengevoegd tot een gerangschikte lijst.
In plaats van vaste gelijkenisscores toe te kennen, vraagt het systeem: “Gegeven deze zoekopdracht, welke van deze twee passages is beter?” en laat het model zelf redeneren. Dit vertegenwoordigt een verschuiving van absolute, bepalende relevantie naar relatieve, door het model bemiddelde, probabilistische relevantie. Dit sluit aan bij het verwachte gedrag van AI Mode, waarbij:
Dit heeft meerdere strategische gevolgen:
De implicatie is duidelijk: het is niet langer voldoende om ergens te ranken voor een onderwerp. Je moet passages ontwikkelen die de concurrerende content direct overtreffen in LLM-evaluaties, en niet alleen op basis van semantische gelijkenis.
“Stateful chat” houdt in dat Google, net zoals James Cadwallader beschreef voor OpenAI, constant een omgevingsgeheugen (ambient memory) van je opbouwt. Dit betekent dat het systeem na verloop van tijd informatie over je verzamelt.
Volgens het patent Search with Stateful Chat bestaan deze ‘herinneringen’ waarschijnlijk uit geaggregeerde embeddings (samengevoegde numerieke representaties van betekenis), die je eerdere gesprekken, interessegebieden en zoekgedrag representeren. De interface zelf past zich ook aan, voortbouwend op wat vorig jaar werd getoond in de Bespoke UI demo.
De AI Mode bepaalt op dynamische wijze welke elementen (zoals tekst, lijsten, carrousels of grafieken) worden weergegeven, gebaseerd op de specifieke informatiebehoefte en de structuur van de content. Deze bovenstaande video werd vorig jaar tijdens een conferentie al uitgelicht als een voorbode van de toekomst van zoekinterfaces. Destijds was al duidelijk dat er een grote verandering aankwam. Nu weten we dat deze functionaliteit wordt aangedreven door een van de Large Language Models (LLM’s) die deel uitmaken van de AI Mode-garde.
Een baanbrekende innovatie die de contextuele intelligentie van AI Mode mogelijk maakt, is het gebruik van ‘gebruikers-embedding’ modellen. Dit concept is uitgebreid beschreven in de patentaanvraag User Embedding Models for Personalization of Sequence Processing Models.
Dit personalisatiemechanisme stelt Google in staat om de output van AI Mode af te stemmen op de individuele gebruiker, zonder dat het onderliggende grote taalmodel (LLM) opnieuw getraind hoeft te worden. In plaats daarvan wordt een permanente, dichte vectorrepresentatie van de gebruiker (de ‘gebruikers-embedding’) ingevoegd in de inferentie-pijplijn van de LLM. Dit beïnvloedt de manier waarop het model elke zoekopdracht interpreteert en beantwoordt.
Deze zogenaamde gebruikers-embedding wordt gegenereerd op basis van langetermijn gedragssignalen van een gebruiker: eerdere zoekopdrachten, klikpatronen, interessegebieden, interacties met apparaten en andere gebruikssignalen binnen het Google-ecosysteem. Eenmaal berekend, fungeert de gebruikers-embedding als een vorm van latente identiteit. Dit verwijst naar een verborgen, digitale representatie van wie de gebruiker is en wat zijn of haar voorkeuren zijn. Deze beïnvloedt subtiel elke fase van het redeneerproces van AI Mode.
In de praktijk wordt deze embedding ingezet tijdens:
Belangrijk is dat dit systeem modulaire personalisatie mogelijk maakt: hetzelfde basismodel (bijvoorbeeld Gemini) kan miljarden gebruikers bedienen en toch in realtime geïndividualiseerde resultaten produceren. Het introduceert ook consistentie over verschillende platforms heen. Dezelfde gebruikers-embedding kan personalisatie informeren binnen Zoeken, Gemini, YouTube, Shopping, of aanbevelingen gebaseerd op Gmail.
De implicatie is zonder te overdrijven diepgaand te noemen. AI Mode is niet langer alleen gericht op de intentie van de zoekopdracht; het is geheugenbewust. Twee gebruikers die dezelfde vraag stellen, kunnen verschillende bronvermeldingen of antwoorden krijgen, niet vanwege dubbelzinnigheid in de vraag, maar vanwege wie zij als individu zijn. Dit maakt inclusie een functie van zowel semantische relevantie als profielafstemming. Dit betekent dat rangvolggegevens van uitgelogde zoekopdrachten (rank tracking: het monitoren van de positie van je website in de zoekresultaten voor specifieke trefwoorden) zinloos zijn voor AI Mode, omdat de antwoorden 1-op-1 gepersonaliseerd kunnen zijn.
Kortom, AI Mode verandert de spelregels volledig. Je optimaliseert niet langer voor één specifiek zoekwoord of zelfs één enkele pagina. De focus verschuift naar het optimaliseren van je content, zodat deze semantisch relevant (de betekenis en context van je content sluiten naadloos aan bij wat de gebruiker écht zoekt) is voor talloze verborgen zoekopdrachten en concurrerend is binnen een op maat gemaakt corpus (een specifieke verzameling van documenten of passages die de AI als relevant heeft geïdentificeerd voor een bepaalde zoekopdracht) van tekstfragmenten.
Je positie in de zoekresultaten is nu als waarschijnlijk in plaats van vaststaand, en je aanwezigheid hangt net zozeer af van de afstemming van embeddings (hoe goed de numerieke representatie van jouw content overeenkomt met die van de zoekopdracht en gebruikersprofielen) als van autoriteit of de breedte van je onderwerp.
Om mee te kunnen blijven doen, is het noodzakelijk om:
Hier houdt traditionele SEO houdt. Dit is Relevance Engineering (r17g). Zichtbaarheid is een vector (een soort digitale vingerafdruk), en content wordt niet alleen beoordeeld op de letterlijke inhoud, maar ook op hoe diep het aansluit bij wat Google denkt dat de gebruiker bedoelde.
Google’s slimme techniek genaamd Query Fan-Out is superbelangrijk voor hoe AI Mode content vindt en kiest. Stel je voor: in plaats van één keer te zoeken, bedenkt Google vanuit jouw vraag in één keer heel veel andere, slimme zoekvragen.
Sommige van die nieuwe vragen komen direct van jouw vraag, andere worden bedacht door te kijken naar wat jij eerder zocht en wat je misschien bedoelt. Al deze extra vragen worden gebruikt om geschikte documenten uit de enorme database van Google te vissen. Zo snapt Google vrijwel precies wat je eigenlijk wilt weten, zelfs als je dat zelf niet precies hebt gezegd.
Google praat er graag over in de grote lijnen, maar er is een speciale aanvraag voor een patent genaamd Systems and methods for prompt-based query generation for diverse retrieval die precies uitlegt hoe dit “uitwaaieren” werkt.
Het begint allemaal met een soort ‘vraag-vermenigvuldiger’. Hierbij gebruikt een slim computermodel (een LLM) jouw oorspronkelijke vraag om allerlei andere vragen te maken. Het model verzint deze vragen niet zomaar. Het krijgt hele duidelijke instructies mee om te zorgen voor:
Oké, Google is dus de super-slimme detective die jouw vraag krijgt. Om het beste antwoord voor je te vinden, bedenkt een goeie detective meestal heel veel andere vragen die passen bij wat jij precies wilt weten. Die extra vragen noemen we Query Fan-Out.
Als jij vraagt: “Wat is de beste elektrische SUV?”, dan doet Google dit:
Al deze slimme vragen gaan dan door Google’s systeem dat de betekenis van teksten begrijpt om de juiste stukjes informatie te vinden. Het allerbelangrijkste hier is: jouw website die hoog scoorde op de gewone zoekresultaten geeft niet langer automatisch de garantie dat je gevonden wordt. AI Mode kiest content nu op basis van hoe goed die past bij één of meer van die verborgen, uitgewaaierde zoekvragen (fan-out queries). Dat maakt het vinden in AI Mode een complex en veelzijdig proces.
De patentaanvraag Systems and methods for prompt-based query generation for diverse retrieval beschrijft verder een slim filtersysteem. Dit systeem zorgt ervoor dat de bedachte zoekvragen:
Dit helpt Google om een completer en informatiever antwoord te creëren. Het haalt content niet alleen uit het best scorende document, maar uit een speciaal samengestelde verzameling die rijk is aan verschillende contexten. Met andere woorden, het is niet genoeg om alleen te herhalen wat de concurrentie zegt.
Om de kwaliteit en relevantie te verbeteren, kan het bedenken van die slimme zoekvragen ook gebruikmaken van chain-of-thought prompting. Hierbij volgt het slimme computermodel (LLM) denkstappen, zoals:
Het LLM geeft dus niet zomaar andere zoekvragen. Het legt uit waarom elke vraag is bedacht, vaak met specifieke redeneringen of duidelijke intenties (bijvoorbeeld: “Help de gebruiker merken te vergelijken,” “Vind alternatieven,” “Ontdek risico’s en voordelen”).
Nu er meer bekend is over de werking van query fan-out lijkt duidelijk te worden dat dit een cruciaal, maar voorheen onopgemerkt aspect van AI Overviews was. Eerdere berichten dat AI Overviews content diep uit de zoekresultaten haalden, werden waarschijnlijk verkeerd begrepen. Het is waarschijnlijk niet zo dat Google’s AI ver naar beneden scrolde voor één zoekwoord. Het zocht juist dwars door de ranglijsten heen voor een compleet andere set van achtergrondvragen.
Dus, terwijl SEO-specialisten de positie voor “[beste autoverzekering]” bijhouden, selecteert Google mogelijk een tekstgedeelte op basis van hoe goed het scoort voor “[GEICO vs. Progressive vergelijkingstabel voor jonge ouders], want de AI probeert te anticiperen op de volgende logische vraag van de gebruiker. AI Mode kijkt dus verder dan jouw simpele zoekopdracht en begint zelf complexere, vergelijkende vragen te bedenken om de diepere intentie van de gebruiker te achterhalen, zoals het direct vergelijken van specifieke verzekeraars voor een bepaalde doelgroep.
Sterker nog, volgens de meest recente gegevens van ZipTie, geeft een nummer 1-positie voor de kernzoekopdracht je slechts 25% kans om in een AI Overview (AIO) te verschijnen.
Om daarom zichtbaar te zijn (en blijven) in de AI Mode, moet je ervoor zorgen dat:
Een van de meest kenmerkende eigenschappen? Het vermogrn van Google’s AI Mode om te redeneren over een hele reeks documenten om zo veelzijdige antwoorden te genereren. Het patent Instruction Fine-Tuning Machine-Learned Models Using Intermediate Reasoning Steps beschrijft een systeem voor het opbouwen en gebruiken van ‘redeneerketens’.
Dit zijn eigenlijk logische stappenplannen die de vraag van een gebruiker verbinden met het uiteindelijke antwoord. Hoewel dit misschien niet exact het patent is voor de huidige AI Mode, geeft het wel een goed beeld van de soorten redeneringen die de basis vormen voor Google’s AI-modellen.
In plaats van zomaar een antwoord te genereren of bestaande antwoorden te kiezen, stelt dit systeem Google in staat om:
Deze redeneerketens kunnen in verschillende groepen worden verdeeld:
Dit is een drastisch andere manier van werken dan we historisch gewend zijn binnen SEO. De taak om relevant te blijven, moet nu tactieken omvatten die ervoor zorgen dat je content relevant blijft gedurende al deze redeneerstappen.
Om alles wat we hebben geleerd goed te begrijpen, kijken we naar de stappen in het patent “Search with Stateful Chat”. Zo snappen we precies hoe en waar Google’s AI ‘nadenkt’.
Hier zie je per stap wat het slimme computerbrein doet:
Kortom, het ‘nadenken’ van de AI raakt bijna elke stap in het proces. En dat proces is ingewikkelder en minder doorzichtig dan alles waar we ooit mee te maken hebben gehad.
Als je wilt dat jouw tekst verschijnt in Google’s AI Mode, dan is het niet genoeg dat het gewoon gevonden kan worden of informatief is. Het is niet meer genoeg om “ongeveer relevant” te zijn.
Jouw tekst moet heel precies handig zijn, makkelijk per stukje op te vragen en precies passen bij elke slimme denkstap die de AI maakt. Je moet je tekst zo maken dat die wint bij de verschillende “denk-controles”. Denk aan hoe goed kleine stukjes tekst bij elkaar passen, hoe ze vergeleken worden, en hoe goed ze passen bij wat het computerprogramma (LLM) wil maken.
Er zijn vier belangrijke dingen waar je op moet letten om jouw content succesvol te maken in AI Mode. Elk punt past bij hoe jouw tekst eruit moet zien:
Gebruik de volgende tabel als gids om deze kenmerken in jouw content te verwerken:
De manier waarop deze systemen werken, laat zien dat dit allemaal nodig is om in aanmerking te komen voor Google’s antwoorden. Maar zelfs dan is er geen garantie dat je zichtbaar wordt, als jouw content niet goed past bij wat de AI van een specifieke gebruiker ‘denkt te weten’ (de ‘user embeddings’, de digitale ‘vingerafdrukken’ van een gebruiker, die Google’s AI helpt om content persoonlijk af te stemmen).
Dit betekent dat een groot deel van het werk nu is om ‘user embeddings’ te bouwen die laten zien wat jouw doelgroep doet, en te testen hoe jouw content dan verschijnt. We moeten ook weten waar we staan in al die duizenden vragen die Google in gedachten neemt.
Als ik kijk naar hoe Google’s AI-technologie werkt, dan moet je je aanpak om hoog te scoren in AI Mode dus heel gelaagd en veelzijdig maken. Het doel is dat Gemini (Google’s slimme AI) jou tegenkomt bij zoveel mogelijk van de extra vragen die het zelf bedenkt. En dat jouw boodschap dan steeds het meest nuttig is bij elke ‘redenering’-stap die de AI zet.
Denk even terug aan hoe Google teksten in kleine stukjes snijdt, genaamd passage indexing. Google snapt jouw webpagina’s heel precies. Dus, het liefst heb je één hele sterke pagina die alles uitlegt over al die extra vragen. Dan hoef je je maar op die ene pagina te richten. Maar soms heb je toch meerdere pagina’s nodig; dat zie je vanzelf als je kijkt naar de gegevens van die slimme, bedachte zoekvragen.
Je zou kunnen zeggen dat als je al werkt met “onderwerpclusters” (groepjes pagina’s over eenzelfde thema), je dit al doet. Maar in de praktijk zijn die huidige clusters, zoals we ze nu kennen, vaak gebaseerd op wat je zelf denkt dat bij elkaar hoort, net zoals ons ouderwetse idee van ‘relevantie’. In plaats daarvan moeten deze clusters nu gebaseerd zijn op echte gegevens van hoe mensen zoeken en wat Gemini precies bedenkt als het vragen ‘uitwaaiert’.
Nu we een idee hebben van de mogelijke verborgen vragen, moeten we een soort overzicht (matrix) maken van zoekwoorden en kijken hoe goed we scoren voor al die extra vragen. Zo doe je dat:
Dit hele proces is meer dan alleen SEO, want er is geen enkele SEO-software die je helpt met digitale vingerafdrukken op stukjes tekst-niveau. Geen enkele SEO-software berekent de relevantie per tekstblok. Geen enkele SEO-software helpt je om slimme (synthetische) vragen te vinden. Geen enkele SEO-software helpt je om meerdere pagina’s tegelijk te optimaliseren om je zichtbaarheid te verbeteren. Er bestaat op dit moment geen SEO-software die je helpt te optimaliseren voor AI Mode. Op het moment van schrijven zou je dus je eigen code moeten schrijven om te doen wat we zojuist hebben uitgelegd.
Met andere woorden: je moet je relevantie zélf slim ‘engineeren’.
‘Rank tracking’ (het bijhouden van je positie in de zoekresultaten) staat al een tijdje op losse schroeven. Kort samengevat: ondanks alle personalisatie probeert rank tracking een gebruiker na te bootsen die niet bestaat, alleen maar om zichtbaarheid te meten. Door de constante veranderingen heeft het geen plaats meer in AI Mode. Omdat personalisatie zo diep in de gebruikerservaring zit, kloppen gegevens van uitgelogde zoekopdrachten vrijwel niet meer. Sterker nog, veel van de gegevens waarop we binnen SEO beslissingen baseren, zijn onnauwkeurig, ook al lijken ze heel precies. Dat was misschien genoeg in een tijd dat alles vaststond, maar werkt niet meer in een wereld waar alles waarschijnlijk is.
Het team van Profound heeft nagedacht over hoe je analyses doet voor gespreksgerichte zoekfuncties zoals AIO’s, ChatGPT, Perplexity en CoPilot. Josh Blyskal, AI Strateeg bij Profound, zei het volgende:
“We zijn erg positief over AI Mode. Het is nu al de meest gebruikte ‘antwoordmachine’ ter wereld, en we zien dat niet snel veranderen. Generatieve antwoorden in een gespreksinterface zijn een fundamenteel betere manier om informatie te vinden.
We verwachten dat het bijhouden van AI Mode steeds meer zal lijken op wat we zien bij ChatGPT en Perplexity. Merken zullen zich richten op zichtbaarheid, sentiment en bronvermeldingen binnen AI Mode-antwoorden.
AI Mode zal zeer waarschijnlijk veel gebruikmaken van Google’s Knowledge Graph en Shopping Graph. Dus voor simpele zoekopdrachten zoals ‘wat is de beste zakelijke creditcard’, kunnen de antwoorden meer overeenkomen met de gewone Google-resultaten.
Profound werkt al aan technologie om merken te helpen vaker te verschijnen in AI Mode.” ~ Josh Blyskal
Dit sluit aan bij een vraag die ik eerder stelde over hoe analyses eruitzien in een sterk gepersonaliseerde omgeving. We waren het erover eens dat er behoefte is aan het volgen van resultaten op basis van gebruikersprofielen (persona’s). Dit betekent dat de ‘ranking’ voor AI Mode moet worden bijgehouden door in te loggen met een Google-account waarvan de context overeenkomt met je doelgroep.
Uit gelekte documenten van vorig jaar bleek al dat Google rekening houdt met het formaat van de content bij het kiezen wat er scoort. Dit betekent dat er een beperkt aantal plaatsen is voor een bepaald type content op bepaalde zoekresultatenpagina’s. AI Mode verandert de balans en wat geldt als ‘content’. Dit systeem maakt antwoorden door informatie te combineren uit allerlei formaten, zoals tekst, geluid, video, afbeeldingen en bewegende beelden. Als je in deze nieuwe wereld alleen vertrouwt op tekst, beperk je jezelf niet alleen, je loopt ook het risico om helemaal buiten de boot te vallen.
Google’s AI-systeem kan video’s omzetten naar tekst, feiten uit podcasts halen, diagrammen begrijpen en dit alles mixen tot nieuwe antwoorden, zoals lijsten, samenvattingen of visuele presentaties. Een productvideo kan een quote leveren. Een podcast kan een stukje data geven. Een infographic kan een gegenereerd antwoord in tekst worden. Het formaat is dus net zo belangrijk als de content zelf.
Al vroeg in het AI Mode-proces bepaalt Google’s systeem niet alleen het type vraag, maar ook de ideale manier om het antwoord te geven (bijvoorbeeld visueel of gesproken). Als een visuele of gesproken uitleg nuttiger wordt geacht dan een geschreven uitleg, kan AI Mode die formaten voorrang geven boven traditionele webpagina’s. Dat betekent dat een accurater artikel genegeerd kan worden ten gunste van een relevant filmpje of een visuele uitleg.
Bedrijven moeten gaan nadenken over content in termen van beschikbaarheid in verschillende formaten. Net zoals we nu plannen maken voor groepjes gerelateerde vragen en gebruikersintenties, moeten we ook plannen maken voor groepjes gerelateerde formaten. Jouw doel is niet alleen het meest relevante artikel zijn. Het is om de meest relevante video, de meest relevante grafiek, het meest relevante geluidsfragment te zijn.
Als je die formaten niet produceert, kan Google ze misschien nog steeds uit jouw content halen. Maar dan kan het zijn dat Google je niet als bron vermeldt. Het maken van content in meerdere formaten is niet langer alleen een voordeel voor zichtbaarheid. Het is een strategie om te bepalen hoe jouw merk wordt vertegenwoordigd.
In AI Mode winnen degenen die complete content-ecosystemen bouwen, niet alleen losse contentpagina’s. Zichtbaarheid hangt nu af van aanwezigheid op alle plekken waar het systeem kan kijken, en in elk formaat dat het kan verwerken.
Het wordt steeds duidelijker dat de meeste populaire SEO-software niet genoeg doet om moderne SEO te ondersteunen. De reden waarom “Python SEO” zo populair is, komt doordat de huidige soorten SEO-software gewoonweg niet modern genoeg is.
Ons collectieve gebrek aan technische standaarden is de reden waarom het zo achterloopt. Hier zijn echter enkele belangrijke functies en mogelijkheden die je als gebruiker moet eisen van je softwareleveranciers om je te helpen bij het ‘engineeren’ van zichtbaarheid in de toekomst. Voor de ‘Relevantie-engineers’ is dit wat er nodig is om de persoonlijke gereedschapskist compleet te maken voor AI Overviews en AI Mode.
Laten we beginnen bij de hoofddader: Google zelf. Google Search Console is zo’n vreemd en beperkt product. Wat is het nut bijvoorbeeld van het Links Report? Waarvoor gebruikt iemand dat?
Dit is wat we specifiek nodig hebben om Google’s AI Zoekfuncties meetbaar te maken:
Rank tracking is nog steeds voornamelijk gebaseerd op een vast idee van algemene rangschikkingen. Maar in AI Mode zijn rangschikkingen dynamisch, samengesteld en specifiek voor de gebruiker.
Vector Embeddings (digitale vingerafdrukken) liggen aan de basis van alles in het moderne Google. De afgelopen jaren hebben we ontdekt dat het systeem digitale representaties maakt van zoekvragen, pagina’s, passages, auteurs, entiteiten, websites en nu ook gebruikers zelf.
Desondanks is de SEO-industrie nog steeds verankerd in trefwoordscores en trefwoorddichtheid, en heeft het geen toegang tot het semantische landschap dat de opname in AI Overviews en AI Mode daadwerkelijk bepaalt. Als we relevant willen blijven, moeten vector embeddings een fundamentele vaardigheid worden.
Recent is er nog een onderzoekspaper uitgekomen met de titel Harnessing the Universal Geometry of Embeddings, waarin staat dat alle vector embeddings uiteindelijk samenkomen in dezelfde geometrie. Dit suggereert dat we op een gegeven moment in staat zullen zijn om embeddings om te zetten, wat betekent dat we open-source embeddings kunnen genereren en omzetten naar wat Google gebruikt.
Content creatie voor AI Mode is vaak geen taak voor één pagina. Je concurreert nu over een matrix van slimme (synthetische) zoekvragen, redeneerstappen en vergelijkingen op passage-niveau. Dat betekent dat content moet worden ‘ontworpen’ over clusters heen, niet alleen geoptimaliseerd op zichzelf. Toch laten SEO-contenteditors alleen toe om content te bewerken voor een enkel zoekwoord, gebaseerd op het tekstmodel. De toekomst vereist een interface waarin contentoptimalisatie tegelijkertijd plaatsvindt over meerdere lagen en subvragen, met ‘dense retrieval’ in gedachten.
Zoeken is niet langer een eenmalige beslissing. Het is een reeks gerelateerde vragen binnen één sessie, waarvan vele door het systeem zelf worden gegenereerd. ‘Query fan-out’, ‘DeepSearch’ en redeneerketens weerspiegelen allemaal deze ontwikkeling. Maar veel zoekwoordonderzoekstools gaan nog steeds uit van losstaande zoekvragen, en negeren de volgorde waarin gebruikers omgaan met onderwerpen. Begrijpen hoe zoekvragen in de loop van de tijd evolueren, is essentieel om invloed te ‘engineeren’ over het besluitvormingstraject van een gebruiker.
Nu ‘user embeddings’ centraal staan in hoe Google resultaten personaliseert, is relevantie niet langer universeel. Twee mensen die dezelfde vraag stellen, kunnen totaal verschillende antwoorden zien. Het huidige model van rank tracking gaat uit van een statisch gebruikersprofiel, wat in deze context faalt.
Wat we in plaats daarvan nodig hebben, zijn tools die simuleren hoe onze content presteert ten opzichte van verschillende gedrags-persona’s, zodat we kunnen ‘engineeren’ voor zichtbaarheid in verschillende gebruikerscontexten, en niet alleen voor een hypothetische ‘gemiddelde’ gebruiker.
Zoekvraagclassificatie in de meeste SEO-tools is vrij basis.
‘Query fan-out’ (het uitwaaieren van de zoekvragen) herschrijft de aard van zichtbaarheid. Elke moderne SEO-workflow moet het simuleren van zoekvraaguitbreiding opnemen als een basisinput voor contentplanning en prestatiemodellering.
Gegevens van AI Overviews en AI Mode zijn niet direct zichtbaar in Google Search Console, en veel generatieve resultaten leiden helemaal niet tot klikken. Dit verbreekt ons vermogen om prestaties te begrijpen via traditionele webanalyse.
Clickstream-gegevens worden essentieel als een indirecte meting voor gebruikersgedrag. Het biedt inzicht in wat gebruikers zien, wat ze kiezen en wat ze overslaan, zelfs in situaties zonder klikken. SEO-tools moeten dit externe signaal integreren om de mogelijkheid tot observatie te herstellen in een ruimte waar directe toeschrijving verdwijnt. Herschikking wordt ook geactiveerd door klikgedrag; SEO-software zou een idee moeten geven van de klikmodellen op basis van deze gegevens.
De logica van AI Mode is niet lineair; het wordt afgeleid. Antwoorden worden opgebouwd via ketens van redeneerstappen die meerdere passages en contenttypen omvatten. Succes betekent dat jouw content wordt geselecteerd om een van die stappen te ondersteunen. Maar tenzij je de redeneerketen simuleert, weet je niet of je content nuttig is voor het denkproces van de machine. Tools moeten ons in staat stellen dit proces na te bootsen, zodat we niet alleen kunnen testen “scoort mijn content?”, maar ook “helpt mijn content het model te denken?” en “waar valt mijn content uit de redeneerketen?”.
Ondanks duidelijke veranderingen in hoe Google de ‘link graph’ ziet, is er al heel lang geen significante beweging meer geweest van linkdata-providers. Ze zouden op zijn minst relevantiescores moeten geven tussen bron- en doeldocumenten. Ze zouden ook ‘clickstream’-gegevens en rangschikkingen moeten gebruiken om een idee te krijgen van waar content zich in de index bevindt, aangezien we nu weten dat dit de waarde beïnvloedt die een link doorgeeft.
Ik durf te stellen dat de ‘link graph’, zoals we die nu hebben, … niet zo interessant meer is geworden door de gaten in de gegevens. De link-indexen kunnen volledig worden nieuw leven ingeblazen en aanzienlijk waardevoller worden door de leveranciers van de embeddings-gegevens te worden.
Naast wat we van Google nodig hebben, zijn dit tien dingen die de software-industrie voor SEO zou moeten omarmen in hun oplossingen. Deze aspecten zijn niet alleen relevant voor de onvermijdelijke toekomst waarin AI Mode de standaard wordt, maar zijn ook nu al relevant voor AI Overviews.
AI Mode staat voor een structurele transformatie in het zoeklandschap. Wat begon als verbeteringen aan de zoekresultatenpagina (SERP), is nu uitgegroeid tot een op zichzelf staand ecosysteem van conversationele, multimodale en door geheugen beïnvloede zoekresultaten. De traditionele SEO-aanpak, die gebaseerd is op exacte zoekopdrachten, voorspelbare rankings en prestaties gemeten via klikken, schiet hier tekort.
Net zoals AI Mode een uitbreiding is van AI Overviews, kunnen we verwachten dat het gebruikersgedrag soortgelijke, maar nog meer gecomprimeerde patronen zal vertonen. De beste vergelijking is waarschijnlijk met omgevingen als ChatGPT of Perplexity: plaatsen waar gebruikers moeiteloos en met veel vertrouwen communiceren, en volledig samengevatte antwoorden krijgen met weinig tot geen klikken. Dit betekent dat organisch zoeken in AI Mode zich meer gedraagt als een zero-click brandingkanaal dan als een traditioneel prestatiekanaal.
Maar in tegenstelling tot AI Overviews, introduceert AI Mode meerdere dimensies die de betekenis van ‘zichtbaar zijn’ fundamenteel veranderen. De strategie moet daarom verschuiven. Het is niet langer alleen de ranking die belangrijk is; het draait om het verdienen van een plek in de dataset van kandidaten en het winnen van passageselectie.
De eerste beslissing is eenvoudig: wil je er wel zijn?
Het klinkt misschien gek, maar dit kan het moment zijn dat je organisatie of klant dit kanaal loslaat als iets wat ze proactief willen manipuleren. Een deel van de gebruikers zal namelijk terugvallen op klassiek zoeken. Als je daar goed presteert, hecht je misschien minder waarde aan AI Mode. Wellicht is je totale kanaalmix al toereikend, en/of vind je elders betere incrementele groei.
Vanuit een strategisch oogpunt vraagt deze verschuiving om een fundamentele herijking. Organisaties moeten stoppen met enkel optimaliseren voor verkeer en beginnen met concurreren om machine-gemedieerde relevantie. Succes in AI Mode is geen kwestie van oppervlakkige rankings, maar van embedding-afstemming, informatieve bruikbaarheid en latente inclusie in redeneersystemen.
De strategische implicaties zijn te verdelen over drie gebieden: herclassificatie van kanalen, transformatie van capaciteiten en modernisering van de datainfrastructuur.
Historisch gezien functioneerde organisch zoeken als een hybride prestatie- en merkkanaal. Ongeveer 70% was toe te schrijven aan prestatiegerichte gebruikersacties en 30% aan merkversterking. In het AI Mode-paradigma zal die balans waarschijnlijk omkeren.
Zoeken moet nu opnieuw worden gedefinieerd als een zichtbaarheids- en vertrouwenskanaal, gemedieerd via grote taalmodellen. Het doel van de organisatie verschuift van het genereren van verkeer naar het worden gekozen als bron. Dit vraagt om een nieuwe KPI-structuur:
Leiders moeten budgettoewijzingen, verwachtingen van stakeholders en meetkaders hierop aanpassen. Het gaat niet langer om verschijnen voor een zoekwoord; het gaat om gecodeerd zijn in het begrip van het informatiemodel, wat inhoudt dat je content zo diepgaand is verwerkt en geïntegreerd door de AI, dat het een integraal onderdeel wordt van de kennis die de AI gebruikt om antwoorden te formuleren, en niet slechts een oppervlakkige trefwoordmatch).
In een generatief retrieval-ecosysteem is de bron van concurrentievoordeel niet de hoeveelheid content of de snelheid van linkbuilding; het is de systematische engineering van relevantie over vectorruimtes.
Dit vereist nieuwe capaciteiten:
Vooruitstrevende organisaties zullen investeren in teams die SEO, NLP, data science, UX, digitale PR en contentstrategie combineren tot een geïntegreerde functie voor Relevance Engineering. Deze unit wordt de verbindende factor tussen merk, product en AI-zichtbaarheid.
Het verdwijnen van de klik als primair prestatiesignaal zorgt ervoor dat organisaties blind vliegen, tenzij ze hun datastrategie moderniseren. Dit omvat machineleesbare relevantiemetrieken en analyses van generatieve oppervlakken.
Strategische noodzaken hierbij zijn:
Leidinggevenden moeten de blik verruimen. Ze moeten verder kijken dan dashboards die enkel historisch gebruikersgedrag tonen. Ze moeten systemen omarmen die inzicht geven in hoe de organisatie digitaal wordt ‘begrepen’ en vertrouwd door AI-systemen, en hoe die AI-systemen content hergebruiken namens gebruikers. Dit betekent dat branding nu even belangrijk wordt als directe prestaties.
Uiteindelijk vereist de AI Mode-omgeving een verschuiving van zoeken als transactie naar zoeken als participatie. De vraag is niet langer “hoe ranken we?”, maar “hoe worden we gerepresenteerd in de AI-cognitie?”
Dit markeert de opkomst van een nieuwe bedrijfsfunctie: Relevantie Strategie. Dit omvat de doelbewuste, cross-functionele coördinatie van de aanwezigheid van een bedrijf in algoritmische besluitvormingssystemen, in lijn met Relevance Engineering.
Organisaties die hierin slagen, zullen zichtbaarheid niet langer als een campagne-uitkomst behandelen, maar als een strategisch middel dat moet worden ontworpen, gemeten en beheerd.
SEO in het tijdperk van AI Mode draait niet langer om het najagen van ‘blauwe links’ (de traditionele zoekresultaten die verschijnen als klikbare tekstlinks op Google’s resultatenpagina). Het gaat nu om de creatie van stevige, vindbare en herbruikbare contentstukken die dienen als invoer voor machinale synthese. Dit vraagt om een zekere mentaliteitsverandering: weg van tactische optimalisatie, en toe naar strategische orkestratie van zoekvragen, contentformaten en embeddings.
Relevance Engineers zullen deze transitie leiden. Zij zijn namelijk degenen die niet alleen de werking van de systemen begrijpen, maar ook werkstromen, trainingssets en tools ontwikkelen die merken zichtbaar houden, zelfs in een wereld zonder traditionele zoekresultatenpagina’s (SERP’s).
Of je het nu leuk vindt of niet, we zijn een nieuw zoektijdperk binnengestapt! De relatie tussen gebruiker en zoekmachine is veranderd, net zoals de band tussen zoekmachines en websites. We kunnen blijven discussiëren over wat het wel of niet is. Of we kunnen onze vaardigheden en software herdefiniëren op basis van de daadwerkelijke koers van conversationeel zoeken.
Thomas van Uunen
16 okt 2025
Cris Zwanenburg
02 sep 2025
Frank van 't Hof