Dit is de toekomst van SEO (AI-mode en GEO geïntegreerd)

Tijdens de eerste dag van Google I/O 2025 viel er een mengeling van opwinding en bezorgdheid op. Zowel onder gebruiker als ontwikkelaar heerse er enthousiasme over de nieuwe producten en functies die Google presenteerde, zoals Flow, AndroidXR en Search, die de moderne technologische wonderen van het bedrijf in volle glorie demonstreerden. Tegelijkertijd bestond er een zekere angst over de implicaties voor de SEO-gemeenschap.  

De huidige vaardigheden en technologieën die worden ingezet om zichtbaarheid te stimuleren; ze lijken onvoldoende voor de toekomstige ontwikkelingen. Bovendien draagt de aanhoudende discussie – namelijk of generatieve AI-functies van Google wel of geen significant verschil maken voor SEO – die mensen achteroverleunend maakt, bij aan een gevaarlijke stilstand in de vooruitgang van het vakgebied. 

Binnen de SEO-community is er de laatste tijd veel discussie geweest over het idee dat de generatieve AI-gedreven functies van Google geen verschil maken; “het is gewoon SEO.” Sterker nog, de meest recente richtlijnen van Google weerspiegelen dit standpunt. Een groot deel van dit argument ligt in de overlappende mechanismen tussen generatieve informatie-opvraging en klassieke informatie-opvraging voor het web. 

Jazeker, het blijft belangrijk om content toegankelijk, indexeerbaar en begrijpelijk te maken. Het grote verschil ligt echter in het feit dat bij klassieke informatie-opvraging (IR) content op dezelfde manier verschijnt als het wordt ingevoerd. Bij generatieve IR daarentegen wordt content gemanipuleerd. Het is onzeker hoe of zelfs of het aan de andere kant zal verschijnen, zelfs als alle SEO-best practices correct zijn toegepast en de respons is geïnformeerd. Hierin schuilt de kloof en de laag waarin SEO, zoals het momenteel bestaat, tekortschiet. 

De overlap met klassieke organische zoekresultaten zal van korte duur zijn 

Vorige maand, tijdens SEO Week, benadrukte de spreker in de presentatie ‘Brave New World of SEO’ een belangrijk punt. Hoewel er momenteel nog veel overlap is tussen de organische zoekresultaten (SERP’s) en AI Overviews, zijn we absoluut niet voorbereid op de toekomst. Wat gebeurt er als elementen zoals geheugen, personalisatie, MCP (Multi-Context Personalization) en de benodigde agent-achtige functionaliteiten erbij komen? En wat als Google data uit elke applicatie op het web begint te halen? 

Met de recente aankondiging van verbeteringen aan AI Mode is vrijwel alles wat toen werd voorspeld nu al live in de Google Zoekervaring, of het staat op het punt dit jaar uit te rollen. Google heeft bovendien al gewaarschuwd sinds de lancering van hun uitlegdocument over AIO en AI Mode: het beste van AI Mode zal uiteindelijk geïntegreerd worden in de kernzoekervaring. Hoe meer er is onderzocht hoe deze functies werken, hoe duidelijker het is geworden dat de SEO-wereld veel groter moet denken. 

Laten we daarom bespreken waarom we nog niet klaar zijn en wat we moeten doen om ons voor te bereiden. 

GEO is echt iets anders dan SEO

pexels cottonbro 7350906

De bewering dat AI Mode en AI Overviews (GEO) simpelweg “gewoon SEO” zijn, is op zijn best naïef en in het slechtste geval gewoon enorm gevaarlijk en misleidend. 

Dit standpunt schiet niet alleen tekort in technische details; het toont vooral een fundamenteel misverstand over hoe deze nieuwe generatieve zoeksystemen verschillen van de traditionele manier waarop zoekresultaten tot stand kwamen en waarop SEO historisch is gebouwd.  

Er wordt vaak gedacht dat alles wat je al doet om zichtbaar te zijn in AI Mode, volledig wordt afgedekt door de bestaande SEO-richtlijnen. Maar als dat echt zo was, zouden we binnen de sector al bezig zijn met het inbedden van content op passage-niveau, het uitvoeren van semantische overeenkomstberekeningen met queryvectoren, en het optimaliseren van de kans op vermeldingen in latente, synthetische zoekopdrachten. Het schokkende gebrek aan gangbare SEO-tools die al deze taken uitvoeren, is een directe afspiegeling van het feit dat het grootste deel van de SEO-wereld nog niet doet wat nodig is. In plaats daarvan doen we veelal wat we altijd al deden, en af en toe levert dat nog resultaat op. 

Lees ook ons artikel over hoe je als merk zichtbaar kan blijven met GEO in dit nieuwe AI-tijdperk.

SEO: Een vakgebied zonder vaste kaders 

Een deel van de verwarring komt voort uit het feit dat SEO geen vaste afbakening heeft. Door de jaren heen heeft het constant concepten en methoden overgenomen en aangepast uit andere disciplines, zoals performance engineering, informatiearchitectuur, gebruikerservaring (UX), data-analyse en contentstrategie. Vaak gebeurde dit zelfs op expliciet verzoek van Google. 

Neem bijvoorbeeld gestructureerde data: dat valt nu onder SEO. Sitesnelheid? Ook SEO. Entiteitsmodellering? Jazeker, SEO. De lijst is eindeloos van dit soort taken die geleidelijk aan tot het domein van SEO zijn gaan behoren. 

Sterker nog, als elk team binnen een organisatie de eisen van Google zou meenemen in hun eigen vakgebied, dan zou SEO als aparte discipline eigenlijk niet eens bestaan. 

Wat we vandaag de dag SEO noemen, functioneert daarom eerder als een tijdelijke ondersteunende constructie. Het is een organisatorische reactie op de manier waarop Google de structuur van het web vormgeeft. En die constructie staat nu onder zware druk, want er is een fundamenteel nieuw paradigma opgedoken: generatieve, redeneer-gestuurde zoekresultaten en de hevige concurrentie die daaruit voortvloeit. 

De huidige SEO mist de aansluiting met AI Mode 

Er gaapt een diepe kloof tussen wat technisch nodig is om succesvol te zijn in generatieve informatie-opvraging (IR) en de huidige praktijk binnen de SEO-sector.  

De meeste SEO-software werkt nog steeds met sparse retrieval modellen (die voornamelijk kijken naar exacte trefwoordmatches), zoals TF-IDF en BM25, in plaats van de modernere dense retrieval modellen (die de diepere betekenis van tekst begrijpen via numerieke representaties genaamd vector embeddings). Wij als SEO-specialisten en marketeers, missen de tools om contentpassages te ontleden en als embeds te verwerken. Dit houdt in dat onze content minder goed wordt begrepen door de geavanceerdere AI-systemen van zoekmachines. 

Onze branche is er nog niet aan gewend om kandidaatdocumenten op grote schaal te analyseren of te groeperen in een vectorruimte. Ook meten we de relevantie van onze content niet op basis van de reeks synthetische zoekopdrachten die voor ons onzichtbaar blijven. We weten niet hoe vaak we op deze generatieve platforms worden geciteerd, hoe prominent die vermelding is, of welke intentie tot de citatie heeft geleid.  

De grote SEO-tools zijn weliswaar begonnen met het delen van rankingdata voor AI Overviews (AIO’s), maar missen het grootste deel hiervan omdat ze uitgaan van uitgelogde gebruikers. Dit betekent dat de tools de gepersonaliseerde resultaten, die veel gebruikers zien als ze zijn ingelogd, niet meenemen, waardoor het beeld van de werkelijke zichtbaarheid onvolledig is. 

De enige situatie waarin iets “gewoon SEO” is, is wanneer het verkeerd wordt uitgevoerd. 

AI Mode brengt namelijk ingrijpende veranderingen met zich mee: 

  • Redeneermodellen: Deze genereren antwoorden door informatie uit meerdere semantisch gerelateerde documenten te combineren. 
  • ‘Fan-out’ zoekopdrachten: De zoekervaring wordt herschreven als een complex proces van meerdere onderliggende, verborgen zoekvragen. 
  • Retrieval op passage-niveau: De focus verschuift van het vinden van hele pagina’s naar het vinden van specifieke, relevante tekstgedeelten (passages). 
  • Personalisatie via gebruikers-embeddings: Elke gebruiker krijgt een unieke ervaring; zelfs bij dezelfde zoekopdracht op dezelfde locatie zien verschillende gebruikers andere resultaten. 
  • Zero-click gedrag: Het is belangrijker dat je content wordt gebruikt als bron (geciteerd) dan dat er daadwerkelijk op je website wordt geklikt. 

We hebben het hier niet over de uitzonderingen. Dit zijn de kernprincipes van het nieuwe systeem. 

Dit is dus niet zomaar SEO. Dit is wat ná SEO komt. 

Zouden we blijven vasthouden aan de gedachte dat onze oude tools en denkbeelden nog volstaan, dan zullen we in AI Mode niet alleen onzichtbaar worden, maar ook vrijwel irrelevant. 

Toegegeven, SEO heeft vaak moeite om een helder onderscheid te maken tussen strategie (de langetermijnvisie en het ‘waarom’) en tactiek (de concrete acties en het ‘hoe’), omdat het vakgebied voortdurend reageert op de steeds veranderende eisen van zoekmachines, waardoor focus op korte termijn acties prevaleert.  

Het is misschien daarom dan ook niet zo raar dat veel mensen reageren alsof er eigenlijk weinig écht nieuws onder de zon is voor SEO. Het is echter een reactie die duidt op een zekere mate van cognitieve dissonantie. Als je begrijpt hoe de technologie werkt, is het moeilijk om deze houding te rijmen met de onmiskenbare realiteit dat zoekopdrachten fundamenteel zijn veranderd en veel moeilijker te manipuleren zijn dan voorheen. 

Google’s focus: Delphische kosten oplossen, niet verkeer genereren 

De doelen van SEO-professionals liggen niet langer in lijn met wat Google probeert te bereiken. Wij jagen op zichtbaarheid en verkeer, terwijl Google simpelweg de informatiebehoeften van gebruikers wil vervullen, waarbij ze verkeer (oftewel de klikken op websites die gebruikers wegleiden van Google zelf) als een “noodzakelijk kwaad” beschouwen. 

Bekijk bijvoorbeeld eens het zoekgedeelte van de Google I/O 2025 keynote, of lees Liz Reid’s blogpost hierover. Het is overduidelijk: Google wil het ‘Googlen’ voor jou doen

Tijdens een ander panel legde Liz uit hoe gebruikers voorheen, bij complexe zoekvragen, elke vraag afzonderlijk moesten stellen en de informatie zelf moesten samenvoegen. Dit sluit naadloos aan bij de ideeën van Andrei Broder in zijn Delphic Costs paper, waarin hij beschrijft hoe de cognitieve belasting van zoeken te hoog is. Nu is het echter zo dat Google resultaten van talloze zoekvragen kan combineren om vervolgens een compleet en intelligent antwoord te genereren. 

De fundamentele SEO-taken, zoals het zorgen dat je site wordt gecrawld, gerenderd, verwerkt, geïndexeerd, gerangschikt en opnieuw gerangschikt, blijven onverminderd belangrijk. Maar voor platforms zoals de AI Mode is dit slechts het begin. Het grote verschil zit hem erin dat we veel minder invloed hebben op hoe onze content uiteindelijk in de zoekresultaten verschijnt. 

De AI Mode van Google werkt met geavanceerde technieken zoals redenering en persoonlijke context, en in de toekomst mogelijk zelfs DeepSearch (een geavanceerde methode die honderden zoekopdrachten triggert en duizenden documenten analyseert om een diepgaand antwoord te genereren). 

Dit zijn allemaal processen waar we geen inzicht in hebben en waarschijnlijk ook niet zullen krijgen, waardoor zoekresultaten minder voorspelbaar worden. De SEO-gemeenschap mist momenteel de gegevens om prestaties te meten en de juiste hulpmiddelen om te begrijpen wat er moet gebeuren.  

Dit betekent dat hoewel we technisch perfecte websites kunnen bouwen, goede content kunnen maken en veel links kunnen verzamelen, dit slechts een klein deel is van de vele factoren die in een complexe mix terechtkomen. Hoe onze content uiteindelijk in de zoekresultaten opduikt, is daardoor vaak onvoorspelbaar en anders dan verwacht. 

Momenteel heeft zoekmachineoptimalisatie onvoldoende controle om hogere posities te stimuleren in een omgeving die gebaseerd is op redenering. Redenering houdt in dat Google’s Gemini allerlei conclusies trekt op basis van eerdere gesprekken en het geheugen van de gebruiker. Daar bovenop komt nog een laag van persoonlijke context, waarbij Google data uit al hun diensten haalt, zoals Gmail, MCP (Multi-Context Personalization) en A2A (Application-to-Application). Dit is een enorme verschuiving, want hierdoor wordt veel meer externe context meegewogen. DeepSearch is in feite een uitbreiding van het DeepResearch-principe, toegepast op de zoekresultatenpagina (SERP), waar honderden zoekopdrachten kunnen worden geactiveerd en duizenden documenten worden geanalyseerd. 

De multimodale toekomst van zoeken 

Een fundamentele verandering is dat AI Mode inherent multimodaal is. Dat wil zeggen dat het niet alleen tekst verwerkt, maar ook video, audio (met transcripties) en afbeeldingen weet te gebruiken.  

Dankzij het Multitask Unified Model (MUM) kan content probleemloos vanuit de ene taal vertaald en direct in het antwoord worden opgenomen. Met andere woorden, elk antwoord is een complex, ondoorzichtig geheel, ver voorbij simpele tekstanalyse. 

Waar je vroeger je concurrentie analyseerde door tekst met tekst of video met video te vergelijken, werk je nu met een dynamische mix van informatiebronnen. Dit maakt het lastiger om effectief te concurreren. 

Google moedigt het investeren in diverse contentformaten aan, terwijl ze tegelijkertijd het aantal klikken met 34,5% verminderen. Dit maakt het lastig om organisaties te overtuigen, vooral omdat “unieke” content ook geen lange levensduur heeft. Google introduceert al aangepaste datavisualisaties direct op de SERP op basis van je data. Het lijkt dan ook logisch dat het dynamisch remixen van je content met tools als Veo en Imagen snel zal volgen. Dit alles verandert radicaal wat we strategisch kunnen bereiken als organisatie. 

Het huidige SEO-model voldoet niet voor de toekomst 

Na de eerste dag van Google I/O werd al duidelijk hoe zinloos het straks zal zijn om in te loggen op veel van de SEO-software die wordt gebruikt voor werk aan AI Mode. Het lijkt erop dat Google de AI Mode de standaard zal maken, en een groot deel van de SEO-gemeenschap zal dan niet weten wat te doen. 

We bevinden ons in een vakgebied waar rankings al twintig jaar lang sterk gepersonaliseerd worden. Ondanks deze personalisatie baseren we ranktracking nog steeds op een hypothetische gebruiker die het web voor het eerst bezoekt en als eerste actie een specifieke zoekopdracht intypt. We werken met een systeem dat al minstens tien jaar semantisch is en zeker vijf jaar hybride werkt, maar toch zijn de beste tools die nu geboden worden nog steeds puur gericht op optimalisatie op basis van losse woorden? 

Had James Cadwallader dan toch gelijk? 

Tijdens SEO Week deed James Cadwallader, medeoprichter en CEO van het platform voor conversationele zoekanalyse Profound, een opvallende uitspraak: “SEO zal een ouderwetse functie worden.” Hij nuanceerde dit snel door te stellen dat Agent Experience (AX) juist een gebied is waar SEO-specialisten een unieke positie hebben om naartoe te bewegen. 

Voorafgaand aan die conclusie legde hij zijn argument doordacht uit. Hij stelde dat het web oorspronkelijk functioneerde als een tweezijdige marktplaats. De opkomst van het ‘agentic’ web verandert echter het model van gebruikersinteractie met websites volledig. Cadwallader’s punt was indringend: de gebruiker geeft uiteindelijk niet om de bron van de informatie, zolang er maar bruikbare antwoorden worden geleverd. 

Google heeft de SEO-professional historisch gezien gewaarschuwd om niet voor bots te optimaliseren. Maar de nieuwe omgeving vereist nu juist dat we bots als primaire ‘consument’ beschouwen, omdat zij de informatie voor de eindgebruiker vertalen. Zijn stelling houdt dus in dat gebruikers onze website binnenkort mogelijk helemaal niet meer zien. Intelligente agents zullen de informatie afstemmen op hun begrip van de gebruiker en hun interpretatie van onze boodschap. 

Op technisch vlak besprak James de hypothese van zijn team over de werking van langetermijngeheugen. Het lijkt erop dat er een voortdurend bijgewerkte representatie van alle conversaties is, die wordt toegevoegd aan de systeemopdracht. Vermoedelijk gaat het om een soort geaggregeerde ‘embedding’ of een andere vorm van langetermijngeheugenopslag die verdere gesprekken informeert. Zoals we verderop in dit artikel bespreken, komt dit overeen met de aanpak die in Google’s patenten wordt beschreven. 

Aanvankelijk leken zijn conclusies enigszins alarmistisch, hoewel het zeker slimme positionering was voor hun software. Toch bewonder ik aan Profound dat het technologen zijn, niet gehinderd door de ballast van de SEO-industrie. Ze hebben de omwentelingen zoals Florida, Panda, Penguin, of de ophef over Featured Snippets niet meegemaakt. Ze kijken helder naar de huidige stand van zaken en de toekomst. Hun werkwijze, zoals die van toonaangevende techbedrijven, is gericht op de nieuwste technologie en snelle productontwikkeling. Sinds de I/O keynote is duidelijk geworden dat James gelijk heeft, tenzij er actie wordt ondernomen. 

Hoewel James’ presentatie meer gericht was op de aanbiedingen van OpenAI, zien we dat Google een vergelijkbare richting inslaat. Het is daarom zeker de moeite waard om zijn lezing te bekijken voor extra context. 

Geen data, en geen duidelijke richting van Google 

Tijdens Google I/O vonden er gesprekken plaats met ingenieurs van Google. Een belangrijk deel van die discussies ging over de erkenning dat de relatie tussen Google en de SEO-gemeenschap symbiotisch is, maar tegelijkertijd paradoxaal eenzijdig.  

Immers, het web zou het beveiligde protocol, gestructureerde data of Core Web Vitals nooit zo snel en volledig hebben omarmd als onze gemeenschap niet het voorbereidende werk had verricht. 

Daarnaast werd besproken hoe websites klikken verliezen door AI Overviews (AIO’s) en dat er geen data of duidelijke steun van Google is om bedrijven te bewijzen dat het zoeklandschap is veranderd.  

Er werd gesuggereerd dat inzichten uit interne gebruiksonderzoeken of resultaten van Google Labs-tests van AIO’s nuttig zouden zijn geweest om de verandering in zoekgedrag aan te tonen. De ingenieurs leken verrast te horen hoe wijdverspreid de klikverliezen over de hele linie worden gevoeld. 

Uiteindelijk werd er verteld dat alles zo snel en onvoorspelbaar verandert, dat het moeilijk was om vooraf data of waarschuwingen te geven om de SEO-gemeenschap door dit proces heen te helpen. Er waren echter wel hints dat toekomstige updates mogelijk uitkomst zullen bieden. Sinds dat gesprek zijn er op Search Central enkele artikelen verschenen die suggereren dat de kwaliteit van zoekbezoeken is verbeterd, en waarin wordt geadviseerd te stoppen met het meten van klikken. 

De uitdagingen blijven 

pexels pixabay 207924

Het is echter moeilijk dit soort antwoorden te accepteren, om vervolgens de volgende dag op Google Marketing Live te horen dat adverteerders wél toegang krijgen tot gedetailleerde zoekvraagdata over AI Overviews (AIO’s). Dit staat in schril contrast met het gebrek aan informatie voor de SEO-gemeenschap, die weliswaar cruciaal is voor de vindbaarheid op het web, maar in het duister tast over deze nieuwe ontwikkelingen. Dit is helaas de realiteit. 

Ook werd de vraag gesteld wat de rol van SEO-specialisten zou moeten zijn in een omgeving die wordt gestuurd door ‘agents’, redenering, persoonlijke context en DeepResearch. Afgezien van het gebruikelijke advies om “geweldige, unieke en niet-alledaagse content te creëren”, was het antwoord onzeker. 

En dat is prima. De situatie was vergelijkbaar toen RankBrain werd gelanceerd en de officiële lezing was dat Google zelf niet precies wist hoe hun nieuwe ontwikkelingen werkten. Er werd immers niet geadviseerd om direct vector embeddings (een methode om woorden en zinnen als numerieke reeksen te representeren, zodat computers hun betekenis en relaties kunnen begrijpen) te gebruiken om de relevantie van content te begrijpen. Het betekent simpelweg dat het tijd is om de community te activeren en weer volop te experimenteren en te leren. 

Helaas zal niet iedereen deze nieuwe fase overleven. Net zoals een deel van de vorige generatie SEO-specialisten de grote verschuivingen na Panda en Penguin niet heeft doorstaan, wordt vermoed dat sommigen de sprong naar deze volgende golf van zoektechnologie niet zullen maken. 

Degenen die wel succesvol zullen zijn, moeten beginnen met een diepgaand begrip van de werking van de technologie, om vanuit daar strategische en tactische stappen te bepalen. 

Hoe AI Mode werkt: Een overzicht 

Laten we nu verdergaan met een heldere uitleg over de werking van AI Mode.  

Je opent Google en stelt een vraag. Wat er vervolgens gebeurt, lijkt echter in niets op zoeken zoals je het kent. Geen blauwe, onderstreepte links meer. Alleen een vriendelijke paragraaf, die antwoord geeft en zelfs al anticipeert op je volgende vraag, nog voordat je die zelf bedacht hebt. Welkom in AI Mode. 

Blog Afbeelding 4 how ai works 2

Onder de oppervlakte is wat een enkel antwoord lijkt, in werkelijkheid een complex samenspel van machine-intelligentie. Eerst wordt je vraag stilletjes omgezet in een reeks andere vragen – sommige duidelijk, andere impliciet, weer andere voorspellend. Google’s modellen ‘spreiden zich uit’ over dit verborgen web van synthetische zoekopdrachten, waarbij ze niet alleen feiten scannen, maar ook ideeën die een ‘redeneerketen’ kunnen voltooien. 

Achter de schermen is het systeem niet alleen bezig met het rangschikken van content, het ‘redeneert’ met zichzelf. Documenten worden niet gekozen omdat ze bovenaan de zoekresultatenpagina (SERP) stonden, maar omdat ze een punt ondersteunen in de versleutelde logica van de machine.  

Redeneerketens zijn te vergelijken met die ouderwetse ‘krabbelblok’-gedachten die we allemaal hebben bij het oplossen van een probleem. Deze zijn nu ingebed in de manier waarop antwoorden worden geconstrueerd. Het is niet simpelweg “Wat is de beste elektrische SUV?”, maar eerder “Wat betekent ‘beste’ voor deze specifieke gebruiker, op dit moment, en met welke prioriteiten?” 

En alsof dat nog niet genoeg is, zijn de modellen die jouw antwoord genereren niet eendimensionaal. Ze zijn taakspecifiek, afgestemd en geselecteerd op basis van het type antwoord dat nodig is: een samenvatter, een vergelijker, een validator. Het is een ensemble met een roterende schijnwerper. Elk model draagt een deel bij; een afsluitend model stelt het uiteindelijke ‘script’ samen. 

Dit alles gebeurt binnen een onzichtbare architectuur die wordt gevoed door jouw verleden. Je klikken, je zoekopdrachten, je locatie, je Gmail-threads – alles wordt samengevat in een gevectoriseerde versie van… “jou”. Dit is een personalisatielaag die niet alleen de randen van het resultaat kleurt, maar de hele selectie van wat als relevant kwalificeert, vervormt. 

En wanneer het antwoord uiteindelijk verschijnt, kan jouw webpagina geciteerd worden. Of niet. Jouw content verschijnt mogelijk niet omdat je geoptimaliseerd was voor een trefwoord, maar omdat een enkele zin toevallig overeenkwam met een kleine stap in de onzichtbare logica van de machine. 

SEO heeft de afgelopen vijfentwintig jaar besteed aan het voorbereiden van content om te worden geanalyseerd en gepresenteerd op basis van de ranking voor een enkele zoekopdracht. Nu werken we aan het ontwikkelen van relevantie om door te dringen in redeneersystemen die werken met een breed scala aan zoekvragen. 

De technische uitleg 

De patentaanvraag voor Search with Stateful Chat geeft een fundamenteel inzicht in de werking van Google’s AI Mode. Het markeert een overgang van traditioneel zoeken naar een blijvend, conversationeel model voor informatie-opvraging. Het systeem leert je na verloop van tijd begrijpen, maakt gebruik van tal van synthetische zoekvragen en combineert antwoorden via gelaagde redenering.  

Daarnaast vult het patent Query Response from a Custom Corpus cruciale details aan over de manier waarop antwoorden worden gegenereerd. Het legt niet alleen uit wat het systeem over je weet, maar ook hoe het besluit welke documenten te gebruiken, hoe deze worden gefilterd en wat er wordt geciteerd. 

De gelaagde en contextuele architectuur van AI Mode 

AI Mode functioneert als een meerfasensysteem dat bovenop Google’s traditionele index is gebouwd. In plaats van elke zoekopdracht op zichzelf te behandelen, behoudt het een constante gebruikerscontext. Dit doet het door je eerdere zoekvragen, locaties, gebruikte apparaten en gedragssignalen te volgen, en elke interactie om te zetten in een vector embedding. Deze voortdurende context stelt Google in staat om de intentie over tijd te begrijpen, in plaats van enkel de intentie van het moment. 

Wanneer je een nieuwe zoekopdracht invoert, start AI Mode een proces genaamd ‘query fan-out’. Dit genereert tientallen (of zelfs honderden) gerelateerde, impliciete en recente zoekvragen om semantisch relevante documenten te vinden die je niet expliciet hebt aangevraagd. Elk van deze synthetische zoekopdrachten wordt gebruikt om documenten uit de index op te halen. Deze documenten worden vervolgens beoordeeld en gerangschikt op basis van hoe goed hun vector embeddings overeenkomen met zowel de expliciete als de verborgen zoekvragen. 

Deze verzameling documenten vormt wat het tweede patent een “custom corpus” noemt. Dit is een specifieke selectie uit de index die het systeem op dat moment, voor jou en jouw specifieke zoekvraag, als relevant heeft beoordeeld. Dit corpus vormt de basis voor de verdere respons van AI Mode. 

AI Mode: Multi-Stage verwerking en synthese door LLM’s 

Zodra het specifieke ‘corpus’ van relevante documenten is samengesteld, schakelt AI Mode verschillende gespecialiseerde Large Language Models (LLM’s) in. Elk van deze modellen heeft een unieke functie, afhankelijk van het type zoekvraag en de vermoedelijke behoefte van de gebruiker. Zo kunnen sommige modellen bijvoorbeeld: 

  • Vergelijkende productrecensies samenvatten 
  • Informatie vertalen of lokaliseren naar andere talen 
  • Gestructureerde data extraheren en formatteren 
  • Redeneren toepassen over meerdere documenten 

Het patent beschrijft expliciet hoe de respons wordt bepaald op basis van het begrip van de informatiebehoefte van de gebruiker. Hierbij worden afwegingen gemaakt zoals of de gebruiker: 

  • Creatieve tekstgeneratie nodig heeft 
  • Creatieve mediageneratie nodig heeft 
  • Voordeel kan halen uit omgevingsgerichte generatieve samenvattingen 
  • Voordeel kan halen uit SERP-samenvattingen 
  • Baat zou hebben bij een voorgestelde volgende zoekstap 
  • Opheldering nodig heeft 
  • Niet gestoord moet worden 

Volgens de patentbeschrijving sluiten deze afwegingen aan bij LLM’s. Het is echter geen klassiek Mixture of Experts (MoE) model met een gedeelde routeringslaag. In plaats daarvan is het een selectieve orkestratie waarbij specifieke LLM’s worden geactiveerd op basis van context en intentie. Dit lijkt meer op een intelligente middleware-stack dan op één enkel, allesomvattend model. 

Blog Afbeelding 3 how ai works

Hoewel er gesproken wordt over het genereren van hypothetische antwoorden ter vergelijking met tekstgedeelten, creëert het systeem geen antwoorden uit het niets. Zoals bij alle RAG (Retrieval-Augmented Generation) pijplijnen, worden relevante stukken informatie uit documenten gehaald, daarvan gestructureerde representaties gemaakt, en vervolgens wordt hieruit een coherent antwoord samengesteld. Sommige van deze stukken worden als bron vermeld; veel andere niet. De patentaanvraag “Query response using a custom corpus” beschrijft hoe de selectie van citaties onafhankelijk van de documentrangschikking plaatsvindt, maar gebaseerd is op de mate waarin een passage het gegenereerde antwoord direct ondersteunt. 

AI Mode leunt op de kracht van ‘Dense Retrieval’ en “Passage-Level Semantics” 

Het is nogmaals belangrijk om te benadrukken dat de hele AI Mode-pijplijn draait op ‘dense retrieval’. Elke zoekopdracht, subvraag, document en passage wordt omgezet in een vector embedding. Google berekent de gelijkenis tussen deze vectoren om te bepalen wat er wordt geselecteerd voor de synthese van antwoorden. Wat nu telt, is niet langer alleen “ranken voor de zoekopdracht”, maar hoe goed je document, of zelfs een individuele passage daarbinnen, semantisch overeenkomt met de verborgen reeks van zoekvragen. Dit houdt in dat content moet worden geoptimaliseerd voor betekenis en context, en niet alleen voor specifieke woorden. 

Bovendien werkt Google’s ophaalmechanisme niet meer uitsluitend met statische scoringsfuncties zoals TF-IDF of BM25. Dit zijn traditionele methodes die de relevantie van documenten bepalen door vooral te kijken naar hoe vaak trefwoorden voorkomen in een tekst (Term Frequency – TF) en hoe uniek die trefwoorden zijn binnen een hele collectie documenten (Inverse Document Frequency – IDF).  

Hoewel een hybride aanpak nog steeds de initiële selectie van potentiële documenten of tekstgedeelten kan ondersteunen, hangt de uiteindelijke rangschikking en opname van content in generatieve antwoorden steeds meer af van de redenering van het taalmodel. 

Volgens de patentaanvraag Method for Text Ranking with Pairwise Ranking Prompting heeft Google een nieuw systeem ontwikkeld. Hierin wordt een LLM (Large Language Model) gevraagd om twee passages te vergelijken en te bepalen welke het meest relevant is voor de vraag van een gebruiker. Dit proces wordt herhaald voor vele passageparen, en de resultaten worden samengevoegd tot een gerangschikte lijst. 

In plaats van vaste gelijkenisscores toe te kennen, vraagt het systeem: “Gegeven deze zoekopdracht, welke van deze twee passages is beter?” en laat het model zelf redeneren. Dit vertegenwoordigt een verschuiving van absolute, bepalende relevantie naar relatieve, door het model bemiddelde, probabilistische relevantie. Dit sluit aan bij het verwachte gedrag van AI Mode, waarbij: 

  • Dense retrieval een pool van kandidaatpassages naar boven haalt. 
  • Paarsgewijze LLM-prompting (waarbij het taalmodel steeds twee contentfragmenten met elkaar vergelijkt om te bepalen welke het meest relevant is) de meest waardevolle passages selecteert. 
  • Het uiteindelijke synthesiemodel output genereert op basis van de gerangschikte resultaten. 

Dit heeft meerdere strategische gevolgen: 

  • Je concurreert niet op jezelf, maar wordt direct vergeleken met andere bronnen, stukje voor stukje. 
  • De winnaar wordt gekozen door een model dat kan redeneren, niet alleen door het tellen van woorden of zoekwoorddichtheid. 
  • De helderheid, volledigheid en semantische precisie van passages worden nog crucialer, omdat je content de paarsgewijze controle moet doorstaan. 

De implicatie is duidelijk: het is niet langer voldoende om ergens te ranken voor een onderwerp. Je moet passages ontwikkelen die de concurrerende content direct overtreffen in LLM-evaluaties, en niet alleen op basis van semantische gelijkenis. 

AI Mode zet in op omgevingsgeheugen en flexibele interfaces 

“Stateful chat” houdt in dat Google, net zoals James Cadwallader beschreef voor OpenAI, constant een omgevingsgeheugen (ambient memory) van je opbouwt. Dit betekent dat het systeem na verloop van tijd informatie over je verzamelt.  

Volgens het patent Search with Stateful Chat bestaan deze ‘herinneringen’ waarschijnlijk uit geaggregeerde embeddings (samengevoegde numerieke representaties van betekenis), die je eerdere gesprekken, interessegebieden en zoekgedrag representeren. De interface zelf past zich ook aan, voortbouwend op wat vorig jaar werd getoond in de Bespoke UI demo.

De AI Mode bepaalt op dynamische wijze welke elementen (zoals tekst, lijsten, carrousels of grafieken) worden weergegeven, gebaseerd op de specifieke informatiebehoefte en de structuur van de content. Deze bovenstaande video werd vorig jaar tijdens een conferentie al uitgelicht als een voorbode van de toekomst van zoekinterfaces. Destijds was al duidelijk dat er een grote verandering aankwam. Nu weten we dat deze functionaliteit wordt aangedreven door een van de Large Language Models (LLM’s) die deel uitmaken van de AI Mode-garde.  

Personalisatie in AI Mode via Gebruikers-Embeddings 

Een baanbrekende innovatie die de contextuele intelligentie van AI Mode mogelijk maakt, is het gebruik van ‘gebruikers-embedding’ modellen. Dit concept is uitgebreid beschreven in de patentaanvraag User Embedding Models for Personalization of Sequence Processing Models.  

Dit personalisatiemechanisme stelt Google in staat om de output van AI Mode af te stemmen op de individuele gebruiker, zonder dat het onderliggende grote taalmodel (LLM) opnieuw getraind hoeft te worden. In plaats daarvan wordt een permanente, dichte vectorrepresentatie van de gebruiker (de ‘gebruikers-embedding’) ingevoegd in de inferentie-pijplijn van de LLM. Dit beïnvloedt de manier waarop het model elke zoekopdracht interpreteert en beantwoordt. 

Deze zogenaamde gebruikers-embedding wordt gegenereerd op basis van langetermijn gedragssignalen van een gebruiker: eerdere zoekopdrachten, klikpatronen, interessegebieden, interacties met apparaten en andere gebruikssignalen binnen het Google-ecosysteem. Eenmaal berekend, fungeert de gebruikers-embedding als een vorm van latente identiteit. Dit verwijst naar een verborgen, digitale representatie van wie de gebruiker is en wat zijn of haar voorkeuren zijn. Deze beïnvloedt subtiel elke fase van het redeneerproces van AI Mode. 

In de praktijk wordt deze embedding ingezet tijdens: 

  • Interpretatie van de zoekopdracht: Het beïnvloedt hoe het model de intentie classificeert. 
  • Genereren van synthetische zoekopdrachten: Het bepaalt welke ‘fan-out’ (het proces waarbij één oorspronkelijke zoekopdracht wordt uitgebreid naar tientallen of honderden gerelateerde en impliciete zoekvragen) zoekopdrachten prioriteit krijgen. 
  • Ophalen van passages: Het herschikt resultaten op basis van individuele voorkeuren. 
  • Synthese van de respons: Het genereert tekst of selecteert formaten (zoals video, lijst, carrousel) die aansluiten bij de eerdere voorkeuren van de gebruiker. 

Belangrijk is dat dit systeem modulaire personalisatie mogelijk maakt: hetzelfde basismodel (bijvoorbeeld Gemini) kan miljarden gebruikers bedienen en toch in realtime geïndividualiseerde resultaten produceren. Het introduceert ook consistentie over verschillende platforms heen. Dezelfde gebruikers-embedding kan personalisatie informeren binnen Zoeken, Gemini, YouTube, Shopping, of aanbevelingen gebaseerd op Gmail.  

De implicatie is zonder te overdrijven diepgaand te noemen. AI Mode is niet langer alleen gericht op de intentie van de zoekopdracht; het is geheugenbewust. Twee gebruikers die dezelfde vraag stellen, kunnen verschillende bronvermeldingen of antwoorden krijgen, niet vanwege dubbelzinnigheid in de vraag, maar vanwege wie zij als individu zijn. Dit maakt inclusie een functie van zowel semantische relevantie als profielafstemming. Dit betekent dat rangvolggegevens van uitgelogde zoekopdrachten (rank tracking: het monitoren van de positie van je website in de zoekresultaten voor specifieke trefwoorden) zinloos zijn voor AI Mode, omdat de antwoorden 1-op-1 gepersonaliseerd kunnen zijn. 

De fundamentele verandering van SEO door de AI Mode 

pexels tara winstead 8386440

Kortom, AI Mode verandert de spelregels volledig. Je optimaliseert niet langer voor één specifiek zoekwoord of zelfs één enkele pagina. De focus verschuift naar het optimaliseren van je content, zodat deze semantisch relevant (de betekenis en context van je content sluiten naadloos aan bij wat de gebruiker écht zoekt) is voor talloze verborgen zoekopdrachten en concurrerend is binnen een op maat gemaakt corpus (een specifieke verzameling van documenten of passages die de AI als relevant heeft geïdentificeerd voor een bepaalde zoekopdracht) van tekstfragmenten.  

Je positie in de zoekresultaten is nu als waarschijnlijk in plaats van vaststaand, en je aanwezigheid hangt net zozeer af van de afstemming van embeddings (hoe goed de numerieke representatie van jouw content overeenkomt met die van de zoekopdracht en gebruikersprofielen) als van autoriteit of de breedte van je onderwerp. 

Om mee te kunnen blijven doen, is het noodzakelijk om: 

  • Gebruikersgedrag in zoekmachines te beïnvloeden via andere brandingkanalen, wat betekent dat merkopbouw via bijvoorbeeld sociale media of offline campagnes direct invloed heeft op hoe AI je content ziet en aanbeveelt in zoekresultaten. 
  • Content op passage-niveau te ontwikkelen, zowel voor semantische gelijkenis als om door LLM’s te worden geprefereerd. 
  • Landschappen van synthetische zoekopdrachten te doorgronden en te anticiperen. Kortgezegd: begrijpen welke gerelateerde en impliciete vragen AI zelf genereert om tot een antwoord te komen, en je content daarop afstemmen. 
  • Te optimaliseren voor semantische gelijkenis en driedubbele helderheid. Dit houdt in dat je content niet alleen qua betekenis nauwkeurig moet zijn, maar ook extreem duidelijk, consistent en eenduidig om door AI optimaal begrepen te worden. 
  • Rankings te volgen via profielen met samengestelde gebruikersgedragingen, door simulaties te gebruiken met verschillende gebruikersprofielen, omdat traditionele, algemene rankingtools niet langer de gepersonaliseerde AI-resultaten kunnen meten. 

Hier houdt traditionele SEO houdt. Dit is Relevance Engineering (r17g). Zichtbaarheid is een vector (een soort digitale vingerafdruk), en content wordt niet alleen beoordeeld op de letterlijke inhoud, maar ook op hoe diep het aansluit bij wat Google denkt dat de gebruiker bedoelde

Hoe Query Fan-Out werkt 

Google’s slimme techniek genaamd Query Fan-Out is superbelangrijk voor hoe AI Mode content vindt en kiest. Stel je voor: in plaats van één keer te zoeken, bedenkt Google vanuit jouw vraag in één keer heel veel andere, slimme zoekvragen.  

Sommige van die nieuwe vragen komen direct van jouw vraag, andere worden bedacht door te kijken naar wat jij eerder zocht en wat je misschien bedoelt. Al deze extra vragen worden gebruikt om geschikte documenten uit de enorme database van Google te vissen. Zo snapt Google vrijwel precies wat je eigenlijk wilt weten, zelfs als je dat zelf niet precies hebt gezegd. 

Blog Afbeelding 2 how ai works

Google praat er graag over in de grote lijnen, maar er is een speciale aanvraag voor een patent genaamd Systems and methods for prompt-based query generation for diverse retrieval die precies uitlegt hoe dit “uitwaaieren” werkt.  

Het begint allemaal met een soort ‘vraag-vermenigvuldiger’. Hierbij gebruikt een slim computermodel (een LLM) jouw oorspronkelijke vraag om allerlei andere vragen te maken. Het model verzint deze vragen niet zomaar. Het krijgt hele duidelijke instructies mee om te zorgen voor: 

  • Verschillende bedoelingen: (bijvoorbeeld: wil je vergelijken, iets ontdekken, of een beslissing nemen?) 
  • Andere woorden: (denk aan synoniemen of zinnen die hetzelfde betekenen) 
  • Vragen over specifieke dingen: (zoals bepaalde merken, functies of onderwerpen) 

Synthetische zoekopdrachten bij een Query Fan-Out 

Oké, Google is dus de super-slimme detective die jouw vraag krijgt. Om het beste antwoord voor je te vinden, bedenkt een goeie detective meestal heel veel andere vragen die passen bij wat jij precies wilt weten. Die extra vragen noemen we Query Fan-Out

Als jij vraagt: “Wat is de beste elektrische SUV?”, dan doet Google dit: 

Soort Slimme Vraag (Synthetische Zoekopdracht) Wat is het? Waarom bedenkt Google het? Wat doet het? Voorbeeld (als jij vroeg: “beste elektrische SUV”) 
Lijkende Vragen Vragen die een beetje op jouw vraag lijken, of over iets gaan wat erbij hoort. Google ziet dat bepaalde woorden of onderwerpen vaak bij elkaar horen. Vindt meer dingen die lijken op wat jij zocht. “goede elektrische gezinsauto’s” of “populaire hybride SUV’s” 
Verborgen Vragen Vragen die jij misschien bedoelde, maar niet hardop zei. Google raadt het. Het slimme computermodel denkt na over hoe je de vraag stelde en wat je eerder zocht. Helpt Google om te vinden wat je echt wilt weten, zelfs als je het niet letterlijk vroeg. “EV’s met grote actieradius” of “betaalbare elektrische auto’s voor families” 
Vergelijk Vragen Vragen om dingen naast elkaar te leggen. Google gebruikt dit als je iets moet kiezen. Het systeem merkt dat je aan het kiezen bent of twijfelt. Zoekt dingen om te vergelijken, zodat je goed kunt kiezen. “Rivian R1S tegen Tesla Model X” of “elektrische SUV’s vergeleken in een lijst” 
Recente Vragen Vragen die je net eerder stelde. Google onthoudt wat je net hebt gevraagd in dit gesprek. Helpt Google je vraag in het juiste ‘gesprek’ te plaatsen en het antwoord persoonlijker te maken. (Als je net vroeg: “subsidie elektrische auto in Amsterdam” en daarna “beste elektrische SUV”) 
Jouw Vragen Vragen die passen bij wat jij leuk vindt, waar je bent, of wat je eerder deed. Google onthoudt wat voor type gebruiker jij bent. Maakt het antwoord heel persoonlijk, speciaal voor jou. “elektrische auto’s met 7 zitplaatsen bij mij in de buurt” of “EV’s die in aanmerking komen voor de overheidssubsidie” 
Omgeschreven Vragen Dezelfde vraag, maar dan met andere woorden. Het slimme computermodel schrijft jouw vraag een beetje anders. Zorgt ervoor dat Google de vraag ook snapt als mensen het anders zeggen. “welke elektrische SUV is de beste” of “top EV SUV’s voor 2025” 
Uitgebreide Vragen Vragen die breder of juist specifieker zijn, gebaseerd op wat Google weet over dingen. Het slimme computermodel kijkt naar wat er nog meer bij hoort. Maakt de zoektocht breder of juist specifieker door bijvoorbeeld “SUV” te vervangen door namen van automodellen. “reviews van Tesla Model Y” of “Volkswagen ID.4 vergeleken met Hyundai Ioniq 5” 

Al deze slimme vragen gaan dan door Google’s systeem dat de betekenis van teksten begrijpt om de juiste stukjes informatie te vinden. Het allerbelangrijkste hier is: jouw website die hoog scoorde op de gewone zoekresultaten geeft niet langer automatisch de garantie dat je gevonden wordt. AI Mode kiest content nu op basis van hoe goed die past bij één of meer van die verborgen, uitgewaaierde zoekvragen (fan-out queries). Dat maakt het vinden in AI Mode een complex en veelzijdig proces. 

Query Fan-Out: Slim Selecteren en verbreden 

De patentaanvraag Systems and methods for prompt-based query generation for diverse retrieval beschrijft verder een slim filtersysteem. Dit systeem zorgt ervoor dat de bedachte zoekvragen: 

  • Verschillende soorten vragen beslaan (denk aan vragen over een aankoop, informatie of plezier). 
  • Diverse soorten content opleveren (zoals recensies, definities of handleidingen). 
  • Voorkomen dat ze te veel op hetzelfde soort informatie lijken (zorgen voor veel variatie in de informatie). 

Dit helpt Google om een completer en informatiever antwoord te creëren. Het haalt content niet alleen uit het best scorende document, maar uit een speciaal samengestelde verzameling die rijk is aan verschillende contexten. Met andere woorden, het is niet genoeg om alleen te herhalen wat de concurrentie zegt. 

Query Fan-Out: Redeneren via stapsgewijze vragen 

Om de kwaliteit en relevantie te verbeteren, kan het bedenken van die slimme zoekvragen ook gebruikmaken van chain-of-thought prompting. Hierbij volgt het slimme computermodel (LLM) denkstappen, zoals: 

  • Wat de gebruiker waarschijnlijk probeert te bereiken. 
  • Welke delen van de oorspronkelijke vraag onduidelijk zijn of uitgebreid kunnen worden. 
  • Hoe de vraag anders kan worden gesteld om aan die behoeften te voldoen. 

Het LLM geeft dus niet zomaar andere zoekvragen. Het legt uit waarom elke vraag is bedacht, vaak met specifieke redeneringen of duidelijke intenties (bijvoorbeeld: “Help de gebruiker merken te vergelijken,” “Vind alternatieven,” “Ontdek risico’s en voordelen”). 

De implicaties voor SEO bij Query Fan-Out 

Nu er meer bekend is over de werking van query fan-out lijkt duidelijk te worden dat dit een cruciaal, maar voorheen onopgemerkt aspect van AI Overviews was. Eerdere berichten dat AI Overviews content diep uit de zoekresultaten haalden, werden waarschijnlijk verkeerd begrepen. Het is waarschijnlijk niet zo dat Google’s AI ver naar beneden scrolde voor één zoekwoord. Het zocht juist dwars door de ranglijsten heen voor een compleet andere set van achtergrondvragen. 

Dus, terwijl SEO-specialisten de positie voor “[beste autoverzekering]” bijhouden, selecteert Google mogelijk een tekstgedeelte op basis van hoe goed het scoort voor “[GEICO vs. Progressive vergelijkingstabel voor jonge ouders], want de AI probeert te anticiperen op de volgende logische vraag van de gebruiker. AI Mode kijkt dus verder dan jouw simpele zoekopdracht en begint zelf complexere, vergelijkende vragen te bedenken om de diepere intentie van de gebruiker te achterhalen, zoals het direct vergelijken van specifieke verzekeraars voor een bepaalde doelgroep.  

Sterker nog, volgens de meest recente gegevens van ZipTie, geeft een nummer 1-positie voor de kernzoekopdracht je slechts 25% kans om in een AI Overview (AIO) te verschijnen. 

Om daarom zichtbaar te zijn (en blijven) in de AI Mode, moet je ervoor zorgen dat: 

  • Je content scoort voor meerdere mogelijke subvragen
  • Je tekstgedeelten semantisch rijk en goed afgestemd zijn op diverse intenties, wat betekent dat je content verschillende invalshoeken van een onderwerp belicht, de diepere betekenis van woorden begrijpt en aansluit bij diverse (ook verborgen) behoeften van de gebruiker, niet alleen op basis van trefwoorden. 
  • Je relevantie niet alleen ontwerpt voor populaire zoektermen, maar ook voor de uitgebreide reeks zoekvragen die Google stilletjes op de achtergrond onderzoekt

Hoe AI redeneert in Google’s LLM Systemen 

Een van de meest kenmerkende eigenschappen? Het vermogrn van Google’s AI Mode  om te redeneren over een hele reeks documenten om zo veelzijdige antwoorden te genereren. Het patent Instruction Fine-Tuning Machine-Learned Models Using Intermediate Reasoning Steps beschrijft een systeem voor het opbouwen en gebruiken van ‘redeneerketens’.  

Dit zijn eigenlijk logische stappenplannen die de vraag van een gebruiker verbinden met het uiteindelijke antwoord. Hoewel dit misschien niet exact het patent is voor de huidige AI Mode, geeft het wel een goed beeld van de soorten redeneringen die de basis vormen voor Google’s AI-modellen. 

In plaats van zomaar een antwoord te genereren of bestaande antwoorden te kiezen, stelt dit systeem Google in staat om: 

  1. De intentie en verborgen behoeften van de gebruiker te interpreteren. 
  1. Tussenliggende redeneerstappen te formuleren (bijvoorbeeld: “de gebruiker zoekt een SUV voor lange ritten, dus focus op actieradius en comfort”). 
  1. Content op te halen of te synthetiseren voor elke stap. 
  1. De uiteindelijke output te controleren op basis van de logica van die stappen. 

Deze redeneerketens kunnen in verschillende groepen worden verdeeld: 

  • ‘In-band’: Stappen die direct worden gegenereerd als onderdeel van het hoofdantwoord van het LLM (zoals bij ‘chain-of-thought’ prompting). 
  • ‘Out-of-band’: Stappen die los van het uiteindelijke antwoord worden gecreëerd en verfijnd, om vervolgens het antwoord te sturen of te filteren. 
  • ‘Hybrid’: Stappen die worden gebruikt voor het uitbreiden van zoekvragen, het filteren van documenten, het structureren van de synthese, en validatie op verschillende momenten in het proces. 

Dit is een drastisch andere manier van werken dan we historisch gewend zijn binnen SEO. De taak om relevant te blijven, moet nu tactieken omvatten die ervoor zorgen dat je content relevant blijft gedurende al deze redeneerstappen

Hoe werkt de AI-redenering in Google’s systeem 

Om alles wat we hebben geleerd goed te begrijpen, kijken we naar de stappen in het patent “Search with Stateful Chat”. Zo snappen we precies hoe en waar Google’s AI ‘nadenkt’. 

Hier zie je per stap wat het slimme computerbrein doet: 

Stap in het Proces Hoe het Computerbrein Nadacht 
Wat vraag je precies? Het slimme computermodel (LLM) probeert te raden wat je waarschijnlijk bedoelt en welke keuze je probeert te maken. 
Slimme vragen bedenken (Fan-Out) Er worden extra, slimme zoekvragen bedacht op basis van wat de AI denkt dat jij nodig hebt, bijvoorbeeld als je dingen wilt vergelijken, risico’s wilt onderzoeken of alternatieven zoekt. 
Juiste info vinden De redeneerketens bepalen welke soorten informatie of gezichtspunten nodig zijn voor elke stap, waardoor er heel gericht documenten worden gekozen. 
Welk model doet wat? Specifieke computermodellen worden gekozen voor kleine taakjes op basis van de redenering. Bijvoorbeeld: Model A haalt informatie eruit, Model B vat samen, Model C maakt het antwoord af. 
Het antwoord maken De redeneerketens zijn als een bouwtekening voor het antwoord. Elk stukje van het antwoord past bij een of meer logische stappen. 
Bron vermelden De stukjes tekst die het antwoord het beste ondersteunen, worden als bron vermeld. Niet per se de tekst die het hoogst stond of het meest compleet was. 

Kortom, het ‘nadenken’ van de AI raakt bijna elke stap in het proces. En dat proces is ingewikkelder en minder doorzichtig dan alles waar we ooit mee te maken hebben gehad. 

Dit is hoe je content bouwt voor AI Mode 

pexels ron lach 9783812

Als je wilt dat jouw tekst verschijnt in Google’s AI Mode, dan is het niet genoeg dat het gewoon gevonden kan worden of informatief is. Het is niet meer genoeg om “ongeveer relevant” te zijn.  

Jouw tekst moet heel precies handig zijn, makkelijk per stukje op te vragen en precies passen bij elke slimme denkstap die de AI maakt. Je moet je tekst zo maken dat die wint bij de verschillende “denk-controles”. Denk aan hoe goed kleine stukjes tekst bij elkaar passen, hoe ze vergeleken worden, en hoe goed ze passen bij wat het computerprogramma (LLM) wil maken. 

Er zijn vier belangrijke dingen waar je op moet letten om jouw content succesvol te maken in AI Mode. Elk punt past bij hoe jouw tekst eruit moet zien: 

  1. Past bij de Redeneringsrichting: Je tekst moet op zichzelf al compleet zijn qua betekenis, duidelijk dingen vergelijken of laten zien wat de voor- en nadelen zijn, en makkelijk te lezen zijn zonder dubbele informatie. Zo kan de AI jouw tekst direct goed beoordelen en kiezen bij het vergelijken of samenvatten. 
  1. Past bij de ‘Fan-Out’: Om goed aan te sluiten bij de extra vragen die Google bedenkt (het ‘uitwaaieren’), moet jouw tekst duidelijke namen bevatten die Google kent (via de ‘Knowledge Graph’: Google’s enorme database van feiten en relaties tussen mensen, plaatsen en dingen) en laten zien wat mensen vaak willen doen, zoals iets beoordelen, vergelijken of zoeken met bepaalde voorwaarden. 
  1. Verdien een citaat: Je tekst moet feitelijk zijn, duidelijk aangeven waar informatie vandaan komt, en controleerbaar zijn. Gebruik cijfers, benoem je bronnen, en maak zinnen heel duidelijk zodat de AI ze makkelijk en zeker kan gebruiken. 
  1. Makkelijk in elkaar te zetten: Maak je tekst zo dat deze makkelijk te scannen is en uit losse, duidelijke stukjes bestaat, zoals lijsten, opsommingen en duidelijke kopjes (zoals in dit artikel). Begin je antwoord direct en voeg dingen toe zoals veelgestelde vragen (FAQ’s), korte samenvattingen (TL;DRs) en slimme codes (semantische markup). Zo kan de AI jouw tekst gemakkelijk gebruiken om een nieuw antwoord mee te bouwen. 

Gebruik de volgende tabel als gids om deze kenmerken in jouw content te verwerken: 

Jouw gids voor AI-Vriendelijke content 

Kenmerk Waarom het belangrijk is Hoe het eruit ziet Waarvoor is het handig? 
Volledig te begrijpen zichzelf Het slimme computermodel snapt stukjes tekst, niet de hele pagina. Een stukje moet zelf een vraag beantwoorden of duidelijk maken. “De Tesla Model Y rijdt 530 km ver, helpt je supergoed met rijden, en heeft veel ruimte vanbinnen. Vergeleken met de Ford Mustang Mach-E rijdt hij verder, maar heeft hij minder bagageruimte.” Past bij de Denk-richting 
Duidelijk over vergelijkingen of afwegingen Veel AI-vragen gaan over keuzes maken. Tekst die voor- en nadelen of “waarom de één beter is dan de ander” uitlegt, doet het beter. “De Rivian R1S is perfect voor ruig terrein dankzij de hoge bodemvrijheid en vier motoren. De Tesla Model X is juist superzuinig op de snelweg en heeft handige automatische functies.” Past bij de Denk-richting 
Vol met namen en Google-bekend Als je duidelijke namen gebruikt (merken, producten), snapt AI beter waar je het over hebt en vindt het makkelijker info. “De Hyundai Ioniq 5, een compacte elektrische SUV, is gebouwd op Hyundai’s speciale E-GMP platform en kan super snel opladen met 800V.” Past bij de Fan-Out 
Netjes in kleine stukjes Tekst moet uit losse bouwblokken bestaan, want AI zet stukjes weer in elkaar, niet hele pagina’s. Duidelijke opbouw helpt de AI met kiezen en opmaken. Pluspunten: 
– 500 km bereik 
– Snel opladen 
 
Minpunten: 
– Beperkt zicht naar achter 
– Geen Apple CarPlay 
Makkelijk in elkaar te zetten 
Past bij de bedoeling van de zoeker AI kiest teksten die passen bij wat mensen willen doen (bijv. shoppen, vergelijken, problemen oplossen). Duidelijke zinnen over de bedoeling helpen AI beter aansluiten. “Als je een betrouwbare elektrische auto onder €50.000 zoekt met hoge veiligheidsscores en snel opladen, dan is de Kia EV6 een topkeuze.” Past bij de Fan-Out 
Makkelijk te lezen en geen dubbelingen Tekst die onnodig ingewikkeld, langdradig of herhalend is, wordt minder goed gekozen. Fout: “De Tesla Model Y is geweldig. De Model Y is geweldig omdat hij geweldig is voor families. Families vinden de Model Y geweldig.”  
 
Goed: “De Tesla Model Y combineert een groot bereik met een gezinsvriendelijk ontwerp en plek voor wel zeven personen.” 
Past bij de Denk-richting 
Geeft direct antwoord AI krijgt vaak directe vragen. Tekst die duidelijke antwoorden geeft, vooral aan het begin van een stukje, wordt vaker gebruikt. “Ja, de overheidssubsidie geldt voor de 2024 Mustang Mach-E als deze voldoet aan de eisen voor de assemblage en acculevering.” Makkelijk in elkaar te zetten 
Feitelijk, Vermeld Bronnen, Controleerbaar Tekst die als bron kan dienen, moet duidelijke feiten bevatten, geen gokken doen, en bronnen of duidelijke beweringen (met codes) hebben. “De 2024 Ioniq 5 heeft een geschatte actieradius van 488 km en kan ultrasnel opladen met 350kW DC. Bron: Ministerie van Energie, maart 2024.” Verdien een Citaat 

De manier waarop deze systemen werken, laat zien dat dit allemaal nodig is om in aanmerking te komen voor Google’s antwoorden. Maar zelfs dan is er geen garantie dat je zichtbaar wordt, als jouw content niet goed past bij wat de AI van een specifieke gebruiker ‘denkt te weten’ (de ‘user embeddings’, de digitale ‘vingerafdrukken’ van een gebruiker, die Google’s AI helpt om content persoonlijk af te stemmen).  

Dit betekent dat een groot deel van het werk nu is om ‘user embeddings’ te bouwen die laten zien wat jouw doelgroep doet, en te testen hoe jouw content dan verschijnt. We moeten ook weten waar we staan in al die duizenden vragen die Google in gedachten neemt. 

AI Mode vraagt om slimme rangschikking (Matrixed Ranking Strategies) 

Als ik kijk naar hoe Google’s AI-technologie werkt, dan moet je je aanpak om hoog te scoren in AI Mode dus heel gelaagd en veelzijdig maken. Het doel is dat Gemini (Google’s slimme AI) jou tegenkomt bij zoveel mogelijk van de extra vragen die het zelf bedenkt. En dat jouw boodschap dan steeds het meest nuttig is bij elke ‘redenering’-stap die de AI zet. 

Denk even terug aan hoe Google teksten in kleine stukjes snijdt, genaamd passage indexing. Google snapt jouw webpagina’s heel precies. Dus, het liefst heb je één hele sterke pagina die alles uitlegt over al die extra vragen. Dan hoef je je maar op die ene pagina te richten. Maar soms heb je toch meerdere pagina’s nodig; dat zie je vanzelf als je kijkt naar de gegevens van die slimme, bedachte zoekvragen. 

Je zou kunnen zeggen dat als je al werkt met “onderwerpclusters” (groepjes pagina’s over eenzelfde thema), je dit al doet. Maar in de praktijk zijn die huidige clusters, zoals we ze nu kennen, vaak gebaseerd op wat je zelf denkt dat bij elkaar hoort, net zoals ons ouderwetse idee van ‘relevantie’. In plaats daarvan moeten deze clusters nu gebaseerd zijn op echte gegevens van hoe mensen zoeken en wat Gemini precies bedenkt als het vragen ‘uitwaaiert’. 

Untitled design

Nu we een idee hebben van de mogelijke verborgen vragen, moeten we een soort overzicht (matrix) maken van zoekwoorden en kijken hoe goed we scoren voor al die extra vragen. Zo doe je dat: 

  • Haal de scores en landingspagina’s op voor de extra vragen: Dit is simpel, en eigenlijk het enige waar de bestaande SEO-tools je mee kunnen helpen. 
  • Maak ‘digitale vingerafdrukken’ (Vector Embeddings) voor de vragen en alle stukjes tekst in je documenten: We moeten voor elk stukje tekst op onze pagina’s zo’n digitale vingerafdruk maken, zodat we kunnen nabootsen hoe Google die stukjes tekst indexeert. Google’s eigen digitale vingerafdrukken zijn op dit moment het beste en zij zijn de enigen die onderscheid maken tussen de vingerafdruk van een vraag en die van een document. Ze zijn dus het meest geschikt hiervoor. 
  • Vind en beoordeel de meest passende stukjes tekst uit elk document: Als we de digitale vingerafdrukken van de zoekwoorden en de tekststukjes hebben, moeten we de meest relevante stukjes in onze documenten vinden door te meten hoe goed ze bij elkaar passen (cosine similarity). 
  • Vergelijk ze met de ‘digitale vingerafdrukken’ van de bronvermeldingen: Daarna moeten we de digitale vingerafdrukken maken van de bronnen die Google zelf aanwijst in het AI Mode antwoord. Die vergelijken we dan met onze eigen scores. 
  • Verbeter de relevantie over de verschillende pagina’s heen: Bij alle plekken waar we lager scoorden, moeten we teruggaan en de relevantie van die content verbeteren. Dit doe je door de tekst beter in stukjes te verdelen, cijfers en feiten te controleren, de leesbaarheid te verbeteren en slimme (semantische) codes te gebruiken, zoals we eerder bespraken. 

Dit hele proces is meer dan alleen SEO, want er is geen enkele SEO-software die je helpt met digitale vingerafdrukken op stukjes tekst-niveau. Geen enkele SEO-software berekent de relevantie per tekstblok. Geen enkele SEO-software helpt je om slimme (synthetische) vragen te vinden. Geen enkele SEO-software helpt je om meerdere pagina’s tegelijk te optimaliseren om je zichtbaarheid te verbeteren. Er bestaat op dit moment geen SEO-software die je helpt te optimaliseren voor AI Mode. Op het moment van schrijven zou je dus je eigen code moeten schrijven om te doen wat we zojuist hebben uitgelegd. 

Met andere woorden: je moet je relevantie zélf slim ‘engineeren’

Is Rank Tracking nog wel nuttig voor AI Mode? 

‘Rank tracking’ (het bijhouden van je positie in de zoekresultaten) staat al een tijdje op losse schroeven. Kort samengevat: ondanks alle personalisatie probeert rank tracking een gebruiker na te bootsen die niet bestaat, alleen maar om zichtbaarheid te meten. Door de constante veranderingen heeft het geen plaats meer in AI Mode. Omdat personalisatie zo diep in de gebruikerservaring zit, kloppen gegevens van uitgelogde zoekopdrachten vrijwel niet meer. Sterker nog, veel van de gegevens waarop we binnen SEO beslissingen baseren, zijn onnauwkeurig, ook al lijken ze heel precies. Dat was misschien genoeg in een tijd dat alles vaststond, maar werkt niet meer in een wereld waar alles waarschijnlijk is. 

Het team van Profound heeft nagedacht over hoe je analyses doet voor gespreksgerichte zoekfuncties zoals AIO’s, ChatGPT, Perplexity en CoPilot.  Josh Blyskal, AI Strateeg bij Profound, zei het volgende: 

“We zijn erg positief over AI Mode. Het is nu al de meest gebruikte ‘antwoordmachine’ ter wereld, en we zien dat niet snel veranderen. Generatieve antwoorden in een gespreksinterface zijn een fundamenteel betere manier om informatie te vinden. 

We verwachten dat het bijhouden van AI Mode steeds meer zal lijken op wat we zien bij ChatGPT en Perplexity. Merken zullen zich richten op zichtbaarheid, sentiment en bronvermeldingen binnen AI Mode-antwoorden. 

AI Mode zal zeer waarschijnlijk veel gebruikmaken van Google’s Knowledge Graph en Shopping Graph. Dus voor simpele zoekopdrachten zoals ‘wat is de beste zakelijke creditcard’, kunnen de antwoorden meer overeenkomen met de gewone Google-resultaten. 

Profound werkt al aan technologie om merken te helpen vaker te verschijnen in AI Mode.” ~ Josh Blyskal 

Dit sluit aan bij een vraag die ik eerder stelde over hoe analyses eruitzien in een sterk gepersonaliseerde omgeving. We waren het erover eens dat er behoefte is aan het volgen van resultaten op basis van gebruikersprofielen (persona’s). Dit betekent dat de ‘ranking’ voor AI Mode moet worden bijgehouden door in te loggen met een Google-account waarvan de context overeenkomt met je doelgroep. 

AI Mode profiteert van meerdere soorten content (Multimodal Content Strategy) De nieuwe eisen voor SEO-software in het AI Zoektijdperk  

Uit gelekte documenten van vorig jaar bleek al dat Google rekening houdt met het formaat van de content bij het kiezen wat er scoort. Dit betekent dat er een beperkt aantal plaatsen is voor een bepaald type content op bepaalde zoekresultatenpagina’s. AI Mode verandert de balans en wat geldt als ‘content’. Dit systeem maakt antwoorden door informatie te combineren uit allerlei formaten, zoals tekst, geluid, video, afbeeldingen en bewegende beelden. Als je in deze nieuwe wereld alleen vertrouwt op tekst, beperk je jezelf niet alleen, je loopt ook het risico om helemaal buiten de boot te vallen. 

Google’s AI-systeem kan video’s omzetten naar tekst, feiten uit podcasts halen, diagrammen begrijpen en dit alles mixen tot nieuwe antwoorden, zoals lijsten, samenvattingen of visuele presentaties. Een productvideo kan een quote leveren. Een podcast kan een stukje data geven. Een infographic kan een gegenereerd antwoord in tekst worden. Het formaat is dus net zo belangrijk als de content zelf. 

Al vroeg in het AI Mode-proces bepaalt Google’s systeem niet alleen het type vraag, maar ook de ideale manier om het antwoord te geven (bijvoorbeeld visueel of gesproken). Als een visuele of gesproken uitleg nuttiger wordt geacht dan een geschreven uitleg, kan AI Mode die formaten voorrang geven boven traditionele webpagina’s. Dat betekent dat een accurater artikel genegeerd kan worden ten gunste van een relevant filmpje of een visuele uitleg. 

Bedrijven moeten gaan nadenken over content in termen van beschikbaarheid in verschillende formaten. Net zoals we nu plannen maken voor groepjes gerelateerde vragen en gebruikersintenties, moeten we ook plannen maken voor groepjes gerelateerde formaten. Jouw doel is niet alleen het meest relevante artikel zijn. Het is om de meest relevante video, de meest relevante grafiek, het meest relevante geluidsfragment te zijn. 

Als je die formaten niet produceert, kan Google ze misschien nog steeds uit jouw content halen. Maar dan kan het zijn dat Google je niet als bron vermeldt. Het maken van content in meerdere formaten is niet langer alleen een voordeel voor zichtbaarheid. Het is een strategie om te bepalen hoe jouw merk wordt vertegenwoordigd. 

In AI Mode winnen degenen die complete content-ecosystemen bouwen, niet alleen losse contentpagina’s. Zichtbaarheid hangt nu af van aanwezigheid op alle plekken waar het systeem kan kijken, en in elk formaat dat het kan verwerken. 

De nieuwe eisen voor SEO-software in het AI Zoektijdperk  

pexels googledeepmind 18069693

Het wordt steeds duidelijker dat de meeste populaire SEO-software niet genoeg doet om moderne SEO te ondersteunen. De reden waarom “Python SEO” zo populair is, komt doordat de huidige soorten SEO-software gewoonweg niet modern genoeg is.  

Ons collectieve gebrek aan technische standaarden is de reden waarom het zo achterloopt. Hier zijn echter enkele belangrijke functies en mogelijkheden die je als gebruiker moet eisen van je softwareleveranciers om je te helpen bij het ‘engineeren’ van zichtbaarheid in de toekomst. Voor de ‘Relevantie-engineers’ is dit wat er nodig is om de persoonlijke gereedschapskist compleet te maken voor AI Overviews en AI Mode. 

AI Zoekmeting in Google Search Console  

Laten we beginnen bij de hoofddader: Google zelf. Google Search Console is zo’n vreemd en beperkt product. Wat is het nut bijvoorbeeld van het Links Report? Waarvoor gebruikt iemand dat? 

Dit is wat we specifiek nodig hebben om Google’s AI Zoekfuncties meetbaar te maken: 

  • Wat het is: Specifieke AI-rapportage over zichtbaarheid, bronvermeldingen en de frequentie van verschijning in generatieve antwoorden. 
  • Waarom je het nodig hebt: AI Mode vermindert nu al het doorklikpercentage, maar we hebben geen idee of we nog waarde leveren of volledig worden omzeild. Google beweert dat AI Overview-gegevens erin zitten, maar er is geen manier om ze eruit te filteren. 
  • Hoe ze het moeten leveren: Rapporten per segment voor elk AI-vlak (AI Overview, AI Mode, enz.) die ‘heatmaps’ van bronvermeldingen en gegevens over hoe vaak passages worden gebruikt, omvatten. 
  • Hoe je er nu rekening mee kunt houden: Dat kan niet. Maar je kunt generatieve antwoorden wel grootschalig scrapen en monitoren met tools zoals Profound of door je eigen browser-automatiseringstools te bouwen en met ‘string matching’ vermeldingen bij te houden. 

Rank Tracking op basis van gedrags-persona’s 

Rank tracking is nog steeds voornamelijk gebaseerd op een vast idee van algemene rangschikkingen. Maar in AI Mode zijn rangschikkingen dynamisch, samengesteld en specifiek voor de gebruiker. 

  • Wat het is: Rank tracking voor AI Mode gebaseerd op slimme (synthetische) zoekvragen en dynamische, gepersonaliseerde gebruikerscontexten (persona’s). 
  • Waarom je het nodig hebt: AI Mode toont niet hetzelfde resultaat aan iedereen. Dus het begrijpen van ranking als een vaste positie is eigenlijk verouderd. 
  • Hoe ze het moeten leveren: Rangschikkingsmodellen die de intentie van de gebruiker, het type gebruiker en de klassieke organische positie voor kernzoekwoorden en over uitgewaaierde vragen heen omvatten. 
  • Hoe je er nu rekening mee kunt houden: Je kunt het niet echt nabootsen, maar door Google-accounts aan te maken en de context op te bouwen met tools zoals Operator of een ‘headless browser’, kun je de persona creëren. Daarna voer je kernvragen uit in AI Mode en de slimme (synthetische) zoekvragen in de klassieke organische zoekresultaten, en verzamel je de gegevens. 
  • Hoe je het kunt eisen: Profound is waarschijnlijk het dichtst bij een oplossing hiervoor voor AI Mode en AIO’s. Je kunt contact met hen opnemen om te zien wat er beschikbaar is. 

Vector Embeddings voor het Web (Vector Embeddings for the Web) 

Vector Embeddings (digitale vingerafdrukken) liggen aan de basis van alles in het moderne Google. De afgelopen jaren hebben we ontdekt dat het systeem digitale representaties maakt van zoekvragen, pagina’s, passages, auteurs, entiteiten, websites en nu ook gebruikers zelf.  

Desondanks is de SEO-industrie nog steeds verankerd in trefwoordscores en trefwoorddichtheid, en heeft het geen toegang tot het semantische landschap dat de opname in AI Overviews en AI Mode daadwerkelijk bepaalt. Als we relevant willen blijven, moeten vector embeddings een fundamentele vaardigheid worden. 

Recent is er nog een onderzoekspaper uitgekomen met de titel Harnessing the Universal Geometry of Embeddings, waarin staat dat alle vector embeddings uiteindelijk samenkomen in dezelfde geometrie. Dit suggereert dat we op een gegeven moment in staat zullen zijn om embeddings om te zetten, wat betekent dat we open-source embeddings kunnen genereren en omzetten naar wat Google gebruikt. 

  • Wat het is: De wiskundige representaties in een multidimensionale ruimte die worden gebruikt bij het berekenen van betekenis en relaties tussen entiteiten, documenten, websites, auteurs en aspecten van content. 
  • Waarom je het nodig hebt: Google’s ophaalmodel is gebaseerd op de gelijkenis van vectoren. Als je niet begrijpt hoe je content in de vectorruimte zit, begrijp je niet hoe deze zal worden opgehaald of geciteerd. 
  • Hoe ze het moeten leveren: We hebben een ‘embeddings explorer’ van het web nodig die embeddings op site-niveau, auteur-niveau, pagina-niveau en passage-niveau onthult, voor vergelijking over het hele web. We hebben tools nodig die je content ontleden in losse beweringen (driehoeken) en hun opvraagbaarheid en nut scoren over uitgewaaierde zoekvragen. En ten slotte hebben we tools nodig voor content opschoning op basis van de site-focus-score in lijn met de gegevens uit het lek. 
  • Hoe je er nu rekening mee kunt houden: Screaming Frog biedt de mogelijkheid om te crawlen en vector embeddings te genereren. Om ze echter op passage-niveau te genereren, moet je een aangepaste JS-functie schrijven. Entiteiten, auteurs en websites vereisen aggregatie. 
  • Hoe je het kunt eisen: Neem contact op met de support van je ‘link data provider’ en vraag waarom zij dit niet aanbieden. 

Matrixed Semantic Content Editors 

Content creatie voor AI Mode is vaak geen taak voor één pagina. Je concurreert nu over een matrix van slimme (synthetische) zoekvragen, redeneerstappen en vergelijkingen op passage-niveau. Dat betekent dat content moet worden ‘ontworpen’ over clusters heen, niet alleen geoptimaliseerd op zichzelf. Toch laten SEO-contenteditors alleen toe om content te bewerken voor een enkel zoekwoord, gebaseerd op het tekstmodel. De toekomst vereist een interface waarin contentoptimalisatie tegelijkertijd plaatsvindt over meerdere lagen en subvragen, met ‘dense retrieval’ in gedachten. 

  • Wat het is: Een contentbewerkingsprogramma dat je de mogelijkheid geeft om content over een groep zoekwoorden te analyseren en te ‘ontwerpen’ in één interface. 
  • Waarom je het nodig hebt: Er zijn veel SEO-contenteditors. De meeste werken alleen met ‘sparse retrieval’-technieken (TF-IDF/BM25). RAG-pijplijnen werken grotendeels met ‘dense retrieval’-technieken. Sommige gebruiken ‘hybrid retrieval’. Geen van de grote gebruikt ‘sparse retrieval’ als hun primaire methode. 
  • Hoe ze het moeten leveren: Een gebruikersinterface voor contentbewerking die matching op passage-niveau toont voor zoekwoordclusters, met visualisatie van embeddings en overlap in rangschikking. 
  • Hoe je er nu rekening mee kunt houden: Je zou je eigen tool moeten bouwen.  
  • Hoe je het kunt eisen: Neem contact op met de support van je content editor tool en vraag wanneer ze verwachten hun oplossing te moderniseren. 

Zoekvragen als een reis (Query Journeys) 

Zoeken is niet langer een eenmalige beslissing. Het is een reeks gerelateerde vragen binnen één sessie, waarvan vele door het systeem zelf worden gegenereerd. ‘Query fan-out’, ‘DeepSearch’ en redeneerketens weerspiegelen allemaal deze ontwikkeling. Maar veel zoekwoordonderzoekstools gaan nog steeds uit van losstaande zoekvragen, en negeren de volgorde waarin gebruikers omgaan met onderwerpen. Begrijpen hoe zoekvragen in de loop van de tijd evolueren, is essentieel om invloed te ‘engineeren’ over het besluitvormingstraject van een gebruiker. 

  • Wat het is: De geordende reeksen van gebruikersvragen uit ‘clickstream’-gegevens (gegevens over klikgedrag). 
  • Waarom je het nodig hebt: Het begrijpen van gedrag met meerdere vragen is essentieel voor het ‘engineeren’ van zichtbaarheid tijdens besluitvormingstrajecten. 
  • Hoe ze het moeten leveren: Reeksen zoekwoordgegevens met gebruikerskenmerken. 
  • Hoe je er nu rekening mee kunt houden: Je zou een abonnement moeten nemen bij een bedrijf zoals Datos en de gegevens zelf moeten samenvoegen. 
  • Hoe je het kunt eisen: Neem contact op met de support van je zoekwoordonderzoekstool en vraag wanneer ze ‘clickstream’-gegevens zullen integreren voor zoekvraagtrajecten. 

Personalized Retrieval Simulations 

Nu ‘user embeddings’ centraal staan in hoe Google resultaten personaliseert, is relevantie niet langer universeel. Twee mensen die dezelfde vraag stellen, kunnen totaal verschillende antwoorden zien. Het huidige model van rank tracking gaat uit van een statisch gebruikersprofiel, wat in deze context faalt.  

Wat we in plaats daarvan nodig hebben, zijn tools die simuleren hoe onze content presteert ten opzichte van verschillende gedrags-persona’s, zodat we kunnen ‘engineeren’ voor zichtbaarheid in verschillende gebruikerscontexten, en niet alleen voor een hypothetische ‘gemiddelde’ gebruiker. 

  • Wat het is: Het modelleren van hoe gebruikers-embeddings van invloed zijn op het ophalen van informatie in AI Mode. 
  • Waarom je het nodig hebt: Google stemt antwoorden steeds meer af op wie de vraag stelt, niet alleen op wat ze vragen. Zonder te begrijpen hoe je content presteert voor verschillende gebruikerstypen, optimaliseer je te veel voor een denkbeeldige “gemiddelde” gebruiker. 
  • Hoe ze het moeten leveren: Een gebruikersinterface aangedreven door embeddings die gebruikers-persona’s vertegenwoordigen, elk met verschillende “geheugenprofielen” waarmee je je contentcorpus kunt testen versus concurrenten. 
  • Hoe je er nu rekening mee kunt houden: Simuleer het ophalen van informatie tegen aangepaste embeddings of vraagcontexten met behulp van open-source LLM’s en variabele “geheugen”-invoegingen. 
  • Hoe je het kunt eisen: MarketBrew heeft waarschijnlijk de oplossing die hier het dichtst bij in de buurt komt; je zou dus moeten vragen hoe zij dit aanpakken. 

Zoekvraagclassificatie (Query Classification) 

Zoekvraagclassificatie in de meeste SEO-tools is vrij basis. 

  • Wat het is: Het toewijzen van Google’s interne zoekvraagclassificaties (gebruikersintentietypen zoals ‘short_fact’, ‘reason’, enz.) aan zoekvragen met behulp van Machine Learning en LLM’s. 
  • Waarom je het nodig hebt: AI Mode classificeert zoekvragen om het antwoordformaat, de modelselectie en de ’trigger’-sjablonen te bepalen. Je content moet overeenkomen met het formaat en het intentietype. 
  • Hoe ze het moeten leveren: Classificatie gebaseerd op Google’s interne taxonomieën, met ondersteuning voor meerdere intenties per zoekvraag. 
  • Hoe je er nu rekening mee kunt houden: Gebruik Marks classifier als onderdeel van je zoekwoordonderzoeksproces. 
  • Hoe je het kunt eisen: Vraag Mark om een API te maken zodat iedereen deze gegevens op schaal kan gebruiken. 

Zoekvraag Uitbreiding (Query Expansion) 

‘Query fan-out’ (het uitwaaieren van de zoekvragen) herschrijft de aard van zichtbaarheid. Elke moderne SEO-workflow moet het simuleren van zoekvraaguitbreiding opnemen als een basisinput voor contentplanning en prestatiemodellering. 

  • Wat het is: Het genereren van gerelateerde, impliciete, vergelijkende en recente subvragen door het systeem om het ophalen van informatie aan te sturen. 
  • Waarom je het nodig hebt: Er is altijd een vorm van zoekvraaguitbreiding geweest, want een zoekopdracht zoals [gm auto] is “General Motors auto”, maar je zou waarschijnlijk niet de juiste resultaten krijgen tenzij je “General Motors” op de achtergrond meeneemt. Hummingbird (bijv. Word2Vec) zorgde hiervoor, zodat we er niet over na hoefden te denken. In het geval van AI Mode, als je hier niet voor scoort, word je niet meegenomen, ongeacht je prestaties voor de hoofdterm. 
  • Hoe ze het moeten leveren: Een matrix van slimme (synthetische) zoekvragen met een zichtbaarheidsscore, gekoppeld aan primaire hoofdvragen. 
  • Hoe je er nu rekening mee kunt houden: Gebruik tools zoals Qforia of Gemini prompt-ketens om ‘fan-out’ te simuleren, en vergelijk ze daarna met embeddings. 
  • Hoe je het kunt eisen: Neem contact op met de support van je zoekwoordonderzoekstool en stuur ze dit bericht. 

Clickstream Gegevens  

Gegevens van AI Overviews en AI Mode zijn niet direct zichtbaar in Google Search Console, en veel generatieve resultaten leiden helemaal niet tot klikken. Dit verbreekt ons vermogen om prestaties te begrijpen via traditionele webanalyse.  

Clickstream-gegevens worden essentieel als een indirecte meting voor gebruikersgedrag. Het biedt inzicht in wat gebruikers zien, wat ze kiezen en wat ze overslaan, zelfs in situaties zonder klikken. SEO-tools moeten dit externe signaal integreren om de mogelijkheid tot observatie te herstellen in een ruimte waar directe toeschrijving verdwijnt. Herschikking wordt ook geactiveerd door klikgedrag; SEO-software zou een idee moeten geven van de klikmodellen op basis van deze gegevens. 

  • Wat het is: Geaggregeerde gebruikersgedragsgegevens die echte verkeersstromen en klikreeksen vastleggen. 
  • Waarom je het nodig hebt: Zonder gegevens uit Google Search Console is clickstream misschien je enige blik op verkeerspaden en gedrag na klikken. 
  • Hoe ze het moeten leveren: Integratie met clickstream-aanbieders zoals Similarweb of Datos, gekoppeld aan organische en AI-vlakken. 
  • Hoe je er nu rekening mee kunt houden: Voeg het handmatig samen met clickstream-gegevens en inferentiemodellen van het SERP-type. 
  • Hoe je het kunt eisen: Neem contact op met de support van je zoekwoordonderzoekstool en stuur ze dit bericht. 

Reasoning Chain Simulation 

De logica van AI Mode is niet lineair; het wordt afgeleid. Antwoorden worden opgebouwd via ketens van redeneerstappen die meerdere passages en contenttypen omvatten. Succes betekent dat jouw content wordt geselecteerd om een van die stappen te ondersteunen. Maar tenzij je de redeneerketen simuleert, weet je niet of je content nuttig is voor het denkproces van de machine. Tools moeten ons in staat stellen dit proces na te bootsen, zodat we niet alleen kunnen testen “scoort mijn content?”, maar ook “helpt mijn content het model te denken?” en “waar valt mijn content uit de redeneerketen?”. 

  • Wat het is: De mogelijkheid om te simuleren hoe een systeem zoals Gemini een antwoord opbouwt via tussenliggende logische stappen met behulp van ‘Chain-of-Thought prompting’ en synthese op passage-niveau. 
  • Waarom je het nodig hebt: Zichtbaarheid in AI Mode hangt niet alleen af van goede content, maar van passages die stappen in het denkproces van een machine ondersteunen. Zonder dat proces te simuleren, heb je geen idee of je content bruikbaar is. 
  • Hoe ze het moeten leveren: Gesimuleerde redeneerstromen per zoekwoordcluster, met bronvermelding mapping naar content en feedback voor wanneer je uit de paarsgewijze redenering valt. 
  • Hoe je er nu rekening mee kunt houden: Bouw je eigen systeem met LlamaIndex, ‘Chain-of-Thought’ prompts, en een vector store van de passages van je eigen site. 
  • Hoe je het kunt eisen: MarketBrew heeft waarschijnlijk de oplossing die hier het dichtst bij in de buurt komt; je zou moeten vragen hoe zij dit aanpakken. 

Relevantie-gebaseerde Link Grafieken  

Ondanks duidelijke veranderingen in hoe Google de ‘link graph’ ziet, is er al heel lang geen significante beweging meer geweest van linkdata-providers. Ze zouden op zijn minst relevantiescores moeten geven tussen bron- en doeldocumenten. Ze zouden ook ‘clickstream’-gegevens en rangschikkingen moeten gebruiken om een idee te krijgen van waar content zich in de index bevindt, aangezien we nu weten dat dit de waarde beïnvloedt die een link doorgeeft. 

Ik durf te stellen dat de ‘link graph’, zoals we die nu hebben, … niet zo interessant meer is geworden door de gaten in de gegevens. De link-indexen kunnen volledig worden nieuw leven ingeblazen en aanzienlijk waardevoller worden door de leveranciers van de embeddings-gegevens te worden. 

  • Wat het is: Een ‘next-gen’ linkanalysysteem dat links scoort, niet alleen op autoriteit, maar ook op semantische afstemming, opvraagbaarheid, co-citatiegedrag en afgeleide indexpositie. 
  • Waarom je het nodig hebt: Google’s gebruik van linkdata is geëvolueerd. ‘Link equity’ is nu verweven met ophaalpatronen en passage-relevantie. 
  • Hoe ze het moeten leveren: Relevantiescores op document- en passage-niveau tussen bron en doel, met behulp van ‘dense embeddings’ en ‘clickstream’-modificatoren. 
  • Hoe je er nu rekening mee kunt houden: Bouw een systeem met Screaming Frog, Ollama embeddings en Gephi om je interne en externe linkgrafiek te visualiseren en te scoren, maar veel succes met het crawlen van het hele web op deze manier. 
  • Hoe je het kunt eisen: Neem contact op met de support van je linkprovider en stuur ze dit bericht. 

Naast wat we van Google nodig hebben, zijn dit tien dingen die de software-industrie voor SEO zou moeten omarmen in hun oplossingen. Deze aspecten zijn niet alleen relevant voor de onvermijdelijke toekomst waarin AI Mode de standaard wordt, maar zijn ook nu al relevant voor AI Overviews.  

De zoekstrategie heroverwegen voor de AI Mode-omgeving 

AI Mode staat voor een structurele transformatie in het zoeklandschap. Wat begon als verbeteringen aan de zoekresultatenpagina (SERP), is nu uitgegroeid tot een op zichzelf staand ecosysteem van conversationele, multimodale en door geheugen beïnvloede zoekresultaten. De traditionele SEO-aanpak, die gebaseerd is op exacte zoekopdrachten, voorspelbare rankings en prestaties gemeten via klikken, schiet hier tekort. 

Net zoals AI Mode een uitbreiding is van AI Overviews, kunnen we verwachten dat het gebruikersgedrag soortgelijke, maar nog meer gecomprimeerde patronen zal vertonen. De beste vergelijking is waarschijnlijk met omgevingen als ChatGPT of Perplexity: plaatsen waar gebruikers moeiteloos en met veel vertrouwen communiceren, en volledig samengevatte antwoorden krijgen met weinig tot geen klikken. Dit betekent dat organisch zoeken in AI Mode zich meer gedraagt als een zero-click brandingkanaal dan als een traditioneel prestatiekanaal. 

Maar in tegenstelling tot AI Overviews, introduceert AI Mode meerdere dimensies die de betekenis van ‘zichtbaar zijn’ fundamenteel veranderen. De strategie moet daarom verschuiven. Het is niet langer alleen de ranking die belangrijk is; het draait om het verdienen van een plek in de dataset van kandidaten en het winnen van passageselectie. 

De eerste beslissing is eenvoudig: wil je er wel zijn? 

Het klinkt misschien gek, maar dit kan het moment zijn dat je organisatie of klant dit kanaal loslaat als iets wat ze proactief willen manipuleren. Een deel van de gebruikers zal namelijk terugvallen op klassiek zoeken. Als je daar goed presteert, hecht je misschien minder waarde aan AI Mode. Wellicht is je totale kanaalmix al toereikend, en/of vind je elders betere incrementele groei. 

Vanuit een strategisch oogpunt vraagt deze verschuiving om een fundamentele herijking. Organisaties moeten stoppen met enkel optimaliseren voor verkeer en beginnen met concurreren om machine-gemedieerde relevantie. Succes in AI Mode is geen kwestie van oppervlakkige rankings, maar van embedding-afstemming, informatieve bruikbaarheid en latente inclusie in redeneersystemen.  

De strategische implicaties zijn te verdelen over drie gebieden: herclassificatie van kanalen, transformatie van capaciteiten en modernisering van de datainfrastructuur. 

Zoeken herclassificeren als een AI-zichtbaarheidskanaal 

Historisch gezien functioneerde organisch zoeken als een hybride prestatie- en merkkanaal. Ongeveer 70% was toe te schrijven aan prestatiegerichte gebruikersacties en 30% aan merkversterking. In het AI Mode-paradigma zal die balans waarschijnlijk omkeren. 

Zoeken moet nu opnieuw worden gedefinieerd als een zichtbaarheids- en vertrouwenskanaal, gemedieerd via grote taalmodellen. Het doel van de organisatie verschuift van het genereren van verkeer naar het worden gekozen als bron. Dit vraagt om een nieuwe KPI-structuur: 

  • Aandeel van stem in AI-oppervlakken 
  • Sentiment en citatieprominentie in generatieve antwoorden 
  • Attributie-invloedmodellering boven deterministische last-click attributie 

Leiders moeten budgettoewijzingen, verwachtingen van stakeholders en meetkaders hierop aanpassen. Het gaat niet langer om verschijnen voor een zoekwoord; het gaat om gecodeerd zijn in het begrip van het informatiemodel, wat inhoudt dat je content zo diepgaand is verwerkt en geïntegreerd door de AI, dat het een integraal onderdeel wordt van de kennis die de AI gebruikt om antwoorden te formuleren, en niet slechts een oppervlakkige trefwoordmatch). 

Relevantie opbouwen als een organisatiecompetentie 

In een generatief retrieval-ecosysteem is de bron van concurrentievoordeel niet de hoeveelheid content of de snelheid van linkbuilding; het is de systematische engineering van relevantie over vectorruimtes. 

Dit vereist nieuwe capaciteiten: 

  • Semantische architectuur: Het structureren van kennisactiva om machineleesbaar, hercombineerbaar en contextueel persistent te zijn. 
  • Content portfoliomanagement: Het behandelen van zoekwoordportfolio’s en contentactiva als financiële instrumenten: gediversifieerd, op prestaties gemonitord en gesnoeid op relevantieverval. 
  • Modelbewuste redactionele strategie: Content ontwerpen, niet alleen voor gebruikers, maar ook voor AI-agents: optimaliseren voor LLM-interpretatie, citatie en ‘embedding-afstand’ tot concurrenten. 

Vooruitstrevende organisaties zullen investeren in teams die SEO, NLP, data science, UX, digitale PR en contentstrategie combineren tot een geïntegreerde functie voor Relevance Engineering. Deze unit wordt de verbindende factor tussen merk, product en AI-zichtbaarheid. 

Operationele intelligentie in een post-klikwereld 

Het verdwijnen van de klik als primair prestatiesignaal zorgt ervoor dat organisaties blind vliegen, tenzij ze hun datastrategie moderniseren. Dit omvat machineleesbare relevantiemetrieken en analyses van generatieve oppervlakken. 

Strategische noodzaken hierbij zijn: 

  • Simulatie-infrastructuur: Het opzetten van interne LLM-evaluatiepijplijnen (RAG, LlamaIndex, etc.) om merkzichtbaarheid in AI-antwoorden te simuleren en relevantiemetrieken te trainen. 
  • Citatie-intelligentieplatforms: Bijhouden wanneer, hoe en waarom merkmiddelen worden geciteerd in AI-systemen, zelfs in ‘zero-click’ omgevingen. 
  • Contentintelligentie: Investeren in infrastructuur die ‘passage-level embeddings’, dekking van kennisgrafieken en contentprestaties verenigt over zowel klassieke als generatieve retrieval-systemen. 

Leidinggevenden moeten de blik verruimen. Ze moeten verder kijken dan dashboards die enkel historisch gebruikersgedrag tonen. Ze moeten systemen omarmen die inzicht geven in hoe de organisatie digitaal wordt ‘begrepen’ en vertrouwd door AI-systemen, en hoe die AI-systemen content hergebruiken namens gebruikers. Dit betekent dat branding nu even belangrijk wordt als directe prestaties. 

Strategische positionering: Van prestaties naar participatie en van optimalisatie naar orkestratie 

Uiteindelijk vereist de AI Mode-omgeving een verschuiving van zoeken als transactie naar zoeken als participatie. De vraag is niet langer “hoe ranken we?”, maar “hoe worden we gerepresenteerd in de AI-cognitie?” 

Dit markeert de opkomst van een nieuwe bedrijfsfunctie: Relevantie Strategie. Dit omvat de doelbewuste, cross-functionele coördinatie van de aanwezigheid van een bedrijf in algoritmische besluitvormingssystemen, in lijn met Relevance Engineering.  

Organisaties die hierin slagen, zullen zichtbaarheid niet langer als een campagne-uitkomst behandelen, maar als een strategisch middel dat moet worden ontworpen, gemeten en beheerd. 

Helaas, niet iedereen zal de overstap maken. Jij wel?

pexels googledeepmind 17485632

SEO in het tijdperk van AI Mode draait niet langer om het najagen van ‘blauwe links’ (de traditionele zoekresultaten die verschijnen als klikbare tekstlinks op Google’s resultatenpagina). Het gaat nu om de creatie van stevige, vindbare en herbruikbare contentstukken die dienen als invoer voor machinale synthese. Dit vraagt om een zekere mentaliteitsverandering: weg van tactische optimalisatie, en toe naar strategische orkestratie van zoekvragen, contentformaten en embeddings. 

Relevance Engineers zullen deze transitie leiden. Zij zijn namelijk degenen die niet alleen de werking van de systemen begrijpen, maar ook werkstromen, trainingssets en tools ontwikkelen die merken zichtbaar houden, zelfs in een wereld zonder traditionele zoekresultatenpagina’s (SERP’s). 

Of je het nu leuk vindt of niet, we zijn een nieuw zoektijdperk binnengestapt! De relatie tussen gebruiker en zoekmachine is veranderd, net zoals de band tussen zoekmachines en websites. We kunnen blijven discussiëren over wat het wel of niet is. Of we kunnen onze vaardigheden en software herdefiniëren op basis van de daadwerkelijke koers van conversationeel zoeken.