AI Mode

Home   »   AI Mode

AI Mode

SEO ging lang over ranken op nummer 1. Je koos een keyword, optimaliseerde je pagina en deed er alles aan om bovenaan te ranken. Met de komst van AI-mode, het nieuwe paradepaardje, lijken de spelregels die daarbij horen deels passé te zijn. In het AI-tijdperk, ranken we niet meer op paginaniveau, maar op een stukje tekst uit een artikel. In deze blogpost leg ik je uit wat AI-mode is, wat de query-fan-out techniek inhoud en hoe jij als marketeer hier op in kunt spelen.

Wat is AI-mode?

AI-mode is het antwoord van Google op ChatGPT en andere LLM’s die snel markt veroveren. Waar we vroeger nog zochten tussen de blauwe linkjes in de zoekmachine, gaan we nu de conversatie aan met een chatbot. Daarmee verandert de manier van zoeken en het tot stand komen van een antwoord volledig. Het resultaat wat voorgeschoteld wordt, is opgebouwd uit stukjes tekst vanuit verschillende bronnen. Gekoppeld aan jouw interesses, locatie en gedragsgeschiedenis. Dit zorgt ervoor dat AI-mode als het ware een beeld proberen te schetsen wie je bent en waarin je geïnteresseerd bent. Zodat ze vervolgens voor jou, dus niet jijzelf, gaan browsen en evt. ook shoppen op het internet.

Dit klinkt allemaal sciencefiction, feit is: het is de wereld waar we heel snel in gaan leven. Zo vertelde Sundar Pichai recent, de CEO van Google recent:

“I expect the web to get a lot richer, and more interesting, and better to use. “at the same time, there’ll be an agentic web…but i think both will coexist,”

We bewegen daarmee steeds meer toe naar een web voor mensen en een “agentic” web voor AI-tools.

Query-fan-out techniek

Met de komst van AI-mode, ranken we niet meer op paginaniveau. Maar op stukjes tekst uit een artikel (semantic similarity). De techniek die daar achter hangt, wordt ook wel de query-fan-out techniek genoemd.

In tegenstelling tot traditionele SEO waarbij ranglijsten statisch zijn, genereert de AI-modus synthetische zoekopdrachten. In feite splitst het je zoekopdracht op in sub-zoekopdrachten (query fan out), haalt het relevante documentpassages op en verwerkt deze in meerdere ketens om een antwoord te kunnen formuleren.

Deze nieuwe manier om een antwoord te formuleren, vraagt om een aanpassing in je je aanpak. Maar eerst een voorbeeld om het concept echt goed te begrijpen. Stel jij zoekt op: wat zijn de beste hardloopschoenen voor een marathon. Dan zoekt Google:

  • Sportschoenen geschikt voor lange afstanden
  • Hardloopschoenen met positieve reviews
  • Welke hardloopschoenen zijn populair.
  • Hardloopschoenen marathon
  • etc.

Dit wordt gekoppeld aan zoekopdrachten die zijn afgestemd op de interesses, locatie of gedragsgeschiedenis van een specifieke gebruiker (via embeddings). Daarna volgt het advies van AI-mode pas.

Het concept: Query fan out, zorgt ervoor dat meerdere zoekintenties in één complexe prompt afgevangen kunnen worden gekoppeld aan jouw persoonlijke voorkeuren. Dat betekent dus ook: wat bij jou op nummer één rankt, hoeft bij de buurman niet meer zo te zijn.

De impact op SEO

Traditioneel draaide zoeken om zichtbaar zijn, aangeklikt worden en overtuigen. Maar LLM’s comprimeren dat proces. Ze beoordelen, filteren en maken een shortlist. Je website wordt misschien niet eens geraadpleegd, simpelweg omdat deze de selectie niet heeft gehaald. Je verliest niet van een concurrent – je wordt eruit gefilterd, zonder dat je ooit weet waarom.

Daarmee verandert de rol van SEO dus ook. Het gaat niet meer om topposities bereiken en kliks. Maar juist om zichtbaarheid, inclusiviteit, kwaliteit en het vertrouwen van een LLM of Gebruiker. Zo beschreef ik ook in mijn artikel SEO kpi’s in een AI tijdperk.

Dat betekent niet dat websites weggaan. Maar het doel wordt anders. Ook agents hebben content nodig, maar zullen er op een andere manier mee om gaan dan wij mensen. Miranda Gahrman legde dat in haar masterclass: SEO in the era of AI, haarfijn uit:

We verschuiven dus van een wereld waar we (een soort van) direct invloed hadden op het ranken van, naar een wereld waarin we niet precies weten hoe het eruit komt. Toch blijft ook in de toekomstige wereld belangrijk dat: content toegankelijk is, begrepen wordt en geïndexeerd kan worden.

Daarnaast moeten we afstappen van het concept: keyword, content en ranken. De Query-fan-out techniek verandert dat model radicaal. Dit betekent:

  • Ranken voor een keyword betekent minder dan de beste passage voor een concept.
  • Pagina’s hebben minder invloed dan passages
  • Pagina’s hoeven niet hoog te ranken om in een LLM antwoord opgenomen te worden.

Zo werkt passage indexing

Passage indexing is niet hetzelfde als het indexeren van individuele pagina’s. Google indexeert, zoals je gewend bent, nog steeds de hele pagina. Het evalueert de passage alleen apart. Je kunt er zo over denken:

  • Oude manier van denken: deze pagina is over het algemeen relevant
  • Nieuwe manier van denken: deze specifieke passage is relevant. Laten we dat los ranken.
Passage indexing

Het proces ziet er ongeveer zo uit:

  • Goog indexeert de hele pagina
  • Tijdens het rankingproces, identificeert het systeem relevante passages.
  • Het geeft de passage een individuele “score”
  • Ook al is de pagina irrelevant, de passage kan dan nog steeds ranken en dienen als antwoord op een prompt

Plaats de ontwikkeling in perspectief

Het is en blijft belangrijk om deze ontwikkelingen in perspectief te zien, want:

  • AI-mode is momenteel alleen nog in de VS beschikbaar
  • Het is niet de “standaard”, maar optioneel in de navigatie van Google
  • LLM’s zorgen momenteel nog maar voor 1% van het verkeer. Verkeer uit het traditionele Google levert 373x zoveel bezoekers op.
  • Er ontstaat nieuwe zoekintenties binnen zoekmachines / LLM’s. In het onderzoek van Profound (zie afbeelding hieronder) wordt het: generative genoemd. Zelf zou ik het: oplossingen o.i.d. noemen. Denk aan: het maken van een afbeelding o.b.v. prompt X of het oplossen van een stukje SQL code dat niet helemaal lekker loopt. Ook daarvoor ga je tegenwoordig steeds sneller het gesprek met een LLM aan. Dit soort conversaties zien we niet terug in traditionele search.

Wat kun jij als marketeer hieraan doen?

Alhoewel het concept “query fan out” vrij nieuw is en eigenlijk niemand weet we hier echt direct invloed op uit kunnen oefenen, denk ik dat onderstaande punten mogelijk kunnen bijdragen:

1. Persona’s definiëren

Jup, gewoon een rondje 101 marketing. Zoekresultaten worden persoonlijker. Wil je in dit soort systemen getriggerd worden, dan is het belangrijk om te begrijpen wat er in de hoofden van je doelgroep speelt. Ga op zoek naar pijnpunten, los problemen op en zorg ervoor dat je de vervolgvraag ook al beantwoord hebt. Je kunt dit eenvoudig doen met tools zoals: AlsoAsked. Maar ook door eens een kopje koffie te dringen bij de klantenservice of interviews met klanten af te nemen.

2. Branding, branding en nog eens….

Als je vaker door een AI getriggerd wilt worden, is het belangrijk om al eerder in de “choise set” van de consument te komen. Net als AI-mode, slaat een GPT ook persoonlijk gedrag op. Als je dat wilt beïnvloeden, is branding en andere kanalen die hier impact op hebben uitermate geschikt om ook je zichtbaarheid in AI antwoorden te vergroten.

3.”relevance engeneering” in je contentstrategie

In de woorden van Mike King: “This isn’t traditional SEO. This is Relevance Engineering (r17g).”. Het is de evolutie van semantische SEO, afgestemd op LLM-informatie opvraging, interpretatie en manier van samenvatten. 

Daarbij kunnen de volgende stappen helpen:

  • Structureer content wat “semantisch” klopt. 
  • Identificeren van synthetische zoekopdrachten en voeg relevante passage’s toe aan je content.
  • Werk aan of herstructureer je topic clusters waar je als organisatie over wilt gaan. voor dat laatstgenoemde, rolde Screaming Frog een superhandige update uit. In v22 kan je o.a. semantische clusters spotten en nieuwe ontdekken (zie foto hieronder)
  • Gebruik een omnichannel SEO-strategie (LI, PR fora etc) en ga aan de slag met verschillende formats om de kans te vergroten om geselecteerd te worden in een AI antwoord (candidate passages)
  • Vergeet niet het belang van Technische SEO. Voeg structured data toe, zorg voor een goede interne linkstructuur en zorg dat alles server side gerenderd kan worden. Ook een LLM crawlt het web af. Feit is, die kan een stukje minder dan de user agent: Google bot.
  • Denk in passage’s, niet in pagina’s en zorg ervoor dat content LLM proof geschreven wordt. Jan Willem Bobbink deelde recent een paar praktische voorbeelden. Of lees het waardevolle voorbeeld van Roy Huiskes:
Roy Huiskes
Mensen lezen net iets anders dan Machines

Ze lezen niet beter, niet slechter. Anders. En ik zou zeggen, iets minder geduldig. En dat is dan nog best knap!

Embedding-modellen in vector search of RAG begrijpen relaties tussen concepten, vragen en antwoorden beter als je schrijft in duidelijke subject-predicate-object-structuren. Dat noemt Google semantische triples, of in het Nederlands: onderwerp-werkwoord-voorwerp’-structuren. En die halen twijfel weg en scheppen duidelijkheid of eigenlijk: zekerheid.

Het werkt een beetje zoals een nieuwe CEO die orde probeert te scheppen in een rommelige organisatie.
Wanneer je vaag communiceert (“AI in marketing is belangrijk”), is dat alsof je CEO zegt: “Er moet iets met innovatie gebeuren.”
Iedereen knikt, maar niemand weet wie wat je bedoelt, waarom het belangrijk is of welk resultaat wordt verwacht.

Wanneer je schrijft in triples, zeg je: “AI verbetert marketingresultaten.”
1. Subject: AI
2. Predicate: verbetert
3. Object: marketingresultaten

Dat is alsof je als manager zegt:
“Team Innovatie onderzoekt AI-tools om marketingcampagnes efficiënter te maken, zodat we de cost per acquisition met 20% verlagen.”

Duidelijk. Meetbaar. Actiegericht.

Zo schrijf je niet alleen begrijpelijker voor machines, maar maak je je boodschap ook voor mensen scherper. Win-win. We blijven dus schrijven voor mensen. Maar het is ook wel zinvol om te schrijven op een manier die machines in staat stelt om onze antwoorden te geven aan mensen.


Vergeet de eindgebruiker niet

Uiteindelijk moet de gebruiker blij zijn met het resultaat en dus niet de cosine similarity die jij hebt uitgedokterd. De systemen van Google doen hun best om gebruikers resultaten te presenteren waarvan ze denken dat ze die nuttig zullen vinden. Vervolgens leren ze van wat mensen daadwerkelijk nuttig vonden. Deze input verwerken ze weer in het systeem om hun voorspellingen te verbeteren.

Zo halen we ook uit verschillende passage’s van de DOJ tegen de monopolie van Google:

Het is belangrijk om te begrijpen hoe het systeem werkt en waarom Google jou gekozen heeft. Maar nadat het systeem gekozen heeft, bevestigt de gebruiker of het echt het beste antwoord op de vraag is. Wat dan overeind blijft staan: de eindgebruiker echt begrijpen i.p.v. de output van tools. 

Jouw SEO Brein begrijpt beide kanten van het verhaal zodat de ideale vertaalslag naar je klant of organisatie gemaakt kan worden. Het resultaat? Organisch succes. Ook in het AI-tijdperk.

SEO-fouten voorkomen?

SEO-checklist
Controleer je optimalisatie-stappen met mijn gratis SEO-checklist. Zo voorkom je fouten in Google en Bing.
Download SEO-checklist
Deze bedrijven gingen je voor:
Logo Booking.com
Logo Adidas
Logo Randstad
SEO-checklist
Download SEO-checklist
Deze bedrijven gingen je voor:
Logo Booking.com
Logo Adidas
Logo Randstad
SEO Mastermind SEO-vraag? Stel hem hier