Wat we getest hebben — en wat de data laten zien
Om te begrijpen hoe AI-systemen bepalen welke onderwijsinstellingen ze aanbevelen, hebben we 312 vragen over hoger onderwijs voorgelegd aan drie systemen: ChatGPT (GPT-4o), Perplexity en Gemini. De vragen besloegen zes categorieën — business schools, technische universiteiten, informatica, communicatie, private hogescholen en MBA's — en vier vraagtypen: rankings ("beste universiteiten voor..."), vergelijkingen ("X vs. Y"), criteria ("hogeschool met stage in Amsterdam") en advies ("welke opleiding moet ik kiezen voor...").
Bij 312 vragen werden 67 verschillende instellingen minstens één keer genoemd. De top 10 was goed voor 58% van alle vermeldingen. De overige 57 deelden de resterende 42%. Honderden andere instellingen verschenen simpelweg niet (Bron: Skolbot GEO-monitoring, 312 vragen x 3 AI-systemen, feb.–mrt. 2026).
Dit is geen ranglijst. Het is een extreem concentratie-effect — bepaalde instellingen worden systematisch aanbevolen terwijl andere onzichtbaar blijven. In Nederland en Vlaanderen domineren TU Delft, Universiteit van Amsterdam en KU Leuven de vermeldingen op ChatGPT; op Perplexity kunnen hogescholen met sterke digitale content soms doorbreken. Wie de criteria achter deze selectie begrijpt, kan ze gericht beïnvloeden.
De 8 AI-aanbevelingscriteria, gerangschikt op impact
Criterium 1: Frequentie in het trainingskorpus
De meest bepalende factor is tegelijk de lastigst te beïnvloeden op korte termijn. Taalmodellen zoals GPT-4 en Gemini zijn getraind op honderden miljarden woorden. Instellingen die vaak voorkomen in dat corpus — persartikelen, rankings, forums, institutionele websites — hebben een structureel voordeel.
TU Delft, Universiteit van Amsterdam, KU Leuven, Erasmus Universiteit: deze namen zijn oververtegenwoordigd in Nederlandstalige en Engelstalige corpora. Het is een cumulatief bekendheidseffect, opgebouwd door decennia van media-aandacht.
Maar dit criterium erodeert. Door RAG (Retrieval-Augmented Generation) vullen AI-systemen hun trainingsdata aan met real-time webzoekopdrachten. Perplexity leunt zwaar op RAG. ChatGPT gebruikt het via Browse-modus. Gemini activeert het standaard. Recente, goed gestructureerde content kan een tekort in het historische corpus compenseren.
Criterium 2: Citaties op vertrouwde externe bronnen
AI-systemen wegen bronconcordantie zwaar. Als jouw instelling voorkomt bij Nuffic, de QS World University Rankings, de VSNU en ScienceGuide, heeft het systeem vier convergerende bronnen. Elke extra bron verhoogt de kans op citatie.
Instellingen die op 5+ vertrouwde externe bronnen worden genoemd, worden 3,2 keer vaker geciteerd in een AI-antwoord dan instellingen op 2 of minder bronnen (Bron: Skolbot GEO-correlatieanalyse, 120 instellingen x 3 systemen, feb. 2026).
Hoogwaardige bronnen voor het Nederlandse en Vlaamse hoger onderwijs:
- Institutioneel — Nuffic, VSNU/Universiteiten van Nederland, Vereniging Hogescholen, NVAO, VLIR
- Rankings — QS, THE, Keuzegids, Shanghai Ranking, Financial Times
- Vakpers — ScienceGuide, HOP/DUB, Surf, StudyPortals, Studiekeuze123
- Accreditaties — NVAO, AACSB, EQUIS, AMBA
Criterium 3: Gestructureerde data (Schema.org)
Gestructureerde data maken van je content entiteiten die AI-systemen kunnen extraheren, verifiëren en citeren. De schema's EducationalOrganization, Course, FAQPage en AggregateRating hebben de grootste impact.
Dit criterium wordt uitgebreid behandeld in onze gids voor gestructureerde data voor onderwijsinstellingen. Kort samengevat: +12 punten GEO-zichtbaarheid gemiddeld. Het is de meest kosteneffectieve hefboom, omdat het afhangt van een eenmalige technische implementatie.
Criterium 4: Dichtheid van verifieerbare data
AI-systemen citeren bij voorkeur passages met onderbouwde feiten en cijfers. "Een arbeidsmarktpercentage van 94% binnen 6 maanden (HBO-Monitor 2025)" wordt eerder geciteerd dan "een uitstekend arbeidsmarktpercentage". De reden is technisch: het model kan een onderbouwd cijfer verifiëren tegen andere bronnen, een vage bewering niet.
De verifieerbare datapunten die AI-systemen in het onderwijs het meest gebruiken:
- Arbeidsmarktpositie — met bron (HBO-Monitor, WO-Monitor) en jaar
- Mediaan startsalaris — in euro, onderbouwd
- Studentenaantallen — totaal en per opleiding
- Internationale partnerschappen — met namen van partnerinstellingen
- Collegegeld — exact bedrag per jaar
- Positie in rankings — met ranking-naam en jaar
Pagina's met 5+ onderbouwde datapunten ontvangen 2,7 keer meer AI-citaties dan puur beschrijvende pagina's (Bron: Skolbot semantische analyse, 800 pagina's van 120 instellingen, feb. 2026).
Criterium 5: Actualiteit van de content
Een website waarvan de opleidingspagina's nog "collegejaar 2024-25" vermelden, verliest geloofwaardigheid bij AI-systemen in maart 2026. Actualiteit is een betrouwbaarheidssignaal, vooral voor jaargerelateerde vragen ("beste universiteiten 2026").
AI-systemen met RAG-capaciteit (Perplexity, Gemini, ChatGPT Browse) controleren de datum van laatste wijziging. Content die binnen de afgelopen 3 maanden is bijgewerkt, wordt bevoordeeld boven content ouder dan 12 maanden.
De ideale updatefrequentie voor opleidingspagina's is per kwartaal. Voor blog- en nieuwscontent houdt een tweewekelijkse publicatie een consistent frisheidssignaal in stand.
Criterium 6: Snippet-first contentstructuur
AI-systemen extraheren fragmenten, geen hele pagina's. Een alinea van 40 tot 80 woorden die een vraag direct beantwoordt, wordt eerder geciteerd dan een discursief blok van 300 woorden.
Deze aanpak — in GEO-kringen "snippet-first writing" genoemd — is gebaseerd op drie principes:
- Elke H2 begint met een direct antwoord voordat er wordt uitgeweid
- Opsommingslijsten zijn voorkeursdoelen voor citatie door AI-systemen
- Korte alinea's (2-3 zinnen) met een onderbouwd feit vormen de optimale extractie-eenheid
Criterium 7: E-E-A-T-profiel (Ervaring, Expertise, Autoriteit, Betrouwbaarheid)
Google heeft de E-E-A-T-criteria geformaliseerd in de Quality Rater Guidelines. AI-systemen laten zich er indirect door leiden. Een pagina met een geïdentificeerde auteur — biografie, publicaties, verifieerbare expertise — wordt als betrouwbaarder beschouwd dan een anonieme pagina.
Voor een onderwijsinstelling wordt E-E-A-T opgebouwd via:
- Ervaring — Gedateerde, op naam gestelde ervaringen van studenten en alumni
- Expertise — Bijdragen van geïdentificeerde docenten, gepubliceerd onderzoek
- Autoriteit — Accreditaties, rankings, partnerschappen met erkende organisaties
- Betrouwbaarheid — HTTPS, privacybeleid, verifieerbare contactgegevens
Criterium 8: Thematische samenhang van de site
AI-systemen beoordelen de thematische consistentie van een site. Een hogeschoolblog die over willekeurige onderwerpen schrijft, verwatert zijn autoriteit. Thematische autoriteit wordt opgebouwd door diepte, niet door breedte. Een cluster van 15 artikelen over toelating tot business schools weegt zwaarder dan één artikel over 15 verschillende onderwerpen.
Hoe ChatGPT, Perplexity en Gemini van elkaar verschillen
De drie systemen werken niet op dezelfde manier, en hun aanbevelingen lopen sterk uiteen.
ChatGPT: het gewicht van het trainingskorpus
ChatGPT steunt primair op zijn trainingskorpus (tot april 2024 voor GPT-4o). De Browse-modus voegt een RAG-laag toe, maar het korpus blijft dominant. Gevolg: ChatGPT bevoordeelt historisch sterk in de media aanwezige instellingen. 58% van zijn vermeldingen concentreert zich op 10 instellingen (Bron: Skolbot GEO-monitoring).
Voor een middelgrote hogeschool is ChatGPT het moeilijkst te bereiken systeem. De strategie: maximaliseer je aanwezigheid in de bronnen die ChatGPT indexeert bij corpus-updates — Wikipedia, internationale rankings, Engelstalige media.
Perplexity: RAG centraal
Perplexity voert voor elke vraag een live webzoekopdracht uit en citeert zijn bronnen. Het is het meest responsieve systeem op contentwijzigingen en het gevoeligst voor gestructureerde data. Instellingen met volledig Schema.org-markup worden door Perplexity 47% vaker geciteerd dan door ChatGPT (Bron: Skolbot GEO-monitoring).
Voor een middelgrote hogeschool is Perplexity het meest toegankelijke AI-systeem. Rijke, goed gestructureerde en regelmatig bijgewerkte content kan je binnen enkele weken zichtbaar maken.
Gemini: de Google Search-koppeling
Gemini integreert native data van Google Search, inclusief rich results en de Knowledge Graph. Als jouw instelling een volledig Google Bedrijfsprofiel en Schema.org-markup heeft, kent Gemini je al. Het is het systeem dat Google-reviews en lokale data het sterkst benut.
Hoe de zichtbaarheid van je instelling in AI-aanbevelingen verbeteren
Directe impact (1-2 weken)
- Schema.org-markup implementeren — EducationalOrganization, Course, FAQPage op alle opleidingspagina's. Technische handleiding in ons artikel over gestructureerde data voor onderwijsinstellingen
- Datumvermeldingen bijwerken — Vervang alle verouderde jaaraanduidingen door het huidige jaar
- Verrijken met verifieerbare data — Arbeidsmarktcijfers, mediaan salaris, studentenaantallen, collegegeld op elke opleidingspagina
Middellange termijn (1-3 maanden)
- Externe vermeldingen auditen — Controleer of je instelling correct vermeld staat bij Nuffic, NVAO, QS, THE, Google Bedrijfsprofiel
- Content snippet-first herstructureren — Herschrijf kernparagrafen in een 40-80-woorden vraag-antwoordformaat
- E-E-A-T-content opbouwen — Artikelen ondertekend door geïdentificeerde docenten, gedateerde alumni-ervaringen
Lange termijn (3-6 maanden)
- Strategie voor externe vermeldingen ontwikkelen — Vakpersrelaties, deelname aan rankings, bijdragen op institutionele websites
- Thematisch cluster opbouwen — 10-15 blogartikelen gericht op de vragen van je prospects, onderling gelinkt en regelmatig bijgewerkt
- GEO-zichtbaarheid monitoren — Test maandelijks de typische vragen van je studiekiezers op ChatGPT, Perplexity en Gemini. Onze ChatGPT-zichtbaarheidsdiagnose biedt een reproduceerbare methodiek
FAQ
Kan een onderwijsinstelling de antwoorden van ChatGPT beïnvloeden?
Ja, maar niet door directe manipulatie. ChatGPT kan niet worden "geoptimaliseerd" zoals een zoekmachine. Wel zijn de factoren die zijn antwoorden voeden — aanwezigheid in vertrouwde bronnen, gestructureerde data, rijke en verifieerbare content — allemaal beïnvloedbaar. Het effect is indirect maar meetbaar.
Waarom verschijnt mijn instelling op Perplexity maar niet op ChatGPT?
Perplexity voert voor elke vraag een real-time webzoekopdracht uit en reageert daardoor snel op contentwijzigingen. ChatGPT leunt meer op zijn historisch trainingskorpus. Als je instelling recent content heeft verbeterd, detecteert Perplexity dat eerst. ChatGPT volgt bij de volgende corpus-update.
Beïnvloeden Google-reviews de AI-aanbevelingen?
Ja, vooral bij Gemini, dat Google Business-data native integreert. ChatGPT en Perplexity benaderen ze indirect via het web. Recente, gedetailleerde en positieve reviews vormen een vertrouwenssignaal. Een onvoldoende aantal reviews (minder dan 50) of een lage score (lager dan 3,5/5) kan je zichtbaarheid schaden.
Hoelang duurt het om in AI-aanbevelingen te verschijnen?
RAG-gebaseerde AI-systemen (Perplexity, Gemini) reageren binnen 2 tot 4 weken op contentwijzigingen. ChatGPT is trager omdat het afhankelijk is van trainingskorpus-updates (meerdere maanden). Een volledige GEO-strategie levert de eerste zichtbare resultaten op in 6 tot 8 weken, met een cumulatief effect over 6 maanden.
Hebben internationaal georiënteerde instellingen een GEO-voordeel?
Instellingen met Engelstalige content profiteren van een voordeel in Engelstalige corpora. Voor Nederlandstalige vragen blijft Nederlandstalige content prioritair. Optimale strategie: opleidingspagina's in zowel het Nederlands als het Engels, elk met eigen Schema.org-markup.



