O que testámos — e o que os dados revelam
Para compreender como os motores de IA decidem quais universidades recomendar, submetemos 312 perguntas sobre ensino superior a três sistemas: ChatGPT (GPT-4o), Perplexity e Gemini. As perguntas abrangeram seis categorias — escolas de gestão, engenharia, informática, comunicação, universidades privadas e MBA — e quatro tipos de formulação: rankings ("melhores universidades para..."), comparações ("X vs. Y"), critérios ("universidade com estágio em Lisboa") e aconselhamento ("qual universidade devo escolher para...").
Em 312 perguntas, 67 instituições distintas foram nomeadas pelo menos uma vez. As 10 primeiras concentraram 58% de todas as menções. As 57 restantes partilharam os outros 42%. Centenas de outras instituições simplesmente não apareceram (Fonte: monitorização GEO Skolbot, 312 perguntas x 3 motores IA, fev.–mar. 2026).
Não é um ranking. É um efeito de concentração extrema — certas instituições são recomendadas sistematicamente enquanto outras permanecem invisíveis. Em Portugal, a Universidade de Lisboa, a Nova SBE e o ISCTE dominam as menções no ChatGPT; no Perplexity, instituições com bom conteúdo digital conseguem por vezes emergir. Compreender os critérios que determinam esta seleção é o primeiro passo para a alterar.
Os 8 critérios de recomendação IA, por ordem de impacto
Critério 1: Frequência no corpus de treino
O fator mais determinante é também o mais difícil de alterar a curto prazo. Os modelos de linguagem como GPT-4 e Gemini foram treinados com centenas de milhares de milhões de palavras. As instituições que aparecem frequentemente nesse corpus — artigos de imprensa, rankings, fóruns, sites institucionais — têm uma vantagem estrutural.
Universidade de Lisboa, Universidade do Porto, Nova SBE, Instituto Superior Técnico: estes nomes estão sobrerrepresentados nos corpora lusófonos e internacionais. É um efeito de notoriedade acumulada ao longo de décadas de cobertura mediática.
Mas este critério está a erodir-se. Com o RAG (Retrieval-Augmented Generation), os motores IA complementam o seu corpus de treino com pesquisas web em tempo real. O Perplexity apoia-se massivamente no RAG. O ChatGPT utiliza-o através do modo Browse. O Gemini ativa-o por defeito. Conteúdo recente e bem estruturado pode compensar um défice de presença no corpus histórico.
Critério 2: Citações em fontes externas de confiança
Os motores IA ponderam fortemente a concordância entre fontes. Se a sua universidade é mencionada pela A3ES, no QS World University Rankings, na CRUP e no jornal Público — Educação, o motor dispõe de quatro fontes convergentes. Cada fonte adicional aumenta a probabilidade de citação.
As universidades mencionadas em 5+ fontes externas de confiança têm 3,2 vezes mais probabilidades de serem citadas numa resposta IA do que aquelas com 2 ou menos (Fonte: análise de correlação GEO Skolbot, 120 instituições x 3 motores, fev. 2026).
Fontes de alto valor para o ensino superior em Portugal e no espaço lusófono:
- Institucionais — A3ES, CRUP, DGES, CAPES (Brasil), Campus France
- Rankings — QS, THE, Financial Times, Shanghai Ranking, U-Multirank
- Media especializados — Público — Educação, Expresso, StudyPortals, Estudante.pt
- Acreditações — A3ES, AACSB, EQUIS, AMBA, EUR-ACE
Critério 3: Dados estruturados Schema.org
Os dados estruturados transformam o seu conteúdo em entidades que os motores IA podem extrair, verificar e citar. Os schemas EducationalOrganization, Course, FAQPage e AggregateRating são os mais impactantes.
Este critério é detalhado no nosso guia completo de dados estruturados para universidades. Em resumo: +12 pontos de visibilidade GEO em média. É a alavanca mais rentável porque depende de uma implementação técnica pontual.
Critério 4: Densidade de dados verificáveis
Os motores IA citam preferencialmente as passagens que contêm factos quantificados e documentados. "Uma taxa de emprego de 94% em 6 meses (inquérito OBIPNEF 2025)" será citado antes de "uma excelente taxa de emprego". A razão é técnica: o modelo pode cruzar um número documentado com outras fontes; uma afirmação vaga, não.
Os dados verificáveis mais explorados pelos motores IA na educação:
- Taxa de empregabilidade — com fonte (OBIPNEF, INE) e ano
- Salário mediano de saída — em euros, documentado
- Número de estudantes — total e por programa
- Parcerias internacionais — com nomes das universidades parceiras
- Propinas — montante exato anual
- Posição em rankings — com nome do ranking e ano
As páginas com 5+ dados quantificados e documentados recebem 2,7 vezes mais citações IA do que páginas puramente descritivas (Fonte: análise semântica GEO Skolbot, 800 páginas de 120 instituições, fev. 2026).
Critério 5: Frescura do conteúdo
Um site cujas páginas de cursos ainda mencionam "ano letivo 2024/25" em março de 2026 perde credibilidade junto dos motores IA. A frescura é um sinal de fiabilidade, especialmente para perguntas vinculadas a um ano ("melhores universidades 2026").
Os motores IA com capacidade RAG (Perplexity, Gemini, ChatGPT Browse) verificam a data de última modificação. Conteúdo atualizado nos últimos 3 meses é favorecido face a conteúdo com mais de 12 meses.
A frequência de atualização ideal para as páginas de cursos é trimestral. Para conteúdos de blog e notícias, uma publicação quinzenal mantém um sinal de frescura constante.
Critério 6: Estrutura do conteúdo em respostas diretas
Os motores IA extraem excertos, não páginas inteiras. Um parágrafo de 40 a 80 palavras que responde diretamente a uma pergunta tem mais probabilidades de ser citado do que um bloco discursivo de 300 palavras.
Esta abordagem — conhecida no âmbito GEO como "snippet-first writing" — assenta em três princípios:
- Cada H2 começa com uma resposta direta antes de desenvolver
- As listas com marcadores são alvos de citação preferenciais dos motores IA
- Parágrafos curtos (2-3 frases) com um facto documentado constituem a unidade ótima de extração
Critério 7: Perfil E-E-A-T (Experiência, Expertise, Autoridade, Fiabilidade)
A Google formalizou os critérios E-E-A-T nas suas Quality Rater Guidelines. Os motores IA inspiram-se neles indiretamente. Uma página com autor identificado — biografia, publicações, expertise verificável — é considerada mais fiável do que uma página anónima.
Para uma universidade, o perfil E-E-A-T constrói-se sobre:
- Experiência — Testemunhos de estudantes e alumni datados e nominativos
- Expertise — Contribuições de professores identificados, investigação publicada
- Autoridade — Acreditações, rankings, parcerias com organismos reconhecidos
- Fiabilidade — HTTPS, política de privacidade, dados de contacto verificáveis
Critério 8: Coerência temática do site
Os motores IA avaliam a consistência temática de um site. Um blog universitário que dispersa por temas fora do seu âmbito dilui a sua autoridade. A autoridade temática constrói-se com profundidade, não com amplitude. Um cluster de 15 artigos sobre admissões em escolas de gestão pesa mais do que um artigo isolado sobre 15 temas diferentes.
Como diferem o ChatGPT, o Perplexity e o Gemini
Os três motores não funcionam da mesma forma, e as suas recomendações divergem significativamente.
ChatGPT: o peso do corpus de treino
O ChatGPT apoia-se principalmente no seu corpus de treino (até abril de 2024 para o GPT-4o). O modo Browse acrescenta uma camada RAG, mas o corpus continua a ser dominante. Consequência: o ChatGPT favorece as universidades historicamente muito mediatizadas. 58% das suas menções concentram-se em 10 universidades (Fonte: monitorização GEO Skolbot).
Para uma universidade de média dimensão, o ChatGPT é o motor mais difícil de penetrar. A estratégia: maximizar a presença nas fontes que o ChatGPT indexa nas atualizações de corpus — Wikipédia, rankings internacionais, media em inglês.
Perplexity: RAG em primeiro lugar
O Perplexity realiza uma pesquisa web em tempo real para cada pergunta e cita as suas fontes. É o motor mais reativo a alterações de conteúdo e o mais sensível a dados estruturados. As universidades com Schema.org completo têm 47% mais probabilidades de serem citadas pelo Perplexity do que pelo ChatGPT (Fonte: monitorização GEO Skolbot).
Para uma universidade de média dimensão, o Perplexity é o motor IA mais acessível. Conteúdo rico, bem estruturado e regularmente atualizado pode dar-lhe visibilidade em poucas semanas.
Gemini: a ligação ao Google Search
O Gemini integra nativamente dados do Google Search, incluindo resultados enriquecidos e o Knowledge Graph. Se a sua universidade tem um perfil Google Business completo e marcação Schema.org, o Gemini já a conhece. É o motor que mais explora as avaliações Google e os dados locais.
Como melhorar a visibilidade da sua universidade nas recomendações IA
Ações de impacto imediato (1-2 semanas)
- Implementar marcação Schema.org — EducationalOrganization, Course, FAQPage em todas as páginas de cursos. Guia técnico no nosso artigo sobre dados estruturados para universidades
- Atualizar datas — Substituir todas as menções a anos obsoletos pelo ano corrente
- Enriquecer com dados verificáveis — Acrescentar taxa de empregabilidade, salário mediano, número de estudantes, propinas em cada página de curso
Ações a médio prazo (1-3 meses)
- Auditar menções externas — Verificar que a sua universidade está corretamente listada na A3ES, CRUP, QS, THE, Google Business
- Reestruturar conteúdo em snippet-first — Reescrever os parágrafos-chave em formato pergunta-resposta de 40-80 palavras
- Criar conteúdo E-E-A-T — Artigos assinados por professores identificados, testemunhos de alumni nominativos e datados
Ações a longo prazo (3-6 meses)
- Desenvolver estratégia de menções externas — Relações com imprensa especializada, participação em rankings, contribuições em sites institucionais
- Construir cluster temático — 10-15 artigos de blog orientados para as perguntas dos seus candidatos, interligados e regularmente atualizados
- Monitorizar a visibilidade GEO — Teste mensalmente as perguntas típicas dos seus candidatos no ChatGPT, Perplexity e Gemini. O nosso diagnóstico de visibilidade no ChatGPT oferece uma metodologia reprodutível
FAQ
Uma universidade pode influenciar as respostas do ChatGPT?
Sim, mas não através de manipulação direta. O ChatGPT não pode ser "otimizado" como um motor de busca. No entanto, os fatores que alimentam as suas respostas — presença em fontes de confiança, dados estruturados, conteúdo rico e verificável — são todos acionáveis. O efeito é indireto mas mensurável.
Porque é que a minha universidade aparece no Perplexity mas não no ChatGPT?
O Perplexity realiza uma pesquisa web em tempo real para cada pergunta, o que o torna sensível a alterações recentes de conteúdo. O ChatGPT apoia-se mais no seu corpus de treino histórico. Se a sua universidade melhorou o conteúdo recentemente, o Perplexity deteta-o primeiro. O ChatGPT seguirá nas suas próximas atualizações de corpus.
As avaliações Google influenciam as recomendações IA?
Sim, especialmente no Gemini, que integra nativamente os dados Google Business. O ChatGPT e o Perplexity acedem a elas indiretamente através da web. Avaliações recentes, detalhadas e positivas constituem um sinal de confiança. Um volume insuficiente de avaliações (menos de 50) ou uma nota baixa (inferior a 3,5/5) pode prejudicar a sua visibilidade.
Quanto tempo demora a aparecer nas recomendações IA?
Os motores IA baseados em RAG (Perplexity, Gemini) reagem em 2 a 4 semanas a alterações de conteúdo. O ChatGPT é mais lento porque depende das atualizações do corpus de treino (vários meses). Uma estratégia GEO completa produz os primeiros resultados visíveis em 6 a 8 semanas, com efeito cumulativo ao longo de 6 meses.
As universidades com orientação internacional têm vantagem em GEO?
As universidades com conteúdo em inglês beneficiam de uma vantagem nos corpora anglófonos. Para perguntas em português, o conteúdo em português continua a ser prioritário. Estratégia ótima: páginas de cursos em português e em inglês, cada uma com a sua própria marcação Schema.org.



