skolbot.Chatbot IA para o ensino superior
ProdutoPreçosBlog
Demo gratuita
Demo gratuita
Guia do Regulamento Europeu de IA para universidades
Voltar ao blog
Conformidade9 min read

O Regulamento Europeu de IA e o ensino superior: o que a sua universidade precisa de saber

Guia prático do Regulamento Europeu de IA para universidades. Classificação de riscos, obrigações, calendário de conformidade e o que exigir dos fornecedores de IA.

Ricardo Mendes Silva

Ricardo Mendes Silva

Consultor em IA e proteção de dados para o ensino superior · 7 de março de 2026

Resumir este artigo com

ChatGPTChatGPTClaudeClaudePerplexityPerplexityGeminiGeminiGrokGrok

Índice

  1. O Regulamento de IA entra em vigor — e as universidades estão abrangidas
  2. Classificação de riscos: onde se situa a sua universidade?
  3. Risco inaceitável (proibido)
  4. Alto risco (obrigações rigorosas)
  5. Risco limitado (obrigações de transparência)
  6. Risco mínimo (sem obrigações específicas)
  7. O calendário de conformidade
  8. Obrigações concretas por caso de uso
  9. Chatbot de admissões (risco limitado)
  10. Pré-seleção automatizada de candidatos (alto risco)
  11. Deteção de plágio com IA (alto risco se afetar classificações)
  12. A articulação com o RGPD
  13. Checklist de conformidade em 10 pontos
  14. Sanções por incumprimento
  15. O que as universidades devem exigir dos seus fornecedores de IA
  16. FAQ
  17. O meu chatbot de admissões é classificado como alto risco?
  18. O AI Act aplica-se a universidades fora da UE que recrutam na Europa?
  19. Qual é a relação entre o AI Act e o RGPD para dados de candidatos?
  20. Quanto tempo e orçamento prever para a conformidade?

O Regulamento de IA entra em vigor — e as universidades estão abrangidas

O Regulamento Europeu sobre Inteligência Artificial (AI Act, Regulamento UE 2024/1689) é o primeiro quadro jurídico do mundo a regular os sistemas de IA por nível de risco. A sua aplicação começou em fevereiro de 2025 para as práticas proibidas, e as obrigações para sistemas de alto risco — alguns utilizados na educação — entram em vigor em agosto de 2026 (Fonte: Jornal Oficial da UE, Regulamento 2024/1689, Art. 113).

Para as universidades, não é um tema abstrato. A partir do momento em que uma universidade utiliza um chatbot de admissões, uma ferramenta de pontuação de candidatos, um detetor de plágio com IA ou um algoritmo de recomendação de cursos, está a implementar um sistema de IA na aceção do regulamento. A questão não é se a sua universidade está abrangida — está. A questão é em que categoria de risco caem as suas ferramentas.

Classificação de riscos: onde se situa a sua universidade?

O AI Act classifica os sistemas de IA em quatro níveis de risco. Cada nível implica obrigações diferentes.

Risco inaceitável (proibido)

São proibidos os sistemas de pontuação social generalizada, a manipulação subliminar e a exploração de vulnerabilidades. No contexto educativo, seria proibido um sistema que avaliasse os estudantes com base no seu comportamento social global (participação em eventos, atividade em redes sociais) para decidir a admissão (Fonte: AI Act, Art. 5, parágrafo 1).

Este cenário parece extremo, mas algumas práticas de avaliação "holística" de candidatos aproximam-se disso. Se a sua ferramenta de admissão incorpora dados comportamentais não relacionados com a aptidão académica, faça uma auditoria.

Alto risco (obrigações rigorosas)

É a categoria mais importante para o ensino superior. O Anexo III do regulamento classifica explicitamente como alto risco os sistemas de IA utilizados para "determinar o acesso ou a admissão a estabelecimentos de ensino e de formação profissional" (Fonte: AI Act, Anexo III, ponto 3a).

Concretamente, estão abrangidos:

  • Ferramentas de pré-seleção automatizada — qualquer sistema que filtra, classifica ou pontua candidaturas com base em critérios algorítmicos
  • Detetores de plágio com IA que influenciam a classificação ou avaliação académica
  • Algoritmos de colocação ou orientação que determinam o acesso a cursos específicos
  • Sistemas de classificação automatizada que produzem ou influenciam avaliações académicas

As obrigações para estes sistemas são substanciais: sistema de gestão de riscos, dados de treino documentados, transparência técnica, supervisão humana, registo de entradas/saídas e registo na base de dados europeia.

Risco limitado (obrigações de transparência)

Os chatbots de admissões e informação caem nesta categoria. A obrigação principal é simples mas inegociável: informar o utilizador de que está a interagir com um sistema de IA (Fonte: AI Act, Art. 50, parágrafo 1).

Na prática, o seu chatbot deve indicar claramente que é um assistente de IA, não um humano. Uma mensagem como "Sou um assistente de IA da [Nome da universidade]. Um conselheiro humano está disponível mediante pedido" cumpre esta obrigação.

Também nesta categoria:

  • Sistemas de geração de conteúdo por IA (emails automatizados, descrições de cursos)
  • Sistemas de reconhecimento de emoções (análise de tom em entrevistas em vídeo)
  • Ferramentas de tradução automática de conteúdo pedagógico

Risco mínimo (sem obrigações específicas)

Ferramentas de IA sem impacto nos direitos fundamentais: corretores ortográficos, filtros anti-spam, otimizadores de horários. Sem obrigações regulamentares, embora as boas práticas de transparência continuem a ser recomendadas.

O calendário de conformidade

Os prazos são escalonados. Estas são as datas que afetam diretamente as universidades.

2 de fevereiro de 2025 — Proibições entram em vigor. Já em efeito.

2 de agosto de 2025 — Obrigações para modelos de IA de uso geral (GPAI). Afeta fornecedores como OpenAI, Anthropic, Mistral — não diretamente as universidades, mas os seus fornecedores de ferramentas IA devem cumprir. Exija uma declaração de conformidade dos seus fornecedores.

2 de agosto de 2026 — Obrigações para sistemas de alto risco (Anexo III). Esta é a data crítica para as universidades. Se utiliza uma ferramenta de pré-seleção automatizada ou classificação automática, deve estar conforme nesta data.

2 de agosto de 2027 — Extensão a sistemas de alto risco regulados por legislação setorial.

Faltam 5 meses até à entrada em vigor das obrigações de alto risco. Se a sua universidade ainda não auditou as suas ferramentas IA, o prazo é apertado mas exequível.

Obrigações concretas por caso de uso

Chatbot de admissões (risco limitado)

As obrigações são proporcionadas e realistas.

Obrigação 1 — Transparência: o chatbot deve identificar-se como IA. Um banner permanente ou mensagem de boas-vindas clara é suficiente.

Obrigação 2 — Informação sobre tratamento de dados: em conformidade com o RGPD, o tratamento de dados pelo chatbot deve ser documentado na política de privacidade. O nosso guia RGPD para dados de estudantes detalha estas obrigações.

Obrigação 3 — Contacto humano: o candidato deve poder solicitar falar com um humano a qualquer momento.

Custo estimado de conformidade: quase nulo se o chatbot já é transparente. Conte com 2 a 5 dias para auditoria, documentação e ajuste da interface.

Pré-seleção automatizada de candidatos (alto risco)

As obrigações são significativamente mais pesadas.

As seis obrigações: (1) gestão de riscos documentada (viés, discriminação, erros de classificação), (2) qualidade dos dados de treino (representatividade, ausência de viés histórico), (3) documentação técnica completa, (4) supervisão humana — nenhuma decisão de admissão pode ser totalmente automatizada, (5) registo de entradas/saídas (mínimo 6 meses), (6) registo na base de dados europeia.

Custo estimado de conformidade: 15.000 a 50.000 EUR para uma auditoria completa, documentação técnica e implementação de processos de supervisão humana. O custo recai principalmente sobre o fornecedor, mas a universidade como "implementador" também tem obrigações.

Deteção de plágio com IA (alto risco se afetar classificações)

Se a ferramenta influencia diretamente a classificação ou decisão académica, cai na categoria de alto risco. Os detetores de IA apresentam atualmente uma taxa de falsos positivos de 5 a 15% (Fonte: Stanford HAI, 2025). A supervisão humana não é opcional — é uma obrigação legal.

A articulação com o RGPD

O AI Act não substitui o RGPD — complementa-o. Todo o tratamento de dados pessoais por um sistema de IA continua sujeito ao RGPD (base legal, minimização, direitos de acesso). O artigo 22 do RGPD já proíbe decisões automatizadas com efeitos jurídicos; o AI Act reforça esta proteção com requisitos de transparência e supervisão humana mais detalhados. Os dois regulamentos complementam-se.

Para aprofundar a conformidade RGPD específica aos dados de estudantes, consulte o nosso guia dedicado.

Checklist de conformidade em 10 pontos

  1. Inventário: listar todas as ferramentas IA (chatbot, CRM, scoring, plágio, recomendação)
  2. Classificação: risco mínimo, limitado, alto ou inaceitável por ferramenta
  3. Auditoria de fornecedores: exigir declaração de conformidade e calendário
  4. Transparência chatbots: identificação IA + opção de contacto humano
  5. Supervisão humana: nenhuma decisão de admissão totalmente automatizada
  6. Documentação técnica: dossier completo para sistemas de alto risco
  7. Análise de viés: testes sobre género, origem geográfica, tipo de escola
  8. Política de privacidade: integrar os tratamentos IA
  9. Formação: equipas de admissões e académicas sobre as suas obrigações
  10. Revisão anual: auditoria AI Act alinhada com a revisão RGPD

Sanções por incumprimento

O AI Act prevê coimas graduadas: até 35 milhões EUR (7% do volume de negócios) para práticas proibidas, 15 milhões EUR (3%) para incumprimento de alto risco e 7,5 milhões EUR (1%) para informações inexatas. O risco reputacional é pelo menos tão preocupante: uma universidade sancionada por incumprimento de IA perde credibilidade para formar profissionais digitais.

O que as universidades devem exigir dos seus fornecedores de IA

Como "implementadores" nos termos do regulamento, as universidades partilham responsabilidade. Exija de cada fornecedor: declaração de conformidade datada, classificação de risco com justificação, documentação técnica acessível, compromisso contratual de supervisão humana e transparência, auditoria de viés documentada e plano de atualização regulamentar.

Para compreender como a IA influencia a visibilidade das universidades para além da conformidade, o nosso artigo sobre critérios de recomendação IA para universidades explora o tema em profundidade.

FAQ

O meu chatbot de admissões é classificado como alto risco?

Não, a menos que tome decisões de admissão autónomas. Um chatbot que informa, responde a perguntas e qualifica candidatos é classificado como "risco limitado". Deve identificar-se como IA e oferecer acesso humano, mas não está sujeito às obrigações pesadas do alto risco. No entanto, se o chatbot decide automaticamente aceitar ou rejeitar uma candidatura, passa para alto risco.

O AI Act aplica-se a universidades fora da UE que recrutam na Europa?

Sim. O regulamento aplica-se a qualquer sistema de IA cujos resultados são utilizados na UE, independentemente de onde o fornecedor ou implementador está estabelecido. Uma universidade britânica ou suíça que utilize uma ferramenta de scoring para selecionar candidatos residentes na UE está sujeita ao AI Act.

Qual é a relação entre o AI Act e o RGPD para dados de candidatos?

Ambos os regulamentos aplicam-se simultaneamente. O RGPD rege a recolha, armazenamento e tratamento de dados pessoais. O AI Act acrescenta obrigações sobre como esses dados são utilizados pelos sistemas de IA (transparência, supervisão humana, auditoria de viés). A conformidade RGPD não isenta da conformidade AI Act, e vice-versa.

Quanto tempo e orçamento prever para a conformidade?

Para uma universidade com chatbot (risco limitado) e CRM com scoring básico: 2 a 4 semanas e 3.000 a 8.000 EUR em auditoria e ajustes. Para uma universidade com sistema de pré-seleção automatizada (alto risco): 2 a 4 meses e 15.000 a 50.000 EUR, com uma parte significativa faturada pelo fornecedor.

Artigos relacionados

Guia operacional de protecao de dados de candidatos no ensino superior
Conformidade

Proteger os dados dos seus candidatos: guia operacional RGPD para instituicoes de ensino superior

Guia RGPD para a proteção de dados de estudantes no ensino superior
Conformidade

RGPD e dados de estudantes: guia completo para instituições de ensino

Ilustração isométrica de um funil de recrutamento estudantil automatizado com pontos de contacto humano integrados, paleta terracota
Recrutamento

Automatizar o recrutamento estudantil sem perder a relação humana

Voltar ao blog

RGPD · Lei da IA da UE · Alojamento UE

skolbot.

SoluçãoPreçosAviso legalPolítica de privacidade

© 2026 Skolbot