O Regulamento de IA entra em vigor — e as universidades estão abrangidas
O Regulamento Europeu sobre Inteligência Artificial (AI Act, Regulamento UE 2024/1689) é o primeiro quadro jurídico do mundo a regular os sistemas de IA por nível de risco. A sua aplicação começou em fevereiro de 2025 para as práticas proibidas, e as obrigações para sistemas de alto risco — alguns utilizados na educação — entram em vigor em agosto de 2026 (Fonte: Jornal Oficial da UE, Regulamento 2024/1689, Art. 113).
Para as universidades, não é um tema abstrato. A partir do momento em que uma universidade utiliza um chatbot de admissões, uma ferramenta de pontuação de candidatos, um detetor de plágio com IA ou um algoritmo de recomendação de cursos, está a implementar um sistema de IA na aceção do regulamento. A questão não é se a sua universidade está abrangida — está. A questão é em que categoria de risco caem as suas ferramentas.
Classificação de riscos: onde se situa a sua universidade?
O AI Act classifica os sistemas de IA em quatro níveis de risco. Cada nível implica obrigações diferentes.
Risco inaceitável (proibido)
São proibidos os sistemas de pontuação social generalizada, a manipulação subliminar e a exploração de vulnerabilidades. No contexto educativo, seria proibido um sistema que avaliasse os estudantes com base no seu comportamento social global (participação em eventos, atividade em redes sociais) para decidir a admissão (Fonte: AI Act, Art. 5, parágrafo 1).
Este cenário parece extremo, mas algumas práticas de avaliação "holística" de candidatos aproximam-se disso. Se a sua ferramenta de admissão incorpora dados comportamentais não relacionados com a aptidão académica, faça uma auditoria.
Alto risco (obrigações rigorosas)
É a categoria mais importante para o ensino superior. O Anexo III do regulamento classifica explicitamente como alto risco os sistemas de IA utilizados para "determinar o acesso ou a admissão a estabelecimentos de ensino e de formação profissional" (Fonte: AI Act, Anexo III, ponto 3a).
Concretamente, estão abrangidos:
- Ferramentas de pré-seleção automatizada — qualquer sistema que filtra, classifica ou pontua candidaturas com base em critérios algorítmicos
- Detetores de plágio com IA que influenciam a classificação ou avaliação académica
- Algoritmos de colocação ou orientação que determinam o acesso a cursos específicos
- Sistemas de classificação automatizada que produzem ou influenciam avaliações académicas
As obrigações para estes sistemas são substanciais: sistema de gestão de riscos, dados de treino documentados, transparência técnica, supervisão humana, registo de entradas/saídas e registo na base de dados europeia.
Risco limitado (obrigações de transparência)
Os chatbots de admissões e informação caem nesta categoria. A obrigação principal é simples mas inegociável: informar o utilizador de que está a interagir com um sistema de IA (Fonte: AI Act, Art. 50, parágrafo 1).
Na prática, o seu chatbot deve indicar claramente que é um assistente de IA, não um humano. Uma mensagem como "Sou um assistente de IA da [Nome da universidade]. Um conselheiro humano está disponível mediante pedido" cumpre esta obrigação.
Também nesta categoria:
- Sistemas de geração de conteúdo por IA (emails automatizados, descrições de cursos)
- Sistemas de reconhecimento de emoções (análise de tom em entrevistas em vídeo)
- Ferramentas de tradução automática de conteúdo pedagógico
Risco mínimo (sem obrigações específicas)
Ferramentas de IA sem impacto nos direitos fundamentais: corretores ortográficos, filtros anti-spam, otimizadores de horários. Sem obrigações regulamentares, embora as boas práticas de transparência continuem a ser recomendadas.
O calendário de conformidade
Os prazos são escalonados. Estas são as datas que afetam diretamente as universidades.
2 de fevereiro de 2025 — Proibições entram em vigor. Já em efeito.
2 de agosto de 2025 — Obrigações para modelos de IA de uso geral (GPAI). Afeta fornecedores como OpenAI, Anthropic, Mistral — não diretamente as universidades, mas os seus fornecedores de ferramentas IA devem cumprir. Exija uma declaração de conformidade dos seus fornecedores.
2 de agosto de 2026 — Obrigações para sistemas de alto risco (Anexo III). Esta é a data crítica para as universidades. Se utiliza uma ferramenta de pré-seleção automatizada ou classificação automática, deve estar conforme nesta data.
2 de agosto de 2027 — Extensão a sistemas de alto risco regulados por legislação setorial.
Faltam 5 meses até à entrada em vigor das obrigações de alto risco. Se a sua universidade ainda não auditou as suas ferramentas IA, o prazo é apertado mas exequível.
Obrigações concretas por caso de uso
Chatbot de admissões (risco limitado)
As obrigações são proporcionadas e realistas.
Obrigação 1 — Transparência: o chatbot deve identificar-se como IA. Um banner permanente ou mensagem de boas-vindas clara é suficiente.
Obrigação 2 — Informação sobre tratamento de dados: em conformidade com o RGPD, o tratamento de dados pelo chatbot deve ser documentado na política de privacidade. O nosso guia RGPD para dados de estudantes detalha estas obrigações.
Obrigação 3 — Contacto humano: o candidato deve poder solicitar falar com um humano a qualquer momento.
Custo estimado de conformidade: quase nulo se o chatbot já é transparente. Conte com 2 a 5 dias para auditoria, documentação e ajuste da interface.
Pré-seleção automatizada de candidatos (alto risco)
As obrigações são significativamente mais pesadas.
As seis obrigações: (1) gestão de riscos documentada (viés, discriminação, erros de classificação), (2) qualidade dos dados de treino (representatividade, ausência de viés histórico), (3) documentação técnica completa, (4) supervisão humana — nenhuma decisão de admissão pode ser totalmente automatizada, (5) registo de entradas/saídas (mínimo 6 meses), (6) registo na base de dados europeia.
Custo estimado de conformidade: 15.000 a 50.000 EUR para uma auditoria completa, documentação técnica e implementação de processos de supervisão humana. O custo recai principalmente sobre o fornecedor, mas a universidade como "implementador" também tem obrigações.
Deteção de plágio com IA (alto risco se afetar classificações)
Se a ferramenta influencia diretamente a classificação ou decisão académica, cai na categoria de alto risco. Os detetores de IA apresentam atualmente uma taxa de falsos positivos de 5 a 15% (Fonte: Stanford HAI, 2025). A supervisão humana não é opcional — é uma obrigação legal.
A articulação com o RGPD
O AI Act não substitui o RGPD — complementa-o. Todo o tratamento de dados pessoais por um sistema de IA continua sujeito ao RGPD (base legal, minimização, direitos de acesso). O artigo 22 do RGPD já proíbe decisões automatizadas com efeitos jurídicos; o AI Act reforça esta proteção com requisitos de transparência e supervisão humana mais detalhados. Os dois regulamentos complementam-se.
Para aprofundar a conformidade RGPD específica aos dados de estudantes, consulte o nosso guia dedicado.
Checklist de conformidade em 10 pontos
- Inventário: listar todas as ferramentas IA (chatbot, CRM, scoring, plágio, recomendação)
- Classificação: risco mínimo, limitado, alto ou inaceitável por ferramenta
- Auditoria de fornecedores: exigir declaração de conformidade e calendário
- Transparência chatbots: identificação IA + opção de contacto humano
- Supervisão humana: nenhuma decisão de admissão totalmente automatizada
- Documentação técnica: dossier completo para sistemas de alto risco
- Análise de viés: testes sobre género, origem geográfica, tipo de escola
- Política de privacidade: integrar os tratamentos IA
- Formação: equipas de admissões e académicas sobre as suas obrigações
- Revisão anual: auditoria AI Act alinhada com a revisão RGPD
Sanções por incumprimento
O AI Act prevê coimas graduadas: até 35 milhões EUR (7% do volume de negócios) para práticas proibidas, 15 milhões EUR (3%) para incumprimento de alto risco e 7,5 milhões EUR (1%) para informações inexatas. O risco reputacional é pelo menos tão preocupante: uma universidade sancionada por incumprimento de IA perde credibilidade para formar profissionais digitais.
O que as universidades devem exigir dos seus fornecedores de IA
Como "implementadores" nos termos do regulamento, as universidades partilham responsabilidade. Exija de cada fornecedor: declaração de conformidade datada, classificação de risco com justificação, documentação técnica acessível, compromisso contratual de supervisão humana e transparência, auditoria de viés documentada e plano de atualização regulamentar.
Para compreender como a IA influencia a visibilidade das universidades para além da conformidade, o nosso artigo sobre critérios de recomendação IA para universidades explora o tema em profundidade.
FAQ
O meu chatbot de admissões é classificado como alto risco?
Não, a menos que tome decisões de admissão autónomas. Um chatbot que informa, responde a perguntas e qualifica candidatos é classificado como "risco limitado". Deve identificar-se como IA e oferecer acesso humano, mas não está sujeito às obrigações pesadas do alto risco. No entanto, se o chatbot decide automaticamente aceitar ou rejeitar uma candidatura, passa para alto risco.
O AI Act aplica-se a universidades fora da UE que recrutam na Europa?
Sim. O regulamento aplica-se a qualquer sistema de IA cujos resultados são utilizados na UE, independentemente de onde o fornecedor ou implementador está estabelecido. Uma universidade britânica ou suíça que utilize uma ferramenta de scoring para selecionar candidatos residentes na UE está sujeita ao AI Act.
Qual é a relação entre o AI Act e o RGPD para dados de candidatos?
Ambos os regulamentos aplicam-se simultaneamente. O RGPD rege a recolha, armazenamento e tratamento de dados pessoais. O AI Act acrescenta obrigações sobre como esses dados são utilizados pelos sistemas de IA (transparência, supervisão humana, auditoria de viés). A conformidade RGPD não isenta da conformidade AI Act, e vice-versa.
Quanto tempo e orçamento prever para a conformidade?
Para uma universidade com chatbot (risco limitado) e CRM com scoring básico: 2 a 4 semanas e 3.000 a 8.000 EUR em auditoria e ajustes. Para uma universidade com sistema de pré-seleção automatizada (alto risco): 2 a 4 meses e 15.000 a 50.000 EUR, com uma parte significativa faturada pelo fornecedor.



