skolbot.Chatbot IA pour écoles
ProduitTarifs
Démo gratuite
Démo gratuite
Cahier des charges pour choisir un chatbot étudiant dans l'enseignement supérieur
  1. Accueil
  2. /Blog
  3. /Chatbot IA
  4. /Cahier des charges pour choisir un chatbot étudiant : la grille complète
Retour au blog
Chatbot IA13 min read

Cahier des charges pour choisir un chatbot étudiant : la grille complète

12 critères fonctionnels, techniques et réglementaires pour rédiger le cahier des charges d'un chatbot IA dans les cégeps et universités au Québec. Grille d'évaluation incluse.

S

Équipe Skolbot · 20 mars 2026

Résumer cet article avec

ChatGPTChatGPTClaudeClaudePerplexityPerplexityGeminiGeminiGrokGrok

Sommaire

  1. 01Un cahier des charges structuré élimine 80 % des erreurs de choix
  2. 02Les 12 critères du cahier des charges : vue synthétique
  3. 03Bloc fonctionnel : ce que le chatbot doit savoir faire
  4. 1. Entraînement sur données de l'établissement (15 %)
  5. 2. Soutien multilingue natif (12 %)
  6. 3. Inscription portes ouvertes automatique (10 %)
  7. 4. Analytiques et rapports (8 %)
  8. 04Bloc technique : comment le chatbot s'intègre
  9. 5. Intégration CMS / CRM (10 %)
  10. 6. Délai de déploiement (8 %)
  11. 7. Uptime SLA (5 %)
  12. 8. Performance et temps de réponse (5 %)
  13. 05Bloc conformité : ce que la loi exige
  14. 9. Loi 25 et hébergement des données (10 %)
  15. 10. IA Act — transparence et obligations (5 %)
  16. 06Bloc soutien : ce qui fait la différence après la signature
  17. 11. Intégration et formation (7 %)
  18. 12. SLA soutien et CSM dédié (5 %)
  19. 07Grille d'évaluation : le gabarit prêt à l'emploi

Un cahier des charges structuré élimine 80 % des erreurs de choix

La plupart des cégeps et universités choisissent leur chatbot après une démonstration de 30 minutes et une négociation tarifaire. Six mois plus tard, l'outil répond à côté, personne ne regarde les analytiques, et l'équipe d'admission revient au formulaire de contact.

Le problème n'est pas le chatbot. C'est l'absence de cahier des charges. Sans critères formalisés, chaque partie prenante évalue la solution selon ses propres priorités — la direction des TI regarde l'intégration, la direction des admissions veut des prospects qualifiés, la direction financière compare les prix. Le résultat est un choix par défaut, pas par méthode.

Ce guide fournit les 12 critères à inclure dans votre cahier des charges, organisés en quatre blocs : fonctionnel, technique, conformité et soutien. Chaque critère est accompagné d'un seuil d'acceptation concret et d'une pondération recommandée pour la grille d'évaluation.

Les benchmarks cités proviennent de l'analyse de 200 000 sessions chatbot sur 50 établissements partenaires entre octobre 2025 et février 2026 (source : données internes Skolbot).

Les 12 critères du cahier des charges : vue synthétique

Avant d'entrer dans le détail, voici la grille complète. Chaque critère est classé par bloc et pondéré selon son impact sur le recrutement étudiant.

#BlocCritèrePondération
1FonctionnelEntraînement sur données de l'établissement15 %
2FonctionnelSoutien multilingue natif12 %
3FonctionnelInscription portes ouvertes automatique10 %
4FonctionnelAnalytiques et rapports8 %
5TechniqueIntégration CMS / CRM10 %
6TechniqueDélai de déploiement8 %
7TechniqueUptime SLA5 %
8TechniquePerformance et temps de réponse5 %
9ConformitéLoi 25 et hébergement des données10 %
10ConformitéIA Act (transparence et obligations)5 %
11SoutienIntégration et formation7 %
12SoutienSLA soutien et CSM dédié5 %

La somme atteint 100 %. Ajustez les pondérations selon les priorités de votre établissement — mais ne supprimez aucun critère. Un chatbot qui excelle en fonctionnel mais échoue en conformité expose l'établissement à un risque juridique réel.

Bloc fonctionnel : ce que le chatbot doit savoir faire

1. Entraînement sur données de l'établissement (15 %)

Le chatbot doit répondre aux questions spécifiques de votre cégep ou université, pas aux généralités du secteur. L'analyse de 12 000 conversations Skolbot (sept. 2025 — fév. 2026) révèle que 89 % des candidats potentiels posent une question sur les droits de scolarité et 78 % sur les stages coopératifs. Un chatbot qui ne connaît pas vos tarifs ni votre offre de stages coop échoue sur les questions les plus fréquentes.

Seuil d'acceptation. Le chatbot doit être capable de répondre à 90 % des questions du top 10 des candidats (droits de scolarité, débouchés, stages coop, résidences, international, admission, cote R, reconnaissance de diplôme, vie de campus, prêts et bourses AFE) dans les 48 h suivant le déploiement.

Question à poser au fournisseur : « Comment le chatbot est-il alimenté en contenu ? Scraping automatique, import manuel, ou les deux ? Quel est le délai de mise à jour quand un programme change ? »

2. Soutien multilingue natif (12 %)

58 % des candidats internationaux ne sont pas francophones (source : détection de langue, 8 500 conversations Skolbot, 2025-2026). Un chatbot monolingue coupe l'accès à plus de la moitié du vivier international.

Seuil d'acceptation. Détection automatique de la langue du candidat, réponse dans la même langue, couverture d'au moins 10 langues sans dégradation de qualité.

Piège courant. La « traduction automatique » n'est pas du « multilingue natif ». Un chatbot qui traduit sa réponse française en anglais produit du contenu approximatif et perd les nuances des parcours de formation locaux (Common App aux États-Unis, clearing au Royaume-Uni, Studienkolleg en Allemagne).

3. Inscription portes ouvertes automatique (10 %)

Le chatbot doit détecter l'intention de visite et proposer l'inscription en conversation, pas simplement renvoyer vers un formulaire. Les données de suivi sur 35 établissements (2025-2026) montrent un taux d'inscription aux portes ouvertes de 18,4 % via chatbot contre 6,2 % via formulaire — un facteur 3x.

Seuil d'acceptation. Inscription en conversation (sans redirection externe), confirmation instantanée, relance personnalisée J-7 et J-1 avec taux de no-show inférieur à 20 %. À titre de référence, le taux de no-show sans relance atteint 52 % (source : suivi de 4 200 inscriptions aux portes ouvertes, 12 établissements, 2025-2026).

4. Analytiques et rapports (8 %)

Sans données, le chatbot est une boîte noire. Le tableau de bord doit fournir au minimum : volume de conversations, questions les plus posées, taux de résolution, taux de transfert humain, et conversions (portes ouvertes, formulaire, candidature).

Seuil d'acceptation. Tableau de bord accessible sans compétence technique, export CSV/API, segmentation par programme/campus/langue, et alertes sur les anomalies (pic de questions sur un sujet = problème sur le site Web ou changement de programme).

Bloc technique : comment le chatbot s'intègre

5. Intégration CMS / CRM (10 %)

Le chatbot doit s'intégrer à votre écosystème existant, pas le remplacer. Les intégrations critiques : CMS (WordPress, Drupal, headless), CRM (HubSpot, Salesforce, Oscar Campus), et outils d'automatisation marketing.

Seuil d'acceptation. Snippet JavaScript pour le CMS (déploiement sans développeur), webhook ou API REST pour le CRM (synchronisation des prospects qualifiés en temps réel), et documentation technique complète.

Question à poser : « Votre chatbot pousse-t-il les prospects qualifiés dans notre CRM en temps réel ou en lot ? Quels champs sont synchronisés ? »

6. Délai de déploiement (8 %)

La saisonnalité du recrutement étudiant rend le délai critique. Un chatbot déployé après le pic d'admission au cégep (mars) ou après la période d'admission tardive (août) a raté sa fenêtre de valeur.

Seuil d'acceptation. Moins de 2 semaines entre la signature et le chatbot en production, incluant l'entraînement sur le contenu de l'établissement. Les solutions spécialisées en éducation atteignent 48 h ; les solutions généralistes nécessitent 4 à 8 semaines de configuration.

7. Uptime SLA (5 %)

67 % de l'activité des candidats a lieu en dehors des heures ouvrées, avec un pic le dimanche soir (source : 200 000 sessions Skolbot, 2025-2026). Un chatbot indisponible la fin de semaine annule l'avantage compétitif principal.

Seuil d'acceptation. SLA de 99,9 % minimum (soit moins de 8 h 45 d'indisponibilité par an), avec monitoring et alertes en temps réel.

8. Performance et temps de réponse (5 %)

Seuil d'acceptation. Temps de réponse inférieur à 5 secondes pour 95 % des requêtes. Les données terrain montrent un temps médian de 3 secondes pour les chatbots IA spécialisés en éducation, contre 47 h pour le courriel et 72 h pour le formulaire de contact (source : audit mystery shopping, 80 établissements, 2025).

Bloc conformité : ce que la loi exige

9. Loi 25 et hébergement des données (10 %)

Tout chatbot qui collecte des données de candidats potentiels — dont des mineurs — doit respecter la Loi 25 (Loi modernisant des dispositions législatives en matière de protection des renseignements personnels) et la LPRPSP. Ce n'est pas une option, c'est le cadre légal québécois.

Seuil d'acceptation. Hébergement des données au Canada (idéalement au Québec), entente de traitement des renseignements personnels signée, registre des traitements accessible, droit à l'effacement opérationnel sous 72 h, et consentement explicite avant toute collecte. La Commission d'accès à l'information (CAI) du Québec publie régulièrement des recommandations spécifiques à l'IA dans l'éducation.

Question critique : « Où sont hébergées les données des conversations ? Qui y a accès ? Quel est le processus de suppression sur demande ? »

10. IA Act — transparence et obligations (5 %)

Le Règlement européen sur l'intelligence artificielle (IA Act) impose des obligations de transparence (article 52) : le candidat doit savoir qu'il interagit avec une IA. Bien que ce règlement soit européen, il s'applique à tout établissement qui recrute des étudiants européens. De plus, le gouvernement du Canada travaille sur la Loi sur l'intelligence artificielle et les données (LIAD), qui imposera des exigences similaires.

Seuil d'acceptation. Mention explicite « Vous échangez avec un assistant IA » dès le début de la conversation, documentation technique du système IA accessible, et mécanisme de transfert vers un humain à tout moment.

Bloc soutien : ce qui fait la différence après la signature

11. Intégration et formation (7 %)

Un chatbot performant mal configuré produit les mêmes résultats qu'un chatbot médiocre. L'intégration doit inclure : configuration initiale assistée, formation de l'équipe d'admission, et validation du contenu avant mise en production.

Seuil d'acceptation. Session de formation dédiée (pas un webinaire générique), validation conjointe du chatbot sur les 20 questions les plus fréquentes, et documentation interne personnalisée.

12. SLA soutien et CSM dédié (5 %)

Seuil d'acceptation. Temps de réponse soutien inférieur à 4 h en jour ouvrable, CSM (Customer Success Manager) dédié avec connaissance du secteur de l'éducation postsecondaire, et revue trimestrielle des performances avec recommandations d'optimisation.

Grille d'évaluation : le gabarit prêt à l'emploi

Utilisez cette matrice pour noter chaque solution candidate. Chaque critère est noté de 1 (insuffisant) à 5 (excellent), puis multiplié par sa pondération.

CritèrePond.Solution ASolution BSolution C
1. Entraînement données établissement15 %_/5 × 0,15 = __/5 × 0,15 = __/5 × 0,15 = _
2. Multilingue natif12 %_/5 × 0,12 = __/5 × 0,12 = __/5 × 0,12 = _
3. Inscription portes ouvertes auto10 %_/5 × 0,10 = __/5 × 0,10 = __/5 × 0,10 = _
4. Analytiques8 %_/5 × 0,08 = __/5 × 0,08 = __/5 × 0,08 = _
5. Intégration CMS/CRM10 %_/5 × 0,10 = __/5 × 0,10 = __/5 × 0,10 = _
6. Délai déploiement8 %_/5 × 0,08 = __/5 × 0,08 = __/5 × 0,08 = _
7. Uptime SLA5 %_/5 × 0,05 = __/5 × 0,05 = __/5 × 0,05 = _
8. Temps de réponse5 %_/5 × 0,05 = __/5 × 0,05 = __/5 × 0,05 = _
9. Loi 2510 %_/5 × 0,10 = __/5 × 0,10 = __/5 × 0,10 = _
10. IA Act / LIAD5 %_/5 × 0,05 = __/5 × 0,05 = __/5 × 0,05 = _
11. Intégration7 %_/5 × 0,07 = __/5 × 0,07 = __/5 × 0,07 = _
12. Soutien / CSM5 %_/5 × 0,05 = __/5 × 0,05 = __/5 × 0,05 = _
TOTAL100 %_/5_/5_/5

Comment interpréter le score. En dessous de 3/5, la solution présente des lacunes structurelles. Entre 3 et 4, elle convient avec des compromis. Au-dessus de 4, elle couvre les besoins d'un établissement postsecondaire québécois.

Pour un comparatif détaillé des solutions du marché, consultez notre comparatif des chatbots IA pour l'enseignement supérieur. Et pour comprendre pourquoi le chatbot surpasse le formulaire de contact, lisez notre analyse chatbot vs formulaire. Retrouvez également toutes nos analyses solution par solution sur notre page comparatif.

FAQ

Qui doit rédiger le cahier des charges dans l'établissement ?

Le cahier des charges doit être co-rédigé par trois parties : la direction des admissions (qui définit les besoins fonctionnels), la direction des TI (qui valide les contraintes techniques et d'intégration), et le responsable de la protection des renseignements personnels ou le service juridique (qui garantit la conformité avec la Loi 25 et l'IA Act). Un comité de pilotage de 3 à 5 personnes est suffisant. Impliquer trop de parties prenantes allonge le processus sans améliorer la qualité du document.

Combien de temps faut-il pour rédiger un cahier des charges chatbot ?

Avec cette grille comme base, comptez 2 à 3 semaines entre le lancement de la réflexion et le document finalisé. La phase la plus longue n'est pas la rédaction, c'est l'alignement interne sur les priorités (pondération des critères). Commencez par la grille synthétique de cet article, adaptez les pondérations en comité, puis détaillez les seuils d'acceptation.

Faut-il inclure un budget dans le cahier des charges ?

Oui, indiquez une fourchette budgétaire. Cela filtre les solutions hors périmètre et évite de perdre du temps en démonstrations avec des fournisseurs 5 fois au-dessus du budget. Pour un chatbot IA spécialisé en éducation, la fourchette se situe entre 300 et 1 200 CAD/mois par établissement. Les solutions généralistes B2B commencent à 3 500 CAD/mois. Inclure cette information permet aux fournisseurs de proposer l'offre la plus adaptée.

Le cahier des charges doit-il mentionner la réglementation sur l'IA ?

Oui, explicitement. Au Québec, la Loi 25 encadre la collecte et le traitement des renseignements personnels, y compris par des systèmes d'IA. Le cahier des charges doit exiger la conformité en matière de transparence et vérifier la classification du système proposé. Tout fournisseur incapable de documenter sa conformité réglementaire en 2026 représente un risque. La Loi sur l'intelligence artificielle et les données (LIAD) au niveau fédéral imposera également des exigences supplémentaires.

Comment évaluer la qualité des réponses du chatbot pendant le test ?

Préparez une liste de 30 questions réelles tirées de vos échanges avec les candidats potentiels (courriel, téléphone, réseaux sociaux). Soumettez-les au chatbot en mode test et évaluez chaque réponse sur trois axes : exactitude (l'information est-elle correcte ?), complétude (la réponse couvre-t-elle la question ?), et ton (la réponse est-elle adaptée à un futur étudiant ?). Un score de 80 % ou plus sur les 30 questions indique une solution viable. Pour aller plus loin sur le calcul du retour sur investissement, consultez notre guide ROI chatbot étudiant.

Testez Skolbot sur votre établissement en 30 secondes

Articles similaires

Guide complet du chatbot IA pour le recrutement dans l'enseignement supérieur
Chatbot IA

Chatbot IA pour cégep et université : le guide complet 2026

Comparatif entre chatbot IA et formulaire de contact pour le recrutement en école supérieure
Chatbot IA

Chatbot IA vs formulaire de contact : comparatif pour l'enseignement supérieur au Québec

Illustration isométrique de 5 scénarios de chatbot IA pour augmenter les inscriptions dans les universités québécoises
Chatbot IA

5 scénarios de chatbot IA qui augmentent vos inscriptions

Retour au blog

RGPD · IA Act · Hébergement UE

skolbot.

SolutionTarifsBlogÉtudes de casComparatifAI CheckFAQÉquipeMentions légalesPolitique de confidentialité

© 2026 Skolbot