Contexte
le client est un groupe éditorial et éducatif international, présent en France à travers plusieurs établissements d'enseignement supérieur. Le suivi de la satisfaction étudiante est un enjeu stratégique : il conditionne les accréditations, oriente les décisions pédagogiques et influe sur la réputation des formations.
Mon rôle de Responsable enquêtes et données était de prendre en charge l'intégralité du dispositif d'enquêtes : de la conception des questionnaires à la présentation des résultats, en passant par la gestion des campagnes de collecte et le traitement des données.
Conception des questionnaires
La première étape de chaque cycle d'enquête était la conception des questionnaires. Les enquêtes couvraient plusieurs dimensions de l'expérience étudiante : qualité pédagogique des formations, satisfaction vis-à-vis de l'accompagnement, adéquation entre le contenu des cours et les attentes professionnelles, et qualité des infrastructures.
La conception n'était pas un exercice purement technique. Chaque questionnaire était co-construit avec les responsables pédagogiques concernés pour s'assurer que les questions posées correspondraient à des leviers d'action réels. Une question sans décision possible derrière elle n'a pas sa place dans un questionnaire qui demande du temps aux répondants.
Structuration des questions
J'ai appliqué plusieurs principes pour maximiser la qualité des réponses : utilisation d'échelles de Likert cohérentes sur l'ensemble du questionnaire, formulation neutre des questions pour éviter les biais d'orientation, équilibre entre questions fermées (faciles à analyser) et questions ouvertes (riches en contenu mais plus longues à traiter), et durée de complétion maintenue sous 8 minutes pour limiter l'abandon en cours de questionnaire.
Gestion des campagnes d'emailing
La collecte des réponses reposait principalement sur des campagnes d'emailing. Le taux de réponse aux enquêtes étudiantes est structurellement bas : obtenir 30% de répondants est considéré comme un bon résultat dans ce secteur. L'enjeu était donc d'optimiser chaque paramètre de la campagne pour maximiser la participation.
Séquencement des envois
Chaque campagne suivait un séquencement précis : un email d'invitation initial avec le lien vers le questionnaire, deux relances espacées de 5 jours ciblant uniquement les non-répondants, et un dernier rappel 48 heures avant la clôture. Ce séquencement permettait de maximiser la participation sans saturer les étudiants qui avaient déjà répondu.
Optimisation des taux d'ouverture
J'ai testé différentes formulations d'objet d'email, différentes heures d'envoi et différents niveaux de personnalisation pour identifier les configurations générant les meilleurs taux d'ouverture et de clic. Ces apprentissages ont été documentés et réutilisés sur les campagnes suivantes.
Analyse des résultats
Une fois la collecte terminée, le travail d'analyse commençait. Pour les questions fermées, j'établissais des distributions de réponses, des scores moyens par dimension et des comparaisons entre promotions ou entre établissements. Pour les questions ouvertes, j'effectuais une analyse thématique manuelle pour identifier les grandes catégories de verbatims et les tendances récurrentes.
Identification des axes d'amélioration
L'objectif de l'analyse n'était pas de produire des tableaux de chiffres mais d'identifier des actions concrètes. Chaque rapport se concluait par une liste priorisée d'axes d'amélioration, avec le niveau de consensus observé chez les répondants et les verbatims les plus représentatifs pour chaque axe.
Présentation aux équipes pédagogiques
Les résultats étaient présentés lors de réunions avec les directeurs de programmes et les équipes pédagogiques. La présentation était structurée pour aller à l'essentiel : les points forts confirmés par les étudiants, les points de vigilance et les axes prioritaires d'amélioration, chacun illustré par des données chiffrées et des verbatims représentatifs.
Cette étape de présentation était la plus délicate : certains résultats impliquaient des remises en question pour les équipes enseignantes. Le travail de data storytelling était crucial pour présenter les faits avec objectivité tout en favorisant un dialogue constructif plutôt qu'une posture défensive.
Résultats
Les résultats des enquêtes ont directement orienté plusieurs décisions pédagogiques : révision du contenu de certains modules, renforcement de l'accompagnement à l'insertion professionnelle et amélioration des process de communication entre équipes et étudiants. Voir les données produites se traduire concrètement en actions reste l'un des retours les plus satisfaisants de cette mission.