Quiconque a étudié ou enseigné dans l’enseignement supérieur au cours des dernières années a remarqué la gamme croissante de services logiciels déployés dans les collèges et les universités. Accélérées par les changements institutionnels et infrastructurels, l’impact et l’importance de ces « EduTECH » ne cesse de croître. Mais ces solutions sont-elles pertinentes ?
La plupart des institutions manquent encore de moyens pour étudier, mais surtout évaluer, ces outils. Or, chaque contrat passé avec un prestataire de « logiciels en tant que service » (NDLR : des logiciels qui tournent sur une infrastructure dont on n’a pas le contrôle et dont on loue l’utilisation) implique de nouvelles contraintes et l’introduction de méthodes de productivité venues tout droit du monde des startups informatiques. Plus problématique encore, chacun de ces contrats implique une dépendance des institutions vis-à-vis d’entreprises qui ne sont redevables qu’à leurs actionnaires et à la logique de marché. Tout ceci sans consultation des enseignantes et des étudiantes, qui sont pourtant les « utilisateurices » principales et finales, alors que ces outils affectent les pratiques éducatives au quotidien.
En tant qu’éducateurices et chercheurses concernées qui essayons de comprendre les changements en cours du point de vue de notre pratique, nous sommes en désaccord avec cette façon de faire. Nous pensons au contraire qu’il est important de discuter ces choix. Les outils et les méthodes que nous utilisons dans l’enseignement devraient toujours faire l’objet de critiques et d’adaptations, car ils façonnent et sont façonnés par nos pratiques au quotidien. De même, quand un nouveau dispositif technique est introduit sans que nous ne soyons directement impliquées dans le processus de conception, il est important de trouver le moyen de mesurer l’impact qu’il a dans nos usages, de voir s’il apporte quelque chose de constructif ou, au contraire, s’il crée de nouveaux problèmes et doit être adapté...
Dans le texte qui suit, nous partageons comment nous avons étudié, collectivement, une transformation logicielle « mineure » amenée dans les écoles et les universités aux Pays Bas : un « outil numérique intelligent d’évaluation des cours » – la « DiCE ».
Le déploiement de l’évaluation numérique des cours à THUAS
À l’Université des sciences appliquées de La Haye (THUAS), la DiCE a été mise en œuvre pour faciliter l’évaluation des cours par les étudiantes.
Le logiciel est produit par Vorsen, une entreprise qui développe depuis 15 ans des produits informatiques destinés aux établissements d’enseignement avec la promesse de « simplifier le travail, stimuler l’efficacité et améliorer la productivité ». L’université l’a adopté dans l’espoir que l’usage d’un questionnaire en ligne standardisé pour l’ensemble des cursus contribuerait à « l’amélioration de la culture qualité, une meilleure évaluation des cours par les étudiantes, et à permettre une bonne comparaison de la qualité des cursus. »
« Pourquoi devrais-je remplir le même questionnaire quantitatif insensé après chaque cours comme s’il s’agissait d’une simple livraison de pizza ? »
Les avantages de la DiCE, en regard de la situation de l’université, sont synthétisés dans quelques diapostives Powerpoint. Dans un contexte où les évaluations sont décrites comme fragmentées et inutilisables, engageant des résultats sous-exploités et sans garantie de qualité, la DiCE apporte un processus d’évaluation unique, fondé sur un seul questionnaire, promet plus de clarté dans les rôles et les responsabilités, et un accompagnement par l’entreprise qui développe le logiciel (De Haagse Hogeschool, 2020b, p.4). L’idée sous-jacente ? Une standardisation de l’évaluation où la qualité de l’enseignement sera garantie par des procédures et un questionnaire uniformes, sans ambiguïtés.
Cependant, celleux qui proposent cette nouveauté ne sont pas celleux qui vont utiliser la plateforme : les utilisateurices finales sont les étudiantes, les enseignantes et leurs supérieures. L’arrivée de la DiCE soulève ainsi des objections et des irritations chez certaines enseignantes et étudiantes que nous connaissons. Une étudiante s’est par exemple demandée « Pourquoi devrais-je remplir le même questionnaire quantitatif insensé après chaque cours comme s’il s’agissait d’une simple livraison de pizza ? », relevant par ailleurs qu’iel n’avait pas « l’impression que [s]on avis sur la qualité des cours soit pris au sérieux ». Une enseignante était quant à elle stupéfaite de découvrir que l’efficacité promise signifiait qu’il n’était plus nécessaire de discuter de son cours avec ses étudiantes – la DiCE lui promettant que, grâce au questionnaire, elle pouvait libérer ce temps pour enseigner. Enfin, un autre enseignant s’est inquiété de l’utilisation des données collectées : « Où seront-elles stockées, et qui aura accès aux scores que mes étudiantes m’auront attribués ? Que dire du fait que je ne trouve aucune politique en la matière dans notre université ? »
Ces questions témoignent de l’inquiétude de personnes qui se sentent investies dans leur pratique professionnelle et s’en préoccupent.
« Raconter la DiCE » Se questionner ensemble
Dans un contexte où un nouveau dispositif technique est introduit sans que nous – éducateurices et chercheurses – ne soyons impliquées dans le processus de conception, il est important de trouver un moyen de mesurer l’impact qu’il a dans nos usages, de voir s’il apporte quelque chose de constructif ou, au contraire, s’il crée de nouveaux problèmes et doit être adapté.
Afin d’explorer ces questions ensemble, nous avons décidé d’organiser, en matinée, une session de réflexion avec un petit groupe d’enseignantes et de chercheurses. Pour tirer le meilleur parti du temps à notre disposition et travailler à l’élaboration d’un document capable de restituer nos réflexions, nous avons proposé une méthode qui combine une lecture collective et attentive de textes et une analyse de l’interface du logiciel. La première permet de se doter d’un vocabulaire commun pour exprimer les expériences personnelles et faire des liens entre différents points de vue. La seconde, par de petits exercices visant à bousculer l’usage que nous avons habituellement du logiciel, permet de prendre conscience des agencements techniques de l’application, de ses limites et des hypothèses qui ont participé à sa conception.
Annoncée sous le titre « Recounting DiCE » (« Raconter/recompter la DiCE »), la session a réuni cinq collègues enseignantes pendant 4h, comptées comme des heures de travail. La discussion s’est structurée autour de trois questions de départ :
- Qu’est-ce que la DiCE est supposée mesurer ?
- Quelles torsions/biais ses mesures entraînent-t-elles ?
- Que valorisons-nous nous-mêmes en tant qu’enseignantes ? Comment ce que nous valorisons peut-il être évalué ? (Et cela peut-il entrer dans le questionnaire proposé par la DiCE ?)
Comme nous souhaitions partir du point de vue des étudiantes, nous avons configuré un questionnaire dans l’application et l’avons mis à la disposition des participantes afin qu’iels puissent y répondre comme s’iels étaient des étudiantes évaluant un cours. Nous avons ensuite examiné le rapport généré collectivement.
Nous avons également examiné les paramètres de l’outil, les menus et les modèles présents, donnant lieu à une discussion sur le modèle proposé par défaut et les moyens de s’en distancer.
Par ailleurs, des extraits de l’article de Gert Biesta « Éducation, mesures, et professions : se réapproprier un espace de professionalisme démocratique dans l’éducation » ont été imprimés et distribués. Nous les avons lus à haute voix, en nous arrêtant régulièrement pour évoquer nos propres expériences.
L’évaluation, en pratique
C’est par un simple lien que la DiCE se présente aux étudiantes et aux enseignantes, les invitant à évaluer un cours (pour les étudiantes) ou à inciter leurs élèves à le faire (pour les enseignantes).
Lorsqu’iels remplissent le questionnaire – ce qu’iels peuvent faire de manière anonyme –, différentes questions leur sont posées : si les méthodes de travail utilisées dans le cours (ateliers, travaux pratiques, cours magistraux, etc.) les ont encouragées à s’impliquer dans les objectifs d’apprentissage, s’iels ont participé activement aux activités, si le cours a amélioré leurs connaissances et leurs compétences, dans quelle mesure iels sont satisfaites du matériel d’étude et de la répartition de la charge de travail au sein du cours, ou encore si la pertinence du cours par rapport à leurs futures pratiques professionnelles a été mise en évidence. IEls sont aussi invitées à indiquer, pour chaque enseignante, si il ou elle a fourni un environnement d’apprentissage stimulant et s’iels sont satisfaits de ses compétences didactiques et de la qualité de ses commentaires. La notation se fait sur une échelle de 1 à 5 ou, pour l’évaluation globale du cours, de 1 à 10 (cette dernière correspond à l’échelle habituellement utilisée dans l’enseignement néerlandais).
Le questionnaire s’achève sur deux questions ouvertes invitant les étudiantes à dire ce qu’iels apprécient dans le cours et ce qui pourrait être amélioré. Après l’échéance, un rapport est automatiquement transmis aux coordinateurices du cursus et responsables du département, qui sont invitées à rédiger un court texte expliquant les mesures qui seront prises pour améliorer le cours.
L’objectif de l’université est que chaque étudiante réponde toujours au moins aux premières questions, car ces données chiffrées permettront de comparer les scores des différents cursus. Toutefois, les invitations par courriels contenant le lien des questionnaires sont souvent ignorées ou considérées comme du spam. Les enseignantes sont dès lors supposées inciter les étudiantes à participer – ce qu’iels font parfois en demandant à celleux-ci de les remplir en classe. Malgré cela, le taux de réponse est souvent trop faible pour que les évaluations soient significatives.
Notation et évaluation : un questionnaire problématique
En lisant la première question du questionnaire, demandant aux étudiantes si « les méthodes pédagogiques les ont poussées à simpliquer activement dans la matière », nous avons d’abord supposé qu’il s’agissait des exposés, des quizz, des mises en situation… ou de n’importe quelle méthode pédagogique stimulante. Mais cliquer sur la petite icône d’information à côté de la question dévoile qu’il s’agit d’évaluer uniquement les cours magistraux, les travaux pratiques ou les ateliers.
Une autre question demande aux étudiantes d’évaluer si « le cours a amélioré leurs compétences et leurs connaissances ». Elle semble plus claire, davantage liée à la qualité pédagogique de l’enseignement donné, mais reste plutôt générique. En fonction de la note attribuée, difficile en effet de savoir quelles compétences ou connaissances ont été améliorées, ni s’il s’agit de celles que l’enseignante souhaitait transmettre. La problématique est la même pour la question portant sur la satisfaction des étudiantes concernant le matériel didactique : avec un score élevé, on peut conclure que tous les contenus sont parfaits, mais avec un score faible il n’est pas possible de savoir ce qui ne convient pas. Dès lors, qu’est-ce que ces chiffres racontent sur la qualité pédagogique du cours ?
Le questionnaire invite aussi les étudiantes à évaluer si les sujets abordés durant le cours sont pertinents pour le monde professionnel qui les attend. Il est évident qu’il est important d’expliquer aux étudiantes pourquoi certaines matières et concepts sont pertinents, tel travail doit être réalisé ou tel sujet étudié. Mais s’il ressort de l’évaluation que la pertinence du cours n’a pas été comprise, est-ce que c’est un problème de qualité du cours ?
De même, à l’inverse, si l’évaluation est favorable, pouvons-nous conclure avec certitude que c’est grâce à la grande qualité du cours ?
Ainsi, le score obtenu par les questionnaires dit bien quelque chose de la satisfaction des étudiantes par rapport à certains aspects du cours, mais il ne donne pas d’information sur la manière d’améliorer la qualité de l’enseignement. Rien n’est dit de la façon dont les étudiantes interprètent les concepts utilisés dans le questionnaire. Rien n’indique non plus quelles situations spécifiques du dernier semestre iels ont en tête au moment où iels répondent aux questions, et encore moins à ce qu’iels pensent être une éducation de qualité.
La tournure générique des questions est aussi déconnectée du vocabulaire utilisé en classe et ne résonne pas avec l’expérience vécue avec les étudiantes.
La logique de notation du questionnaire réduit les étudiantes à des consommateurices et les enseignantes à des prestataires de services. Leurs réponses doivent être brèves, chiffrées, sans place pour la réflexion. Avez-vous apprécié la pizza ? Recommanderiez-vous le film ? Avez-vous aimé le cours ? Si un espace est présent pour ajouter des commentaires, il laisse peu de place aux réponses détaillées et contrastées. À quoi sert une évaluation superficielle des cours ? Pour les participantes à notre sessoin, la DiCE ne fait pas justice au dialogue, pourtant essentiel dans l’éducation pour le progrès de chacune.
Il est facile en effet de comprendre que les « notes » données aux enseignantes ne sont pas une véritable appréciation du travail fourni. Le score moyen, attribué sur la base de questions abstraites, par une minorité d’étudiantes, ne peut fournir de conclusions sur la qualité de l’enseignement. Il peut cependant placer des étiquettes sur les enseignantes sur une base purement quantitative et devenir un indicateur réducteur et fallacieux utilisé à des fins administratives. Nous ne sommes pas les premieres à constater l’angoisse et la concurrence malsaine que cela peut générer – en plus d’entraver l’épanouissement de la fonction éducative des chargées de cours et la progression des étudiantes (voir par exemple Teelken, 2018).
Satisfaction, confiance et qualités : trois concepts inquiétants et technocratiques
Au-delà des formulations standardisées du questionnaire, la session a laissé entrevoir des problèmes plus profonds qui ne peuvent être résumés à des enjeux techniques ou à la seule formation des utilisateurices. Elles découlent de notre seconde question : quelles torsions, quels biais, ses mesures entraînent-t-elles ? En effet, la DiCE porte une vision du monde de l’éducation fondamentalement différente de la nôtre lorsqu’il est question de satisfaction, de confiance et de qualité.
Petite histoire de la satisfaction en contexte étudiant
Dans le questionnaire de la DiCE, de nombreuses questions s’articulent autour du concept de « satisfaction ». Ce terme en apparence neutre est présent dans de nombreux outils (numériques ou non) des institutions destinés à évaluer les cours et classer les établissements. Il fait référence au jugement subjectif qui est fait entre les attentes initiales de l’étudiante, l’expérience qu’iel a vécue ensuite et le résultat de son apprentissage. Si nous ne pouvons ici qu’esquisser sommairement ses origines et sa propagation, le sens de la notion a évolué au fil du temps.
Suite aux protestations étudiantes des années 60 et 70, la mesure de la satisfaction invite d’abord à prêter attention aux pratiques pédagogiques. Elle devient plus tard un raccourci pour évoquer la recherche de nouveaux indicateurs visant à mesurer l’implication des étudiantes (Bean & Bradley, 1986) et, aux États-Unis, elle est mobilisée pour justifier toute une série de réformes s’attaquant à des problématiques sociales comme l’égalité dans l’enseignement, la fin de la ségrégation raciale dans les écoles, etc. Mais 20 ans plus tard, un changement sémantique s’opère. La notion est alors placée dans une perspective de marché, lourdement influencée par le renforcement de la notion de « satisfaction des clientes » en théorie marketing. Par la suite, elle est récupérée « à droite » dans le cadre des réformes éducatives néolibérales aux États-Unis (à la suite du rapport Nation at Risk de 1983) et au Royaume-Uni (par l’Education Reform Act de 1988) poussées respectivement par les gouvernements de Ronald Reagan et de Margareth Thatcher. En très bref, la vision de l’école proposée par la New Right (la Nouvelle Droite) reposait sur le principe général que les institutions publiques devaient être gérées comme si elles relevaient du privé, le marché étant considéré comme la meilleure des forces permettant de déterminer l’organisation de la société.
La notion de satisfaction des clientes a ensuite évolué jusqu’à l’essor des services en ligne durant la dernière décennie, ce qui a entrainé une redéfinition du concept même de satisfaction : tout le monde a déjà été confronté au système de feedback systématisé par la prolifération des « services » proposant une évaluation sur 5 étoiles pour juger tout et n’importe quoi, des transports en voiture aux repas, en passant par les hotêls et… les professeures.
La DiCE n’en est pas à ce point-là, mais on peut voir ce qu’un tel système peut devenir, avec tous ses problèmes et contradictions, sur le site ratemyprofessors.com dont l’utilisation est encore interdite en Europe (mais est très répandue aux États-Unis).
La question de la confiance
Dans les discussions autour de la DiCE, la question de la confiance est apparue. Comment faire confiance à un processus (et à ses outils) destiné à évaluer les cours ? De quoi se méfier ?
Un problème de la démarche d’évaluation concerne les relations de pouvoir dans la salle de classe que l’enseignante ne peut jamais vraiment neutraliser. Avoir une conversation libre avec les étudiantes ne garantit pas que tout le monde exprime ce qu’iel pense. La position de l’enseignante même, en tant que responsable et évaluateurice, crée inévitablement aussi un jeu de pouvoir. L’anonymat pourrait théoriquement offrir un espace où chacune peut s’exprimer librement et en sécurité, mais, dans un contexte où les enseignantes et les étudiantes ont appris à se connaitre, il y aura toujours des propos qui donneront un indice sur qui parle.
La DiCE propose de résoudre ce problème en remplaçant les mots par des chiffres. La confiance, au lieu d’être une qualité à cultiver dans la classe et à entretenir par le dialogue, est pensée comme une chose à extraire au travers de la quantification. L’enjeu est technique : il s’agit de trouver les bons indicateurs destinés à supprimer toute trace de vulnérabilité humaine en jeu dans les relations de pouvoir. Cette logique suit une vision technocratique de l’éducation d’après laquelle la didactique pourrait être dissociée des contextes de relations, pour ensuite être calculée et optimisée.
En lien avec la confiance se pose aussi celle de la responsabilité des enseignantes. Par son mode de transmission verticale traversant la hiérarchie de l’institution, la DiCE apparait comme une réponse à la crainte que les enseignantes ne rendraient pas de comptes. Elle propose un instrument de contrôle en générant des rapports directement transmis à la direction, qui sont stockés dans des endroits inaccessibles aux enseignantes et qui, dans certains cas, s’immiscent dans les entretiens d’évaluation des employées. Les enseignantes n’en recoivent qu’une copie ne contenant que les scores et, peut-être, quelques commentaires des étudiantes. Il n’y a pas de place pour le dialogue.
La DiCE renforce l’idée que, pour responsabiliser, il faut demander à justifier les résultats obtenus. La perception individuelle de la responsabilité des enseignantes vis-à-vis des étudiantes, elle, paraît peu fiable car elle ne peut pas être mesurée – et ce qui ne peut être mesuré ne serait pas digne de confiance. Pourtant, Masschelein et Simons (2013) expliquent : « … dans une telle situation, la responsabilité est remplacée par une version édulcorée d’elle-même : la réactivité face à l’obligation de rendre des comptes. Lorsque la responsabilité est perçue comme la nécessité de justifier des résultats et des retours perçus, la responsabilité pédagogique s’estompe. » Il en résulte que tout sens de responsabilité pédagogique et d’attention apportée au travail est remplacé par la peur d’avoir de « mauvaises notes ». Ce qui, en retour, alimente la peur de l’institution qui se méfie des enseignantes.
La question ici n’est pas seulement de savoir si ces indicateurs sont plus dignes de confiance que les discussions avec les étudiantes, mais si la confiance peut ou doit être déléguée à un instrument sous contrôle institutionnel. Le risque que nous y voyons est d’arriver à une situation où un conformisme passif à cette standardisation imposée est préférée par rapport à une implication bienveillante dans les pratiques d’enseignement.
La qualité, une notion plurisémantique
Dans une présentation vidéo, le questionnaire est décrit comme « testé, contrôlé et multifacettes », il permettrait d’explorer « la qualité des cours, la qualité des enseignantes et la garantie de qualité offerte » (De Haagse Hogeschool, 2020c). Sa lecture ne dit pas tout sur le sens de ces trois concepts ni sur ce que l’outil entend mesurer. Toutefois, l’impression est que les aspects mesurés portent sur la participation des étudiantes, sur ce qu’iels apprennent et sur les aspects pratiques des cours. L’évaluation de la qualité de l’enseignante demandée aux étudiantes peut ainsi être résumée en une seule dimension : ses capacités didactiques.
On pourrait penser que, avec les résultats des questionnaires, il devrait être possible d’avoir une vue d’ensemble de la compréhension qu’ont les étudiantes de ces trois dimensions et des capacités pédagogiques de leurs enseignantes pour l’ensemble de l’université. Mais ce serait à la condition qu’ils aient été complétés par un grand nombre de personnes et que l’on tienne compte des facteurs qui peuvent limiter leur validité technique : les écueils de l’auto-évaluation ; la portée et l’importance limitée des choix faits pour la mise en œuvre de l’outil ; la tendance générale à choisir les réponses du milieu dans les questionnaires.
Il existe cependant un problème beaucoup plus profond, que nous ne pourrions mieux formuler que Biesta (2015) dans l’un de ses articles lus durant notre session : « Cela relève de la question de savoir si ce qui est mesuré représente vraiment ce que nous valorisons dans l’éducation ; autrement dit, si cela correspond à notre conception d’une bonne éducation. C’est là que se situe l’un des principaux problèmes du dispositif actuel des indicateurs d’application dans le domaine. En d’autres termes, il s’agit de se demander si nous mesurons ce que nous valorisons, ou si nous valorisons ce qui est mesuré. »
Afin d’assurer un enseignement de qualité, Biesta nous invite à faire attention particulièrement à ce qu’il appelle la « validité normative » et nous apprend deux choses importantes. D’une part, l’utilisation de mesures quantitatives tend à estomper la différence entre des indicateurs de qualité d’un côté et la définition même de la qualité de l’autre. D’autre part, avoir un score élevé se confond avec le fait d’assurer un enseignement de qualité. Chercher à obtenir une note élevée devient alors un objectif en soi, en particulier avec un outil implémenté dans le but de pouvoir comparer entre eux les différents cursus.
Qu’est-ce que nous valorisons ? Comment peut-on le mesurer ?
La mise en question d’un nouvel outil technologique peut donner envie de le rejeter. Il est alors important d’argumenter les raisons de s’y opposer et de les mettre en lien avec la défense d’une pratique collective à laquelle on tient.
Au cours de la session, nos échanges sur l’utilisation que nous faisons de la DiCE ont révélé que les participantes, en tant qu’enseignantes, n’avaient pas le sentiment de s’approprier pleinement l’outil. Bien que l’interface de la DiCE leur permette d’ajouter des questions ou de « désactiver » les questions par défaut du questionnaire, iels ne connaissent pas ou n’explorent pas le programme pour l’adapter à leurs besoins. IEls n’encouragent pas non plus avec beaucoup d’enthousiasme les étudiantes à utiliser l’outil pour évaluer leurs cours. En effet, pour elleux, il n’y a pas de lien concret entre les résultats de l’évaluation quantitative de la DiCE et le processus qu’iels vivent avec les étudiantes pendant les classes ; iels ne voient donc pas ce que le programme peut leur apporter et n’envisagent pas qu’il puisse les aider à améliorer la qualité des cours. Au contraire, iels se demandent même si le questionnaire est vraiment apte à mesurer cette qualité.
Une autre crainte est que ce questionnaire, abstrait et impersonnel, ne cultive qu’une conception superficielle de ce que peut être un enseignement de qualité. La vision réductrice de la pédagogie portée par la DiCE la prive en effet d’un élément important de sa collaboration avec les étudiantes : réussir à comprendre leurs besoins et établir une vision commune de ce qui constitue un cours de qualité. Au lieu de passer notre temps à inciter les élèves à répondre aux questionnaires et à essayer d’obtenir les meilleurs scores, nous devrions, en tant que profesionnelles responsables, définir la qualité de notre enseignement nous-mêmes.
La seule définition possible d’une bonne éducation est celle qui est formulée et constamment renégociée dans des processus de délibérations collectives. Elle doit naitre d’un dialogue permanent entre les chargées de cours, les étudiantes et le monde du travail qui les attend. En favorisant un outil quantitatif, nous compromettons au contraire la recherche collective d’ingrédients qui peuvent améliorer l’éducation dans notre société démocratique.
Quelles alternatives à la DiCE ?
Pour les participantes à la session, les inquiétudes principales suscitées par la DiCE concernent la place que peut avoir ce logiciel dans un système éducatif qu’iels apprécient, et dans lequel iels font de leur mieux. Il est bien sûr important de pouvoir avoir des retours des étudiantes, de pouvoir en discuter et d’agir en réponse à ceux-ci. Mais les transformer en données purement quantitatives et comparables d’un établissement à l’autre ne nous aide pas à améliorer nos cours.
Certaines enseignantes ont fait le choix de ne pas utiliser la DiCE pour évaluer leurs classes. IEls ont plutôt eu recours à un simple bloc-note en ligne permettant de répondre librement à des questions ouvertes. À la fin du cours, un lien vers cette page, préparée à l’avance, est transmis aux étudiantes avec une liste de questions. Celleux-ci sont prévenues qu’iels peuvent répondre de manière anonyme et que leurs critiques et suggestions sont les bienvenues pour améliorer le cours. Ce processus structure la démarche d’évaluation tout en permettant à la formulation d’être adaptée au ton et au vocabulaire utilisés dans la classe. Les répondantes peuvent voir que les questions sont directement posées par l’enseignante et que cette derniere prendra soin d’écouter leurs retours et d’en tirer des leçons. Sur le bloc-note en ligne, les étudiantes peuvent par ailleurs voir les réponses des autres et y réagir, en les approuvant ou en apportant un nouveau point de vue.
Cette manière de faire suscite une discussion plus vivante que des notations chiffrées. Elle nourrit une pratique d’échanges de points de vue caractérisée par la bienveillance. Le processus d’évaluation a alors une utilité pédagogique directe, utile pour la classe entière. L’utilisation d’un document en ligne permet aussi d’avoir, en temps réel, une copie formelle de ces retours. Cette alternative n’est sans doute pas parfaite, mais elle échappe au moins aux critiques émises dans cet article.
S’agit-il là d’une alternative concrète à la DiCE ? Probablement pas si le but est de pouvoir comparer rapidement des résultats chiffrés. Cette méthode défend une vision différente. Il s’agit d’une alternative au sens large, qui ne pourrait remplacer l’outil immédiatement – ce qui pour nous n’est pas un défaut, mais une amélioration. Car l’objectif n’est pas de corriger la DiCE, ni de la remplacer par un outil similaire qui serait plus efficace, plus puissant ou même plus éthique ; il s’agit en réalité de proposer une solution différente à un problème général relevant de la responsabilité pédagogique.
Traduit de l’anglais par l’équipe de Curseurs
