Les dispositifs d’évaluation des acquis d’apprentissage à l’université de Bordeaux (partie 1 – points de vue des étudiants)
Introduction
En 2007, le rapport Gauthier présenté à l’Inspection Générale de l’administration de l’Éducation nationale et de la Recherche notait que l’évaluation des acquis d’apprentissage (EAA) dans l’enseignement supérieur français restait un point aveugle des pratiques pédagogiques (Gauthier, 2007). Le rapport émettait de sévères critiques sur sa mise en œuvre dans les établissements supérieurs : lourdeur, opacité, manque de clarté pour les étudiants, problèmes d’organisation, inégalité de traitement entre les étudiants ou les formations, manque de rigueur dans son organisation (de la surveillance des examens au fonctionnement des jurys en passant par les questions d’affichage ou d’anonymat). Il faut dire qu’à l’époque, le thème de l’EAA intéressait peu les universités françaises (id.), restait mal aimé des enseignants (voir aussi Green et Emerson, 2007) et les travaux francophones de recherche en pédagogie universitaire portant sur la question étaient rares (Romainville, 2002). Depuis, les choses ont changé, du moins en partie.
Du point de vue de la recherche, les travaux francophones sur l’EAA dans les établissements d’enseignement supérieur se sont multipliés, montrant un véritable intérêt pour la question dans les années 2010. Outre les travaux fondateurs de De Romainville, 2011, 2013) ou les chapitres consacrés à la question dans l’ouvrage de Berthiaume et Rege Colet (2013) - véritable manuel de pédagogie de l’enseignement supérieur -, la revue RIPES (Revue Internationale de Pédagogie de l’Enseignement Supérieur) a par exemple publié des recherches réalisées notamment sur les grilles critériées (Berthiaume et al., 2011), l’auto-évaluation des étudiants (Wathelet et al., 2016 ; Perrault et Levené, 2019), leur mise en œuvre en contexte numérique (Mailles-Viard Metz, 2015) et à distance (Nizet et al., 2016). En 2017, un ouvrage consacré à l’évaluation des apprentissages dans l’enseignement supérieur professionnalisant insistait sur l’intérêt de penser les dispositifs d’évaluation depuis la question des compétences et selon des modalités pédagogiques variées et adaptées à l’acquisition de ces dernières : études de cas, travaux collectifs, situations simulées, activités créatives, jeux sérieux, etc. (Roulin et al., 2017). C’est aussi la question du rapport entre l’acquisition de compétences et l’évaluation qu’étudient Poumay et al. en 2017 (Poumay et al., 2017). On le voit, l’intérêt est réel et ouvre pour les enseignants du supérieur des perspectives en termes d’expérimentation de dispositifs d’évaluation (par exemple des compétences langagières chez Peters et Bélair, 2011 ; du Pecha Kucha chez Lison, 2020 ; en contexte de situation authentique chez Prégent et al., 2009 ; ou de pédagogie active chez Bachy et al., 2010…) mais aussi des réflexions plus générales qu’elles soient éthiques (Fave-Bonnet, 2010) ou en termes de posture professionnelle (Bedin, 2009).
Cela étant, qu’en est-il des pratiques réelles dans les universités ? L’EAA est-elle restée, du côté des enseignants, un simple acte réglementaire, contraignant et obligé comme nous invitait à le penser le rapport Gauthier (2007) ou constitue-t-elle un acte pédagogique à part entière en parfaite cohérence avec l’ensemble des propositions réalisées en matière d’enseignement ? Depuis les travaux de Biggs et Tang (2003), on comprend que l’EAA relève d’une importance stratégique majeure pour les questions de réussite étudiante. Dans une perspective de « constructive alignment », on sait à quel point la connaissance des critères, modalités et attendus des évaluations structure le « milieu » d’études (au sens de Brousseau, 1988) et constitue l’axe central du projet d’études mis en œuvre par les étudiants. Comme l’écrivent Green et Emerson (2007) c’est « le point central de leur apprentissage » (« the focus of their learning »). Ainsi, si la qualité de l’EAA est l’apanage de l’enseignant, cela concerne aussi et avant tout les étudiants dans la mesure où ceux-ci construisent leurs projets d’études par la connaissance des règles et des modalités d’évaluation qui les valideront.
C’est pour ces raisons que nous avons voulu mener l’enquête sur l’EAA en contexte universitaire en interrogeant le point de vue des étudiants. Précisons notre projet. Partant de la définition de l’EAA par Romainville (2011) comme déclinaison de trois étapes essentielles : a/ un recueil d’informations - b/ l’analyse et l’interprétation de ces informations - c/ la décision prise par rapport à cette analyse, nous sommes amenés à interroger les étudiants sur ces trois aspects.
- Pour ce qui concerne l’étape a) Comment perçoivent-ils le recueil d’informations réalisé par l’enseignant ? De leurs points de vue, les données recueillies sont-elles cohérentes avec les enseignements assurés ? Existe-t-il, comme le déclare Allal (2013) un décalage entre les objectifs déclarés des enseignants et les pratiques d’évaluation mises en œuvre ? Les informations recueillies sont-elles variées ou univoques ? etc.
- Pour ce qui concerne l’étape b) d’analyse des informations : Les étudiants connaissent-ils les critères sur lesquels se fait l'interprétation des informations ? Est-ce que ces critères sont explicités ? En comprennent-ils la teneur ? Sont-ils en adéquation avec les cours suivis ? Trouvent-ils cette analyse juste et adaptée ? etc.
- Pour ce qui concerne l’étape c) correspondant à la décision prise par le professeur : Comment les étudiants perçoivent-ils cette décision notamment en termes d’équité, et/ou d’objectivité ? Que pensent-ils de l’évaluation sommative finale lorsque celle-ci est l’unique moyen de juger les AA ? Quid des évaluations continues ? Et d’autres modalités comme l’évaluation entre pairs ou l’auto-évaluation ? etc.
À notre connaissance, peu d’études se sont penchées sur les représentations ou les expériences des étudiants concernant les évaluations qu’ils vivaient concrètement à l’université. Citons Wathelet et al. (2016) sur les représentations des étudiants concernant les dispositifs d’auto-évaluation des apprentissages à l’entrée des études universitaires ou bien Monney et Fontaine (2016) sur la représentation sociale de l’évaluation des apprentissages chez des étudiants en éducation au Québec. Une étude interrogeant les représentations et les expériences sur une large cohorte d’étudiants à un temps T, dans un établissement d’enseignement supérieur français restait à réaliser.
1. Méthodologie
En 2020, les services de soutien à la pédagogie des universités de Bordeaux (Mission d’Appui à la Pédagogie et à l’Innovation - MAPI) et du Pays basque (Servicio de Asesoramiento Educativo - SAE) ont finalisé un projet commun, baptisé EVA2020, visant à atteindre deux objectifs principaux :
- connaître l’opinion des étudiants et des enseignants sur les processus d’évaluation réalisés dans leurs cursus ;
- constituer un ensemble d’outils, de ressources, et d’actions de formation et d’accompagnement pour les enseignants visant à améliorer les pratiques d'évaluation continues, formatives et sommatives.
Les deux partenaires du projet EVA2020 sont confrontés au fait que le développement des compétences nécessaires pour évaluer les acquis d’apprentissage restait un problème majeur et généralement sous-estimé dans la formation professionnelle des enseignants. Le premier objectif de notre projet était de dresser un tableau réaliste de ces questions en produisant des données sur les représentations et les pratiques au moyen de questionnaires et d'entretiens d’étudiants et d’enseignants. Dans un deuxième temps, nous comptions utiliser ces données pour créer des outils et des ressources permettant aux enseignants d’améliorer leur processus d’évaluation. A cette fin, nous avons mené deux enquêtes simultanément à l’Université de Bordeaux (UB) et à l’université du Pays Basque (UPV/EHU) : d’une part, nous avons recueilli les représentations et les expériences des étudiants ; d'autre part, nous avons interrogé des enseignants sur leurs représentations et leurs pratiques réelles. Ce texte présente les résultats de l’enquête menée, par questionnaire, auprès des étudiants de l’université de Bordeaux.
Afin de mener cette étude, nous avons adopté un même questionnaire, celui réalisé par Lukas-Mujika et al. (2017), auprès des étudiants de l’UPV/EHU : « Perceptiones del alumnado universitario sobre la evaluacion » (« University students’perceptions of their assessment »). Ce questionnaire a donné lieu à publication (Lukas-Mujika et al., 2017). Il est composé de 55 items, distribués en 9 dimensions et interroge les conceptions, les attitudes et les expériences des étudiants concernant l’évaluation pratiquée dans leur université. Les étudiants sont amenés à se prononcer sur leur degré d’accord ou de désaccord aux propositions qui leur sont faites sur l’évaluation. Les réponses sont codées selon une échelle de Lickert du « total désaccord » au « complet accord ».
Au Pays Basque, l’étude a été réalisée en deux phases (en 2010 et 2015), auprès d’un échantillon représentatif de la population étudiante répartie dans les différentes facultés de l’université. Les participants étaient des étudiants de troisième et quatrième années, déjà familiarisés avec les processus d'évaluation suivis dans les différentes matières de leurs diplômes. Le nombre total de participants est de 1407.
Université du Pays Basque | Université de Bordeaux | ||||
N | % | N | % | ||
Droit/Economie/Gestion | 1933 | 31,81% | |||
Sanitarias | 338 | 24,02% | Santé | 886 | 14,58% |
Sociales | 228 | 16,20% | Sciences de l’homme | 882 | 14,52% |
Ciencias | 107 | 7,60% | Sciences et Technologie | 1328 | 21,86% |
Ingenierías | 325 | 23,10% | Technologie | 604 | 9,94% |
Educación | 292 | 20,75% | Education | 400 | 6,58% |
Humanidades | 117 | 8,32% |
|
| |
Vin et Vigne | 43 | 0,71% | |||
Total | 1407 | 100% | 6076 | 100,00% |
A Bordeaux, le recueil des données s’est effectué sur une période de 40 jours (du 7 février au 18 mars 2019). Les participants contactés sont des étudiants de l’université de Bordeaux, inscrits dans les cursus de 1er et 2e cycle universitaire, dans l’une des sept composantes de l’université (voir tableau). Sur les 47006 e-mails délivrés, 6076 étudiants ont répondu. Le taux de retour global est donc de 12,92%.
Le questionnaire UB a été quelque peu modifié car certaines questions du questionnaire UPV/EHU étaient peu adaptées au contexte français ou parfois difficilement traductibles pour être comprises par des étudiants français. Le questionnaire pour Bordeaux est composé de 53 items que nous avons répartis dans les mêmes trois blocs du questionnaire basque : conceptions, attitudes, expériences. La question 53 est particulière dans la mesure où elle permet aux étudiants de laisser un commentaire libre
2. Résultats
La première partie du questionnaire interroge les conceptions, représentations et ressentis des étudiants vis-à-vis des évaluations dans l’enseignement supérieur. Qu’il s’agisse des points de vue et opinions personnelles sur la définition, le rôle et les finalités des évaluations, ou des réactions suscitées par l’évocation du terme « évaluation », les étudiants sont invités, à la lecture de différentes propositions énoncées, à exprimer leur accord ou désaccord.
La passation du questionnaire se déroule en ligne (ordinateur ou smartphone). La présentation des questions doit être prise en compte dans l’interprétation des résultats. En effet, chaque entrée (E) donne lieu à plusieurs propositions [p], le plus généralement sur une même fenêtre de présentation (hormis l’entrée « Positionnements »). On peut raisonnablement faire l’hypothèse que les étudiants répondent à chaque proposition prise une à une mais pourraient aussi avoir tendance à comparer les propositions les unes les autres et de facto les hiérarchiser sur une même entrée (E).
Pour les besoins de l’analyse et une meilleure lisibilité des résultats, nous avons regroupé les deux premières graduations en une seule « Accord » (correspondant aux degrés « tout à fait d’accord » et « d’accord »), conservé la graduation centrale (« ni accord ni désaccord ») sous la dénomination « Neutre » et regroupé les deux dernières en une seule « Désaccord » (correspondant aux degrés « pas d’accord » et « pas du tout d’accord »).
2.1. Représentations et ressentis
2.1.1. Fonctionnalités de l’évaluation vue dans un sens général
À l’université de Bordeaux, majoritairement les étudiants pensent que les évaluations (vues génériquement) leur sont utiles ([p14] - 54,5% d’accord). Elles les incitent à apprendre ([p15] - 58,4% d’accord) et leur fonctionnalité est avant tout de permettre de prendre conscience de leurs niveaux ([p7] - 61,6% d’accord). L’aspect pragmatique d’organisation temporelle de l’étude et de gestion de l’effort de travail ([p8] - 54,8% d’accord) est aussi avancé.
Incitation au travail, organisation de l’étude sont donc préférentiellement invoqués. Une proportion moindre d’étudiants confère une valeur didactique aux évaluations en termes de rétroactions en vue de l’amélioration des apprentissages ([p6] - 47,5%, d’accord – 30,2% pas d’accord – 22,3%, neutre). Cette indication sera mise en relation avec d’autres propositions (voir plus bas).
D'accord | Neutre | Désaccord | Total | ||||
(E) Pour les étudiants et étudiantes, l’évaluation sert à | N | % | N | % R | N | % | N |
[p6] améliorer les apprentissages | 2747 | 47,5% | 1288 | 22,3% | 1749 | 30,2% | 5784 |
[p7] prendre conscience de leur niveau | 3561 | 61,6% | 978 | 16,9% | 1245 | 21,5% | 5784 |
[p8] organiser leur temps et leur effort de travail | 3168 | 54,8% | 1253 | 21,7% | 1362 | 23,6% | 5783 |
(E) Positionnements | |||||||
[p14] Les évaluations sont utiles pour moi | 3096 | 54,4% | 1494 | 26,3% | 1096 | 19,3% | 5686 |
[p15] Généralement, les évaluations m'incitent à apprendre | 3322 | 58,4% | 804 | 14,1% | 1561 | 27,4% | 5687 |
Pour les étudiants de l’université de Bordeaux, l’évaluation est également utile pour les professeurs ([p13] – 60,8%). Aux yeux des étudiants, elle est plus un moyen pour leurs enseignants de les contrôler ([p9] - 71,6%) que de sélectionner les meilleurs ([p11] - 48,8%). Notons aussi qu’une part non négligeable des étudiants pense que les évaluations permettent aux professeurs d’améliorer leurs cours ([p10] - 43,4%). Si l’on rapproche l’item [p10] de l’item [p6] (tableau 1) on remarquera que les évaluations sont perçues à part égale (moins de 50%) comme des feed-back potentiels d’amélioration (des apprentissages, des cours) tout autant pour les étudiants que pour les enseignants.
D'accord | Neutre | Désaccord | Total | ||||
(E) Pour les enseignants, les évaluations servent à | N | % | N | % R | N | % | N |
[p9] contrôler les étudiantes et étudiants | 4139 | 71,6% | 872 | 15,1% | 771 | 13,3% | 5782 |
[p10] améliorer leurs cours | 2512 | 43,4% | 1169 | 20,2% | 2101 | 36,3% | 5782 |
[p11] sélectionner les meilleures et meilleurs | 2823 | 48,8% | 1094 | 18,9% | 1865 | 32,3% | 5782 |
[p12] sanctionner les étudiantes et les étudiants | 1646 | 28,5% | 1353 | 23,4% | 2784 | 48,1% | 5783 |
(E) Positionnements | |||||||
[p13] Les évaluations sont utiles pour les enseignants | 3456 | 60,8% | 1350 | 23,7% | 881 | 15,5% | 5687 |
Une dernière série d’items permet de dessiner une première hypothèse quant aux fonctionnalités prétendues des évaluations pour les étudiants. En effet, l’évaluation n’est pas tant perçue comme un procédé à valeur didactique permettant par exemple de « pointer les réussites et les lacunes » ([p3] - 58,7%), même si cette fonctionnalité est repérée, un dispositif pour motiver l’apprentissage ([p5] - 49,3%) qu’avant tout comme une « mesure » ([p1] - 81,1%) associée à un dispositif de validation (semestre – année) ([p4] - 77,3%).
D'accord | Neutre | Désaccord | Total | ||||
(E) Selon vous l’évaluation consiste à | N | % | N | % R | N | % | N |
[p1] mesurer les apprentissages | 4909 | 81,1% | 597 | 9,9% | 548 | 9,1% | 6054 |
[p2] vérifier l'atteinte des objectifs visés par le cours | 4818 | 79,6% | 695 | 11,5% | 541 | 8,9% | 6054 |
[p3] pointer les réussites ou les lacunes des étudiantes et des étudiants | 3554 | 58,7% | 1146 | 18,9% | 1354 | 22,4% | 6054 |
[p4] valider un semestre, une année ou un diplôme | 4684 | 77,3% | 744 | 12,3% | 628 | 10,4% | 6056 |
[p5] se motiver pour apprendre | 2851 | 49,3% | 1180 | 20,4% | 1754 | 30,4% | 5785 |
Proposition 1 :
Globalement, les évaluations sont perçues fonctionnellement comme des dispositifs institutionnels dont les visées premières sont de mesurer les apprentissages non pas en tant que tels mais en référence à un parcours d’étude à valider. Les évaluations seraient comme un passage obligé d’un cursus universitaire et auraient surtout pour finalité de « vérifier » un niveau atteint. En outre, les évaluations seraient aussi un repère pour organiser son travail et se motiver pour l’étude
2.1.2. Ressentis
À l’université de Bordeaux, l’évaluation est fortement associée à des situations de tension, de nervosité ou d’anxiété (en [p17], 82% des étudiants déclarent leur nervosité à leur égard).
La préparation des évaluations est jugée comme demandant un travail excessif ([p17], 60,2% d’accords). Stress et travail excessif, on pourrait penser que les étudiants rejettent ces dispositifs. Il n’en est rien. Les étudiants bordelais ne sont majoritairement pas d’accord avec l’idée qu’on pourrait se passer des évaluations ([p16] – seuls 16,8 % y seraient favorables).
Enfin, la notion d’équité est fortement interrogée ([p20], seulement 27,9% des étudiants pensent que les étudiants sont traités de façon équitable lors des évaluations). Cette donnée sera à interpréter (voir plus bas).
D'accord | Neutre | Désaccord | Total | ||||
(E) Positionnements | N | % | N | % R | N | % | N |
[p16] On devrait supprimer les évaluations à l’université | 956 | 16,8% | 1587 | 27,9% | 3143 | 55,3% | 5686 |
[p17] Les évaluations me rendent souvent nerveux ou nerveuse | 4665 | 82% | 497 | 8,7% | 524 | 9,3% | 5686 |
[p18] Je pense que les évaluations sont susceptibles de me nuire | 1876 | 33% | 1609 | 28,3% | 2201 | 38,7% | 5686 |
[p19] La préparation des évaluations me demande toujours un travail excessif | 3447 | 60,6% | 1258 | 22,1% | 982 | 17,3% | 5687 |
[p20] les évaluations traitent tous les étudiants de façon équitable | 1588 | 27,9% | 999 | 17,6% | 3099 | 54,5% | 5686 |
[p21] La préparation des évaluations est une tâche difficile pour moi | 2840 | 49,9% | 1539 | 27,1% | 1309 | 23% | 5688 |
Proposition 2 :
Même si les étudiants s’accordent pour dire qu’elles sont utiles et ne peuvent être supprimées, les évaluations sont en général mal vécues par les étudiants. Elles provoquent surcharge de travail, stress et sentiment d’iniquité.
2.2. Expériences
Alors que les 21 premières propositions du questionnaire cherchaient à mettre en exergue les représentations des étudiants vis-à-vis des évaluations, les 29 suivantes sollicitent les étudiants sur les expériences d’évaluations qu’ils ont vécues à l’université de Bordeaux. Après s’être positionnés en tant qu’étudiant de licence ou de maîtrise (Choix 1 : « mon expérience en Licence à l'université de Bordeaux [que je sois étudiant de licence ou déjà en master] » – Choix 2 : « mon expérience en master à l'université de Bordeaux [sans faire référence à mon expérience de licence] »), les étudiants sont invités à s’exprimer sur des entrées telles que « à l’UB sur quoi êtes-vous évalués principalement ? » ; « le plus souvent à quel moment êtes-vous évalués ? » ; « qui participe à l’évaluation ? » ; « quid des critères de notation ? ; « l’après-évaluation »… Là encore les étudiants se prononcent au regard de propositions sur lesquelles ils peuvent être totalement en accord ou en désaccord (échelle de Lickert, 5 niveaux).
2.2.1. Contenus et objets des évaluations
Des examens théoriques prenant le plus souvent la forme d’examens écrits et peu en adéquation avec les éléments vus en cours.
Une immense majorité d’étudiants bordelais ([p23] – 90,4%) considère que les évaluations portent avant tout sur l’acquisition de connaissances théoriques transmises lors des enseignements et peu sur la mise en application de ces savoirs dans des situations d’utilisation données (par exemple professionnelles) ([p23] – 39,5%). Aux dires des étudiants, d’autres aspects semblent aussi complètement oubliés : les attitudes et les valeurs qui sont engagées dans tel ou tel apprentissage ([p25] – 11,6%).
D'accord | Neutre | Désaccord | Total | ||||
(E) À l’université de Bordeaux, je suis évaluée ou évalué sur à | N | % | N | % R | N | % | N |
[p23] les connaissances théoriques données lors des enseignements | 4682 | 90,4% | 251 | 4,8% | 246 | 4,7% | 5179 |
[p25] les attitudes ou sur les valeurs que je porte | 602 | 11,6% | 808 | 15,6% | 3769 | 72,8% | 5179 |
[p26] mes capacités à appliquer des savoirs en situations (ou cas similaires à ceux que je rencontrerai dans ma vie professionnelle future) | 2047 | 39,5% | 996 | 19,2% | 2136 | 41,2% | 5179 |
Les étudiants s’accordent à 77,7% pour dire que l'examen écrit est la principale approche d'évaluation de l'apprentissage, même si cette donnée peut être pondérée par l’affirmation qu’il existe une diversité d’approches (examen, exposé oral, travail de recherche, projet individuel/ de groupe...) proposées dans les épreuves ([p39] – 52,4%).
La faible proportion d’étudiants ([p41] - 39,5% et [p35] - 44,6%) en accord avec le sentiment qu’existe une adéquation entre les contenus des épreuves et les activités réalisées en cours, interroge. Il conviendra de mettre en relation cette information avec les expériences vécues sur la transparence et la « prévisibilité » des épreuves (voir plus bas).
D'accord | Neutre | Désaccord | Total | ||||
(E) Méthodes d’évaluation | N | % | N | % R | N | % | N |
[p41] les épreuves d'évaluation sont similaires aux activités réalisées en cours | 2016 | 39,5% | 1545 | 30,2% | 1551 | 30,3% | 5112 |
[p35] je trouve que les évaluations correspondent à ce que j'ai réellement appris (les sujets des évaluations ont été traités en cours et en TD) | 2312 | 44,6% | 1358 | 26,2% | 1509 | 29,2% | 5179 |
[p38] l'examen écrit est la principale approche d'évaluation de l'apprentissage | 3973 | 77,7% | 484 | 9,5% | 655 | 12,8% | 5112 |
[p39] l'évaluation repose sur une diversité d'approches (examen, exposé oral, travail de recherche, projet individuel/ de groupe...) | 2683 | 52,4% | 783 | 15,3% | 1646 | 32,2% | 5112 |
Importance de l’examen final
A Bordeaux, les étudiants n’ont pas le sentiment d’être évalués de manière continue. Ils s’accordent pour dire que l'évaluation des apprentissages a lieu « uniquement » à la fin du processus d'apprentissage ([p28] - 66,4%), plus rarement en cours d’apprentissage ([p29] - 26,50%) et quasiment jamais en mode diagnostique en début d’apprentissage ([p27] – 6,6%). Cette indigence de l’évaluation continue et formative se retrouve fortement dans les commentaires des étudiants (partie 2, à paraître) qui le regrettent et revendiquent à ce propos de forts changements.
D'accord | Neutre | Désaccord | Total | ||||
(E) Quand évalue-t-on | N | % | N | % R | N | % | N |
[p27] au début d'un enseignement, le professeur réalise souvent l'évaluation (diagnostique) de ses étudiants | 340 | 6,6% | 847 | 16,4% | 3992 | 77,1% | 5179 |
[p28] l'évaluation a lieu uniquement à la fin du processus d'apprentissage | 3438 | 66,4% | 705 | 13,6% | 1036 | 20% | 5179 |
[p29] mon apprentissage est le plus souvent évalué continuellement durant l'enseignement | 1373 | 26,5% | 1069 | 20,6% | 2737 | 52,9% | 5179 |
Proposition 3 :
Pour les étudiants de l’UB, les évaluations portent avant tout sur des connaissances théoriques sous forme d’examens écrits avec le sentiment que les questions posées correspondent très moyennement avec ce qui a été enseigné en cours. En règle générale c’est l’évaluation terminale et sommative qui prévaut. Les expériences de contrôles continus sont minoritaires et celles correspondant à des évaluations diagnostiques quasiment inexistantes.
2.2.2. Transparence, visibilité, rétroactions
Transparence des critères et des procédures d'évaluation
Moins de 40 % des étudiants ([p42]) connaissent les critères d’évaluation qui sont utilisés lors des épreuves, et seulement 36,6% ([p43]) disent les comprendre. Ce qu’ils connaissent mieux en revanche, ce sont les critères de validation des UE et du diplôme ([p45] – 58,3%).
On pourrait interpréter ces résultats par une relative rareté de syllabus détaillés mis à disposition des étudiants et précisant (entre autres) les critères d’évaluation utilisés pour chaque enseignement. Dans le même ordre d’idées la seule publication des modalités de contrôle des connaissances
D'accord | Neutre | Désaccord | Total | ||||
(E) Critères de notation | N | % | N | % | N | % | N |
[p42] Depuis le début des cours, je connais les critères d'évaluation qui vont être utilisés | 2037 | 40% | 1075 | 21,1% | 1977 | 38,9% | 5089 |
[p43] Il est facile pour moi de comprendre les critères d'évaluation présentés dans chaque enseignement | 1865 | 36,6% | 1229 | 24,2% | 1995 | 39,2% | 5089 |
[p45] Je connais les critères pour valider une unité d'enseignement (UE) | 2967 | 58,3% | 952 | 18,7% | 1170 | 23% | 5089 |
Proposition 4 :
Les critères d’évaluation semblent peu visibles et peu compréhensibles pour les étudiants. Seuls les critères de validation (des unités d’enseignement) sont relativement connus.
Feedbacks
Le retour d’informations fournies par l’évaluation est une question importante tant elle conditionne la qualité formative même du processus d’évaluation (Biggs & Tang, 2003). Près de 70% des étudiants bordelais s’accordent pour dire que leurs évaluations ne sont pas suivies de recommandations pour l’apprentissage ([p51] – 69,9%) avec seulement 12,9% affirmant le contraire. Ainsi, les retours d'évaluation ne permettent qu’à une faible proportion d’étudiants ([p49] - 22,5%) de prendre conscience de leurs erreurs ou de leurs lacunes. D’une certaine manière, les évaluations ne donnent pas l’occasion de « réfléchir sur les résultats obtenus » dans la mesure où les professeurs ne donnent pas ou peu d’indications sur les critères ou la nature de cette réflexion. C’est en tous cas ce que déclarent 63,7% des enquêtés ([p50]).
Ce « manque d’informations » est redoublé par la difficulté de consulter les travaux réalisés (seulement 16,1% affirment le contraire en [p48]), et la publication des résultats jugée très tardive ([p46] – 67%). Ainsi, les étudiants semblent n’avoir que la publication des résultats pour essayer de se corriger ([p52] - 66,16%) d’autant plus que presque 80% des étudiants s’accordent pour dire que cette publication constitue le principal feedback utilisé par l’enseignant pour informer les étudiants des évaluations réalisées ([p47] - 79,4%).
D'accord | Neutre | Désaccord | Total | ||||
(E) L’après évaluation | N | % | N | % | N | % | N |
[p46] On me permet de connaître les résultats de l'évaluation assez rapidement | 895 | 17,7% | 772 | 15,3% | 3388 | 67% | 5055 |
[p47] La publication des résultats est le principal moyen utilisé par le professeur pour m'informer des évaluations que j'ai passées | 4016 | 79,4% | 586 | 11,6% | 453 | 8,9% | 5055 |
[p48] Je peux facilement consulter mes travaux réalisés lors des évaluations | 813 | 16,1% | 1135 | 22,5% | 3107 | 61,4% | 5055 |
[p49] Les retours d'évaluation qui me sont faits m'informent de mes erreurs ou de mes lacunes dans les apprentissages | 1137 | 22,5% | 891 | 17,6% | 3027 | 59,9% | 5055 |
[p50] Les professeurs m'invitent à réfléchir sur les résultats obtenus lors de l'évaluation | 849 | 16,8% | 985 | 19,5% | 3220 | 63,7% | 5054 |
[p51] L'évaluation est suivie de recommandations pour améliorer mon apprentissage | 651 | 12,9% | 871 | 17,2% | 3532 | 69,9% | 5054 |
[p52] En ayant connaissance des résultats de l'évaluation, j'essaie de corriger les possibles lacunes ou difficultés | 3370 | 66,7% | 926 | 18,3% | 757 | 14,9% | 5053 |
Proposition 5 :
Les étudiants disent ne pas bénéficier de retours professoraux leur permettant, une fois les évaluations passées, de réfléchir et prendre conscience des erreurs ou des difficultés rencontrées, en vue d’améliorer les apprentissages. Les étudiants reçoivent peu de recommandations de la part de leurs professeurs et seule la lecture des « résultats » (notes) constitue les indices sur lesquels ils se fient pour progresser. Ainsi, l’évaluation à l’UB n’a pas ou peu de caractère formatif.
Proposition 6 :
En outre, en majorité la publication des résultats est jugée comme arrivant trop tardivement. Il semble compliqué d’avoir accès à ses copies d’examen.
2.3. Participations
2.3.1. Participation des étudiants au processus d’évaluation
On observe un très faible niveau voire une absence de participation des étudiants à leurs évaluations autant pour définir les critères d’évaluation ([p44] – 3,6%) que dans leur contribution même au dispositif de l’évaluation ([p36] – 15,3%).
D'accord | Neutre | Désaccord | Total | ||||
(E) Critères de notation | N | % | N | % | N | % | N |
[p44] Les étudiants participent à la définition des critères d'évaluation | 184 | 3,6% | 402 | 7,9% | 4503 | 88,5% | 5089 |
(E) Qui élabore les évaluations | |||||||
[p36] Je collabore avec les enseignants pour définir le système d'évaluation qui sera appliqué (méthodes, moments, procédés, etc.) | 793 | 15,3% | 830 | 16% | 3556 | 68,6% | 5179 |
[p37] Je suis consultée ou consulté sur le système d'évaluation que je préfère | 291 | 5,7% | 544 | 10,5% | 4344 | 83,9% | 5179 |
E) Méthodes d’évaluation | |||||||
[p40] J'ai la possibilité de choisir entre différentes approches pour être évaluée ou évalué | 206 | 4% | 335 | 6,6% | 4571 | 89,4% | 5112 |
La participation à la définition des critères d’évaluation, et, de manière plus générale la collaboration entre enseignants et étudiants au choix des méthodes, moments, procédés pourrait s’avérer utile pour remédier à ce que nous évoquions plus haut : l’absence de visibilité et de compréhension des critères utilisés pour les évaluations.
2.3.2. Auto-évaluation et évaluation entre pairs
Les étudiants pensent que l’évaluation est plutôt l’affaire de l’enseignant. L’évaluation entre pairs ne semble pas une pratique mise en œuvre à l’université ([p30] – 17,2% ; [p31] – 15,8%). Nous sommes surpris par le pourcentage important d’étudiants déclarant à Bordeaux pratiquer l’auto-évaluation ([p32] – 42,5%). Peut-être ont-ils compris la question comme une auto-évaluation non formalisée et pratiquée naturellement tout au long du processus d’apprentissage, et ce d’autant plus que le manque de retours professoraux en termes de conseils et recommandations est déclaré faible.
D'accord | Neutre | Désaccord | Total | ||||
(E) Qui évalue | N | % | N | % | N | % | N |
[p30] En tant qu'étudiante ou étudiant, j'évalue le travail de mes camarades (pairs) | 890 | 17,2% | 843 | 16,3% | 3446 | 66,5% | 5179 |
[p31] Je suis évaluée ou évalué par mes camarades (pairs) | 821 | 15,8% | 823 | 15,9% | 3535 | 68,3% | 5179 |
[p32] J'auto-évalue mes apprentissages | 2200 | 42,5% | 886 | 17,1% | 2093 | 40,4% | 5179 |
[p33] Des personnes externes (professionnels...) évaluent mes apprentissages | 1971 | 38,1% | 784 | 15,1% | 2424 | 46,8% | 5179 |
Proposition 7 :
La participation des étudiants aux évaluations est faible. Qu’il s’agisse de collaborer en amont à la définition des critères d’évaluation ou en aval, de participer aux corrections, les étudiants semblent ne pas être « acteurs » de ces dispositifs.
Discussion
Depuis sa création en 2014, l’université de Bordeaux s’est engagée dans un processus résolu de transformation pédagogique. Qu’il s’agisse d’amélioration continue de l’offre de formation (programme NewDeal – lauréat PIA3 – flexibilisation et personnalisation des parcours) ; d’internationalisation des formations (programme ENLIGHT – alliance d’universités européennes) ; d’aide et de soutien à la pédagogie (MAPI) ; de création de communautés de pratiques pédagogiques et d’élaboration d’une revue pédagogique en ligne (Revue Études & Pédagogies), l’université souhaite perfectionner et rénover ces dispositifs et processus en matière de pédagogie dans le souci d’une plus grande participation et autonomisation des étudiants et d’une meilleure adéquation des propositions d’enseignement et des objectifs de formation (développement des compétences, ouverture à l’international, démocratie à l’université…). Nous pensons que ces transformations ne peuvent se faire sans la prise en compte de ce que les étudiants (et les enseignants) pensent et disent de ce qu’ils vivent en matière pédagogique à l’université.
Résumons ce que nous apprenons de cette enquête sur l’évaluation des acquis d’apprentissage. En premier lieu, nous pourrions convenir d’avancées notoires si l’on compare aux constats que nous évoquions plus haut dans le rapport Gauthier. Les EAA ne sont pas du tout critiquées par les étudiants en termes de manque de rigueur et de problèmes dans l’organisation, de questions d’affichage ou d’anonymat, de clarté dans les modalités de passation. Nous serions passés semble-t-il à un second niveau de discussion relatif non plus à l’évaluation dans son caractère institutionnel et organisationnel mais plutôt dans sa cohérence et sa pertinence pédagogiques.
Si les étudiants s’accordent en majorité pour penser l’EAA, indispensable et utile à leur parcours d’apprentissage, notamment pour le valider, mais aussi pour organiser leur étude (incitation au travail, organisation temporelle notamment), ils semblent plus circonspects quant aux modalités concrètes de passation.
L’EAA telle qu’ils la perçoivent n’est pas perçue comme un dispositif à valeur didactique qui leur permettrait de mieux apprendre mais seulement comme procédé de mesure et de vérification des connaissances. C’est bien la valeur formative de l’évaluation qui est mise en question. Cela me sert-il pour repérer mes forces et faiblesses ? Cela me renseigne-t-il sur les efforts que je dois fournir ? et Où dois-je les fournir ? etc.
Avançons deux hypothèses de travail pour des chantiers à venir (en suivant les 7 propositions que nous avancions ci-dessus) :
- la compréhension des attendus semble un chantier intéressant à mettre en œuvre : visibilité et explicitation des attendus (pas seulement en termes de validation comme pour les MCC mais dans les liens de ces attendus avec les enseignements prodigués), co-construction des critères pour une meilleure visibilité, évaluations entre pairs pour intégrer ces attendus…
- la question des retours (feed backs) didactiques semble essentielle aux yeux des étudiants : visibilité des commentaires et recommandations professoraux sur les travaux émis, temporalité de cette visibilité, possibilité de recevoir ces recommandations en continu, possibilité d’échanges sur ces recommandations…
Nous l’avons vu, l’enquête auprès des étudiants sur l’EAA à l’université de Bordeaux incite à repenser les dispositifs mis en place, qu’il s’agisse de questions technico-administratives (publication des résultats et mise à disposition des travaux plus rapide – déploiement d’outils à l’élaboration de syllabus rapidement consultables), ou plus fondamentalement pédagogiques (alignement pédagogique, participation des étudiants au processus, augmentation des rétroactions). Les résultats que nous publions ne sont pas en soi surprenants : ils témoignent d’une difficulté à changer une « culture » de l’évaluation centrée sur les critères académiques (au détriment du développement des compétences) et sur les arrière-plans privilégiant la sélection (et donc la mesure) et la certification. Si les étudiants sont unanimes pour considérer les évaluations comme un dispositif essentiel à leur parcours de formation, ils aimeraient majoritairement que celles-ci soient plus formatives, plus dévolues au développement des compétences (professionnelles, transversales ou de type soft skills), moins rares et plus distribuées dans la temporalité du parcours de formation (et dès lors moins stressantes), plus transparentes et faisant mieux appel à leur participation.
Il reste à entendre le point de vue des enseignants qui, dans un contexte français de massification et d’appauvrissement constant des ressources d’État consacrées aux universités, sont habilités à compléter le diagnostic et proposer des pistes d’action. Cela fera l’objet d’une autre publication. Par ailleurs, des expérimentations sont en cours pour tester de nouvelles modalités d’évaluation : projet EQAE (Évaluation Qualitative des Acquis d’Apprentissage) à l’initiative d’une équipe d’enseignants ; projet Plateforme en Ligne Banque de devoirs à l’initiative d’étudiants.
Notes
- 1. La partie 2 de notre étude (à paraître dans la Revue) sera consacrée à l’analyse des réponses données librement par les étudiants à la question 53 (la partie 3 de notre étude présentera les représentations des enseignants quant aux EAA à l’université de Bordeaux).
- 2. Les modalités de contrôle des connaissances réglementent les conditions d'obtention de chacun des diplômes délivrés par l'Université de Bordeaux. Elles sont obligatoirement arrêtées et portées à la connaissance des étudiants au plus tard à la fin du premier mois de l’année d’enseignement et ne peuvent être modifiées en cours d’année.
Références
- Allal, L. (2013). Évaluation : un pont entre enseignement et apprentissage à l’université, Dans M. Romainville, R. Goasdoué, et M. Vantourout, M. (21-41).
- Bachy, S., Lebrun, & M., Smidts, D. (2010). Un modèle-outil pour fonder l’évaluation en pédagogie active : impact d’une formation sur le développement professionnel des enseignants, Revue internationale de pédagogie de l’enseignement supérieur [En ligne], 26 (1).
- Bedin, V. (2009). L’évaluation à l’université́.
- Berthiaume, D., David, J., & David, T. (2011). Réduire la subjectivité́ lors de l’évaluation des apprentissages à l’aide d’une grille critériée : repères théoriques et applications à un enseignement interdisciplinaire, Revue internationale de pédagogie de l’enseignement supérieur [En ligne], 27(2).
- Berthiaume, D., & Rege Colet, N. (dir) (2013). La pédagogie de l’enseignement supérieur : repères théoriques et applications pratiques. Berne : Peter Lang.
- Biggs, J., & Tang, C. (2003). Teaching for quality learning at university. Buckingham: Open University Press/Society for Research into Higher Education.
- Brousseau, G. (1988). Le contrat didactique : le milieu, Recherches en didactique des mathématiques, Grenoble : La pensée sauvage, vol 9.3., 309-336.
- Dewey, J. (2006). Logique - La théorie de l'enquête, Paris, PUF.
- Dewey,J. (2011). Démocratie et éducation suivi de Expérience et éducation, Paris, Armand Colin/Nouveaux Horizons.
- Fave-Bonnet, M.-F. (2010). L’évaluation dans l’enseignement supérieur en questions, L’Harmattan, collection Savoir et Formation.
- Gauthier, R-F. (2007). L’évaluation des étudiants à l’Université́ : point aveugle ou point d’appui ?. Ministère de l’Éducation Nationale - Ministère de l’Enseignement Supérieur et de la Recherche, Inspection générale de l’administration de l’éducation nationale et de la recherche, Rapport à madame la ministre de l’Enseignement Supérieur et de la Recherche.
- Green, K., & Emerson, W-A. (2007). A new framework for grading. Journal of Assessment and Evaluation in Higher Education, 32(4) : 495-511.
- Lison, C. (2020). La présentation orale en contexte de formation à distance : évaluer un Pecha Kucha. Journal international de recherche en éducation et formation, (1 : Hors-série), 173-180.
- Lukas-Mujika, J-F., Santiago-Etxeberria, K., Lizasoain-Hernandez, L., & Etxeberria-Murgiando, J. (2017). Percepciones del alumnado Universitario sobre la evaluacion – university student’s perceprtions of their assessment, Bordon, 69(1), 103-122.
- Mailles-Viard Metz, S. (2015). L’aide du numérique aux activités d’auto-évaluation, Revue internationale de pédagogie de l’enseignement supérieur [En ligne], 31(3).
- Monney, N., & Fontaine, S. (2016). La représentation sociale de l’évaluation des apprentissages chez des finissants d’un programme universitaire en éducation préscolaire et en enseignement primaire. Mesure et évaluation en éducation, 39(2), 59–84.
- Perrault, B., & Levené, T. (2019). L’autoévaluation accompagnée et contractualisée : Quelles retombées sur le développement professionnel ?Ce qu’en disent les futurs enseignants et formateurs d’adultes, Revue internationale de pédagogie de l’enseignement supérieur [En ligne], 35
- Peters, M., & Bélair, L. (2011). Caractéristiques d’activités d’évaluation de la compétence langagière à l’université, Revue internationale de pédagogie de l’enseignement supérieur [En ligne], 27 (1).
- Poumay, M., Tardif, J., & Georges, F. (2017). Organiser la formation à partir des compétences : Un pari gagnant pour l'apprentissage dans le supérieur. Louvain-la-Neuve : De Boeck Supérieur.
- Prégent, R., Bernard, H., & Kozanitis, A. (2009). Enseigner à l’université dans une approche-programme.
- Romainville, M. (2002). Evaluation des acquis des étudiants dans l’enseignement universitaire. Rapports établis à la demande du Haut Conseil de l’évaluation de l’école, décembre 2002.
- Romainville, M. (2011). Objectivité versus subjectivité dans l’évaluation des acquis des étudiants, Revue internationale de pédagogie de l’enseignement supérieur [En ligne], 27(2).
- Romainville, M., Goasdoué, R., & Vantourout, M. (2013). Évaluation et enseignement supérieur. Louvain-la-Neuve : De Boeck Supérieur.
- Roulin, V., Allin-Pfister, A., & Berthiaume, D. (2017). Comment évaluer les apprentissages dans l’enseignement supérieur professionnalisant : Regards d'enseignants. Louvain-la-Neuve : De Boeck Supérieur.
- Wathelet, V., Dontaine, M., Massart, X., Parmentier, P., Vieillevoye, S., & Romainville, M. (2016). Exactitude, déterminants, effets et représentations de l’auto-évaluation chez des étudiants de première année universitaire Revue internationale de pédagogie de l’enseignement supérieur [En ligne], 32(2).
Résumé
L’évaluation des acquis d’apprentissage (EAA) dans l’enseignement supérieur fait l’objet depuis une dizaine d’années d’une attention nouvelle dans les travaux de recherche francophones. Pour autant, la réalité des dispositifs communs d’évaluation proposés aux étudiants reste peu investiguée. L’article (partie 1 de notre enquête) propose les résultats d’une vaste enquête menée auprès de plus de 6000 étudiants de l’université de Bordeaux, interrogeant leurs représentations, leurs ressentis et leurs expériences vécues sur cette question des EAA. Les étudiants s’accordent pour conférer une grande importance aux EAA, mais sont critiques sur les formes concrètes que prennent ces évaluations. Les critiques s’adressent principalement aux questions de manque de rétroactions, à l’opacité des critères utilisés pour juger des travaux, à l’univocité des dispositifs utilisés, aux sentiments d’iniquité et de stress qui ressortent des expériences vécues.
Pièces jointes
Pas de document comlémentaire pour cet articleStatistiques de l'article
Vues: 1080
Téléchargements
PDF: 20
XML: 2