Au cours des dernières années, les écoles ont été confrontées à une vague de discussions autour des outils d’IA générative comme ChatGPT. Alors que certains les présentent comme transformateurs et que d’autres mettent en garde contre les dommages potentiels, de nombreux enseignants hésitent encore à les adopter pleinement. Il ne s’agit pas nécessairement d’une résistance à l’innovation, mais d’une évaluation pragmatique : cet outil résout-il un vrai problème en classe ?
Des recherches récentes, notamment des conversations avec 17 enseignants dans le monde, révèlent une tendance surprenante : les enseignants ne rejettent pas l’IA, mais ils ne réorganisent pas non plus les salles de classe en fonction de celle-ci. Au lieu de cela, ils adoptent une approche mesurée, tirant parti de l’IA pour la productivité tout en maintenant les limites autour des tâches d’apprentissage de base. Il ne s’agit pas d’indifférence, mais de jugement professionnel.
L’écart de productivité : là où l’IA a une valeur immédiate
Le cas d’utilisation le plus immédiat de l’IA dans l’éducation n’est pas l’apprentissage des élèves, mais la charge de travail des enseignants. Les éducateurs jonglent avec la notation, la planification des cours, la communication avec les parents et les tâches administratives. Dans cet environnement, les outils d’IA excellent dans la rédaction, la synthèse et la génération de texte. Un professeur d’ingénierie du New Jersey a souligné l’utilisation de l’IA pour compresser les tâches de routine, affirmant que cela contribue véritablement à alléger le fardeau administratif. Les panels d’éducateurs américains de RAND confirment cette tendance : les enseignants adoptent l’IA principalement comme un outil de productivité, et non comme une technologie pédagogique de base.
Cela reflète la manière dont les professionnels de tous les domaines utilisent l’IA : elle résout le problème immédiat de la pression du temps et des exigences administratives. Mais les cas d’utilisation pédagogique nécessitent un examen plus attentif.
Le rôle pédagogique flou : quels problèmes d’apprentissage l’IA résout-elle ?
Lorsqu’il s’agit d’enseignement direct en classe, les enseignants se posent une question fondamentale : quel problème d’apprentissage cet outil résout-il ? Beaucoup ne sont pas convaincus, même après des années d’exposition. Certains expérimentent l’IA comme partenaire de révision par écrit, tandis que d’autres conçoivent des cours autour de la technologie elle-même, encourageant l’analyse critique plutôt qu’une confiance aveugle. Un professeur de sciences de Guam a déclaré qu’il utilisait l’IA comme point de départ, mais pas comme source de connaissances faisant autorité.
L’apprentissage des sciences suggère que les étudiants bénéficient davantage lorsque la technologie soutient la réflexion et la révision, et non en remplaçant la pensée critique. Cela signifie que l’IA est plus précieuse en tant qu’outil pour analyser plutôt que comme raccourci vers les réponses.
Maîtrise de l’IA : un point d’entrée pratique
L’opportunité pédagogique la plus prometteuse réside dans la maîtrise de l’IA elle-même. L’UNESCO et l’OCDE la considèrent de plus en plus comme une compétence fondamentale, encourageant les écoles à enseigner aux élèves comment les systèmes algorithmiques génèrent des informations et où ils échouent. Les étudiants évoluent déjà dans des environnements façonnés par des algorithmes ; l’IA générative n’est qu’une autre couche.
Les enseignants s’efforcent d’aider les élèves à comprendre comment ces systèmes produisent des informations, y compris leurs biais et leurs limites. Un enseignant du primaire de New York a décrit comment fonctionnent les systèmes d’IA et où ils tombent en panne. Cette approche considère l’IA comme une étude de cas sur la manière dont les systèmes numériques façonnent les connaissances, plutôt que comme un outil de productivité.
Biais, hallucinations et confiance : faire face aux risques
Les enseignants s’inquiètent constamment de la fiabilité des résultats de l’IA. Un spécialiste des médias d’une bibliothèque de New York a noté que l’IA « hallucine » souvent les faits, tandis que d’autres citent des exemples concrets de biais algorithmiques. Un professeur de lycée du New Jersey s’est dit préoccupé par la manière dont l’IA pourrait renforcer les inégalités existantes, en particulier pour les étudiants issus de communautés marginalisées.
Ces problèmes ne sont pas seulement théoriques ; il s’agit de préoccupations pratiques concernant la confiance et l’exactitude. L’IA devient moins un outil permettant de répondre à des questions qu’une démonstration de la manière dont les systèmes technologiques façonnent l’information.
Indifférence pragmatique : la position par défaut
Les enseignants ne rejettent pas nécessairement l’IA, mais ils ne se précipitent pas pour l’intégrer dans les tâches d’apprentissage de base. Beaucoup adoptent une posture d’indifférence pragmatique : l’utilisant pour la planification des cours mais pas nécessairement pour les cours eux-mêmes. Ils découragent les étudiants de s’appuyer sur l’IA pour la recherche.
Les écoles existent pour favoriser le travail cognitif complexe : lecture approfondie, écriture méthodique, raisonnement et évaluation des preuves. Si un outil réduit essentiellement la nécessité de ce travail, les enseignants se demandent s’il fait progresser ou compromet l’apprentissage.
En fin de compte, la question de l’enseignant de quatrième année demeure : que peut réellement faire l’IA pour les mathématiques de quatrième année ? Jusqu’à ce que le cas d’utilisation pédagogique soit clair, la conversation doit s’orienter vers les compétences qui restent précieuses : la pensée critique, la résolution de problèmes et l’analyse rigoureuse.




















