Deux étudiants ont été sanctionnés pour avoir utilisé l’IA pour rédiger un devoir rempli d’erreurs et de citations fictives. Le tribunal a confirmé la décision de l’école, soulevant des questions cruciales sur l’utilisation de l’IA dans l’éducation et la nécessité de directives claires.
Une mission générée par l’IA et truffée d’erreurs
L’intelligence artificielle (IA) imprègne tous les aspects de nos vies, y compris l’éducation. Son utilisation croissante soulève des questions cruciales, notamment en matière d’intégrité académique. Un jugement récent vient de confirmer la position des enseignants face à ce nouvel enjeu, en donnant raison à une école qui avait sanctionné deux élèves pour avoir utilisé une IA dans le cadre d’un devoir. Cet incident, qui fait écho à une affaire similaire survenue quelques semaines plus tôt concernant ChatGPT, pose la question des limites de l’usage de ces outils dans le contexte scolaire et universitaire.
L’affaire,
rapporté par Ars Technica
concerne deux étudiants qui ont utilisé une IA similaire à ChatGPT, Grammarly, pour rédiger un devoir. Au lieu d’utiliser l’outil comme support, les étudiants ont copié et collé le texte généré sans aucun contrôle. Résultat : une mission truffée d’erreurs factuelles, de citations fictives et de références à des œuvres inexistantes. Bien que le règlement intérieur de l’école ne mentionne pas explicitement l’IA, il interdit l’utilisation non autorisée des technologies pour effectuer les travaux scolaires. Les enseignants, considérant cette utilisation comme une violation du règlement, ont décidé de sanctionner les élèves. L’un d’eux a même été exclu d’un programme préparatoire universitaire.
La justice confirme la sanction
Face à cette décision, les parents des élèves ont porté plainte, estimant que la sanction était injustifiée et disproportionnée. Leur principal argument reposait sur l’absence de mention explicite de l’IA dans le règlement intérieur. Ils ont donc estimé que l’usage de Grammarly n’était pas interdit. Le tribunal a toutefois rejeté leur demande, confirmant la décision de l’établissement. Le tribunal a statué que l’utilisation d’un texte généré par l’IA sans vérification ni citation appropriée constituait une violation de l’intégrité académique. Les étudiants devront, au minimum, citer la Source de l’information, c’est à dire l’IA utilisée.
Cet arrêt soulève des questions essentielles sur l’encadrement de l’usage de l’IA en éducation. Ces outils devraient-ils être totalement interdits ? Ou faut-il adapter les méthodes d’enseignement et d’évaluation pour intégrer leur utilisation de manière responsable ? L’établissement en question affirme avoir dispensé des formations aux étudiants sur l’utilisation éthique des outils d’IA. Le tribunal a également tenu compte de cet élément dans sa décision, soulignant que les étudiants avaient reçu les instructions nécessaires pour utiliser ces technologies de manière appropriée. Le problème ne réside donc pas dans l’outil lui-même, mais dans la manière dont il est utilisé.
Repenser l’apprentissage à l’ère de l’IA
Ce cas souligne la nécessité d’une réflexion approfondie sur la place de l’IA dans l’éducation. Il est impératif d’établir des règles claires et précises concernant son utilisation, et de former les étudiants et les enseignants à une utilisation responsable de ces technologies. L’objectif n’est pas de rejeter l’IA, mais de l’intégrer intelligemment dans le processus d’apprentissage. L’IA peut être un outil précieux pour la recherche, la rédaction, la grammaire et la correction orthographique, mais elle ne doit pas remplacer la réflexion, l’analyse et la créativité.
L’enjeu est de former des citoyens capables de maîtriser ces technologies, de les utiliser de manière critique et éthique, et d’en comprendre les limites. Il est également essentiel de repenser les méthodes d’évaluation, en privilégiant les capacités de raisonnement, d’analyse et de synthèse, plutôt que la simple restitution des connaissances.
Un précédent et un appel à la discussion
L’incident impliquant ces deux étudiants est un signal d’alarme : il est temps d’adapter le système éducatif à l’ère de l’IA, afin de préparer les étudiants aux défis de demain. La sanction, aussi sévère soit-elle, rappelle l’importance de l’intégrité académique et de la responsabilité individuelle face à ces nouvelles technologies. Cela sert également de précédent et invite à une discussion plus large sur la supervision de l’IA dans le monde éducatif. L’avenir de l’apprentissage dépend de notre capacité à intégrer ces outils de manière responsable et éthique, en les mettant au service d’une éducation plus riche et plus efficace.
Related News :