Ce webinaire de deux heures s’est voulu pratique et s’adressait en premier lieu aux enseignants en droit (quel que soit le statut) afin de leur donner des exemples concrets de l’usage de l’IA comme outil pédagogique que ce soit pour qu’ils s’en inspirent dans leur pratique professorale ou pour leur simple information.
Sur invitation d’Alicia Mâzouz, Josiane Rioux Collin (enseignante en Droit à l’Université du Québec Montréal (UQAM), Alexandre Olivier (Avocat à la Cour et Doctorant en droit privé), Alexandre Duméry (Maître de conférence en droit privé), Fabrice N’Tchatat (ATER Droit privé) et Caroline Bouté-Crocq (Enseignante en droit privé) ont fait part de leurs pratiques et ressentis en la matière et qui vous sont présentés succinctement ci-après.
L’usage de l’IA pour développer les bonnes pratiques et créer une culture commune.
Le retour d’expérience de Josiane Rioux Collin.
Son usage de l’IA : Josiane Rioux Collin, enseignante à l’Université du Québec Montréal (UQAM), utilise l’IA pour faire des capsules de bonnes pratiques avec ses étudiants.
Son constat : comme beaucoup de ses confrères, elle fait le constat qu’il existe une grande disparité dans le niveau de maîtrise de ces outils, que ce soit par les étudiants ou les professeurs. Il est donc crucial d’accompagner les étudiants pour qu’ils utilisent l’IA de manière responsable et avec une plus-value.
"Son" projet : mettre en place une culture de l’IA commune. C’est ainsi que l’UQAM crée une formation en ligne "autoportante", spécifiquement pour les étudiants en droit. Cette formation, co-construite avec eux, porte sur le fonctionnement de l’IA, son utilisation en droit (prompts efficaces, révision, brainstorming), ses enjeux (plagiat, droits d’auteur, référencement, impacts sociaux/environnementaux, hallucinations, biais, éthique/déontologie).
L’usage de l’IA pour le cas pratique.
Le retour d’expérience de Caroline Bouté-Crocq :
Son constat : les étudiants utilisent massivement l’IA pour résoudre les cas pratiques à leur place, "pour remplacer leur cerveau", entraînant une baisse de la capacité d’argumentation.
Son exercice : elle prend un des cas pratiques qu’elle utilise déjà en cours puis elle demande à Chat GPT de le résoudre. En parallèle, elle donne le même cas pratique à ses étudiants pour qu’ils travaillent sur la thématique de ce dernier. Ensuite, en groupe avec ses élèves, elle fait la correction du cas pratique généré par l’IA et morceau par morceau, ces derniers cherchent les erreurs ou les approximations faites par l’IA. Un véritable travail de réflexion très productif.
Ses objectifs : faire réaliser aux étudiants que l’IA n’est qu’un outil et qu’il faut apprendre à s’en servir intelligemment. Les faire travailler sur leur argumentation juridique pour qu’ils corrigent les imperfections de l’IA.
Impact sur l’engagement : L’exercice a "réveillé" les étudiants, les a fait réfléchir et argumenter. Ils ont cherché les erreurs et à comprendre. La réflexion sur l’argumentation juridique a été plus poussée qu’avec l’exercice traditionnel.
Le retour d’expérience de Fabrice N’Tchatat :
Son objectif : il utilise l’IA comme assistant pour lui-même afin de concevoir les cas pratiques plus rapidement et varier les sujets. Et anticiper les corrections.
Sa méthode : préparer un prompt détaillé (thème, niveau, objectifs pédagogiques, erreurs anticipées), joindre des parties du cours si nécessaire (pour baliser et minimiser les biais).
Son constat :
- L’enseignant doit relire, vérifier la cohérence, la solidité juridique, ajuster les détails (noms, contexte) et nuancer. En effet, l’IA génère des hallucinations, incohérences ; elle manque de nuances sur des notions juridiques (ex : DOL et vice caché).
- Il y trouve un gain de temps sur les premières versions, une possibilité de proposer des cas plus variés et adaptés au niveau des étudiants (progression pédagogique). L’outil peut donner des idées nouvelles.
L’usage de l’IA dans le cadre du commentaire d’arrêt.
Le retour d’expérience d’Alexandre Duméry :
Comme Caroline Bouté-Crocq, il se sert des erreurs ou des approximations faites par l’IA pour faire réfléchir et avancer ses étudiants.
Son exercice : il a demandé à Chat GPT de générer un commentaire d’arrêt sur le préjudice de mort imminente et l’a transmis à ses étudiants pour qu’ils l’analysent.
Les limites de l’IA : elle ne respecte pas le plan juridique classique (2 parties, 2 sous-parties). Le fond est "extrêmement moyen", manque de sources pertinentes (car les revues juridiques ne sont pas accessibles). Il manque le fondement de la demande, le texte de loi, le contexte de l’arrêt.
Les limites pour les étudiants : une discussion limitée, ils n’ont pas relevé toutes les erreurs et n’ont pas réussi à faire les liens avec le contexte plus large.
Le potentiel de ce type d’exercice : cela incite les étudiants à aller chercher de la documentation plus solide pour améliorer le résultat initialement moyen. Cela les aide aussi à "démystifier" l’IA.
Son constat : il faut repenser le commentaire d’arrêt pour mettre l’accent sur la compréhension profonde des décisions de justice et l’analyse critique, potentiellement en intégrant l’IA comme un point de départ ou un outil de discussion, plutôt qu’une solution complète.
L’usage de l’IA pour un exercice de rédaction d’un projet de loi.
Le retour d’expérience d’Alicia Mâzouz :
Son exercice : rédiger une proposition ou un projet de loi pour introduire la GPA en droit français. Les étudiants doivent le faire quelle que soit leur conviction personnelle.
Ses constats : les performances de l’IA évoluent d’année en année (voire de mois en mois). Les étudiants n’utilisent pas l’IA de la même façon, certains font faire l’ensemble du travail par la machine, d’autres s’en servent pour faire le squelette du projet de loi ; de même l’habilité face à l’IA varie fortement d’un étudiant à un autre.
Son objectif : faire réfléchir ses étudiants et qu’ils reprennent le pouvoir sur ce que la machine leur a peut-être imposé. Les amener à aller dans les détails juridiques.
Sur l’engagement des étudiants : l’exercice (non noté) a généré un fort engagement (60% de rendus volontaires). Les étudiants sont contents d’être dans une posture d’acteur.
Ce que l’on peut retenir de ces échanges.
Certains enseignants en sont venus à utiliser l’IA comme outil pédagogique avec la volonté délibérée d’enseigner le droit différemment, le rendre plus ludique, engageant, plus créatif. D’autres, un peu par "obligation", faisant le constat que leurs étudiants utilisaient l’IA pour leurs devoirs et que ces derniers perdaient en qualité d’argumentation et d’analyse. Ils ont donc investi l’IA pour inverser la tendance.
Tous sont d’accord pour dire que l’IA est un outil pédagogique intéressant à condition d’être encadré et d’être utilisé intelligemment. Il peut aider à l’engagement des étudiants sur des exercices donnés. Dans tous les cas, l’enseignant doit en accompagner l’usage pour faire progresser les étudiants et qu’ils gagnent en capacité juridique (ou à tout le moins qu’ils n’en perdent pas).
Ils font également le constat qu’il existe une inégalité des étudiants et des enseignants face à l’usage de l’IA (ou face à la volonté d’utiliser l’IA) dans le cadre des études de Droit. Soit pour des raisons d’appétence à l’outil lui-même, soit pour des raisons éthiques ou environnementales, soit par crainte que la machine prenne le "pouvoir" ou encore du fait d’une inégalité dans l’accès aux différentes IA (accès gratuit ou payant).
Les intervenants rappellent qu’il n’existe pas un usage unique, monolithique de l’IA. Que cette dernière n’est qu’un outil à leur disposition et qu’il faut être vigilant à ce qu’il ne remplace pas le travail de réflexion des étudiants. Il ne faut pas oublier que notre cerveau est un muscle qu’il faut entraîner quotidiennement ;-)
Un prochain atelier est prévu à la rentrée de septembre, la rédaction du Village de la Justice vous en communiquera la date dès que possible dans cet article.
Le webinaire ayant été enregistré, vous pouvez le visionner grâce à la vidéo ci-dessous :
NDLR : pour les retours d’expériences des intervenants, la Rédac’ s’est appuyée sur une synthèse du webinaire réalisée par l’IA (une vérification du contenu a été réalisée par la Rédaction).