Faut-il interdire Chat GPT Ă lâĂ©cole dâaprĂšs la chercheuse Laurence Devillers
Depuis le dĂ©but de ses apparitions mĂ©diatiques, Laurence Devillers, professeure en intelligence artificielle Ă la Sorbonne, directrice de la chaire HUMAAINE (Human-Machine Affective Interaction & Ethics) au CNRS et autrice du livre Les Robots Ă©motionnels. SantĂ©, surveillance, sexualité⊠: et lâĂ©thique dans tout ça ? (Ăditions de lâObservatoire 2020), nâa eu de cesse de nous prĂ©venir. Les outils ont la capacitĂ© de nous subjuguer. Tandis quâelle travaille Ă la mise en place au sein de la Sorbonne dâun projet dâĂ©valuation portant sur lâappropriation des intelligences artificielles, la chercheuse revient sur lâimpact quâelles peuvent avoir sur lâapprentissage et dĂ©voile ses recommandations.
De nombreux professeurs font Ă©tat de lâusage de ChatGPT pour lâaide aux devoirs. Faut-il sâinquiĂ©ter de ce nouvel usage numĂ©rique ?
Laurence Devillers : Lorsque ChatGPT est apparu et que des interdictions ont Ă©tĂ© Ă©voquĂ©es dans les Ă©coles, jâai rĂ©digĂ© une tribune sollicitĂ©e par Le Monde. Dans celle-ci, jâavançais lâidĂ©e quâil Ă©tait nĂ©cessaire dâadopter une approche dâaccompagnement plutĂŽt que de prohibition vis-Ă -vis de cet outil. ChatGPT fait dĂ©sormais partie intĂ©grante de lâenvironnement des Ă©lĂšves et va continuer Ă gagner en importance. Il est donc primordial dâadopter une approche plus flexible et dâexpliquer aux Ă©lĂšves ces nouveaux usages. Sâen tenir Ă une position hostile envers ces systĂšmes nâest pas viable. Il est essentiel de les comprendre et de les utiliser de maniĂšre appropriĂ©e.
Comment expliquer ChatGPT aux enfants et aux prĂ©adolescents qui seraient tentĂ©s de lâutiliser Ă tort et Ă travers ?
L. D. : Il est essentiel dâacculturer les enfants en leur expliquant que lorsquâils utilisent ces outils, il est Ă©vident que ce nâest pas leur propre travail, et cela peut entraĂźner des notes nulles. Cependant, il est tout aussi important dâapprendre Ă les utiliser correctement. LâĂ©cole doit jouer ce rĂŽle en alternant entre des devoirs assistĂ©s par IA et dâautres rĂ©alisĂ©s sans aucune aide technologique, afin que les enfants dĂ©veloppent leur esprit de raisonnement. La machine ne raisonne pas ; elle ne fait que produire des solutions. Par paresse, nous pourrions tous ĂȘtre tentĂ©s de chercher la solution directe.
Lâoutil est aussi utilisĂ© par des Ă©tudiants postbac pour sâaider dans des recherches ou la rĂ©daction de mĂ©moires. Est-ce que vous ĂȘtes tĂ©moin de cet usage ?
L. D. : Quand jâintroduis lâutilisation de GPT auprĂšs de mes Ă©lĂšves, jâexige quâils ajoutent une rĂ©fĂ©rence Ă chaque idĂ©e donnĂ©e dans leurs devoirs. Ătant donnĂ© que la machine nâest pas capable de fournir des sources fiables, nous devons les rechercher nous-mĂȘmes. MĂȘme avec des outils comme Copilot, qui peuvent fournir des sources, il y a un risque dâerreurs. Il est donc essentiel de vĂ©rifier les informations. Je veux les habituer Ă utiliser ces outils comme des prothĂšses de maniĂšre intelligente, câest-Ă -dire sans prendre pour argent comptant les rĂ©ponses de la machine, mais en les challengeant et en gardant un esprit critique. Jâai une vision assez positive de ce que lâon peut faire avec ces outils, notamment en ce qui concerne la correction, la synthĂšse ou la reformulation. Mais avant ça, il faut dĂ©mystifier lâidĂ©e quâils peuvent tout faire. Ce qui est intĂ©ressant, câest justement de reconnaĂźtre leurs limites et de les intĂ©grer de maniĂšre rĂ©flĂ©chie.
Quels impacts doit-on attendre sur les processus dâapprentissage ?
L. D. : Nous ne le savons pas vraiment. Ainsi, Ă la Sorbonne, en collaboration avec des collĂšgues, je mâefforce de mettre en place un important projet dâĂ©valuation portant sur lâappropriation de ces outils. On implique des philosophes, des sociologues, des informaticiens et des linguistes, dans le but de dĂ©velopper une Ă©pistĂ©mologie des sciences de lâinteraction avec ces intelligences artificielles. Câest un travail nĂ©cessaire, car nous projetons sur ces intelligences artificielles lâidĂ©e quâelles sont rationnelles et informatives, alors quâelles ne possĂšdent absolument rien de rationnel, ni de conscient, ni dâaffectif, ni mĂȘme de connaissances comme celles de WikipĂ©dia. Il nây a absolument rien dâautre quâune puissance de calcul sâappuyant sur dâĂ©normes corpus de donnĂ©es qui permettent au systĂšme de crĂ©er des pseudo-connaissances, des pseudo-affects ou des pseudo-rĂšgles morales.
Autrement dit, les LML « simulent » lâintelligence sans vraiment en possĂ©der. Quel impact cela a-t-il sur notre perception de ces machines ?
L. D. : Avec un grand nombre de donnĂ©es et de paramĂštres, ces systĂšmes peuvent gĂ©nĂ©rer des phrases dâune qualitĂ© syntaxique, sĂ©mantique et lexicale comparable, voire supĂ©rieure, Ă celle des humains. Mais il nây a pas dâintention derriĂšre ces systĂšmes. Parfois, ils produisent des rĂ©sultats pertinents, et on peut se dire : « Ah ! tiens, ce nâest pas idiot. » Cependant, parfois, ils se trompent complĂštement, câest ce que lâon appelle des « hallucinations », un terme inappropriĂ© qui Ă©voque Ă tort des notions dâintelligence ou de schizophrĂ©nie. Je suis dâailleurs déçue par lâengouement mĂ©diatique et marketing entourant ces technologies, avec des discours glorifiant une intelligence supĂ©rieure Ă celle des humains, ce qui induit lâidĂ©e erronĂ©e que nous serons totalement dĂ©pendants et impuissants. Il est crucial de reconnaĂźtre que nous avons le pouvoir de comprendre le fonctionnement de ces systĂšmes, mĂȘme si nous ne sommes pas nĂ©cessairement capables de les concevoir nous-mĂȘmes. Mais je nâai jamais eu besoin de connaĂźtre chaque composant dâune voiture pour lâutiliser correctement.
Chaque nouvelle annonce de produit de la part dâOpenAI provoque des vents de panique sur les rĂ©seaux. Les gens pensent quâils vont devenir obsolĂštes ou que les IA vont dĂ©passer lâintelligence humaine. Que penser de cette rhĂ©torique ?
L. D. : Les gens craignent sans doute de perdre leur travail, mais quand Laurent Alexandre essaie de semer la panique avec des histoires du genre « jâai dix ans dâĂ©tudes, mais cette machine apprend en un rien de temps et devient aussi intelligente quâun polytechnicien », je trouve ça risible. Cette machine apprend Ă partir de donnĂ©es, avec un mĂ©canisme assez simple. Je pense que le vĂ©ritable problĂšme rĂ©side dans la maniĂšre dont lâintelligence artificielle est commercialisĂ©e et promue. Elle permet dâeffectuer des tĂąches intĂ©ressantes et dâĂ©lever le niveau, mais elle est aussi survendue et ne prĂ©sente pas vraiment la solution ultime Ă toute la crĂ©ativitĂ© humaine, contrairement Ă ce que certains pourraient penser.
Source : Par David-Julien Rahmil via LâADN
#autoriser #élÚves #chatGPT #CNRS #enfants #enseignements #HUMAAINE #IA #intelligencesArtificielles #interview #jeunes #LaurenceDevillers #utilisations