I.A. y’a débat … @ l’école * ChatGPT : ça pue pour les enseignants !

ChatGPT, un programme d’intelligence artificielle conversationnelle récemment publié par OpenAI, n’est pas simplement une autre entrée dans le cycle de l’intelligence artificielle. Cette étoile montante d’Internet constitue une avancée significative, capable de produire des articles en réponse à des questions ouvertes, comparables à de bonnes dissertations de lycée. Alors quoi demain ? Cette étoile montante d’Internet se sera-t-elle transformée en étoile filante ?

I.A., Y’A DEBAT !

C’est dans les écoles secondaires et même dans les hautes écoles et universités que certains des aspects les plus intéressants et les plus troublants de ChatGPT apparaîtront clairement. Et très rapidement…

La rédaction d’une dissertation est le plus souvent demandée non pas parce que le résultat a une grande valeur – les parents fiers d’afficher les bonnes notes sur le frigo mis à part – mais parce que le processus permet d’acquérir des compétences cruciales : rechercher un sujet, juger les affirmations, synthétiser les connaissances et les exprimer de manière claire, cohérente et persuasive. Ces compétences seront encore plus importantes en raison des progrès de l’IA.

L’utilisation de ChatGPT dans l’Education déclenchera une conversation nationale sur l’IA. …car la v4 qui sortira début 2023 sera encore plus époustouflante !

Reconnaître qu’à mesure que des compétences plus complexes deviennent essentielles, notre société doit éduquer équitablement les gens pour qu’ils puissent les développer. Revenir à l’essentiel. Valoriser les gens en tant que personnes, et pas seulement en tant qu’ensembles de compétences. ChatGPT ne peut pas nous dire comment faire.

Par contre, beaucoup soulignent que ChatGPT est mauvais en mathématiques ou qu’il est généralement inexact. Je pense que c’est parce qu’il optimise trop de choses à la fois, par ex. élaborez une réponse cohérente, polie, crédible, etc. Si vous le forcez à se concentrer sur l’exactitude, il “délivre”. Voyez les 2 captures d’écran =>

Ma prédiction est que cette conversation/débat s’accélérera massivement en 2023, alors que la technologie se répandra de bouche-à-oreille parmi les enfants/ados/étudiants qui rentrent de l’école pendant les vacances d’hiver.

D’ici les vacances de printemps, nous aurons vu des controverses liées à l’utilisation de l’IA dans l’éducation à travers le pays, et d’ici la fin de l’année 2023, OpenAI devrait venir s’expliquer devant le Parlement. Mais pour cela, il serait de bon ton que nos politiques s’intéressent d’un peu plus près à cette véritable révolution (aussi importante que Google).

La version Web de GPT qui se rapprochera du temps réel est une révolution à laquelle on n’est pas prêt. Le potentiel de changement lié au mix IA / ioT et robotisation rendra très vite obsolète la main d’œuvre humaine lente, pataude et imprécise sauf dans certains secteurs où l’interaction humaine empathique est indispensable. Le point positif : il faut des cadres pour inventer et piloter tout ça, avec de nouveaux métiers à venir.

QUID DE L’UNIVERSITE ET DES HAUTES ECOLES ?

Dans certaines contrées, que ce soit dans la Presse (sérieuse) ou dans certaines universités et hautes écoles, la conversation/le débat autour de ChatGPT est déjà amorcée. Exemple : Zeynep Tufecki (**) publiait mi-décembre 2022 un éditorial à ce sujet dans le New York Times (15/12/2022)Voir une traduction de son “Opinion” en bas de page (merci Deeplr).

"What would Plato say about ChatGPT?

The Greek philosopher feared the written word; we would be wrong to fear AI-assisted learning" Zeynep Tufecki (*)

 

Dans les écoles disposant de moins de ressources, certains élèves pourraient finir par rendre des rédactions produites par l’IA sans avoir obtenu de compétences utiles ou sans vraiment savoir ce qu’ils ont écrit. “Pas la vérité mais seulement le semblant de la vérité”, comme disait Platon.

Certains responsables scolaires pourraient traiter ce problème comme un simple problème de détection du plagiat et étendre l’utilisation de systèmes de surveillance draconiens. Pendant la pandémie, de nombreux étudiants ont été contraints de passer des tests ou de rédiger des essais sous le regard d’un système de suivi oculaire automatisé ou sur un ordinateur verrouillé pour éviter la tricherie.

Dans une course aux armements infructueuse contre l’IA conversationnelle, les logiciels de plagiat automatisés pourraient devenir surpuissants, rendant l’école plus punitive pour les élèves surveillés. Pire encore, ces systèmes produiront inévitablement de fausses accusations, ce qui nuira à la confiance et pourra même compromettre les perspectives d’avenir d’étudiants prometteurs.

Les approches éducatives qui traitent les élèves comme des ennemis peuvent apprendre aux élèves à haïr ou à subvertir les contrôles. Ce n’est pas une recette pour l’amélioration de l’humain.

Si certains étudiants sont à la traîne, l’IA avancée créera une demande pour d’autres compétences avancées. Le lauréat du prix Nobel Herbert Simon a noté en 1971 que la valeur de notre attention augmentait à mesure que l’information devenait envahissante. “Une abondance d’informations crée une pauvreté d’attention”, comme il l’a dit. De la même manière, la capacité à discerner la vérité dans la surabondance de réponses plausibles mais profondément incorrectes sera précieuse.

Un grand débat national … avec NOS POLITIQUES ?

Même si elle n’en est qu’à ses débuts (tout n’est pas encore top mais le machine learning progresse chaque seconde *), ma prédiction est que cette conversation va très bientôt avoir lieu et qu’elle s’intensifiera massivement en 2023, dès lors que la technologie se répandra de bouche-à-oreille parmi les enfants/ados/étudiants qui rentrent de l’école pendant les vacances d’hiver.

D’ici les vacances de printemps, nous aurons vu des débats (et des controverses) liés à l’utilisation de l’IA dans le système éducatif (bien chancelant) à travers le pays. Et d’ici la fin de l’année 2023, je ne serais pas surpris si OpenAI avait été traîné devant le Parlement pour en parler (et proposer les solutions qu’ils sont en train de mettre au point)…lors d’un grand débat national.

Ou alors (demain) cette étoile montante d’Internet se sera-t-elle transformée en étoile filante ?

Discutons-en sur Linkedin ou sur scoop.it !

SERGE DIELENS, Administrateur Edge Communication SRL – Bruxelles (26/12/2022)

********************************************************************************************************

(*) ChatGPT : si vous ne voyez pas de quoi on parle => mon précédent article paru sur Linkedin juste avant Noël “Alors que tout chancelle dans l’Enseignement, l’arrivée de ChatGPT secoue le monde enseignant” pourrait vous intéresser (10-12 minutes de lecture)#alorsquoidemain #chatGPT #IA #ecole #enseignant #intelligenceartificielle

(**) Zeynep Tufekci est chroniqueuse d’opinion au New York Times. Elle écrit sur la sociologie et les effets sociaux de la technologie. Elle est professeur invité au nouveau Craig Newmark Center for Journalism Ethics and Security de la Columbia Journalism School et professeur associé à l’école d’information et de bibliothéconomie de l’université de Caroline du Nord. Son article est en audio @ https://www.japantimes.co.jp/opinion/2022/12/16/commentary/world-commentary/chatgpt-education/  

La traduction libre de son éditorial est à lire ici =>

“Platon a déploré l’invention de l’alphabet, craignant que l’utilisation du texte ne menace les arts traditionnels de la rhétorique fondés sur la mémoire.

Dans ses “Dialogues”, où il s’exprimait par la voix de Thamus, le roi des dieux égyptiens, Platon affirmait que l’utilisation de cette technologie plus moderne créerait “l’oubli dans l’âme des apprenants, parce qu’ils n’utiliseraient pas leur mémoire”, qu’elle ne transmettrait “pas la vérité mais seulement l’apparence de la vérité” et que ceux qui l’adopteraient “sembleraient être omniscients et ne sauraient généralement rien”, avec “le spectacle de la sagesse sans la réalité”.

Si Platon était vivant aujourd’hui, dirait-il la même chose de ChatGPT ?

ChatGPT, un programme d’intelligence artificielle conversationnelle récemment publié par OpenAI, n’est pas simplement une autre entrée dans le cycle de l’intelligence artificielle. Il s’agit d’une avancée significative, capable de produire des articles en réponse à des questions ouvertes, comparables à de bonnes dissertations de lycée.

C’est dans les écoles secondaires et même au collège que certains des aspects les plus intéressants et les plus troublants de ChatGPT apparaîtront clairement.

La rédaction d’une dissertation est le plus souvent demandée non pas parce que le résultat a une grande valeur – les parents fiers d’afficher les bonnes notes sur le frigo mis à part – mais parce que le processus permet d’acquérir des compétences cruciales : rechercher un sujet, juger les affirmations, synthétiser les connaissances et les exprimer de manière claire, cohérente et persuasive. Ces compétences seront encore plus importantes en raison des progrès de l’IA.

Lorsque j’ai posé à ChatGPT une série de questions – sur les défis éthiques auxquels sont confrontés les journalistes qui travaillent avec des documents piratés, la nécessité d’une réglementation des crypto-monnaies, la possibilité d’un recul démocratique aux États-Unis – les réponses étaient convaincantes, bien raisonnées et claires. C’est également interactif : Je pouvais demander plus de détails ou demander des modifications.

Mais, sur des sujets plus délicats ou des concepts plus compliqués, ChatGPT a parfois donné des réponses très plausibles qui étaient tout à fait fausses – ce dont ses créateurs se gardent bien de parler dans leurs avertissements. À moins que vous ne connaissiez déjà la réponse ou que vous ne soyez un expert dans le domaine, vous pouviez être soumis à un travail intellectuel de haute qualité. Vous seriez confronté, comme l’avait prédit Platon, “au spectacle de la sagesse sans la réalité”.

Tout cela ne signifie pas pour autant que ChatGPT – ou d’autres outils similaires, car il n’est pas le seul de son genre – ne peut pas être un outil utile dans l’éducation. Les écoles ont déjà dû faire face à la richesse des connaissances de l’internet, ainsi qu’à ses mensonges, ses affirmations trompeuses et ses usines de rédaction.

Elles ont notamment modifié leur manière d’enseigner. Plutôt que d’écouter un cours en classe, puis de rentrer chez eux pour faire des recherches et rédiger une dissertation, les élèves écoutent des cours enregistrés et font des recherches à la maison, puis rédigent des dissertations en classe, sous la supervision, voire en collaboration avec leurs camarades et leurs professeurs. Cette approche est appelée “classes inversées ».

Dans les classes alternées, les élèves n’utiliseraient pas ChatGPT pour créer un essai complet. Ils s’en serviraient plutôt comme d’un outil pour générer des éléments constitutifs de dissertations examinés de manière critique. Ce serait similaire à la façon dont les élèves des cours de mathématiques avancés sont autorisés à utiliser des calculatrices pour résoudre des équations complexes sans avoir à répéter des étapes fastidieuses déjà maîtrisées.

Les enseignants pourraient attribuer un sujet complexe et permettre aux étudiants d’utiliser ces outils dans le cadre de leurs recherches. L’évaluation de la véracité et de la fiabilité de ces notes générées par l’IA et leur utilisation pour créer une rédaction se ferait en classe, avec les conseils et les instructions des enseignants. L’objectif serait d’accroître la qualité et la complexité de l’argumentation.

Cela nécessiterait un plus grand nombre d’enseignants pour fournir des commentaires détaillés. À moins que des ressources suffisantes ne soient fournies de manière équitable, l’adaptation à l’IA conversationnelle dans les classes inversées pourrait exacerber les inégalités.

Dans les écoles disposant de moins de ressources, certains élèves pourraient finir par rendre des rédactions produites par l’IA sans avoir obtenu de compétences utiles ou sans vraiment savoir ce qu’ils ont écrit. “Pas la vérité mais seulement le semblant de la vérité”, comme disait Platon.

Certains responsables scolaires pourraient traiter ce problème comme un simple problème de détection du plagiat et étendre l’utilisation de systèmes de surveillance draconiens. Pendant la pandémie, de nombreux étudiants ont été contraints de passer des tests ou de rédiger des essais sous le regard d’un système de suivi oculaire automatisé ou sur un ordinateur verrouillé pour éviter la tricherie.

Dans une course aux armements infructueuse contre l’IA conversationnelle, les logiciels de plagiat automatisés pourraient devenir surpuissants, rendant l’école plus punitive pour les élèves surveillés. Pire encore, ces systèmes produiront inévitablement de fausses accusations, ce qui nuira à la confiance et pourra même compromettre les perspectives d’avenir d’étudiants prometteurs.

Les approches éducatives qui traitent les élèves comme des ennemis peuvent apprendre aux élèves à haïr ou à subvertir les contrôles. Ce n’est pas une recette pour l’amélioration de l’humain.

Si certains étudiants sont à la traîne, l’IA avancée créera une demande pour d’autres compétences avancées. Le lauréat du prix Nobel Herbert Simon a noté en 1971 que la valeur de notre attention augmentait à mesure que l’information devenait envahissante. “Une abondance d’informations crée une pauvreté d’attention”, comme il l’a dit. De la même manière, la capacité à discerner la vérité dans la surabondance de réponses plausibles mais profondément incorrectes sera précieuse.

Déjà, Stack Overflow, un site web largement utilisé où les programmeurs se posent mutuellement des questions sur le codage, a interdit les réponses ChatGPT parce que trop d’entre elles étaient des absurdités difficiles à repérer.

Alors pourquoi s’y fier ? Au minimum, parce qu’elle va bientôt transformer de nombreuses professions. La bonne approche face aux technologies transformatrices est de trouver comment les utiliser pour améliorer l’humanité.

L’amélioration de la situation est un objectif de l’enseignement public depuis au moins 150 ans. Mais alors qu’un diplôme d’études secondaires permettait autrefois d’obtenir un meilleur emploi, au cours des dernières décennies, les salaires des diplômés de l’enseignement secondaire sont restés très inférieurs à ceux des diplômés de l’enseignement supérieur, ce qui a favorisé les inégalités. Si l’IA augmente la valeur de l’éducation pour certains tout en dégradant l’éducation des autres, la promesse d’amélioration sera brisée.

Platon s’est trompé en pensant que la mémoire en soi est un but, plutôt qu’un moyen pour les gens d’avoir des faits à leur disposition afin de pouvoir faire de meilleures analyses et arguments. Les Grecs ont développé de nombreuses techniques pour mémoriser des poèmes comme l'”Odyssée”, avec ses plus de 12 000 vers. Pourquoi se forcer à le faire si l’on peut tout écrire dans des livres ?

Comme Platon avait tort de craindre l’écrit comme un ennemi, nous aurions tort de penser que nous devrions résister à un procédé qui nous permet de rassembler des informations plus facilement.

De même que les sociétés ont réagi aux avancées technologiques antérieures, comme la mécanisation, en mettant en place un filet de sécurité public, une semaine de travail plus courte et un salaire minimum, nous aurons également besoin de politiques permettant à davantage de personnes de vivre dans la dignité comme un droit fondamental, même si leurs compétences ont été dépassées. La richesse générée aujourd’hui étant tellement plus importante, nous pourrions libérer notre imagination encore davantage, en développant le temps libre et de meilleures conditions de travail pour un plus grand nombre de personnes.

Pour aller de l’avant, il ne suffit pas de se lamenter sur les compétences supplantées, comme l’a fait Platon, mais aussi de reconnaître qu’à mesure que des compétences plus complexes deviennent essentielles, notre société doit éduquer équitablement les gens pour qu’ils puissent les développer. Et puis, on en revient toujours à l’essentiel. Valoriser les gens en tant que personnes, et pas seulement en tant qu’ensembles de compétences. Et ce n’est pas quelque chose que ChatGPT peut nous dire comment faire.”

Cet article a été initialement publié dans le New York Times. 2022 The New York Times Company @ https://www.nytimes.com/2022/12/15/opinion/chatgpt-education-ai-technology.html

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.