Les prouesses de l’Intelligence artificielle ne datent pas d’aujourd’hui. L’intelligence artificielle a connu certes un boom médiatique ces derniers temps étant donné l’impact des nouveaux outils comme ChatGPT, Gemini, etc. pour simplifier l’approche pédagogique et professionnelle, en ce qui concerne les élèves et étudiants, pour ne citer que ceux-là, par delà sa capacité à influencer également les décisions dans différentes sphères de travail.
Mais avant tout qu’est-ce que l’IA ?
L’intelligence artificielle est considérée comme possible depuis 1950, lorsqu’Alan Turing, considéré comme le père de l’informatique théorique et de l’intelligence artificielle, a publié un article intitulé « Computing Machinery and Intelligence », dans lequel il a écrit : « Je propose de réfléchir à la question : « Les machines peuvent-elles penser ? » ». La réponse a finalement été oui.
L’IA au sens traditionnel du terme n’est qu’un programme informatique doté d’un certain ensemble de règles pour traiter des informations et des données et produire un résultat spécifique. Elle peut être améliorée au fil du temps grâce à l’apprentissage par renforcement et au réglage fin, mais elle ne crée pas de contenu nouveau et novateur ni de méthodes de résolution de problèmes. En cela, il est bon de faire le départ entre L’IA traditionnelle et l’IA générative.
Trois innovations récentes dans le domaine de l’apprentissage automatique ont permis à GenAI de prospérer. La première a été une percée en 2014, appelée Generative Adversarial Networks , qui a permis à GenAI de créer des photos, des vidéos et des fichiers audio authentiques. La deuxième, appelée Transformers , a permis aux chercheurs de former de grands modèles sans étiqueter ni organiser les données. La troisième avancée, appelée Large Language Models (LLM), permet aux machines de comprendre les relations entre les mots et de comprendre le contexte des entrées de texte. Ceci pour annoncer la grande évolution programmatique du logiciel et sa capacité à imiter le fonctionnement du cerveau humain( le modèle).
L’I, la panique morale ?
La venue récente de l’intelligence artificielle, notamment de l’outil ChatGPT, a suscité des craintes sévères, disons une panique morale au sein des conseils d’administration des grandes universités et écoles. Certaines universités sont allées jusqu’à interdire l’usage de cet outil. D’autres ont choisi la prudence et la retenue en appelant à la réflexion morale plutôt que d’interdire…Par exemple, l’université Fontys aux Pays-Bas souhaite apprendre aux étudiants à réfléchir à l’impact de la technologie, ce que l’on appelle la technophilosophie . Cela signifie leur apprendre à concevoir et à créer des technologies avancées, telles que l’intelligence artificielle, les solutions de données et le matériel intelligent. En effet, les universités asiatiques sont en alerte face aux nouveaux outils d’écriture générative à intelligence artificielle tels que ChatGPT et d’autres outils assistés par IA qui peuvent aider les étudiants à écrire du texte ou du code. Certaines universités ont rapidement interdit leur utilisation tandis que d’autres se sont montrées plus prudentes. Certaines Institutions, comme l’Université de Hong Kong, ont interdit ChatGPT à titre temporaire jusqu’à ce que des politiques appropriées pour leur utilisation puissent être élaborées.
L’IA, une béquille d’apprentissage ?
La question qui se pose naturellement est la suivante : l’IA va-t-elle altérer la manière dont on apprend ? ou encore comment enseigner aux étudiants les enjeux éthiques liés aux nouvelles technologiques ?
Vu l’angle sous lequel certains élèves et étudiants voient son usage, il est essentiel de mener la réflexion pour comprendre les impacts de ce nouveau phénomène. C’est vrai que l’outil est en soi un outil efficace de travail, apporte son soutien aux apprenants sur plusieurs fenêtres, propose des résultats pondérés par rapport aux résultats délirants de Google, mais le problème reste entier. Certains professeurs de lycée ont même alerté face à cette nouvelle situation qui s’impose aux élèves. Ils parlent de changements de méthode d’enseignement et d’évaluation pour faire face à cette équation vu que les élèves sont capables d’en faire usage pour tricher ou faire du plagiat. Les plus créatifs proposent des évaluations orales ou d’évaluations qui exigent d’être créatif. Pour comprendre davantage, il est nécessaire de reconnaître qu’un outil comme ChatGPT uniformise la réflexion des élèves et n’aide pas à la liberté d’analyse. Il pousse certainement beaucoup d’élèves à présenter un bête copié-collé lors d’une évaluation. Sur ChatGPT, les élèves sont en mesure de trouver des plans de rédaction, des présentations de contenu PowerPoint, du travail d’exposé entier sans faire énormément d’efforts.
Les limtes de ChatGPT
Pour rédiger cette chronique, j’ai pas demandé à ChatGPT des réponses. Mais je pouvais bien le faire. ChatGPT, ainsi que d’autres applications qui s’appuient sur la même technologie, tirent leurs informations d’un vaste ensemble de données déjà existant et génèrent une réponse basée sur les prédictions de pertinence à partir de l’invite saisie par l’utilisateur. En substance, il prend l’invite que l’utilisateur lui donne, parcourt l’ensemble de données qui lui a été fourni et fournit une réponse textuelle générée qu’il pense être pertinente par rapport à la question posée. Or, il fait comprendre qu’il présente des limtes manifestes. Il y a beaucoup de limites à prendre en compte : ChatGPT, par exemple, n’a accès qu’à un ensemble de données limité et ne peut référencer rien d’au-delà de 2021. Il n’est pas non plus très fiable – il génère des informations qu’il pense pertinentes pour la requête de l’utilisateur, sans trop (ou pas du tout) se soucier de savoir si ces informations sont correctes.
Il manque également de bon sens à de nombreux endroits, car il n’a pas de concept de ce qu’est le « bon sens ». Un récent message sur Twitter du professeur Chris Headleand a mis en évidence un problème particulier avec une histoire croisée générée par ChatGPT entre Thomas the Tank Engine et Paw Patrol, qui a vu le Thomas éponyme traverser l’océan pour sauver une famille de baleines bleues échouées.
Et c’est avant même d’entamer une conversation sur les problèmes de ChatGPT concernant la citation de sources secondaires à l’aide de systèmes de référencement universitaires établis. L’IA générative peut générer des références dans les paramètres des systèmes de référencement, mais elle ne tient pas compte de l’existence réelle des sources citées et, la plupart du temps, elle les invente tout simplement.
Quelques pistes de solutions
Il est clair que si l’on veut faire autrement avec les outils technologiques, nous devons surtout apprendre à survivre ensemble. Pour les étudiants il s’agit d’apprendre à remonter aux sources pour s’assurer que le travail proposé est essentiellement le sien. ChatGPT et les outils fonctionnent également comme des outils de collaboration à manier avec beaucoup de subtilité et de prudence. Ils font appel à notre pouvoir d’évaluation et nous mettent au défi de bien vérifier nos sources. Ce sont certes des copilotes d’écriture pour beaucoup d’entre nous mais ils sont particulièrement dangereux selon l’usage que l’on en fait. D’où les avertissements au fronton des universités.
El Hadji Thiam, rédacteur fondateur du magazine School, enseignant à l’ECOLE DENTAIRE INTERNATIONALE