Pratiquer les langues autrement : l’IA comme partenaire de conversation ?

Temps de lecture : 4 minutes >

[THECONVERSATION.COM, 6 juillet 2025Les robots conversationnels ou “chatbots” font partie de ces innovations en matière d’intelligence artificielle qui peuvent séduire les élèves s’initiant à une langue étrangère. Mais comment les utiliser de façon pertinente ? Que peuvent-ils apporter quand elles sont mises en place dans un cadre pédagogique bien réfléchi ?

En avril dernier, une lycéenne italienne expliquait à la radio comment elle avait réussi à améliorer son français grâce à un “application magique” avec qui elle discutait chaque soir. Cette application, c’est ChatGPT, le fameux agent conversationnel boosté à l’intelligence artificielle (IA). Son témoignage illustre un phénomène mondial : les jeunes – et moins jeunes – utilisent désormais ces outils pour apprendre, réviser ou pratiquer.

L’intelligence artificielle générative (IAG) a aujourd’hui atteint un niveau de maturité tel qu’elle peut soutenir efficacement l’apprentissage des langues. Les outils sont désormais multilingues, adaptables, capables de générer du contenu écrit ou oral, et ajustés aux demandes de chacun. Mais que faire de cette IA qui parle (presque) toutes les langues ? Est-ce une menace pour l’école ou une chance pour apprendre autrement ?

Un robot qui répond toujours, sans juger

Parmi les nombreuses innovations récentes dans le domaine de l’intelligence artificielle et des technologies éducatives, les robots conversationnels (les “chatbots“) sont les plus accessibles : il suffit de poser une question, et ils répondent à l’écrit comme à l’oral. Ils peuvent tenir une conversation, corriger une phrase, reformuler une expression ou jouer un rôle (serveur, guide touristique ou enseignant de langue…).

Ce sont des alliés intéressants pour pratiquer une langue à son rythme, sans peur du jugement. Un étudiant timide peut s’entraîner à parler espagnol dans un café fictif sans craindre de faire des fautes. Un adulte peut répéter les mêmes phrases vingt fois sans gêner personne. Ces dialogues, même artificiels, stimulent l’apprentissage.

Des outils comme CallAnnie, Gliglish, LangAI, Talkpal ou les versions avancées de Duolingo proposent aujourd’hui des conversations avec un tuteur basé sur l’IA, adaptées au niveau des apprenants. Certains enseignants conçoivent même leurs propres chatbots éducatifs pour mieux coller au niveau ou aux attentes de leur public.

Agents conversationnels : les coulisses de la “machine”

Mais comment ces robots peuvent-ils “comprendre” nos messages ? En réalité, ces robots n’ont pas la faculté de compréhension des êtres humains : ils fonctionnent par prédiction statistique. Autrement dit, ils prédisent la suite la plus probable d’un texte en s’appuyant sur des milliards de données textuelles issues du web. C’est ce qu’on appelle un modèle de langage.

Ces modèles – comme GPT (OpenAI) ou BERT (Google, Meta) – sont le résultat d’un algorithme complexe, d’une programmation informatique et de ce qu’on appelle aujourd’hui la culture du prompt, c’est-à-dire l’art de formuler une requête efficace pour générer une réponse pertinente. Leurs réponses sont souvent très fluides, naturelles, parfois impressionnantes… mais elles peuvent aussi être fausses, incohérentes ou biaisées. C’est pourquoi un cadre pédagogique est indispensable : un dialogue sans médiation humaine reste limité.

Savoir interagir avec l’IA devient une compétence clé, qu’on appelle désormais la littératie en IA. Cela implique de :

      • comprendre que l’IA ne “comprend” pas comme un humain, se méfier de l’illusion de “tout savoir” qu’elle peut donner aux apprenants ;
      • savoir formuler des requêtes (ou prompts) efficaces pour générer une réponse pertinente, acquérir ce qu’on appelle aujourd’hui la culture du prompt ;
      • être capable d’évaluer la pertinence des réponses, de repérer les erreurs, les biais ou les stéréotypes ;
      • adopter une posture critique et respecter l’éthique numérique (vérification des sources, protection des données, etc.).

Les enseignants ont un rôle essentiel à jouer pour guider les apprenants vers un usage réfléchi, créatif et responsable de ces outils.

Une expérience en classe : parler avec un chatbot

Dans une université française, une équipe a testé un chatbot développé avec Mizou auprès de 16 étudiants débutants en français (niveau A1). Objectif : renforcer l’expression orale via des jeux de rôle simples. Les résultats sont encourageants : les étudiants ont gagné en confiance, se sentant moins jugés et plus motivés à parler.

Toutefois, certaines réponses générées par le chatbot étaient trop complexes par rapport au niveau attendu – par exemple, des phrases longues avec un vocabulaire difficile ou des formulations trop soutenues. D’autres étaient parfois trop répétitives, ce qui pouvait entraîner une perte d’intérêt. Ce retour d’expérience confirme l’intérêt de ces outils… à condition qu’ils soient bien accompagnés d’un suivi humain.

L’un des atouts majeurs de l’IA est sa flexibilité : débutants, intermédiaires ou avancés peuvent y trouver des bénéfices. Pour les premiers, les chatbots permettent de pratiquer des situations quotidiennes (‘se présenter’, ‘commander’, ‘demander son chemin’). Les niveaux intermédiaires peuvent enrichir leur expression ou corriger leurs erreurs. Les plus avancés peuvent débattre ou s’exercer à rédiger avec un retour critique. L’IA n’a pas vocation à remplacer les échanges humains, mais elle les complète, en multipliant les opportunités d’interaction.

Les chatbots ne remplacent pas la richesse d’une vraie relation humaine, mais ils peuvent aider à préparer des échanges. Avant de converser avec un correspondant étranger, l’apprenant peut s’exercer avec l’IA pour gagner en fluidité et confiance.

De même, avant un séjour à l’étranger, discuter avec un chatbot permet de se familiariser avec les phrases clés et les situations courantes. Certains apprenants utilisent aussi l’IA pour traduire ou vérifier une formulation. L’enjeu n’est donc pas de remplacer les interactions humaines, mais de multiplier les occasions d’apprendre, à tout moment, dans un cadre sécurisé et individualisé.

L’IA conversationnelle n’est pas une baguette magique, mais un outil prometteur. Lorsqu’elle est utilisée avec recul, créativité et esprit critique, elle peut véritablement enrichir l’enseignement et l’apprentissage des langues.

Demain, les apprenants ne dialogueront plus uniquement avec des enseignants, mais aussi avec des robots. À condition que ces agents soient bien choisis, bien paramétrés et intégrés dans un cadre pédagogique réfléchi, ils peuvent devenir de puissants alliés. L’enjeu est de taille : former des citoyens plurilingues, critiques et lucides – face à l’intelligence artificielle, et avec elle.

Sophie Othman, Université Marie et Louis Pasteur (UMLP)


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : © Disney.


Plus de presse en Wallonie…

Les IA, nos nouvelles confidentes : quels risques pour la santé mentale ?

Temps de lecture : 5 minutes >

[THECONVERSATION.COM, 17 juin 2025Depuis le lancement, en novembre 2022, de ChatGPT, l’agent conversationnel développé par OpenAI, les intelligences artificielles génératives semblent avoir envahi nos vies. La facilité et le naturel avec lesquels il est possible d’échanger avec ces outils sont tels que certains utilisateurs en font même de véritables confidents. Ce qui n’est pas sans risque pour la santé mentale.

Les grands modèles de langage, autrement dit les intelligences artificielles “génératives” telles que ChatGPT, Claude et autre Perplexity, répondent à de très nombreux besoins, que ce soit en matière de recherche d’informations, d’aide à la réflexion ou de résolution de tâches variées ; ce qui explique l’explosion actuelle de leur utilisation scolaire, universitaire, professionnelle ou de loisir.

Mais un autre usage de ces IA conversationnelles se diffuse à une vitesse impressionnante, en particulier chez les jeunes : l’équivalent de discussions entre amis, pour passer le temps, questionner ou échanger des idées et surtout se confier comme on le ferait avec un proche. Quels pourraient être les risques liés à ces nouveaux usages ?

Un terrain propice à une adoption rapide

La conversation par écrit avec les intelligences artificielles semble s’être banalisée très rapidement. À noter d’ailleurs que s’il existe des IA utilisant des échanges vocaux, elles semblent cependant moins utilisées que les échanges textuels.

Il faut dire que nous étions depuis de longues années déjà habitués à échanger par écrit sans voir notre interlocuteur, que ce soit par SMS, par e-mail, par “tchat” ou tout autre type de messagerie. Les IA génératives reproduisant remarquablement bien l’expression verbale des êtres humains, l’illusion de parler à une personne réelle est quasiment immédiate, sans avoir besoin d’un avatar ou d’une quelconque image simulant l’autre.

Immédiatement disponibles à toute heure du jour et de la nuit, conversant toujours sur un ton aimable, voire bienveillant, entraînées à simuler l’empathie et dotées, si ce n’est d’une “intelligence”, en tout cas de connaissances en apparence infinies, les IA sont en quelque sorte des partenaires de dialogue idéales.

Il n’est dès lors pas étonnant que certains se soient pris au jeu de la relation, et entretiennent des échanges suivis et durables avec ces substituts de confidents ou de “meilleurs amis”. Et ce, d’autant plus que ces conversations sont “personnalisées” : les IA mémorisent en effet les échanges précédents pour en tenir compte dans leurs réponses futures.

Certaines plateformes, comme Character.ai ou Replika, proposent par ailleurs de personnaliser à sa guise l’interlocuteur virtuel (nom, apparence, profil émotionnel, compétences, etc.), initialement pour simuler un jeu de rôle numérique. Une fonctionnalité qui ne peut que renforcer l’effet de proximité, voire d’attachement affectif au personnage ainsi créé.

Voici à peine plus de dix ans, le réalisateur Spike Jonze tournait le film Her, décrivant la relation amoureuse entre un homme sortant d’une difficile rupture et l’intelligence artificielle sur laquelle s’appuyait le système d’exploitation de son ordinateur. Aujourd’hui, il se pourrait que la réalité ait déjà rejoint la fiction pour certains utilisateurs des IA génératives, qui témoignent avoir entretenu une “romance numérique” avec des agents conversationnels. Des pratiques qui pourraient ne pas être sans risque pour l’équilibre mental de certaines personnes, notamment les plus jeunes ou les plus fragiles.

Des effets sur la santé mentale dont la mesure reste à prendre

Nous constatons aujourd’hui, dans tous les pays (et probablement bien trop tard…), les dégâts que l’explosion de l’usage des écrans a causés sur la santé mentale des jeunes, en particulier du fait des réseaux sociaux.

Entre autres facteurs, une des hypothèses (encore controversée, mais très crédible) est que la désincarnation des échanges virtuels perturberait le développement affectif des adolescents et favoriserait l’apparition de troubles anxieux et dépressifs.

Jusqu’à aujourd’hui, pourtant, les échanges menés par l’intermédiaire des réseaux sociaux ou des messageries numériques se font encore a priori principalement avec des êtres humains, même si nous ne côtoyons jamais certains de nos interlocuteurs dans la vie réelle. Quels pourraient être les conséquences, sur l’équilibre mental (émotionnel, cognitif et relationnel) des utilisateurs intensifs, de ces nouveaux modes d’échanges avec des IA dénuées d’existence physique ?

Il est difficile de les imaginer toutes, mais on peut concevoir sans peine que les effets pourraient être particulièrement problématiques chez les personnes les plus fragiles. Or, ce sont précisément celles qui risquent de faire un usage excessif de ces systèmes, comme cela est bien établi avec les réseaux sociaux classiques.

À la fin de l’année dernière, la mère d’un adolescent de 14 ans qui s’est suicidé a poursuivi les dirigeants de la plateforme Character.ai, qu’elle tient pour responsables du décès de son fils. Selon elle, son geste aurait été encouragé par l’IA avec laquelle il échangeait. En réponse à ce drame, les responsables de la plateforme ont annoncé avoir implémenté de nouvelles mesures de sécurité. Des précautions autour des propos suicidaires ont été mises en place, avec conseil de consulter en cas de besoin.

Une rencontre entre des personnes en souffrance et un usage intensif, mal contrôlé, d’IA conversationnelles pourrait par ailleurs conduire à un repli progressif sur soi, du fait de relations exclusives avec le robot, et à une transformation délétère du rapport aux autres, au monde et à soi-même.

Nous manquons actuellement d’observations scientifiques pour étayer ce risque, mais une étude récente, portant sur plus de 900 participants, montre un lien entre conversations intensives avec un chatbot (vocal) et sentiment de solitude, dépendance émotionnelle accrue et réduction des rapports sociaux réels.

Certes, ces résultats sont préliminaires. Il paraît toutefois indispensable et urgent d’explorer les effets potentiels de ces nouvelles formes d’interactions pour, si cela s’avérait nécessaire, mettre tout en œuvre afin de limiter les complications possibles de ces usages.

Mankiewicz Joseph L., L’aventure de Madame Muir (The ghost and Mrs. Muir, 1947) © DP

Autre crainte : que dialoguer avec un “fantôme” et se faire prendre à cette illusion puissent aussi être un facteur déclenchant d’états pseudo-psychotiques (perte de contact avec la réalité ou dépersonnalisation, comme on peut les rencontrer dans la schizophrénie), voire réellement délirants, chez des personnes prédisposées à ces troubles.

Au-delà de ces risques, intrinsèques à l’emploi de ces technologies par certaines personnes, la question d’éventuelles manipulations des contenus – et donc des utilisateurs – par des individus mal intentionnés se pose également (même si ce n’est pas cela que nous constatons aujourd’hui), tout comme celle de la sécurité des données personnelles et intimes et de leurs potentiels usages détournés.

IA et interventions thérapeutiques, une autre problématique

Pour terminer, soulignons que les points évoqués ici ne portent pas sur l’utilisation possible de l’IA à visée réellement thérapeutique, dans le cadre de programmes de psychothérapies automatisés élaborés scientifiquement par des professionnels et strictement encadrés.

En France, les programmes de ce type ne sont pas encore très utilisés ni optimisés. Outre le fait que le modèle économique de tels outils est difficile à trouver, leur validation est complexe. On peut cependant espérer que, sous de nombreuses conditions garantissant leur qualité et leur sécurité d’usage, ils viendront un jour compléter les moyens dont disposent les thérapeutes pour aider les personnes en souffrance, ou pourront être utilisés comme supports de prévention.

Le problème est qu’à l’heure actuelle, certaines IA conversationnelles se présentent d’ores et déjà comme des chatbots thérapeutiques, sans que l’on sache vraiment comment elles ont été construites : quels modèles de psychothérapie utilisent-elles ? Comment sont-elles surveillées ? et évaluées ? Si elles devaient s’avérer posséder des failles dans leur conception, leur emploi pourrait constituer un risque majeur pour des personnes fragiles non averties des limites et des dérives possibles de tels systèmes.

Les plus grandes prudence et vigilance s’imposent donc devant le développement ultrarapide de ces nouveaux usages du numérique, qui pourraient constituer une véritable bombe à retardement pour la santé mentale…

Antoine Pelissolo, professeur de psychiatrie


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : Her, un film de Spike Jonze (2013) © Annapurna Pictures ; © DP.


Plus de conventions sociales en Wallonie…

Non, l’IA ne va pas faire disparaître l’écriture !

Temps de lecture : 5 minutes >

[THECONVERSATION.COM, 26 février 2025] Si les IA sont plus performantes que les humains pour brasser des informations et produire un texte dans un laps de temps très court, elles ne maîtrisent ni la véracité des contenus ni l’adaptation des discours aux contextes. Quelques observations pour apprendre à travailler avec ces outils.

Il ne fait plus aucun doute que les IA changent nos vies et nos métiers. Certaines des compétences que nous avons toujours considérées comme spécifiquement humaines ne le sont plus. L’écriture va-t-elle disparaître ? Allons-nous revenir à une société de l’oral ? Responsable d’une formation en rédaction et traduction à l’Université Paris-Est Créteil, je suis confrontée à cette question en permanence. Faut-il encore apprendre aux étudiants à produire des synthèses si nous pouvons les confier à une IA ? Quelles sont les compétences rédactionnelles qui ne peuvent pas (encore) être remplacées par des machines ?

Mon expérience d’enseignante et de chercheuse me montre qu’apprendre à rédiger un texte selon des normes propres aux différents modes de circulation des écrits reste indispensable, aussi bien pour les rédacteurs amateurs que pour les rédacteurs professionnels.

Nul doute que les IA sont plus performantes que les humains si nous considérons des paramètres comme le brassage d’informations, la vitesse de rédaction, la correction orthographique, ou encore l’élimination par principe de nos tics d’écriture comme la répétition de connecteurs (“alors”, “certes”, “donc”, etc.). Il n’est donc pas étonnant que tout le monde s’y mette, d’autant que cela s’assortit d’un apparent gain économique en accélérant la vitesse de réalisation.

Cependant, à force de vouloir trop économiser, quelque chose au passage se perd : la véracité des contenus, la source des informations, l’adaptation aux discours ou encore le style d’écriture.

Vérifier les contenus

Premier problème posé par les IA : ces dispositifs n’encouragent pas à vérifier les contenus. Si les IA rédactionnelles brassent des quantités de données impossibles à exploiter dans le même ratio quantité/temps par un humain, la relation entre les données et les sources reste encore un point aveugle dans la production des textes.

© lemonde.fr

En effet, les données sont transposées à travers des espaces latents, c’est-à-dire des espaces de travail cachés, dont la complexité d’organisation dépasse largement nos capacités d’entendement. La production des données textuelles dépend de deux processus fondamentaux :

      • rassembler et réduire les informations ;
      • les traiter pour produire des résultats.

Or il peut y avoir des hiatus dans le passage de la première à la deuxième étape : l’apparence ou les actes d’une personne peuvent être attribués à une autre, un phénomène est assimilé à un autre pourtant très différent, etc. C’est ce que l’on retrouve dans les hallucinations souvent produites par les IA.

Comprendre la différence entre ce dont on parle (référent sémantique) et ce qu’on désigne (référent ontologique) est ce qui permet de faire le tri dans les contenus produits par les IA rédactionnelles. En effet, il faut savoir vérifier qu’il y a bien concordance entre les deux référents. Car, ce que produisent les IA n’a pas toujours un sens.

Identifier les sources fiables

Deuxième problème posé par l’IA : étant donné la complexité des processus de production des contenus, retrouver et vérifier la source des données textuelles est compliqué, et les IA rédactionnelles n’offrent pas toutes des outils pour le faire.

Or quand nous écrivons un texte scientifique, journalistique ou même commercial, la fiabilité et la vérification des sources sont une part fondamentale de la construction de l’argumentaire. En effet, les bons arguments dépendent souvent de la légitimité de la source. Si la source n’est pas légitime, il en va de l’autorité du discours et du propos tenus.

© lemonde.fr

Il s’agit de détecter des sources fiables, non des sources en général. Cette activité est reliée, d’un côté, à une pratique de l’écrit, et, de l’autre, à une éthique de l’écrit. Cela impacte notamment la construction du rapport au lecteur qui signe avec l’auteur un pacte (implicite) de confiance.

Comme le disait Umberto Eco dans Sulla letteratura (2002) :

Il n’y a qu’une seule chose que vous écrivez uniquement pour vous-même, c’est la liste des courses.

L’opacité des sources brise ce pacte de confiance et ramène le contenu de l’ordre de l’information à l’ordre de la rumeur.

Adapter les textes aux discours

Troisième problème posé par les IA : la difficulté à adapter les textes produits aux discours de référence. Les écrits sont toujours produits au sein de discours très différents : publicitaires, politiques, scientifiques, critiques, etc. Chaque discours a ses propres contraintes et attentes. Les écrits circulent au sein des discours à travers des formats d’écriture précis, c’est-à-dire des agencements de formes typiques qui servent d’interfaces entre les textes et les discours.

© ilmessaggero.it

Prenons un exemple. J’ai travaillé cette année avec les étudiants sur un genre d’écrit ordinaire : la recette de cuisine. L’enjeu était de comprendre les normes de rédaction, les respecter et les déjouer, jusqu’à rédiger une recette qui ne ressemble plus à une recette. Cette capacité à passer d’un genre d’écrit à l’autre est un atout des rédacteurs humains qui n’est pas (encore) bien géré par les IA.

Chercher son propre style

Les sites proposant des IA rédactionnelles pour tout genre de discours sont nombreux. Les consignes pour les utiliser également. Toutefois, les textes produits présentent souvent une sorte de neutralité passe-partout qui, à la longue, finit par desservir les usagers.

Pour différencier ses propres contenus, notamment dans un environnement numérique qui regorge d’écrits, il est souhaitable de développer son propre style. L’injonction d’écrire “à la manière de” que nous pouvons donner à une IA dans un “prompt”, c’est-à-dire les consignes de rédaction soumises, ne vise pas cet objectif. L’enjeu est de trouver notre propre manière d’écrire, ce qui fait toute la différence en tant que rédacteur.

Si les étudiants ne peuvent pas se passer d’utiliser les IA pour rédiger leurs écrits, notamment lors des stages en entreprise, il faudra alors les préparer à un usage critique de ces technologies : comprendre le fonctionnement, identifier les limites, personnaliser les pratiques. Pour cela, il faudra mettre en place des protocoles, formuler des recommandations, discuter les productions.

Cette année, nous sommes en pleine réflexion pour dessiner les nouveaux parcours de formation des étudiants. La question se pose : faut-il intégrer les IA dans nos formations ? Nous devons bien faire évoluer les parcours en suivant les transformations technologiques et sociales.

Il s’agit de réfléchir à de nouvelles compétences à développer comme la rédaction de prompts (prompt engineering), l’accompagnement à la pratique rédactionnelle (coaching), ou encore la révision des textes (post-edition) : encore du travail pour les rédacteurs ! Alors non, l’écriture ne va pas disparaître avec l’IA.

Rossana De Angelis, UPEC


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : © letempsdecrire.com ; © lemonde.fr ; ilmessaggero.it.


Plus de systèmes en Wallonie…