Les IA, nos nouvelles confidentes : quels risques pour la santé mentale ?

Temps de lecture : 5 minutes >

[THECONVERSATION.COM, 17 juin 2025Depuis le lancement, en novembre 2022, de ChatGPT, l’agent conversationnel développé par OpenAI, les intelligences artificielles génératives semblent avoir envahi nos vies. La facilité et le naturel avec lesquels il est possible d’échanger avec ces outils sont tels que certains utilisateurs en font même de véritables confidents. Ce qui n’est pas sans risque pour la santé mentale.

Les grands modèles de langage, autrement dit les intelligences artificielles “génératives” telles que ChatGPT, Claude et autre Perplexity, répondent à de très nombreux besoins, que ce soit en matière de recherche d’informations, d’aide à la réflexion ou de résolution de tâches variées ; ce qui explique l’explosion actuelle de leur utilisation scolaire, universitaire, professionnelle ou de loisir.

Mais un autre usage de ces IA conversationnelles se diffuse à une vitesse impressionnante, en particulier chez les jeunes : l’équivalent de discussions entre amis, pour passer le temps, questionner ou échanger des idées et surtout se confier comme on le ferait avec un proche. Quels pourraient être les risques liés à ces nouveaux usages ?

Un terrain propice à une adoption rapide

La conversation par écrit avec les intelligences artificielles semble s’être banalisée très rapidement. À noter d’ailleurs que s’il existe des IA utilisant des échanges vocaux, elles semblent cependant moins utilisées que les échanges textuels.

Il faut dire que nous étions depuis de longues années déjà habitués à échanger par écrit sans voir notre interlocuteur, que ce soit par SMS, par e-mail, par “tchat” ou tout autre type de messagerie. Les IA génératives reproduisant remarquablement bien l’expression verbale des êtres humains, l’illusion de parler à une personne réelle est quasiment immédiate, sans avoir besoin d’un avatar ou d’une quelconque image simulant l’autre.

Immédiatement disponibles à toute heure du jour et de la nuit, conversant toujours sur un ton aimable, voire bienveillant, entraînées à simuler l’empathie et dotées, si ce n’est d’une “intelligence”, en tout cas de connaissances en apparence infinies, les IA sont en quelque sorte des partenaires de dialogue idéales.

Il n’est dès lors pas étonnant que certains se soient pris au jeu de la relation, et entretiennent des échanges suivis et durables avec ces substituts de confidents ou de “meilleurs amis”. Et ce, d’autant plus que ces conversations sont “personnalisées” : les IA mémorisent en effet les échanges précédents pour en tenir compte dans leurs réponses futures.

Certaines plateformes, comme Character.ai ou Replika, proposent par ailleurs de personnaliser à sa guise l’interlocuteur virtuel (nom, apparence, profil émotionnel, compétences, etc.), initialement pour simuler un jeu de rôle numérique. Une fonctionnalité qui ne peut que renforcer l’effet de proximité, voire d’attachement affectif au personnage ainsi créé.

Voici à peine plus de dix ans, le réalisateur Spike Jonze tournait le film Her, décrivant la relation amoureuse entre un homme sortant d’une difficile rupture et l’intelligence artificielle sur laquelle s’appuyait le système d’exploitation de son ordinateur. Aujourd’hui, il se pourrait que la réalité ait déjà rejoint la fiction pour certains utilisateurs des IA génératives, qui témoignent avoir entretenu une “romance numérique” avec des agents conversationnels. Des pratiques qui pourraient ne pas être sans risque pour l’équilibre mental de certaines personnes, notamment les plus jeunes ou les plus fragiles.

Des effets sur la santé mentale dont la mesure reste à prendre

Nous constatons aujourd’hui, dans tous les pays (et probablement bien trop tard…), les dégâts que l’explosion de l’usage des écrans a causés sur la santé mentale des jeunes, en particulier du fait des réseaux sociaux.

Entre autres facteurs, une des hypothèses (encore controversée, mais très crédible) est que la désincarnation des échanges virtuels perturberait le développement affectif des adolescents et favoriserait l’apparition de troubles anxieux et dépressifs.

Jusqu’à aujourd’hui, pourtant, les échanges menés par l’intermédiaire des réseaux sociaux ou des messageries numériques se font encore a priori principalement avec des êtres humains, même si nous ne côtoyons jamais certains de nos interlocuteurs dans la vie réelle. Quels pourraient être les conséquences, sur l’équilibre mental (émotionnel, cognitif et relationnel) des utilisateurs intensifs, de ces nouveaux modes d’échanges avec des IA dénuées d’existence physique ?

Il est difficile de les imaginer toutes, mais on peut concevoir sans peine que les effets pourraient être particulièrement problématiques chez les personnes les plus fragiles. Or, ce sont précisément celles qui risquent de faire un usage excessif de ces systèmes, comme cela est bien établi avec les réseaux sociaux classiques.

À la fin de l’année dernière, la mère d’un adolescent de 14 ans qui s’est suicidé a poursuivi les dirigeants de la plateforme Character.ai, qu’elle tient pour responsables du décès de son fils. Selon elle, son geste aurait été encouragé par l’IA avec laquelle il échangeait. En réponse à ce drame, les responsables de la plateforme ont annoncé avoir implémenté de nouvelles mesures de sécurité. Des précautions autour des propos suicidaires ont été mises en place, avec conseil de consulter en cas de besoin.

Une rencontre entre des personnes en souffrance et un usage intensif, mal contrôlé, d’IA conversationnelles pourrait par ailleurs conduire à un repli progressif sur soi, du fait de relations exclusives avec le robot, et à une transformation délétère du rapport aux autres, au monde et à soi-même.

Nous manquons actuellement d’observations scientifiques pour étayer ce risque, mais une étude récente, portant sur plus de 900 participants, montre un lien entre conversations intensives avec un chatbot (vocal) et sentiment de solitude, dépendance émotionnelle accrue et réduction des rapports sociaux réels.

Certes, ces résultats sont préliminaires. Il paraît toutefois indispensable et urgent d’explorer les effets potentiels de ces nouvelles formes d’interactions pour, si cela s’avérait nécessaire, mettre tout en œuvre afin de limiter les complications possibles de ces usages.

Mankiewicz Joseph L., L’aventure de Madame Muir (The ghost and Mrs. Muir, 1947) © DP

Autre crainte : que dialoguer avec un “fantôme” et se faire prendre à cette illusion puissent aussi être un facteur déclenchant d’états pseudo-psychotiques (perte de contact avec la réalité ou dépersonnalisation, comme on peut les rencontrer dans la schizophrénie), voire réellement délirants, chez des personnes prédisposées à ces troubles.

Au-delà de ces risques, intrinsèques à l’emploi de ces technologies par certaines personnes, la question d’éventuelles manipulations des contenus – et donc des utilisateurs – par des individus mal intentionnés se pose également (même si ce n’est pas cela que nous constatons aujourd’hui), tout comme celle de la sécurité des données personnelles et intimes et de leurs potentiels usages détournés.

IA et interventions thérapeutiques, une autre problématique

Pour terminer, soulignons que les points évoqués ici ne portent pas sur l’utilisation possible de l’IA à visée réellement thérapeutique, dans le cadre de programmes de psychothérapies automatisés élaborés scientifiquement par des professionnels et strictement encadrés.

En France, les programmes de ce type ne sont pas encore très utilisés ni optimisés. Outre le fait que le modèle économique de tels outils est difficile à trouver, leur validation est complexe. On peut cependant espérer que, sous de nombreuses conditions garantissant leur qualité et leur sécurité d’usage, ils viendront un jour compléter les moyens dont disposent les thérapeutes pour aider les personnes en souffrance, ou pourront être utilisés comme supports de prévention.

Le problème est qu’à l’heure actuelle, certaines IA conversationnelles se présentent d’ores et déjà comme des chatbots thérapeutiques, sans que l’on sache vraiment comment elles ont été construites : quels modèles de psychothérapie utilisent-elles ? Comment sont-elles surveillées ? et évaluées ? Si elles devaient s’avérer posséder des failles dans leur conception, leur emploi pourrait constituer un risque majeur pour des personnes fragiles non averties des limites et des dérives possibles de tels systèmes.

Les plus grandes prudence et vigilance s’imposent donc devant le développement ultrarapide de ces nouveaux usages du numérique, qui pourraient constituer une véritable bombe à retardement pour la santé mentale…

Antoine Pelissolo, professeur de psychiatrie


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : Her, un film de Spike Jonze (2013) © Annapurna Pictures ; © DP.


Plus de conventions sociales en Wallonie…

Apprendre à traduire : à l’ère de l’IA, faut-il encore faire des exercices de thème et de version ?

Temps de lecture : 5 minutes >

[THECONVERSATION.COM, 4 décembre 2024] “Si les outils de traduction font des miracles, pourquoi s’exercer à transposer des textes d’une langue à une autre ?”, se demandent les étudiants. Loin d’être anodin, cet apprentissage permet de se sensibiliser réellement aux subtilités et au fonctionnement de la langue qu’on apprend.

DeepL fait des miracles, pourquoi devrais-je alors apprendre à traduire ?“, s’interroge un étudiant dans un cours de version. Les cours de thème (traduire un texte du français vers la langue étudiée) et de version (traduire un texte d’une langue étudiée en français) occupent une place importante au sein de la formation universitaire française, en licence de langues jusque dans les épreuves des concours du second cycle. Au lycée déjà, les élèves découvrent les subtilités inhérentes au fait de passer d’une langue à une autre et, dans le cadre des enseignements de langues et cultures de l’Antiquité, ils s’exercent régulièrement à la traduction.

Dans un contexte général où la traduction neuronale, alimentée par l’intelligence artificielle, rivalise de plus en plus avec la traduction humaine, l’intérêt de cet apprentissage peut susciter une remise en question.

Des objectifs de cours à clarifier

Sans aborder les débats historiques qui jalonnent l’évolution de la traduction en tant que pédagogie et de la traductologie en tant que discipline, on notera que de nombreuses recherches ont souligné le “statut étrange de la traduction à l’université, souvent fondé sur une mauvaise appréhension de son intérêt“, selon les mots de l’universitaire Fayza El Qasem.

Bien que les enseignants établissent des objectifs pédagogiques précis aux cours de thème et de version, de nombreux étudiants peinent encore à en percevoir les finalités. Il n’échappe à personne que la phrase “Attention, n’utilisez surtout pas de traducteur automatique !” a longtemps fait partie des consignes transmises aux étudiants, sous prétexte que la qualité de la traduction y est déplorable. Seuls les dictionnaires étaient autorisés.

© Shutterstock

Aujourd’hui, les enseignants des cours de thème et de version peuvent-ils encore éviter les traducteurs automatiques malgré leur amélioration évidente ?

On rappellera que les compétences visées dans les cours de thème et de version vont de la compréhension d’un texte et du fonctionnement des langues à travers les analyses linguistiques (grammaire, vocabulaire, procédés de traduction) jusqu’à la traduction d’un paragraphe, comme moyen d’évaluation des acquis en langues. L’extrait à traduire est généralement issu du registre littéraire ou journalistique et ne s’ouvre que rarement à la traduction dite pragmatique (textes quotidiens, professionnels).

Au cours des dernières années, les critiques n’ont pas manqué. Des études récentes ont insisté sur l’intérêt croissant d’intégrer des outils technologiques dans l’enseignement de la traduction.

Au-delà de la traduction, comprendre et analyser les subtilités linguistiques
Les cours de thème et de version constituent cependant de véritables laboratoires linguistiques. On y pratique l’analyse approfondie d’un texte source en invitant les apprenants à décortiquer les structures linguistiques et extralinguistiques que les logiciels de traduction peinent encore à saisir. En thème ou en version, il ne s’agit pas simplement de traduire des segments isolés, mais d’en saisir le sens global, de repérer les figures de style ou encore, la tonalité, etc.

Chaque niveau d’analyse permet une traduction “acceptable”, certes, mais favorise surtout une manipulation fine de la langue, transposable à d’autres contextes. Tel est le cas de la traduction des ambiguïtés syntaxiques ou des jeux de mots, de l’humour ou encore des néologismes.

Les travaux de la linguiste Natalie Kübler et de ses collègues en langue de spécialité montrent davantage “les limites de ces systèmes de [traduction automatique][…] notamment dans le traitement des syntagmes nominaux complexes, aussi bien au niveau du syntagme lui-même (variations possibles dans la juxtaposition des constituants, identification des constituants coordonnés…) comme au niveau du texte (instabilité des choix de traduction, identification adéquate du domaine de spécialité…)“.

La traduction automatique, aussi performante qu’elle soit, reste cependant imparfaite malgré ses progrès. Si elle se montre efficace lors de traductions simples et littérales, elle peine souvent à capter les nuances contextuelles essentielles. C’est ainsi que la traduction d’expressions idiomatiques (par exemple “les carottes sont cuites”, “les dindons de la farce”), des modes d’emploi ou de certaines publicités, produit parfois des rendus éloignés du sens original, jusqu’à produire de faux sens.

© Shutterstock

Les cours de thème et de version peuvent être l’occasion de sensibiliser et d’accompagner les étudiants vers une utilisation raisonnée de la traduction automatique. Il s’agit aussi d’un espace pour s’entraîner à repérer et à corriger les écueils précédemment cités, tout en renforçant la compréhension des systèmes linguistiques des langues étudiées. À long terme, cette capacité d’analyse revêt une importance fondamentale dans leur futur contexte professionnel. Communicants, journalistes, traducteurs ou enseignants de langues, ces étudiants seront souvent amenés à naviguer entre diverses sources d’information, parfois entachées de deepfakes pour justifier les échecs éventuels que les traducteurs automatiques génèrent.

Renforcer la compréhension interculturelle

Outre le renforcement des éléments linguistiques que permettent d’étayer les cours de thème et de version, la prise en compte des spécificités culturelles constitue un élément d’apprentissage à part entière, notamment parce que la traduction est, entre autres, un moyen de médiation entre deux cultures.

D’ailleurs lorsque le traductologue canadien Jean Delisle parle de la dimension culturelle de la traduction, il recourt à la métaphore de l’”hydre à cent-mille têtes” pour en souligner la nature multiple et dynamique.

La capacité à détecter et à comprendre les différences culturelles aide ainsi à prévenir les malentendus qui peuvent si facilement surgir en langue étrangère et qui sont parfois déjà présents dans la langue source. L’extrait humoristique de Juste Leblanc avec les confusions entre l’adverbe “juste” et le prénom “Juste”, dans le film Le Dîner de cons, l’illustre.

Finalement, en nous éloignant du caractère parfois artificiel des pratiques adoptées dans l’enseignement du thème et de la version et en tenant en compte de l’évolution socio-économique de la société jointe à l’utilisation de l’intelligence artificielle, ces cours pourraient (re)gagner l’intérêt initial du parcours d’apprentissage des langues. Actualisés, ils seraient à même d’offrir aux étudiants une compréhension plus claire des exigences des métiers liés aux langues, métiers qui requièrent aujourd’hui des compétences humaines spécifiques, complémentaires mais distinctes de celles des machines.

La question qui se pose aujourd’hui n’est plus “Pourquoi enseigner le thème et la version à l’heure de l’IA ?“, mais plutôt “Comment ?” “Laisser exister la relation avec les systèmes d’IA, là où partout on ne parle souvent que de leurs usages, c’est aussi laisser place à la dimension indéterminée de leur intelligence inhumaine”, comme on peut le lire dans l’ouvrage d’Apolline Guillot, Miguel Benasayag et Gilles Dowek intitulé L’IA est-elle une chance ?

Anissa Hamza-Jamann, Université de Lorraine


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, Le Caravage, Saint-Jérôme écrivant (1606) © Galerie Borghese (Rome) ; © Shutterstock | N.B. Jérôme est le Patron des traducteurs.


Plus de presse en Wallonie…

Les systèmes d’IA ne savent pas expliquer leurs décisions. Voici les pistes de recherche vers ‘l’explicabilité’

Temps de lecture : 6 minutes >

[THECONVERSATION.COM, 5 décembre 2024] L’utilisation d’intelligences artificielles, dans certains cas, génère des risques de discriminations accrues ou encore de perte de confidentialité ; à tel point que l’Union européenne tente de réguler les usages de l’IA à travers différents niveaux de risques. Ceci pose d’autant plus question que la plupart des systèmes d’IA aujourd’hui ne sont pas en mesure de fournir des explications étayant leurs conclusions. Le domaine de l’IA explicable est en plein essor.

À l’hôpital, des systèmes d’intelligence artificielle (IA) peuvent aider les médecins en analysant les images médicales ou en prédisant les résultats pour les patients sur la base de données historiques. Lors d’un recrutement, des algorithmes peuvent être utilisés pour trier les CV, classer les candidats et même mener les premiers entretiens. Sur Netflix, un algorithme de recommandation prédit les films que vous êtes susceptible d’apprécier en fonction de vos habitudes de visionnage. Même lorsque vous conduisez, des algorithmes prédictifs sont à l’œuvre dans des applications de navigation telles que Waze et Google Maps pour optimiser les itinéraires et prédire les schémas de circulation qui devraient assurer un déplacement plus rapide.

Au bureau, ChatGPT, GitHub Copilot et d’autres outils alimentés par l’IA permettent de rédiger des courriels, d’écrire des codes et d’automatiser des tâches répétitives ; des études suggèrent que jusqu’à 30 % des heures travaillées pourraient être automatisées par l’IA d’ici à 2030.

Ces systèmes d’IA sont très variés, mais ils ont un point commun : leur fonctionnement interne et leurs résultats sont difficiles à expliquer… pas seulement pour le grand public, mais aussi pour les experts. Ce manque d’explicabilité limite le déploiement des systèmes d’IA en pratique. Pour résoudre ce problème et s’aligner sur les exigences réglementaires croissantes, un domaine de recherche connu sous le nom d’IA explicable (ou explicabilité) a vu le jour.

IA, apprentissage automatique… des noms qui recouvrent des systèmes variés

Avec la médiatisation généralisée de l’intelligence artificielle et son déploiement rapide, il est facile de se perdre. En particulier, de nombreux termes circulent pour désigner différentes techniques d’IA, sans que l’on sache forcément bien ce que chacun recouvre, par exemple “apprentissage automatique”, “apprentissage profond” et “grands modèles de langage”, pour n’en citer que quelques-uns.

En termes simples, l’IA fait référence au développement de systèmes informatiques qui effectuent des tâches nécessitant une intelligence humaine, telles que la résolution de problèmes, la prise de décision et la compréhension du langage. Elle englobe divers sous-domaines tels que la robotique, la vision par ordinateur et la compréhension du langage naturel.

Un sous-ensemble important de l’IA est l’apprentissage automatique, qui permet aux ordinateurs d’apprendre à partir de données au lieu d’être explicitement programmés pour chaque tâche. Pour simplifier, la machine observe des schémas dans les données et les utilise pour faire des prédictions ou prendre des décisions. Dans le cas d’un filtre antispam par exemple, le système est entraîné à partir de milliers d’exemples de courriers électroniques indésirables et non indésirables. Au fil du temps, il apprend des éléments – des mots, des phrases ou des détails sur l’expéditeur – qui sont courants dans les spams.

Différentes expressions sont utilisées pour désigner un large éventail de systèmes d’IA © Elsa Couderc, CC BY

L’apprentissage profond est lui-même un sous-ensemble de l’apprentissage automatique et utilise des réseaux de neurones complexes composés de plusieurs couches afin de repérer et d’apprendre des motifs récurrents encore plus sophistiqués. L’apprentissage profond s’avère d’une valeur exceptionnelle pour travailler avec des données textuelles ou des images, et constitue la technologie de base de divers outils de reconnaissance d’images ou de grands modèles de langage tels que ChatGPT.

Réglementer l’IA

Les exemples du début de cet article montrent la grande variété d’applications possibles de l’IA dans différents secteurs. Plusieurs de ces applications, par exemple la suggestion de films sur Netflix, semblent relativement peu risquées, tandis que d’autres, comme le recrutement, l’évaluation d’éligibilité à un crédit bancaire ou le diagnostic médical, peuvent avoir un impact important sur la vie d’une personne. Il est donc essentiel que ces applications soient conformes à des critères éthiques partagés.

C’est à cause de ce besoin d’encadrement que l’Union européenne a proposé son AI Act. Ce cadre réglementaire classe les applications de l’IA en quatre niveaux de risque différents en fonction de leur impact potentiel sur la société et les individus : inacceptable, élevé, limité, et minimal. Chaque niveau mène à différents degrés de réglementation et d’exigences.

Ainsi, les systèmes d’IA à “risque inacceptable”, tels que les systèmes utilisés pour le score social ou la police prédictive, sont interdits en Union européenne, car ils représentent des menaces importantes pour les droits de l’homme.

Les systèmes d’IA à “haut risque” sont autorisés, mais ils sont soumis à la réglementation la plus stricte, car ils sont susceptibles de causer des dommages importants en cas d’échec ou d’utilisation abusive, par exemple dans les secteurs sensibles que sont l’application de la loi et le maintien de l’ordre, le recrutement et l’éducation.

Les systèmes d’IA à “risque limité” comportent un certain risque de manipulation ou de tromperie, par exemple les chatbots ou les systèmes de reconnaissance des émotions, dans lesquels il est primordial que les humains soient informés de leur interaction avec le système d’IA.

Les systèmes d’IA à “risque minimal” contiennent tous les autres systèmes d’IA, tels que les filtres antispam, qui peuvent être déployés sans restrictions supplémentaires.

Le besoin d’explications, ou comment sortir l’IA de la “boîte noire”

De nombreux consommateurs ne sont plus disposés à accepter que les entreprises imputent leurs décisions à des algorithmes à boîte noire. Prenons l’exemple de l’incident Apple Card, où un homme s’est vu accorder une limite de crédit nettement plus élevée que celle de sa femme, en dépit du fait qu’ils partageaient les mêmes biens. Cet incident a suscité l’indignation du public, car Apple n’a pas été en mesure d’expliquer le raisonnement qui sous-tend la décision de son algorithme. Cet exemple met en évidence le besoin croissant d’expliquer les décisions prises par l’IA, non seulement pour garantir la satisfaction des clients et utilisateurs, mais aussi pour éviter une perception négative de la part du public.

De plus, pour les systèmes d’IA à haut risque, l’article 86 de la loi sur l’IA établit le droit de demander une explication des décisions prises par les systèmes d’IA, ce qui constitue une étape importante pour garantir la transparence des algorithmes.

Au-delà de la conformité légale, les systèmes d’IA “transparents” présentent plusieurs avantages, tant pour les propriétaires de modèles que pour les personnes concernées par les décisions.

Une IA transparente

Tout d’abord, la transparence renforce la confiance (comme dans l’affaire de l’Apple Card) : lorsque les utilisateurs comprennent le fonctionnement d’un système d’IA, ils sont plus susceptibles de l’utiliser.

Deuxièmement, la transparence contribue à éviter les résultats biaisés, en permettant aux régulateurs de vérifier si un modèle favorise injustement des groupes spécifiques.

Enfin, la transparence permet l’amélioration continue des systèmes d’IA en révélant les erreurs ou les effets récurrents inattendus.

Globalement, il existe deux approches pour rendre les systèmes d’IA plus transparents.

Tout d’abord, on peut utiliser des modèles d’IA simples, comme les arbres de décision ou les modèles linéaires pour faire des prédictions. Ces modèles sont faciles à comprendre car leur processus de décision est simple.

Par exemple, un modèle de régression linéaire peut être utilisé pour prédire les prix des maisons en fonction de caractéristiques telles que le nombre de chambres, la superficie et l’emplacement. La simplicité réside dans le fait que chaque caractéristique est affectée d’un poids et que la prédiction est simplement la somme de ces caractéristiques pondérées : on distingue clairement comment chaque caractéristique contribue à la prédiction finale du prix du logement.

Cependant, à mesure que les données deviennent plus complexes, ces modèles simples peuvent ne plus être suffisamment performants.

C’est pourquoi les développeurs se tournent souvent vers des “systèmes boîte noire” plus avancés, comme les réseaux de neurones profonds, qui peuvent traiter des données plus importantes et plus complexes, mais qui sont difficiles à interpréter. Par exemple, un réseau de neurones profond comportant des millions de paramètres peut atteindre des performances très élevées, mais la manière dont il prend ses décisions n’est pas compréhensible pour l’homme, car son processus de prise de décision est trop vaste et trop complexe.

L’IA explicable

Une autre option consiste à utiliser ces puissants modèles malgré leur effet de “boîte noire” en conjonction avec un algorithme d’explication distinct. Cette approche, connue sous le nom d’”IA explicable”, permet de bénéficier de la puissance des modèles complexes tout en offrant un certain niveau de transparence.

Une méthode bien connue pour cela est l’explication contre-factuelle, qui consiste à expliquer la décision atteinte par un modèle en identifiant les changements minimaux des caractéristiques d’entrée qui conduiraient à une décision différente.

Par exemple, si un système d’IA refuse un prêt à quelqu’un, une explication contre-factuel pourrait informer le demandeur : “Si votre revenu annuel avait été supérieur de 5 000 euros, votre prêt aurait été approuvé“. Cela rend la décision plus compréhensible, tout en conservant un modèle d’apprentissage automatique complexe et performant. L’inconvénient est que ces explications sont des approximations, ce qui signifie qu’il peut y avoir plusieurs façons d’expliquer la même décision.

Vers des usages positifs et équitables

À mesure que les systèmes d’IA deviennent de plus en plus complexes, leur potentiel de transformer la société s’accroît, tout comme leur capacité à commettre des erreurs. Pour que les systèmes d’IA soient réellement efficaces et fiables, les utilisateurs doivent pouvoir comprendre comment ces modèles prennent leurs décisions.

La transparence n’est pas seulement une question de confiance, elle est aussi cruciale pour détecter les erreurs et garantir l’équité. Par exemple, dans le cas des voitures autonomes, une IA explicable peut aider les ingénieurs à comprendre pourquoi la voiture a mal interprété un panneau d’arrêt ou n’a pas reconnu un piéton. De même, en matière d’embauche, comprendre comment un système d’IA classe les candidats peut aider les employeurs à éviter les sélections biaisées et à promouvoir la diversité.

En nous concentrant sur des systèmes d’IA transparents et éthiques, nous pouvons faire en sorte que la technologie serve les individus et la société de manière positive et équitable.

David Martens & Sofie Goethals, Université d’Anvers


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © la.blogs.nvidia.com ; © Elsa Couderc, CC BY.


Plus de dispositifs en Wallonie…