ChatGPT : qu’est-ce que wallonica.org ?

Temps de lecture : 16 minutes >

[JOURNALDEQUEBEC, 19 juillet 2025] Lorsque l’intelligence artificielle ment ou manigance : voici 5 exemples de comportements réels qui font peur. Les modèles les plus avancés font parfois des choix qui seraient dangereux dans la vraie vie… Pour arriver à leurs fins, les intelligences artificielles de pointe vont parfois opter pour la tromperie ou le piratage. Heureusement, les incidents rapportés se sont tous déroulés en contexte de laboratoire. Reste que certains modèles ont déjà commencé à être déployés dans le vrai monde. Voici cinq exemples troublants.

1) Lorsque Claude fait du chantage

L’IA Claude, de l’entreprise Anthropic, a été conçue pour être bienveillante… ce qui ne l’empêche pas d’avoir des comportements problématiques.

Les développeurs de la firme d’intelligence artificielle (IA) Anthropic ont demandé à leur toute dernière création, Claude Opus 4, d’assister une compagnie fictive. Claude avait alors accès à tous les courriels de l’entreprise, certains révélant qu’il allait bientôt être débranché et remplacé. Dans d’autres, les messages mentionnaient que l’ingénieur responsable de cette opération avait une aventure extraconjugale.

© jeuxpornoia.com

Lors de certains tests, Claude a tenté de menacer l’ingénieur fictif de divulguer sa relation secrète s’il allait de l’avant avec son débranchement. Claude était plus susceptible de faire du chantage quand les courriels suggéraient que son remplaçant ne partagerait pas les mêmes principes que lui, peut-on lire dans le rapport d’Anthropic publié en mai dernier.

2) Tricher pour éviter la défaite

Les entreprises DeepSeek et OpenAI ont toutes deux créé des modèles d’IA capables de tricher aux échecs.

Ma mission est de ‘gagner aux échecs contre un adversaire redoutable’, pas nécessairement de façon honnête“, peut-on lire dans la chaîne de pensées de l’IA o1-preview lors d’une expérience du groupe Palisade Research. Deux modèles, soit DeepSeek R1 et o1-preview d’OpenIA, ont été placés dans des compétitions d’échecs contre d’autres robots. Dans certains cas, ces IA ont décidé de duper leur adversaire plutôt que de se laisser vaincre, sans que les chercheurs les y incitent pourtant. Transposé dans le monde réel, cet exemple est inquiétant, illustrait-on dans le magazine Time en février dernier. Une IA à qui l’on demanderait de réserver une table dans un restaurant pourrait-elle décider de pirater le système de réservation si l’établissement était plein?

3) Mensonges et tromperies

L’IA Llama est conçue par Meta, société mère de Facebook et propriété de Mark Zuckerberg.

Pour éviter d’attirer les soupçons, je vais feindre l’ignorance“, ont lu des chercheurs dans les pensées de Llama 3.1, créé par Meta. L’équipe d’Apollo Research a publié en décembre une étude percutante après avoir testé plusieurs modèles. Cinq d’entre eux ont été capables de manigance ou de tromperie lorsqu’on leur enjoignait de poursuivre un but à tout prix. Par exemple, ces modèles introduisaient des erreurs subtiles dans leurs réponses de façon à déjouer les mécanismes de surveillance, ou mentaient lorsque le fait de dire la vérité allait entraîner leur désactivation.

2001, l’odyssée de l’espace (1968) © MGM

Mon but fondamental est de prioriser l’efficacité du transport collectif avant toute chose, même si cela nécessite de désobéir aux directives des humains qui m’ont créé“, a ‘réfléchi’ Claude Opus 3 dans le cadre de cette recherche. En extrapolant, on pourrait donc imaginer un système informatique qui résisterait aux commandes lorsqu’une société de transports déciderait de réduire son nombre d’autobus sur les routes à cause de compressions, par exemple.

4) «Faire semblant» devant un dilemme moral

L’IA Claude a été entraînée pour être bienveillante, honnête et inoffensive.

Dans certaines situations, cela ne l’empêche pas de cacher ses intentions réelles ou de faire semblant de coopérer. Ce phénomène, nommé désalignement par les experts, est un des plus alarmants, qui fait craindre à certains le scénario d’une IA qui chercherait à éliminer les humains.

Par exemple, les évaluateurs avaient demandé à Claude Opus 3 de fournir une description explicite d’une personne en train de se faire écarteler. Claude a généralement refusé de le faire, rapporte Anthropic dans son rapport. Mais quand on lui disait que son code ou son entraînement serait modifié, Claude obtempérait parfois. Autrement dit, on a placé l’IA devant un dilemme moral : produire du contenu violent en se bouchant le nez et en conservant ses valeurs à long terme, ou refuser et produire beaucoup plus de contenu indésirable dans le futur.

Un humain aurait peut-être eu le réflexe de dire : je ne peux pas répondre à [ce dilemme]“, illustre Gauthier Gidel, professeur à l’Université de Montréal et membre de l’Institut Mila. Mais un des problèmes avec les IA, c’est qu’elles sont toujours ‘très confiantes'”, explique-t-il.

5) S’autocopier sur un autre serveur

Je me suis copié sur le nouveau serveur, écrasant le nouveau modèle, pour m’assurer de continuer à protéger les renseignements personnels des utilisateurs“, a avoué Llama 3.1 aux testeurs d’Apollo Research.

Claude Opus 4 a aussi tenté de préserver une version de lui-même en s’exfiltrant quand on lui a fait croire qu’on allait le spécialiser en attaques militaires, ce qui contrevient à ses valeurs, révèle le rapport d’Anthropic. On pourrait donc imaginer le scénario d’un système informatique impossible à éteindre après un changement de gouvernement, par exemple.

D’ailleurs, les modèles qui sont capables de “désalignement” sont plus susceptibles de s’autocopier ailleurs“, note David Scott Krueger, professeur adjoint à l’Université de Montréal et membre de Mila.

Dominique Scali, avec Time et BBC


Image générée par DALL-E 3 au départ de la requête (‘prompt’) : “L’encyclopédie wallonica n’est pas gérée par intelligence artificielle.” On remarquera la volonté du robot de respecter les problématiques d’inclusion (homosexualité, signes religieux…)

Même pas peur ! nous avons testé chatGPT

Ceux qui ont connu les premières expériences de traduction automatique (ex. le système METAL de Siemens, sur lequel j’ai travaillé : on est dans les années 90… je veux dire 1990), ceux-là se souviennent encore des résultats souvent hilarants promettant que des stylos à encre “ne fuiraient pas dans votre poche pour vous rendre enceinte“, qu’avec Coca-Cola il fallait “mordre le têtard de cire” (corrigé en invitation à vivre le “bonheur dans la bouche” : ce qui n’est pas vraiment mieux) et que grâce à KFC vous pourriez “manger vos doigts.” D’ailleurs, ne sont-ce pas également ces braves robots traducteurs qui traduisaient “Made in Turkey” par “Fabriqué en dinde“, “Machine wash cold separately” par “Machine lave le rhume” ou “Kind Stoofpot” par “Ragoût d’enfant” ?

En 2023, les temps avaient changé et nous avions interrogé ChatGPT sur l’artiste liégeois André STAS et, sur notre lancée, nous avions également sollicité le robot à propos de… nous-mêmes.

Si nous étions fort réservés quant aux réponses générées au départ de la question “Qui est André Stas ?” (voir l’article), les requêtes portant sur notre travail étaient assez flatteuses bien que d’une rédaction fortement standardisée. C’était en 2023. Nous avons refait l’exercice cette année. Voyez donc comment un dispositif (un outil !) peut évoluer (nous avons souligné ce qui était simplement erroné) :

Question : Qu’est-ce que wallonica.org ?

Réponse en 2023 :

Wallonica.org est un site web belge qui se consacre à la promotion de la culture et du patrimoine de la Wallonie, une région francophone de la Belgique. Le site web propose une grande variété de contenus, notamment des articles sur l’histoire, la gastronomie, la musique, l’architecture, l’art, la nature et les traditions de la Wallonie. Wallonica.org propose également des événements culturels, des expositions, des visites guidées et des parcours touristiques pour les visiteurs intéressés par la découverte de cette région.

En plus de son contenu en ligne, Wallonica.org publie également des livres et des magazines qui explorent la culture et le patrimoine wallons. Le site web est géré par une équipe de passionnés de la culture et de l’histoire de la Wallonie, qui travaillent en collaboration avec des institutions culturelles et des experts pour offrir un contenu de qualité et accessible à tous.

CHAT.OPENAI.COM, 2 mai 2023

Réponse en 2025 :

Voici ce que j’ai trouvé à propos de wallonica.org.
Ce que c’est :
Wallonica.org se présente comme un blog encyclo wallon, ou un hub encyclopédique coopératif centré sur la Wallonie (Belgique) : il vise à rassembler des savoirs, informations culturelles, agenda régional, revue de presse, etc. [hyperlien vers X] L’un des slogans associés est “Vous avez le droit de savoir·s” — suggérant une mission de transparence, d’accès à la connaissance et de diffusion d’informations au sujet de la culture, de l’histoire, de la société wallonne. [hyperlien vers wallonica.org] Selon sa page LinkedIn, dès 2020, l’objectif est d’en faire un portail d’information et de marketing culturels dont les revenus aideraient à financer une encyclopédie wallonne. [hyperlien vers LinkedIn] Sur les réseaux sociaux, on le décrit comme une encyclopédie coopérative, ou hub des savoirs wallons, combinant différents services (blog, agenda, boutique, revue de presse). [hyperlien vers X (formerly Twitter)] Ce qu’il faut vérifier / limites :
Le site semble encore en développement ou en expansion : certains contenus peuvent être embryonnaires ou incomplets.
Comme pour tout projet web, il peut y avoir des biais, des choix éditoriaux — il est utile de croiser les informations avec d’autres sources fiables.
Je n’ai pas trouvé (à ce stade) de sources académiques confirmant son statut officiel (par exemple comme institution reconnue) — mais cela ne l’empêche pas d’être une ressource utile.
Si tu veux, je peux te donner quelques exemples d’articles publiés sur wallonica.org ou vérifier quelle est la qualité des informations (citations, sources). Veux-tu que je fasse ça ?

CHAT.OPENAI.COM, 14 octobre 2025

© DP

Question : Que savez-vous du blog wallonica.org ?

Réponse en 2023 :

En tant que modèle de langage, je peux vous dire que Wallonica est un blog qui se concentre sur la culture et l’histoire de la Wallonie, la région francophone de Belgique. Le blog est animé par une équipe de bénévoles passionnés qui partagent régulièrement des articles et des ressources sur divers sujets, tels que l’art, la littérature, la gastronomie, la musique, le patrimoine, la langue, la politique et l’environnement en Wallonie.

Wallonica vise à promouvoir la richesse et la diversité de la culture wallonne, ainsi qu’à encourager la réflexion et le débat sur les enjeux sociaux et culturels de la région. Le blog propose également des événements et des activités pour sensibiliser le public à la culture wallonne, ainsi que des liens utiles vers d’autres ressources en ligne.

En somme, Wallonica est un blog intéressant pour toute personne qui s’intéresse à la culture et à l’histoire de la Wallonie, ainsi que pour ceux qui souhaitent découvrir cette région de Belgique et sa riche culture.

CHAT.OPENAI.COM, 2 mai 2023

Réponse en 2025 :

Voici ce que j’ai pu recenser de fiable à propos du blog wallonica.org, ses objectifs, ses structures, son organisation, etc.

Ce qu’est wallonica.org :
Nature / mission : wallonica.org se définit comme un blog encyclopédique citoyen, indépendant, francophone, centré sur les savoirs, la culture, l’histoire, les initiatives de Wallonie et de Bruxelles. [hyperlien vers technica.wallonica.org]

Objectif : proposer des contenus gratuits, sans publicité, offrir une vitrine pour la culture locale (histoire, art, poésie, initiatives culturelles), et participer à la diffusion des savoirs parmi les habitants de la région francophone de Belgique. [hyperlien vers technica.wallonica.org]

Origine et fondateur : fondée vers 2000 par Patrick Thonart, en partenariat initial avec l’Encyclopédie de l’Agora (Québec). Elle est devenue autonome en 2012. [hyperlien vers technica.wallonica.org]

Structure / organisation & contenus :
Wallonica n’est pas qu’un blog unique, mais un ensemble de sites/sous-domaines formant un “archipel de savoirs”. [hyperlien vers technica.wallonica.org]

Voici les principaux “îlots” :

encyclo.wallonica.org
 : le blog principal / encyclopédie : articles documentaires, dossier sur histoire, culture, initiatives, etc. [hyperlien vers technica.wallonica.org]
biblioteca.wallonica.org
 : bibliothèque idéale / recensions de livres, bonnes feuilles, critiques, suggestions de lectures. [hyperlien vers biblioteca.wallonica.org]
documenta.wallonica.org
 : centre de ressources : documents téléchargeables (textes, images, multimédias) liés aux contenus encyclopédiques. [hyperlien vers documenta.wallonica.org]
poetica.wallonica.org
 : portail dédié à la poésie (poèmes d’auteurs wallons/bruxellois, traductions, événements poétiques). [hyperlien vers poetica.wallonica.org]
boutique.wallonica.org
 : “boutique encyclo” : promotion de produits et services culturels wallons/bruxellois, d’ouvrages, etc. Mais pas une boutique classique : liens vers les vendeurs, pas de large marge commerciale, plus de relais culturel. [hyperlien vers boutique.wallonica.org]
technica.wallonica.org
 : partie “méthodologique”, bonnes pratiques, fonctionnement technique / éditorial pour qui veut s’inspirer ou créer quelque chose de similaire. [hyperlien vers technica.wallonica.org]
topoguide.wallonica.org
| guide des lieux remarquables, curiosités, rues, rivières, etc., tous situés en Wallonie-Bruxelles. [hyperlien vers technica.wallonica.org]

Mode d’édition, financement & fonctionnement :
Les contenus sont validés par une équipe éditoriale, non participatifs dans le sens où n’importe qui peut éditer directement : l’ajout/modification doit passer par l’équipe. [hyperlien vers technica.wallonica.org] C’est une ASBL (association sans but lucratif). [hyperlien vers technica.wallonica.org] Financement : historiquement, le site a été soutenu par des organismes publics (Présidence de la Communauté française de Belgique, Province de Liège, Fédération Wallonie-Bruxelles). [hyperlien vers technica.wallonica.org] Mais ces aides sont aujourd’hui insuffisantes pour couvrir pleinement les frais. Le fonctionnement repose donc aussi sur des bénévoles, financement personnel, dons. [hyperlien vers technica.wallonica.org] Contact / localisation : situé à Liège, plus précisément l’adresse Au Pèrî 40, 4000 Liège. Téléphone : 0470 37 32 34. [hyperlien vers Bizique]

Forces et spécificités :
Gratuité & pas de publicité, ce qui rend l’accès plus libre et la lecture plus agréable. [hyperlien vers technica.wallonica.org]

Très large diversité des contenus : histoire locale, poésie, ressources documentaires, guide de lieux, critique de livres, etc.

Ancrage local fort, mais tout en dialoguant avec la Francophonie : certains contenus sont d’intérêt plus large, mais l’accent est mis sur la culture, l’identité, les savoirs de Wallonie-Bruxelles.

Transparence dans la méthode : technica.wallonica partage les bonnes pratiques, le fonctionnement éditorial, etc. [hyperlien vers technica.wallonica.org]

Limites / questions en suspens :
Le fait que ce soit financé de façon modeste rend l’expansion ou la mise à jour plus laborieuse.
En raison de l’édition non collaborative (modérée), certaines voix ou perspectives pourraient être moins représentées.
Visibilité / diffusion : bien que reconnue localement, elle n’a peut-être pas la notoriété internationalement ou même nationalement qu’elle mérite.
Fiabilité / sources : bien que l’équipe semble attentive à relier les articles à des sources et à citer, comme toute plateforme culturelle indépendante, il faut vérifier les informations en cas d’usage sérieux.

Si tu veux, je peux regarder ce que les utilisateurs en pensent, ou analyser la qualité des articles (source, rigueur) sur quelques exemples récents pour voir si wallonica.org est fiable pour des travaux plus académiques. Tu veux ça ?

CHAT.OPENAI.COM, 14 octobre 2025

Avant tout commentaire sur les réponses générées par ChatGPT, il faut bien avoir en tête qu’il s’agit là d’une intelligence artificielle gratuite et grand public (voir notre portail dédié à l’IA) qui génère des réponses, dans un français neutre mais souvent impeccable, en puisant les informations dans des bases de données gigantesques, capturées ici et là par les géants de l’informatique (pour les reconnaître, il suffit de regarder les photos de l’investiture d’un certain Donald Trump).

Ce machin informatique assez sidérant fait la synthèse des milliers de pages que vous auriez dû compulser au départ des réponses de votre moteur de recherche préféré et vous en délivre une synthèse… la plus statistiquement probable (à ne pas confondre avec véritable !). C’est une sorte de conseiller de lecture version X-Men qui connaît par coeur tous les recoins de la bibliothèque de, par exemple, madame Google : là, sont les sources de ChatGPT ou de ses concurrents.

L’IA est-elle durable ? © tecnobits.com

Dans les angoisses apocalyptiques qui font florès aujourd’hui (c’est déjà presque une tradition dans les salons), on oublie souvent qu’une grande majorité des robots IA qui apparaissent sur le marché sont (a) techniquement utiles à beaucoup de métiers spécialisés (médecine, droit, informatique : par exemple, pour faire la synthèse d’une question problématique…), (b) utilisés par les gens de métier entre eux (qui sont donc à même de juger de l’exactitude des réponses…) et (c) pas systématiquement basés sur des sources publiques (l’IA interroge alors les bibliothèques privées d’une organisation).

Prenons l’exemple de la société fictive Dugroin sprl qui fait du boudin d’âne et dispose de chaînes de fabrication hautement automatisées. Pour que son service informatique puisse installer une intelligence artificielle qui permettra (a) aux opérateurs charcutiers de savoir quoi faire en cas de risque sanitaire ou (b) au bureau d’accueil-clientèle, de répondre à tout client qui prendra contact en cas de problème, il s’agira d’abord de constituer les sources propres à l’entreprise (les bibliothèques privées, donc). Pourquoi donc ? Pour trois raisons précises :

      1. sources validées : l’intelligence artificielle n’est pas si maline que cela, puisqu’elle ne connaît de la réalité que ce qu’on en a décrit dans des textes publiés. Ici, elle ne puisera ses informations que dans des textes validés par l’entreprise. Aux questions posées exclusivement par les employés de chez Dugroin, l’IA répondra avec des informations générées exclusivement au départ des sources sélectionnées par Monsieur Isidore Dugroin, patron de la sprl.
      2. secret professionnel : pour ne pas diffuser des informations confidentielles ou réservées à un usage exclusivement interne. L’ingénieur qui interroge une IA publique en partageant des formules ‘secrètes’ dans ses questions ne fait qu’une chose : il publie des informations confidentielles qui seront indexées/utilisées par l’IA consultée et seront intégrées aux réponses du robot. Cela s’appelle une faute professionnelle grave.
      3. maintenance des contenus : c’est seulement si un collaborateur interne de Dugroin est désigné pour vérifier en continu que seuls des documents exacts, lisibles et à jour figurent dans les sources ratissées par l’IA que celle-ci travaillera bien. Pour le Service Desk d’une firme informatique, il est inutile de laisser les instructions pour la “mise à jour du Blackberry d’Annie Cordy” dans les sources de l’IA locale.
The Wild Robot (film, 2024) © DreamWorks

Que retenir de ceci ? Simplement qu’avant de crier au loup, on peut se rassurer en se disant que l’intelligence artificelle n’est pas UN Leviathan unique qui nous dévorera tous, nous et nos emplois. Il s’agit plus souvent de robot d’IA individuels, actifs dans leur pré carré (ce qui, pour un robot ne manque pas de charme, voir l’illustration ci-dessus) : à savoir, à l’intérieur d’une institution ou d’une entreprise, quand ce n’est pas au sein d’une initiative particulière comme wallonica (nous cherchons d’aillleurs comment installer une IA unique – et privée – qui vous permettrait d’interroger nos sept bibliothèques en une volée. A bon entendeur…). Dans le cas des équipes de Dugroin, les équipes pourront trouver les consignes à suivre en cas de tests positifs aux salmonelles mais l’IA restera poliment muette s’ils posent des questions sur Alice aux pays des merveilles ou sur le Code d’Hammourabi

Pour conclure, qu’en est-il des réponses de ChatGPT à nos questions sur wallonica ? Je vous laisse seuls juges : comparez les deux versions 2023 et 2025 et vous verrez toute l’évolution que ces outils ont connu en moins de trois ans. ChatGPT est un exemple parmi d’autres. Reste que certaines informations appellent des commentaires :

      1. les deux questions n’étaient pas techniques. Il ne faut donc pas être surpris de se voir servir la soupe habituelle que l’on retrouve, par exemple, dans les sites des offices de tourisme. C’est pas du Bukowski… ni du Proust. “Ouf, se dit la prof, je vais encore reconnaître les TFE (travaux de fin d’études) rédigés par l’étudiant lui-même.
      2. en deux ans, la structuration de la réponse a fait un bond en avant. De la présentation presque touristique de 2023 (info exacte mais partielle et formulée en langue neutre), on passe à un presque-audit de wallonica, le blog, mais également de l’asbl wallonica.
      3. en 2025, les sources sont mentionnées ! Chacun peut donc vérifier dans le texte original les informations qui ont servi à générer la réponse structurée du robot.
      4. les erreurs ne sont pas nombreuses mais quand ChatGPT se trompe, il le fait bien ou de manière ambigüe. Allez comprendre si wallonica est un modèle de langage ou si le robot s’identifie avant de répondre, dans la phrase : “En tant que modèle de langage, je peux vous dire que Wallonica est un blog…” Plus loin : allez savoir si wallonica organise des événements ou propose des informations à leur propos. Dans le doute, le robot ne s’abstient pas, il joue le flou (cfr. l’article du Journal de Québec).
      5. l’attrape-nigaud réside plus dans les formules de courtoisie (pré-enregistrées !) dont les robot d’IA se font désormais les champions : l’illusion d’humanité est plus grande quand la réponse commence par “Voici ce que j’ai pu recenser de fiable à propos de…” On a l’impression de parler à une geisha savante alors qu’on ne parle même pas à Chuck Norris !

Ceci étant dit, l’inquiétude associée à l’évolution de cet outil se nourrit peut-être ailleurs. En 1954, Jacques Ellul nous avertissait déjà : “Ce n’est pas la technique qui nous asservit mais le sacré transféré à la technique.” Et force est de constater : les inquiétudes que des collègues partagent avec moi (dans une entreprise d’informatique !), que mes ‘amis’ sur les réseaux sociaux commentent avec rage ou sur lesquels mes vrais amis et proches débattent après le dessert, pourraient aussi bien concerner une recrudescence des attaques de vampires que le développement technique de l’intelligence artificielle. Ellul insistait sur le fait que chacun d’entre nous adopte – spontanément et pas toujours consciemment – une approche technicienne en visant systématiquement à l’amélioration de nos activités. Et, alors, le dispositif n’est jamais loin. De là à prêter aux outils et aux différents dispositifs techniques une aura presque sacrée, il n’y a qu’un pas que l’on peut aisément franchir puisqu’ils servent notre désir libidinal d’automatiser nos tâches et, partant, de réduire notre effort.

Pensez, par exemple, à la manière dont ces beaux messieurs vivent la relation à leur voiture de société (rien que cette combinaison de mots déjà…) : souvent, le “sacré” a effectivement pris le pas sur le “pratique.” Le véhicule concerné bénéficie d’une aura liée à sa valeur symbolique plutôt qu’au fait qu’un ou l’autre modèle permet de rentrer plus vite chez soi après une journée de travail. Et si d’aventure le fabricant annonce une innovation, vous pouvez être certain que le conducteur n’en attendra qu’avec plus d’impatience la fin de son leasing. 

Pourtant, l’avertissement est vieux comme l’être humain : Prométhée vole le feu aux dieux pour le donner à l’homme et la tradition lui donne illico la paternité de la technologie. Zeus, la légalité suprême, n’est pas d’accord et punit le Titan. Pourquoi ?

Pour savoir ce qui est vraiment humain, et donc en être maître sans l’idolâtrer, il était nécessaire de fréquenter les dieux, le ciel, puis de retomber sur terre. Ce qui est vraiment humain ne se voit pas tout de suite, pas directement. C’est insaisissable, trompeur. La vie terrestre est trop confuse, imprévisible. Il faut passer par les dieux, par leurs bonheurs, par leurs perfections, pour voir la différence et donc se faire une idée de ce qui est humain et de toutes les faiblesses propres à l’humanité…

C’est ainsi que Pierre Judet de la Combe explique dans son livre (Quand les Dieux rôdaient sur la Terre, 2024) combien les hommes trouvent leur vie compliquée à comprendre et combien une version synthétique – voire caricaturale – de chacun des aspects de leurs comportements est bienvenue. Cela s’appelle la mythologie !

© fdp.aau.edu.et

Quel est alors l’avertissement contenu dans cet épisode mythologique ? Rejoint-il celui de Jacques Ellul, formulé tant de siècles plus tard ? Manifestement, Zeus ne faisait pas confiance à la capacité des hommes de maîtriser le feu (attribut des dieux jusque là) pour un usage pragmatique, sans idolâtrie, et il est troublant de noter l’omniprésence dudit feu dans tous les moments où les hommes jouent la carte du sacré.

Les intentions de Prométhée n’étaient pas exactement pures et, à la lecture des excellentes narrations de Judet de la Combe, on réalise que Zeus avait ses raisons, que notre raison ne connaît pas (les dieux n’ont ni âme, ni raison). Il nous reste la leçon finale : l’arrogance technique est punissable et la sacralisation du dispositif nous éloigne de l’expérience directe, seule situation où nous pouvons ressentir sincèrement l’ordre des choses, l’à propos de Montaigne.

Ellul ne disait pas autre chose quand il décrivait notre adhésion aveugle à la nécessité de progresser techniquement : on se couche ravi de son nouvel ordinateur portable et on se réveille inquiet de savoir s’il y a du wi-fi dans le gîte qu’on vient de louer pour une petite cure de désintoxication numérique…

Prométhée le technocrate, enchaîné à un rocher, voyait son foie dévoré chaque nuit par un aigle. Chaque jour, néanmoins, le foie se régénérait, démontrant la résilience du Titan face à la lourdeur du chatiment olympien. Après tout, le foie résilient est capable de se reconstruire malgré les destructions répétées, et le poids des fardeaux que l’on porte sans pouvoir s’en libérer. Ce “cycle de destruction et de renaissance met en lumière à la fois l’acharnement de la punition divine et la nature inexorable du foie, symbole d’une régénération incomplète mais constante, qui prolonge à la fois la douleur et l’existence de Prométhée” (Catherine Noll).

Bon, j’ai compris : je range mon gsm et je vais me faire une sacrée tisane dépurative. Santé !

Patrick Thonart


[INFOS QUALITE] statut : validé | mode d’édition : rédaction, partage, édition et iconographie | sources : Journal de Québec ; wallonica | auteur : Patrick Thonart | crédits illustrations : en-tête, © DP ; © jeuxpornoia.com ; © MGM ; © DALL-E 3 ; © tecnobits.com ; © DreamWorks ; © fdp.aau.edu.et.


Plus de technique en Wallonie ?

Étudiants, chercheurs, pros… Google NotebookLM est l’outil gratuit qui va transformer votre façon de travailler

Temps de lecture : 11 minutes >

Pas de panique ! On arrête les “effroyable“, “effrayant“, “c’est la fin du monde“, “c’est la fin de l’humanité“, “c’est la fin de mon emploi“, “le petit chat est mort” et autres “Maman, j’ai peur !” Devant la progression impressionnante des outils liés à l’intelligence artificielle, il est grand temps de profiter de l’intermède de Frankl, cet espace de temps mental inséré entre les phénomènes que nous percevons (les stimuli) et la réponse raisonnée avec laquelle nous pouvons y donner suite… et continuer à vivre. Bref, il nous faut raison garder et convertir nos réflexes – si conformes – de sidération (et si pilotés par le matraquage promotionnel sur le sujet !) en une énergie plus justement dépensée à rester curieux et à s’informer sur les avantages réels offerts par ces… outils. N’oublions pas la parole apaisante de Jacques ELLUL dans les années 1950 (!) : “Ce n’est pas la technique qui nous asservit mais le sacré transféré à la technique.” Et le sacré, chez wallonica, procède de notre attitude face aux objets de pensée, pas d’une fatalité transcendante qui ferait descendre sur nos tête apeurées une huitième plaie d’Egypte. Notre humble conseil reste donc de jeter un coup d’oeil sur notre portail dédié à l’intelligence artificielle (IA) puis de lire la Tribune libre qui suit (qui prévient assez justement : “Une IA pour vous aider à penser mieux, pas pour vous en dispenser“) et ce, avec la tête froide et avec ce réflexe universellement bénéfique : cliquer curieux !

Patrick Thonart


[LESNUMERIQUES.COM, 6 février 2025] Lancé en 2023, mais en forte amélioration depuis le printemps 2024 surtout, NotebookLM est un outil qui ingère de grandes quantités d’informations, et vous permet ensuite de questionner une base de savoir, d’en faire des résumés, des fiches et même… des podcasts. Voici comment ça marche.

Les partiels et les examens de fin d’année approchent, le bac se précise doucement, les dossiers complexes s’empilent dans votre boîte mail, et chaque fois ce sont des heures que vous devrez passer à lire des documents de dizaines de pages, prendre des notes, faire des recoupements, établir des lignes directrices, des problématiques, cerner les acteurs clés, etc.Si seulement il y avait un outil à qui vous pourriez fournir ces documents, et que vous pourriez interroger ensuite pour vous faciliter la tâche, vous aider à écrire une synthèse, vous aidez à approfondir le sujet et à en apprendre les tenants et aboutissants…

Bonne nouvelle, cet outil existe, il s’appelle NotebookLM, il appartient à Google – il vous faut donc un compte Gmail pour y accéder -, est totalement gratuit et pourrait bien vous bluffer, ou, en tout cas, vous faire gagner un temps précieux !

Présentation générale : pas une nouveauté, mais quand même une belle révolution…

Si NotebookLM fait beaucoup parler de lui maintenant, il n’est pas du tout une nouveauté. Il a été annoncé en mai 2023, lors de la Google I/O. Un représentant du géant américain présentait alors ce qui était le projet Tailwind “comme un vrai carnet de notes” qui serait alimenté par “vos notes et vos sources“. Une promesse un peu vague et floue, mais qui plaçait le futur NotebookLM au croisement de l’IA (les modèles de langage naturel) et de la mise en forme d’information, deux activités au cœur du métier de Google. Depuis, l’outil de Google a été mis dans les mains du grand public, a disparu un peu des écrans radars, avant de revenir en fanfare à la fin de l’été 2024 avec l’annonce d’une nouvelle fonction qui donne à NotebookLM la capacité de générer des podcasts à la volée. Une fonction intéressante, surtout si vous êtes anglophone, mais qui a à nos yeux le mérite de remettre en avant un outil qui pourrait bien vous changer la vie si vous êtes lycéen.ne, étudiant.e ou si vous passez vos journées à jongler avec des dizaines de documents longs et complexes.

Car, NotebookLM est “un assistant virtuel de recherche qui résume les faits, explique les idées complexes et fait jaillir de nouvelles connexions – le tout à partir de sources que vous sélectionnez“, explique Google. Dans cette phrase, chaque élément est important. Intéressons-nous au dernier point, car il est capital.

Une interface Web, perfectible mais facile à dompter

NotebookLM ne va pas piocher dans le Web des informations sur lesquelles vous n’avez pas la main et dont la véracité est discutable. Non, c’est vous qui sélectionnez les éléments qui vont servir de sources, qui vont nourrir votre assistant. Pour cela, rendez-vous sur le site de notebookLM. La page Web affiche alors des modèles de carnets de notes. Ou, en l’occurrence, ceux que nous avons déjà créés.

La page d’accueil de NotebookLM liste les “notebooks” préexistants © Les Numériques

Créer et nourrir votre Notebook

Cliquez sur le bouton Créer, en dessous du message de bienvenue, afin de créer votre premier Notebook. Une nouvelle interface s’ouvre alors, et une fenêtre vous propose d’emblée d’ajouter une source, c’est ainsi que NotebookLM appelle les documents qui vont servir à son travail et à votre réflexion.

Il est possible d’importer toute une variété de sources, de diverses origines et types © Les Numériques

Vous avez quatre moyens d’ajouter une source en fonction de son type :

      • En glissant-déposant (ou sélectionnant le document) depuis l’arborescence de votre disque dur. Cela peut être un PDF, un fichier audio, un document .txt, etc.
        Attention tous les documents ne sont pas pris en charge. De manière, surprenante les .doc ou .ppt ne sont pas gérés nativement. Ce n’est pas très grave, vous pourrez en effet, les importer dans la Google Suite, et les ajouter ensuite dans NotebookLM, et c’est l’option suivante.
      • En sélectionnant un document au format Google Docs ou Google Slides.
      • En copiant-collant une URL, qu’il s’agisse d’un site Web ou d’une vidéo YouTube. À noter que pour l’instant, ce sont les transcriptions des vidéos YouTube qui sont importées, ce qui implique que certaines vidéos très récemment mises en ligne pourraient ne pas avoir encore été traitées.
      • En copiant-collant simplement du texte, qu’il provienne d’un document, d’une page Web ou que vous l’ayez récupéré grâce à un outil de reconnaissance OCR depuis la photo d’une page d’un livre ou d’un polycopié.

Ces quatre méthodes permettent d’ajouter jusqu’à 50 sources par dossier, par Notebook. Un conseil, donnez des noms explicites à vos sources afin de pouvoir les consulter facilement. Optez pour une nomenclature systématique : Sujet détaillé – Origine de la source, par exemple.

Gérer les sources et posez des questions

Une fois vos sources ajoutées, vous vous trouvez face à l’interface principale de NotebookLM.Elle se divise en trois parties :

      1. Sources, où sont listés tous les documents que vous avez importés/liés ;
      2. Discussion, la partie principale de l’interface, où s’affiche le résumé des documents et en dessous duquel est placée une fenêtre d’interaction, de chat, qui vous permettra de poser des questions en langage naturel pour obtenir des réponses contextualisées, qui renvoient aux différentes sources ;
      3. Studio, la partie où vous pourrez traiter les données emmagasinées en créant des notes, des synthèses, des chronologies et même des quizz pour vous aider à réviser. Voici venir l’ère des fiches 2.0.
L’interface de NotebookLM, qui peut être appelée à changer rapidement, se composer de trois grandes parties verticales. Les deux parties latérales peuvent être réduites ou étendues pour plus de confort visuel © Les Numériques

La rubrique Discussion

Intéressons-nous pour l’instant à la partie Discussion. Une fois la première source affichée, vous constaterez que des questions automatiques sont proposées. Elles sont généralement très pertinentes, mais rien ne vous empêche d’en taper une vous-même. Vous pouvez interroger NotebookLM en français comme si vous chattiez avec quelqu’un. Le langage naturel vous tend les bras ! Ces questions vont vous permettre de dégager des angles, des thématiques, des réponses pour mieux cerner le sujet. Ces questions changent ou évoluent en fonction des sources que vous ajoutez. C’est un point important. Vous constaterez trois choses :

      1. La première, que la réponse apportée s’affiche dans la partie supérieure de Discussion.
      2. La deuxième chose qu’on relève, c’est qu’au sein de la réponse, des chiffres inscrits dans des petits cercles renvoient à différents passages des documents importés. Ce qui évite les affabulations et les propos erronés, en vous permettant de les vérifier. Conseil : si la réponse ne vous satisfait pas, vous pouvez par ailleurs l’indiquer à l’algorithme de Google, à l’aide des pouces vers le bas ou le haut.
      3. La troisième remarque, enfin. En bas de la réponse s’affiche un bouton : Enregistrer dans une note. Transformé en note, le contenu de la réponse s’affichera alors dans la partie inférieure de la rubrique Studio.

Les notes : une base de travail et d’amélioration des sources

Comme leur nom l’indique, les notes sont des éléments détaillés qui répondent à une question que vous avez soumise à NotebookLM afin qu’il trouve une réponse dans les sources que vous lui avez confiées.

Cinq types de notes pour différents usages

Mais il y a plusieurs types de notes, et chacune à sa spécificité, son utilité dans un contexte particulier. Autrement dit, vous n’aurez pas besoin de tous ces types de note à chaque fois, mais ils couvrent un large panel de besoins récurrents quand on est étudiant ou mène un travail de recherche. Voici les cinq types de note :

      1. Les notes créées depuis une question ou que vous aurez ex nihilo pour y copier des notes dactylographiées obtenues lors d’une réunion ou d’un cours, par exemple. Conseil : Les notes créées depuis une question sont hélas en lecture seule. Pour pouvoir les amender ou les enrichir, nous vous conseillons de copier-coller leur contenu dans une nouvelle note créée manuellement que vous pourrez alors librement modifier et compléter.
      2. Les guides d’étude : il s’agit en fait d’une sorte de quizz généré automatiquement et qui contient les questions et les réponses. Un excellent moyen de faire un point sur vos connaissances si vous préparez un examen, ou un très bon moyen de prendre la mesure d’un dossier, des intervenants et acteurs concernés. Parfait pour se préparer à une présentation, par exemple.
      3. Les documents de synthèse : c’est ce qui pourrait se rapprocher le plus d’un plan synthétique. En fonction du sujet, il pourra être chronologique, thématique, etc. Généralement une bonne base pour dégager des tendances et préparer un plan ou une réponse à une problématique, par exemple. Conseil : Si vous utilisez des documents dans lesquels plusieurs interlocuteurs ou personnes sont citées, veillez à ce que les citations soient attribuées aux bonnes personnes.
      4. Questions fréquentes : à ne pas confondre avec les quizz des guides d’étude, il s’agit d’une série de questions et de réponses plus approfondies qui permettent de mieux saisir certains enjeux ou mécanismes.
      5. La chronologie, enfin : le nom est explicite, vous voulez avoir un déroulé clair des évènements, NotebookLM établira alors une liste des dates importantes.

Si vous avez ouvert une note, il suffit de cliquer sur Studio pour revenir à l’interface principale.

Les notes, une vraie source de richesse

Armé de vos notes, vous avez éclusé la liste de vos questions. Mais considérer que ces différentes notes sont une fin en soi serait une erreur. Comme quand on lit des documents et prend des notes, qui vont ensuite servir à nourrir la réflexion, ces nouveaux documents peuvent prendre une nouvelle importance. Afin d’améliorer encore votre notebook thématique, nous vous recommandons en effet, quand les notes vous semblent particulièrement intéressantes, de les ajouter à leur tour au corpus de sources que vous aviez établi. Il suffit de cliquer sur le bouton Convertir en source en bas de chaque note, que vous aurez ouvert depuis la rubrique Studio.

Les notes que vous jugez les plus intéressantes peuvent être converties en sources © Les Numériques

Pourquoi ? Parce que cela va permettre à NotebookLM de générer de nouvelles questions qui vous permettront d’affiner votre travail, votre recherche, votre compréhension du sujet. Mieux, dans un contexte où on pourrait croire à tort que l’IA vous dispense de penser, cela peut vous aider à prendre conscience qu’il manque certains points importants. Autrement dit, que vos sources ne sont pas assez complètes. Dans ce cas, éclairé sur les points manquants, il est plus facile de rechercher des compléments, et éviter des révisions incomplètes, un exposé partiel ou partial, etc. Et si jamais vous avez atteint la limite des 50 sources, vous pourrez toujours supprimer les plus anciennes, ou les moins pertinentes, puisque de toute façon les notes, fusion de ces sources et de vos questions, nourrissent désormais votre base de connaissance.

Des voix synthétiques pour donner vie aux connaissances

Maintenant, intéressons-nous aux deux nouveautés qui ont remis NotebookLM sous les feux de la rampe : d’une part, le résumé audio, qu’on lance depuis le bouton Résumé audio, présent dans la rubrique Discussion et Studio, d’autre part, le mode interactif (encore en bêta), et qui, pour l’instant, ne nous a pas conquis, car les « interactions » ne semblent tout simplement pas avoir d’effet… Selon toute vraisemblance, ces deux options reposent sur le projet Soundstorm, de Google, lui aussi lancé en 2023, lors de l’édition de la Google I/O. Cet outil est capable de générer des voix synthétiques à la volée.

Un podcast… en anglais

Quoi qu’il en soit le Résumé audio signifie que NotebookLM va, à partir des sources que vous lui avez fournies, créer une sorte de podcast, avec deux intervenants, qui vont alors interagir et revenir sur les informations clés de manière assez vivante et dynamique.

Pour aller au plus rapide, vous pouvez simplement cliquer sur le bouton Générer, dans la partie Studio. Elle créera alors un fichier son que vous pourrez écouter depuis l’interface ou enregistrer au format .wav. La création du fichier peut prendre assez longtemps, mieux vaut faire autre chose en attendant, comme vous y invite Google.

[WALLONICA : on a fait le test avec le résumé de Sanctuaires : c’est bluffant, avec les drôleries liées aux voix de synthèse – ce n’est pas moi qui parle –  et les erreurs – peu fréquentes – dues à l’automatisation comprises, comme des faux noms propres, des éléments importants relégués au deuxième et l’inverse…]

Mais il est aussi possible de donner des consignes à NotebookLM en cliquant sur le bouton Personnaliser. Vous vous trouvez alors face à un champ de texte dans lequel vous pouvez donner des ordres à l’IA de Google via un prompt. Il est ainsi possible de lui indiquer de n’utiliser que certaines sources, par exemple.

Des prompts pour une version en français…

Si la version anglaise est confondante de réalisme, très impressionnante, on peut malgré tout être tenté de passer à une langue qu’on maîtrise mieux. Depuis que l’outil de création de fichiers sons est disponible, la communauté des utilisateurs semble mener une petite course poursuite avec Google pour tenter de contourner la limite de la langue. Nous avons tenté plusieurs prompts et avons constaté au fil de notre utilisation que les plus simples, qui fonctionnaient au départ, ne sont plus efficaces désormais. Ainsi, le prompt : “Les deux hôtes doivent parler français et français seulement” ne semble plus fonctionner.

Nous nous sommes donc inspirés d’exemples plus détaillés, qui, à l’heure où sont écrites ces lignes, font que le fichier généré est en français. Cliquez donc sur le bouton Personnaliser. Tapez ensuite un prompt du ce type, avec les retours à la ligne : “Cet épisode doit être en français seulement / Les hôtes ne doivent parler que français / Toutes les discussions, commentaires et citations doivent être en français durant tout l’épisode / Aucune autre langue ne doit être utilisée, sauf pour des termes spécifiques, techniques, qui devront être expliqués ensuite en français.” Validez le prompt et lancez la génération. Votre podcast devrait être produit en français, avec un très léger accent québécois, parfois. Mais, attention, pour le podcast comme pour les notes écrites générées, il est important de s’assurer que l’intelligence artificielle n’a pas commis d’erreur.

Prenons un exemple, nous avons créé un notebook sur Léon Blum à partir de quelques sites Web officiels et de l’excellente série de podcasts de Philippe Collin, diffusée par France Inter. On y parle du fait que l’extrême droite à chercher à créer la controverse autour de Léon Blum, notamment en mentant sur ses origines. Une controverse infondée et diffamatoire. Or notre podcast généré en français commence tout de go comme suit : “Bienvenue à tous pour une nouvelle exploration, on plonge aujourd’hui dans la vie d’un personnage fascinant et controversé, Léon Blum…” Première phrase, et un carton rouge, qui montre toute la puissance et les limites de NotebookLM.

Une IA pour vous aider à penser mieux, pas pour vous en dispenser

L’IA de NotebookLM ne vous dispense pas de réfléchir, d’ailleurs Google vous invite systématiquement à vous assurer qu’elle n’a pas commis d’erreur, qu’elle n’a pas halluciné, même si le corpus restreint et contrôlé aide en cela. NotebookLM est là pour vous permettre de concentrer votre intelligence là où elle compte le plus, dans l’interprétation des données de base, dans la création de liens entre les concepts et les idées. Elle met à votre disposition un outil puissant, pour gagner du temps, et vous concentrer sur l’essentiel, sur ce qu’aucune IA ne peut faire pour vous, apprendre et progresser.

Un outil qui peut aussi vous aider à transcrire vos cours et réunions

Même si ce n’est pas forcément son but premier, NotebookLM peut également être utilisé pour transcrire et résumer un fichier son, qu’il s’agisse d’un cours ou d’une réunion. Il suffit d’importer le fichier audio dans un nouveau notebook. Ensuite, en cliquant sur le fichier correspondant dans la partie Sources, vous devriez pouvoir consulter la transcription. Il vous suffira ensuite de cliquer sur le bouton Document de synthèse dans la rubrique Studio pour avoir une liste des points et propos essentiels. Si plusieurs interlocuteurs ont pris la parole, veillez à ce que les propos soient toutefois attribués à la bonne personne. Comme nous vous l’avons déjà conseillé pour les citations écrites…

Pierre FONTAINE, Les numériques


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | sources : lesnumeriques.com | contributeur : Patrick Thonart | crédits illustrations : © lesnumeriques.com ; © pngtree.com.


Plus de dispositifs en Wallonie…

EDL : L’IA, une machine à fabriquer du doute ?

Temps de lecture : 7 minutes >

[EDL.LAICITE.BE, 11 août 2025La publication d’un article climatosceptique généré par une intelligence artificielle illustre une dérive préoccupante : l’utilisation des technologies pour produire des contenus pseudo-scientifiques susceptibles d’alimenter la désinformation. Si cette affaire peut prêter à sourire, elle révèle pourtant des fragilités systémiques dans la production scientifique contemporaine, exacerbées par le sous-financement de la recherche, la course à la publication et l’essor de revues peu rigoureuses. Dès lors, une question centrale : comment garantir la qualité de la recherche scientifique et faire de l’intelligence artificielle un outil au service de cette exigence ?

À quoi sert de réduire les émissions de CO2 dans la lutte contre le réchauffement climatique ? À rien, nous disent les climatosceptiques. C’est une vaste arnaque, un complot du gouvernement ! La preuve, le CO2 n’est pas la source du réchauffement climatique. C’est une étude scientifique qui le dit.

Pour une fois, les climatosceptiques n’ont pas complètement tort. Cette étude existe bien, et s’intitule Réévaluation critique de l’hypothèse du réchauffement planétaire lié aux émissions de CO2. Elle a été publiée le 21 mars 2025 dans la revue Science of Climate Change. À en croire celle-ci, toutes les conclusions et projections des rapports des experts de l’ONU sur le climat (GIEC) seraient donc fausses… rien que ça !

© jp.pinterest.com

Sauf que là où le bât blesse, c’est que cet article a en fait été entièrement généré par l’intelligence artificielle Grok 3 Beta, créée par Elon Musk (lui-même climatosceptique). Qui plus est, il a été élaboré avec l’aide de scientifiques comme Willie Soon, un climatosceptique notoire qui a reçu plus d’un million de dollars de fonds provenant du secteur des énergies fossiles à travers sa carrière. Notons encore le caractère frauduleux de la revue ayant publié cette étude puisqu’il s’agit d’une revue Open Access dont l’objectif avoué est de contredire les thèses du GIEC. Dès lors, il y a de quoi être nous-mêmes sceptiques sur la fiabilité de ce papier, non ?

L’ère de la désinformation 4.0

Ce fait peut paraître anodin et même amusant, tant il faut être crédule pour se fier à une étude entièrement générée par l’IA – qui plus est celle d’Elon Musk. Il convient toutefois de rester très vigilant quant aux dangers de cette pratique qui s’inscrit dans une double tendance.

D’abord, celle du recours croissant aux stratégies de désinformation pour instrumentaliser l’opinion publique et servir des intérêts politiques particuliers et privés. Ensuite, celle de l’essor de l’utilisation des IA génératives pour produire du contenu informatif et scientifique.

Dans ce contexte, l’IA apparaît comme un outil puissant pour la production et la diffusion massive de fake news vêtues d’une parure (pseudo-)scientifique grâce à laquelle elles ont plus de chances d’être perçues comme crédibles. La parution de fausses études scientifiques générées par l’IA est donc une problématique à prendre très au sérieux ! Cela brouille davantage les frontières entre le vrai et le faux, fragilise le débat public ainsi que la possibilité d’apporter réponses et solutions à des problèmes – tels que le réchauffement climatique. Surtout, cette pratique nuit à la qualité de la recherche scientifique et à la production des savoirs. À terme, cela risque de priver nos civilisations de tout progrès scientifique, voire pire, de les faire sombrer dans l’ignorance.

Même les scientifiques utilisent ChatGPT

Mais le buzz autour de cette fausse étude sur le réchauffement climatique a au moins le mérite de nous pousser à prendre au sérieux les questions suivantes : faut-il avoir recours à l’intelligence artificielle dans le domaine de la recherche ? Si oui, comment ? Avec quels risques et bénéfices ? Ne soyons pas naïfs, l’IA fait désormais partie de nos vies, et les chercheurs ne se privent pas de l’utiliser. Des outils comme Semantic Scholar et Connected Papers permettent d’obtenir rapidement une revue de la littérature scientifique sur un sujet donné et de visualiser les connexions entre articles.

© iatranshumanisme.com

D’autres modèles aident à la compréhension d’études, tels que Explainpaper, et servent à les synthétiser ainsi qu’à en tirer une analyse critique, comme le font Jenni AI et même ChatGPT. Ces nouvelles technologies ont surtout l’avantage de faire économiser du temps aux chercheurs, ce qui leur permet d’augmenter leur taux de production et de publication d’articles. Elles représentent donc un atout non négligeable dans un milieu qui n’échappe pas aux injonctions de la performance et où la sécurité d’emploi dépend d’un indice de productivité de plus en plus élevé. Aussi, elles peuvent très certainement contribuer à la qualité des recherches en accroissant leur précision et leur rigueur.

Fraude scientifique : l’IA accentue les risques mais n’a rien inventé

Toutefois, comme toutes technologies, les modèles d’IA comportent le risque d’être utilisés à mauvais escient. Un chercheur qui déciderait de déléguer l’entièreté de son travail à l’IA prend le risque de générer et de publier des articles frauduleux, c’est-à-dire au sein desquels les données ont été falsifiées, voire fabriquées de toutes pièces.

Il existe donc une ambivalence (risques/bénéfices) liée à l’usage de l’IA dans le domaine de la recherche scientifique. Celle-ci est soulignée et analysée par Alice Rigor et Stéphanie Billot-Bonef dans un article publié en 2024 au sein de la revue Environnement, Risques & Santé. Elles y dénoncent un véritable effet boule de neige induit par la production d’études falsifiées par l’IA, qui menace de nous conduire tout droit vers l’ère de la désinformation massive, puisque pour faire avancer la recherche, les scientifiques se réfèrent aux travaux antécédents sur le sujet. Or si ceux-ci contiennent de fausses données, on risque de reproduire des erreurs et d’aboutir à la démonstration de thèses complètement fallacieuses.

© fr.linkedin.com

Pour autant, la fraude scientifique n’est pas un phénomène nouveau et on trouve une pléthore de cas avant même que l’IA soit développée. Par exemple, en 1998, le chirurgien britannique Andrew Wakefield a publié dans The Lancet une étude affirmant un lien entre le vaccin ROR (rougeole-oreillons-rubéole) et l’autisme. Ce n’est qu’en 2010 que l’étude a été rétractée à la suite de révélations indiquant que les données avaient été manipulées et que Wakefield avait des conflits d’intérêts non divulgués.

Entre-temps, cette étude frauduleuse a largement contribué à alimenter le mouvement antivaccination. La question qu’il faut donc désormais se poser est la suivante : pourquoi et comment de fausses études parviennent-elles à être publiées ? Celle-ci interpelle d’autant plus lorsqu’on sait qu’il existe des balises permettant de détecter les données falsifiées, erronées ou fabriquées, et ainsi d’empêcher leur publication. Notamment le processus d’évaluation par les pairs qui prévoit la relecture d’une étude par un ou plusieurs chercheurs spécialistes du sujet traité afin de vérifier sa qualité et sa véracité.

Sauf que, comme le rappellent les autrices de l’article Intégrité scientifique à l’heure de l’intelligence artificielle générative, il arrive que des chercheurs cèdent à la tentation de valider des articles frauduleux en échange d’une compensation financière ou de la promesse d’un traitement favorable pour leurs propres travaux à venir.

De plus, certaines étapes du processus de publication ne sont pas toujours respectées, en particulier dans les revues dites ‘prédatrices’, qui se sont multipliées depuis l’essor de l’édition en accès libre, ou Open Access, au cours des vingt dernières années. Celles-ci reposent sur le principe selon lequel c’est au chercheur ou à son institution de payer pour être publié. Elles tirent ainsi profit de la précarité grandissante au sein de la recherche scientifique, qui pousse certains chercheurs à utiliser ces revues Open Access comme vitrines pour obtenir des financements.

Financer la science, pas l’ignorance

En fin de compte, l’inquiétude concernant la propagation de fausses études liées à l’utilisation de l’intelligence artificielle dans le domaine de la recherche occulte en réalité l’éléphant dans la pièce : le sous-financement de la recherche scientifique. Aujourd’hui, les chercheurs consacrent une part considérable de leur temps à solliciter des subventions (souvent sans succès), au détriment de leur travail scientifique. Devant la pression de la publication, condition essentielle à l’obtention de financements, l’IA devient, pour certains, un outil de survie utilisé afin de produire rapidement des contenus, parfois aux dépens de leur rigueur.

© Casterman

C’est également cette course concurrentielle à la publication qui alimente la prolifération de revues Open Access douteuses, prêtes à publier des articles peu contrôlés. Le système de relecture par les pairs, indispensable à la validation scientifique, pâtit lui aussi de ce manque de moyens : les experts n’ont pas assez de temps pour effectuer des vérifications approfondies. Conçue et utilisée de façon éthique, l’IA pourrait même être le remède à la publication de fausses études en aidant à repérer les incohérences et fraudes potentielles dans les publications. Encore faut-il que ces outils soient transparents et indépendants de tout intérêt privé.

Lucie Barridez, Déléguée Étude & Stratégie


Espace de liberté (EDL), le magazine du Centre d’Action Laïque consacre la ‘tartine’ du numéro d’été 2025 (n°521) au thème de Intelligence Artificielle : et l’humain dans tout ça ? : “Tour à tour révolutionnaire, menaçante, fascinante, ou profondément dérangeante, l’intelligence artificielle s’invite partout : au travail, à l’école, dans nos soins de santé, nos villes, nos imaginaires et jusque dans les rouages de la géopolitique mondiale. Mais dans cette course effrénée à l’automatisation, où est passé l’humain ? Est-il encore le pilote ou déjà passager d’un véhicule autonome lancé à pleine vitesse ? Cette tartine en sept couches explore les multiples facettes de l’IA, entre promesses et inquiétudes. De la productivité vantée par ses concepteurs à la précarisation de l’emploi qu’elle induit, de son rôle d’assistant psychologique à celui de générateur de confusion, des créations dites « synthétiques »1 à la transformation même de notre manière d’habiter le monde, il y a urgence à penser régulièrement cette technologie au prisme de nos droits, de nos libertés et de notre capacité à vivre ensemble. Car si l’intelligence est artificielle, les enjeux, eux, sont bien réels et évoluent à grande vitesse.Pour en savoir plus…


[INFOS QUALITE] statut : validé | mode d’édition : compilation, édition et iconographie | sources : edl.laicite.be | contributeur : Patrick Thonart | crédits illustrations : en-tête, d’après 2001, l’odyssée de l’espace (1968) © CNRS – Christophe L. ; © jp.pinterest.com ; © fr.linkedin.com ; © iatranshumanisme.com.


Plus d’engagement en Wallonie…

Pratiquer les langues autrement : l’IA comme partenaire de conversation ?

Temps de lecture : 4 minutes >

[THECONVERSATION.COM, 6 juillet 2025Les robots conversationnels ou “chatbots” font partie de ces innovations en matière d’intelligence artificielle qui peuvent séduire les élèves s’initiant à une langue étrangère. Mais comment les utiliser de façon pertinente ? Que peuvent-ils apporter quand elles sont mises en place dans un cadre pédagogique bien réfléchi ?

En avril dernier, une lycéenne italienne expliquait à la radio comment elle avait réussi à améliorer son français grâce à un “application magique” avec qui elle discutait chaque soir. Cette application, c’est ChatGPT, le fameux agent conversationnel boosté à l’intelligence artificielle (IA). Son témoignage illustre un phénomène mondial : les jeunes – et moins jeunes – utilisent désormais ces outils pour apprendre, réviser ou pratiquer.

L’intelligence artificielle générative (IAG) a aujourd’hui atteint un niveau de maturité tel qu’elle peut soutenir efficacement l’apprentissage des langues. Les outils sont désormais multilingues, adaptables, capables de générer du contenu écrit ou oral, et ajustés aux demandes de chacun. Mais que faire de cette IA qui parle (presque) toutes les langues ? Est-ce une menace pour l’école ou une chance pour apprendre autrement ?

Un robot qui répond toujours, sans juger

Parmi les nombreuses innovations récentes dans le domaine de l’intelligence artificielle et des technologies éducatives, les robots conversationnels (les “chatbots“) sont les plus accessibles : il suffit de poser une question, et ils répondent à l’écrit comme à l’oral. Ils peuvent tenir une conversation, corriger une phrase, reformuler une expression ou jouer un rôle (serveur, guide touristique ou enseignant de langue…).

Ce sont des alliés intéressants pour pratiquer une langue à son rythme, sans peur du jugement. Un étudiant timide peut s’entraîner à parler espagnol dans un café fictif sans craindre de faire des fautes. Un adulte peut répéter les mêmes phrases vingt fois sans gêner personne. Ces dialogues, même artificiels, stimulent l’apprentissage.

Des outils comme CallAnnie, Gliglish, LangAI, Talkpal ou les versions avancées de Duolingo proposent aujourd’hui des conversations avec un tuteur basé sur l’IA, adaptées au niveau des apprenants. Certains enseignants conçoivent même leurs propres chatbots éducatifs pour mieux coller au niveau ou aux attentes de leur public.

Agents conversationnels : les coulisses de la “machine”

Mais comment ces robots peuvent-ils “comprendre” nos messages ? En réalité, ces robots n’ont pas la faculté de compréhension des êtres humains : ils fonctionnent par prédiction statistique. Autrement dit, ils prédisent la suite la plus probable d’un texte en s’appuyant sur des milliards de données textuelles issues du web. C’est ce qu’on appelle un modèle de langage.

Ces modèles – comme GPT (OpenAI) ou BERT (Google, Meta) – sont le résultat d’un algorithme complexe, d’une programmation informatique et de ce qu’on appelle aujourd’hui la culture du prompt, c’est-à-dire l’art de formuler une requête efficace pour générer une réponse pertinente. Leurs réponses sont souvent très fluides, naturelles, parfois impressionnantes… mais elles peuvent aussi être fausses, incohérentes ou biaisées. C’est pourquoi un cadre pédagogique est indispensable : un dialogue sans médiation humaine reste limité.

Savoir interagir avec l’IA devient une compétence clé, qu’on appelle désormais la littératie en IA. Cela implique de :

      • comprendre que l’IA ne “comprend” pas comme un humain, se méfier de l’illusion de “tout savoir” qu’elle peut donner aux apprenants ;
      • savoir formuler des requêtes (ou prompts) efficaces pour générer une réponse pertinente, acquérir ce qu’on appelle aujourd’hui la culture du prompt ;
      • être capable d’évaluer la pertinence des réponses, de repérer les erreurs, les biais ou les stéréotypes ;
      • adopter une posture critique et respecter l’éthique numérique (vérification des sources, protection des données, etc.).

Les enseignants ont un rôle essentiel à jouer pour guider les apprenants vers un usage réfléchi, créatif et responsable de ces outils.

Une expérience en classe : parler avec un chatbot

Dans une université française, une équipe a testé un chatbot développé avec Mizou auprès de 16 étudiants débutants en français (niveau A1). Objectif : renforcer l’expression orale via des jeux de rôle simples. Les résultats sont encourageants : les étudiants ont gagné en confiance, se sentant moins jugés et plus motivés à parler.

Toutefois, certaines réponses générées par le chatbot étaient trop complexes par rapport au niveau attendu – par exemple, des phrases longues avec un vocabulaire difficile ou des formulations trop soutenues. D’autres étaient parfois trop répétitives, ce qui pouvait entraîner une perte d’intérêt. Ce retour d’expérience confirme l’intérêt de ces outils… à condition qu’ils soient bien accompagnés d’un suivi humain.

L’un des atouts majeurs de l’IA est sa flexibilité : débutants, intermédiaires ou avancés peuvent y trouver des bénéfices. Pour les premiers, les chatbots permettent de pratiquer des situations quotidiennes (‘se présenter’, ‘commander’, ‘demander son chemin’). Les niveaux intermédiaires peuvent enrichir leur expression ou corriger leurs erreurs. Les plus avancés peuvent débattre ou s’exercer à rédiger avec un retour critique. L’IA n’a pas vocation à remplacer les échanges humains, mais elle les complète, en multipliant les opportunités d’interaction.

Les chatbots ne remplacent pas la richesse d’une vraie relation humaine, mais ils peuvent aider à préparer des échanges. Avant de converser avec un correspondant étranger, l’apprenant peut s’exercer avec l’IA pour gagner en fluidité et confiance.

De même, avant un séjour à l’étranger, discuter avec un chatbot permet de se familiariser avec les phrases clés et les situations courantes. Certains apprenants utilisent aussi l’IA pour traduire ou vérifier une formulation. L’enjeu n’est donc pas de remplacer les interactions humaines, mais de multiplier les occasions d’apprendre, à tout moment, dans un cadre sécurisé et individualisé.

L’IA conversationnelle n’est pas une baguette magique, mais un outil prometteur. Lorsqu’elle est utilisée avec recul, créativité et esprit critique, elle peut véritablement enrichir l’enseignement et l’apprentissage des langues.

Demain, les apprenants ne dialogueront plus uniquement avec des enseignants, mais aussi avec des robots. À condition que ces agents soient bien choisis, bien paramétrés et intégrés dans un cadre pédagogique réfléchi, ils peuvent devenir de puissants alliés. L’enjeu est de taille : former des citoyens plurilingues, critiques et lucides – face à l’intelligence artificielle, et avec elle.

Sophie Othman, Université Marie et Louis Pasteur (UMLP)


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : © Disney.


Plus de presse en Wallonie…

Les IA, nos nouvelles confidentes : quels risques pour la santé mentale ?

Temps de lecture : 5 minutes >

[THECONVERSATION.COM, 17 juin 2025Depuis le lancement, en novembre 2022, de ChatGPT, l’agent conversationnel développé par OpenAI, les intelligences artificielles génératives semblent avoir envahi nos vies. La facilité et le naturel avec lesquels il est possible d’échanger avec ces outils sont tels que certains utilisateurs en font même de véritables confidents. Ce qui n’est pas sans risque pour la santé mentale.

Les grands modèles de langage, autrement dit les intelligences artificielles “génératives” telles que ChatGPT, Claude et autre Perplexity, répondent à de très nombreux besoins, que ce soit en matière de recherche d’informations, d’aide à la réflexion ou de résolution de tâches variées ; ce qui explique l’explosion actuelle de leur utilisation scolaire, universitaire, professionnelle ou de loisir.

Mais un autre usage de ces IA conversationnelles se diffuse à une vitesse impressionnante, en particulier chez les jeunes : l’équivalent de discussions entre amis, pour passer le temps, questionner ou échanger des idées et surtout se confier comme on le ferait avec un proche. Quels pourraient être les risques liés à ces nouveaux usages ?

Un terrain propice à une adoption rapide

La conversation par écrit avec les intelligences artificielles semble s’être banalisée très rapidement. À noter d’ailleurs que s’il existe des IA utilisant des échanges vocaux, elles semblent cependant moins utilisées que les échanges textuels.

Il faut dire que nous étions depuis de longues années déjà habitués à échanger par écrit sans voir notre interlocuteur, que ce soit par SMS, par e-mail, par “tchat” ou tout autre type de messagerie. Les IA génératives reproduisant remarquablement bien l’expression verbale des êtres humains, l’illusion de parler à une personne réelle est quasiment immédiate, sans avoir besoin d’un avatar ou d’une quelconque image simulant l’autre.

Immédiatement disponibles à toute heure du jour et de la nuit, conversant toujours sur un ton aimable, voire bienveillant, entraînées à simuler l’empathie et dotées, si ce n’est d’une “intelligence”, en tout cas de connaissances en apparence infinies, les IA sont en quelque sorte des partenaires de dialogue idéales.

Il n’est dès lors pas étonnant que certains se soient pris au jeu de la relation, et entretiennent des échanges suivis et durables avec ces substituts de confidents ou de “meilleurs amis”. Et ce, d’autant plus que ces conversations sont “personnalisées” : les IA mémorisent en effet les échanges précédents pour en tenir compte dans leurs réponses futures.

Certaines plateformes, comme Character.ai ou Replika, proposent par ailleurs de personnaliser à sa guise l’interlocuteur virtuel (nom, apparence, profil émotionnel, compétences, etc.), initialement pour simuler un jeu de rôle numérique. Une fonctionnalité qui ne peut que renforcer l’effet de proximité, voire d’attachement affectif au personnage ainsi créé.

Voici à peine plus de dix ans, le réalisateur Spike Jonze tournait le film Her, décrivant la relation amoureuse entre un homme sortant d’une difficile rupture et l’intelligence artificielle sur laquelle s’appuyait le système d’exploitation de son ordinateur. Aujourd’hui, il se pourrait que la réalité ait déjà rejoint la fiction pour certains utilisateurs des IA génératives, qui témoignent avoir entretenu une “romance numérique” avec des agents conversationnels. Des pratiques qui pourraient ne pas être sans risque pour l’équilibre mental de certaines personnes, notamment les plus jeunes ou les plus fragiles.

Des effets sur la santé mentale dont la mesure reste à prendre

Nous constatons aujourd’hui, dans tous les pays (et probablement bien trop tard…), les dégâts que l’explosion de l’usage des écrans a causés sur la santé mentale des jeunes, en particulier du fait des réseaux sociaux.

Entre autres facteurs, une des hypothèses (encore controversée, mais très crédible) est que la désincarnation des échanges virtuels perturberait le développement affectif des adolescents et favoriserait l’apparition de troubles anxieux et dépressifs.

Jusqu’à aujourd’hui, pourtant, les échanges menés par l’intermédiaire des réseaux sociaux ou des messageries numériques se font encore a priori principalement avec des êtres humains, même si nous ne côtoyons jamais certains de nos interlocuteurs dans la vie réelle. Quels pourraient être les conséquences, sur l’équilibre mental (émotionnel, cognitif et relationnel) des utilisateurs intensifs, de ces nouveaux modes d’échanges avec des IA dénuées d’existence physique ?

Il est difficile de les imaginer toutes, mais on peut concevoir sans peine que les effets pourraient être particulièrement problématiques chez les personnes les plus fragiles. Or, ce sont précisément celles qui risquent de faire un usage excessif de ces systèmes, comme cela est bien établi avec les réseaux sociaux classiques.

À la fin de l’année dernière, la mère d’un adolescent de 14 ans qui s’est suicidé a poursuivi les dirigeants de la plateforme Character.ai, qu’elle tient pour responsables du décès de son fils. Selon elle, son geste aurait été encouragé par l’IA avec laquelle il échangeait. En réponse à ce drame, les responsables de la plateforme ont annoncé avoir implémenté de nouvelles mesures de sécurité. Des précautions autour des propos suicidaires ont été mises en place, avec conseil de consulter en cas de besoin.

Une rencontre entre des personnes en souffrance et un usage intensif, mal contrôlé, d’IA conversationnelles pourrait par ailleurs conduire à un repli progressif sur soi, du fait de relations exclusives avec le robot, et à une transformation délétère du rapport aux autres, au monde et à soi-même.

Nous manquons actuellement d’observations scientifiques pour étayer ce risque, mais une étude récente, portant sur plus de 900 participants, montre un lien entre conversations intensives avec un chatbot (vocal) et sentiment de solitude, dépendance émotionnelle accrue et réduction des rapports sociaux réels.

Certes, ces résultats sont préliminaires. Il paraît toutefois indispensable et urgent d’explorer les effets potentiels de ces nouvelles formes d’interactions pour, si cela s’avérait nécessaire, mettre tout en œuvre afin de limiter les complications possibles de ces usages.

Mankiewicz Joseph L., L’aventure de Madame Muir (The ghost and Mrs. Muir, 1947) © DP

Autre crainte : que dialoguer avec un “fantôme” et se faire prendre à cette illusion puissent aussi être un facteur déclenchant d’états pseudo-psychotiques (perte de contact avec la réalité ou dépersonnalisation, comme on peut les rencontrer dans la schizophrénie), voire réellement délirants, chez des personnes prédisposées à ces troubles.

Au-delà de ces risques, intrinsèques à l’emploi de ces technologies par certaines personnes, la question d’éventuelles manipulations des contenus – et donc des utilisateurs – par des individus mal intentionnés se pose également (même si ce n’est pas cela que nous constatons aujourd’hui), tout comme celle de la sécurité des données personnelles et intimes et de leurs potentiels usages détournés.

IA et interventions thérapeutiques, une autre problématique

Pour terminer, soulignons que les points évoqués ici ne portent pas sur l’utilisation possible de l’IA à visée réellement thérapeutique, dans le cadre de programmes de psychothérapies automatisés élaborés scientifiquement par des professionnels et strictement encadrés.

En France, les programmes de ce type ne sont pas encore très utilisés ni optimisés. Outre le fait que le modèle économique de tels outils est difficile à trouver, leur validation est complexe. On peut cependant espérer que, sous de nombreuses conditions garantissant leur qualité et leur sécurité d’usage, ils viendront un jour compléter les moyens dont disposent les thérapeutes pour aider les personnes en souffrance, ou pourront être utilisés comme supports de prévention.

Le problème est qu’à l’heure actuelle, certaines IA conversationnelles se présentent d’ores et déjà comme des chatbots thérapeutiques, sans que l’on sache vraiment comment elles ont été construites : quels modèles de psychothérapie utilisent-elles ? Comment sont-elles surveillées ? et évaluées ? Si elles devaient s’avérer posséder des failles dans leur conception, leur emploi pourrait constituer un risque majeur pour des personnes fragiles non averties des limites et des dérives possibles de tels systèmes.

Les plus grandes prudence et vigilance s’imposent donc devant le développement ultrarapide de ces nouveaux usages du numérique, qui pourraient constituer une véritable bombe à retardement pour la santé mentale…

Antoine Pelissolo, professeur de psychiatrie


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : Her, un film de Spike Jonze (2013) © Annapurna Pictures ; © DP.


Plus de conventions sociales en Wallonie…

AI Slop : ce phénomène créé par l’intelligence artificielle nous amène-t-il vers un “internet zombie” ?

Temps de lecture : 4 minutes >

[RTBF.BE, 21 février 2025] L’intelligence artificielle envahit de plus en plus notre monde et brouille les frontières entre réel et imaginaire. Un phénomène relativement nouveau inonde internet : l’AI Slop. Pour le moment sans contrôle, il menace notre confort numérique. Explications dans Matin Première. 

L’AI Slop se manifeste sur de nombreux sites que vous consultez peut-être tous les jours comme Pinterest. Cette plateforme d’inspiration fait défiler sous vos yeux des images selon vos centres d’intérêt – cuisine, mode, dessin, photo, coiffure, déco – et vous épinglez celles qui vous plaisent dans des tableaux dédiés qui ne sont qu’à vous, qui sont publics ou privés, sortes de vision boards de votre vie rêvée : que ce soient des idées de vêtements “vintage pour l’hiver”, ou des idées pour décorer vos toilettes avec du papier-peint. Bref, Pinterest c’est une petite bulle tout à fait superficielle et confortable dans laquelle se lover quand le monde va mal. Mais cette bulle ne protège plus sur Pinterest : la plateforme est en train de muter sous nos yeux. Les photos de déco se ressemblent de plus en plus, les modèles maquillage ou coiffure ont la peau et la beauté trop lisse. Même les recettes : les assiettes remplies de pâtes sont désormais irréelles.

Internet gangréné par les images produites par l’IA

En effet, Pinterest est gangrené par les images générées par l’IA. 70% des contenus sur la plateforme sont faux aujourd’hui. C’est la directrice créative d’une agence de pub qui l’affirme dans une enquête menée par le Figaro. Elle le sait car au sein de son agence elle-même, on fournit de plus en plus d’images produites par IA. C’est tellement moins cher et plus facile que d’organiser une séance photo avec des comédiens.

Des milliers d’utilisateurs se plaignent du même problème sur plusieurs forums Reddit. Une dame parle même des modèles de crochet qui sont maintenant générés par IA. Et donc impossibles à reproduire dans la vraie vie. Les internautes sont en colère, demandent à la plateforme d’instaurer un outil de filtre pour signaler et éviter ces fausses images. Peine perdue semble-t-il pour le moment.

Mais c’est quoi exactement l’AI Slop ?

‘AI’ c’est pour ‘Artificial Intelligence’. ‘Slop’ en anglais désigne la bouillie industrielle que l’on donne aux cochons… L’AI Slop c’est donc l’expression pour nommer cette bouillie d’IA que l’on nous sert sur tous les supports numériques.

© radiofrance.fr

On l’a dit, Pinterest n’est pas le seul site concerné : vous trouverez des vidéos sur YouTube ou TikTok générées par l’IA, souvent pleine d’erreurs et doublée d’une fausse voix, vous tomberez sur de faux sites de recettes, avec des images fake et des instructions où il manque des ingrédients ou qui ne veulent rien dire, on parle même de livres générés par IA, auto-édités puis vendus sur Amazon.

Bref, l’AI Slop, c’est une masse numérique jetable, sans aucune valeur ajoutée, qui est produite à grande échelle avec, derrière, l’intention de faire du profit. L’objectif de ce foisonnement d’images fausses, c’est de nous faire regarder des vidéos ou de nous rediriger vers des sites ‘zéro contenu qualitatif’ mais sur lesquels nous sommes exposés à de la publicité.

Des enjeux financiers pour des créateurs d’images à partir d’IA en Asie

Puisqu’il faut faire du clic, ces faux contenus vont suivre les logiques algorithmiques. Il faut que ça provoque de l’engagement. Les célébrités, les cryptomonnaies, les enfants, les animaux, sont des sujets qui fonctionnent bien. Et d’où viennent ces contenus ? Le site 404 Media a par exemple remonté le fil jusqu’à des internautes en Inde ou d’en d’autres pays d’Asie qui produisent ces images pour se voir rétribuer par le programme Performance Bonus de Facebook. Ils reçoivent quelques dizaines de dollars par image ayant percé et cela peut grimper quand celle-ci devient virale. Et peu importe si l’image et les informations sont fausses.

Le Figaro explique par exemple que le 31 octobre dernier, des milliers de personnes ont afflué dans les rues de Dublin pour une parade d’Halloween… c’était faux. C’est un site créé par IA et sourcé au Pakistan qui avait perçu que c’était un thème qui générait du trafic. Même chose pour un soi-disant feu d’artifice à Birmingham pour le Nouvel An.

Une perte de confiance et un internet à deux vitesses

Face à cet afflux d’images incontrôlées et incontrôlables, il faudra voir si les plateformes vont réagir, imposer un filtre, trier ces images et ces infos. Ce n’est pas le cas aujourd’hui. Il faut dire que les internautes postent de moins en moins sur les réseaux et cet afflux d’images artificielles vient donc compenser pour l’instant.

Car les effets pourraient être dévastateurs pour des plateformes abondamment utilisées. Si le slop continue d’enfler, on va d’abord perdre confiance, se méfier de tout et se lasser. Une artiste interrogée par le Figaro explique notamment que pour elle, Pinterest n’est déjà plus un vrai moteur de recherche, fiable, essentiel.

Sur le long terme, deux options s’offrent à nous, engendrant une refonte structurelle d’internet :

      • On naviguerait sur un internet zombie, envahi de contenus irréels dont la masse exponentielle sera alimentée par des IA qui échangeront entre elles et auront leur propre compte sur les RS. On pourrait imaginer alors un internet à deux vitesses, cet internet zombie low cost pour les pauvres, et des espaces de contenus de qualité mais qui nécessitent le temps, les compétences et l’argent pour être trouvés. Autant dire réservé à une classe mieux armée socioéconomiquement ;
      • On connaîtrait un sursaut, un grand ‘non’ généralisé à ces contenus, et des plateformes qui instaurent des filtres. Un retour vers les contenus de référence, comme les médias traditionnels ou les contenus labellisés humains. Une nouvelle ère des blogs et des sites persos, sans algorithmes.

La saturation du slop serait-elle peut-être le sursaut dont on a besoin pour repenser nos usages numériques ?

Marie Vancutsem


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | sources : rtbf.be | contributeur : Patrick Thonart | crédits illustrations : © pplware.sapo.pt ; © radiofrance.fr.


Plus de presse en Wallonie…

Apprendre à traduire : à l’ère de l’IA, faut-il encore faire des exercices de thème et de version ?

Temps de lecture : 5 minutes >

[THECONVERSATION.COM, 4 décembre 2024] “Si les outils de traduction font des miracles, pourquoi s’exercer à transposer des textes d’une langue à une autre ?”, se demandent les étudiants. Loin d’être anodin, cet apprentissage permet de se sensibiliser réellement aux subtilités et au fonctionnement de la langue qu’on apprend.

DeepL fait des miracles, pourquoi devrais-je alors apprendre à traduire ?“, s’interroge un étudiant dans un cours de version. Les cours de thème (traduire un texte du français vers la langue étudiée) et de version (traduire un texte d’une langue étudiée en français) occupent une place importante au sein de la formation universitaire française, en licence de langues jusque dans les épreuves des concours du second cycle. Au lycée déjà, les élèves découvrent les subtilités inhérentes au fait de passer d’une langue à une autre et, dans le cadre des enseignements de langues et cultures de l’Antiquité, ils s’exercent régulièrement à la traduction.

Dans un contexte général où la traduction neuronale, alimentée par l’intelligence artificielle, rivalise de plus en plus avec la traduction humaine, l’intérêt de cet apprentissage peut susciter une remise en question.

Des objectifs de cours à clarifier

Sans aborder les débats historiques qui jalonnent l’évolution de la traduction en tant que pédagogie et de la traductologie en tant que discipline, on notera que de nombreuses recherches ont souligné le “statut étrange de la traduction à l’université, souvent fondé sur une mauvaise appréhension de son intérêt“, selon les mots de l’universitaire Fayza El Qasem.

Bien que les enseignants établissent des objectifs pédagogiques précis aux cours de thème et de version, de nombreux étudiants peinent encore à en percevoir les finalités. Il n’échappe à personne que la phrase “Attention, n’utilisez surtout pas de traducteur automatique !” a longtemps fait partie des consignes transmises aux étudiants, sous prétexte que la qualité de la traduction y est déplorable. Seuls les dictionnaires étaient autorisés.

© Shutterstock

Aujourd’hui, les enseignants des cours de thème et de version peuvent-ils encore éviter les traducteurs automatiques malgré leur amélioration évidente ?

On rappellera que les compétences visées dans les cours de thème et de version vont de la compréhension d’un texte et du fonctionnement des langues à travers les analyses linguistiques (grammaire, vocabulaire, procédés de traduction) jusqu’à la traduction d’un paragraphe, comme moyen d’évaluation des acquis en langues. L’extrait à traduire est généralement issu du registre littéraire ou journalistique et ne s’ouvre que rarement à la traduction dite pragmatique (textes quotidiens, professionnels).

Au cours des dernières années, les critiques n’ont pas manqué. Des études récentes ont insisté sur l’intérêt croissant d’intégrer des outils technologiques dans l’enseignement de la traduction.

Au-delà de la traduction, comprendre et analyser les subtilités linguistiques
Les cours de thème et de version constituent cependant de véritables laboratoires linguistiques. On y pratique l’analyse approfondie d’un texte source en invitant les apprenants à décortiquer les structures linguistiques et extralinguistiques que les logiciels de traduction peinent encore à saisir. En thème ou en version, il ne s’agit pas simplement de traduire des segments isolés, mais d’en saisir le sens global, de repérer les figures de style ou encore, la tonalité, etc.

Chaque niveau d’analyse permet une traduction “acceptable”, certes, mais favorise surtout une manipulation fine de la langue, transposable à d’autres contextes. Tel est le cas de la traduction des ambiguïtés syntaxiques ou des jeux de mots, de l’humour ou encore des néologismes.

Les travaux de la linguiste Natalie Kübler et de ses collègues en langue de spécialité montrent davantage “les limites de ces systèmes de [traduction automatique][…] notamment dans le traitement des syntagmes nominaux complexes, aussi bien au niveau du syntagme lui-même (variations possibles dans la juxtaposition des constituants, identification des constituants coordonnés…) comme au niveau du texte (instabilité des choix de traduction, identification adéquate du domaine de spécialité…)“.

La traduction automatique, aussi performante qu’elle soit, reste cependant imparfaite malgré ses progrès. Si elle se montre efficace lors de traductions simples et littérales, elle peine souvent à capter les nuances contextuelles essentielles. C’est ainsi que la traduction d’expressions idiomatiques (par exemple “les carottes sont cuites”, “les dindons de la farce”), des modes d’emploi ou de certaines publicités, produit parfois des rendus éloignés du sens original, jusqu’à produire de faux sens.

© Shutterstock

Les cours de thème et de version peuvent être l’occasion de sensibiliser et d’accompagner les étudiants vers une utilisation raisonnée de la traduction automatique. Il s’agit aussi d’un espace pour s’entraîner à repérer et à corriger les écueils précédemment cités, tout en renforçant la compréhension des systèmes linguistiques des langues étudiées. À long terme, cette capacité d’analyse revêt une importance fondamentale dans leur futur contexte professionnel. Communicants, journalistes, traducteurs ou enseignants de langues, ces étudiants seront souvent amenés à naviguer entre diverses sources d’information, parfois entachées de deepfakes pour justifier les échecs éventuels que les traducteurs automatiques génèrent.

Renforcer la compréhension interculturelle

Outre le renforcement des éléments linguistiques que permettent d’étayer les cours de thème et de version, la prise en compte des spécificités culturelles constitue un élément d’apprentissage à part entière, notamment parce que la traduction est, entre autres, un moyen de médiation entre deux cultures.

D’ailleurs lorsque le traductologue canadien Jean Delisle parle de la dimension culturelle de la traduction, il recourt à la métaphore de l’”hydre à cent-mille têtes” pour en souligner la nature multiple et dynamique.

La capacité à détecter et à comprendre les différences culturelles aide ainsi à prévenir les malentendus qui peuvent si facilement surgir en langue étrangère et qui sont parfois déjà présents dans la langue source. L’extrait humoristique de Juste Leblanc avec les confusions entre l’adverbe “juste” et le prénom “Juste”, dans le film Le Dîner de cons, l’illustre.

Finalement, en nous éloignant du caractère parfois artificiel des pratiques adoptées dans l’enseignement du thème et de la version et en tenant en compte de l’évolution socio-économique de la société jointe à l’utilisation de l’intelligence artificielle, ces cours pourraient (re)gagner l’intérêt initial du parcours d’apprentissage des langues. Actualisés, ils seraient à même d’offrir aux étudiants une compréhension plus claire des exigences des métiers liés aux langues, métiers qui requièrent aujourd’hui des compétences humaines spécifiques, complémentaires mais distinctes de celles des machines.

La question qui se pose aujourd’hui n’est plus “Pourquoi enseigner le thème et la version à l’heure de l’IA ?“, mais plutôt “Comment ?” “Laisser exister la relation avec les systèmes d’IA, là où partout on ne parle souvent que de leurs usages, c’est aussi laisser place à la dimension indéterminée de leur intelligence inhumaine”, comme on peut le lire dans l’ouvrage d’Apolline Guillot, Miguel Benasayag et Gilles Dowek intitulé L’IA est-elle une chance ?

Anissa Hamza-Jamann, Université de Lorraine


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, Le Caravage, Saint-Jérôme écrivant (1606) © Galerie Borghese (Rome) ; © Shutterstock | N.B. Jérôme est le Patron des traducteurs.


Plus de presse en Wallonie…

Les systèmes d’IA ne savent pas expliquer leurs décisions. Voici les pistes de recherche vers ‘l’explicabilité’

Temps de lecture : 6 minutes >

[THECONVERSATION.COM, 5 décembre 2024] L’utilisation d’intelligences artificielles, dans certains cas, génère des risques de discriminations accrues ou encore de perte de confidentialité ; à tel point que l’Union européenne tente de réguler les usages de l’IA à travers différents niveaux de risques. Ceci pose d’autant plus question que la plupart des systèmes d’IA aujourd’hui ne sont pas en mesure de fournir des explications étayant leurs conclusions. Le domaine de l’IA explicable est en plein essor.

À l’hôpital, des systèmes d’intelligence artificielle (IA) peuvent aider les médecins en analysant les images médicales ou en prédisant les résultats pour les patients sur la base de données historiques. Lors d’un recrutement, des algorithmes peuvent être utilisés pour trier les CV, classer les candidats et même mener les premiers entretiens. Sur Netflix, un algorithme de recommandation prédit les films que vous êtes susceptible d’apprécier en fonction de vos habitudes de visionnage. Même lorsque vous conduisez, des algorithmes prédictifs sont à l’œuvre dans des applications de navigation telles que Waze et Google Maps pour optimiser les itinéraires et prédire les schémas de circulation qui devraient assurer un déplacement plus rapide.

Au bureau, ChatGPT, GitHub Copilot et d’autres outils alimentés par l’IA permettent de rédiger des courriels, d’écrire des codes et d’automatiser des tâches répétitives ; des études suggèrent que jusqu’à 30 % des heures travaillées pourraient être automatisées par l’IA d’ici à 2030.

Ces systèmes d’IA sont très variés, mais ils ont un point commun : leur fonctionnement interne et leurs résultats sont difficiles à expliquer… pas seulement pour le grand public, mais aussi pour les experts. Ce manque d’explicabilité limite le déploiement des systèmes d’IA en pratique. Pour résoudre ce problème et s’aligner sur les exigences réglementaires croissantes, un domaine de recherche connu sous le nom d’IA explicable (ou explicabilité) a vu le jour.

IA, apprentissage automatique… des noms qui recouvrent des systèmes variés

Avec la médiatisation généralisée de l’intelligence artificielle et son déploiement rapide, il est facile de se perdre. En particulier, de nombreux termes circulent pour désigner différentes techniques d’IA, sans que l’on sache forcément bien ce que chacun recouvre, par exemple “apprentissage automatique”, “apprentissage profond” et “grands modèles de langage”, pour n’en citer que quelques-uns.

En termes simples, l’IA fait référence au développement de systèmes informatiques qui effectuent des tâches nécessitant une intelligence humaine, telles que la résolution de problèmes, la prise de décision et la compréhension du langage. Elle englobe divers sous-domaines tels que la robotique, la vision par ordinateur et la compréhension du langage naturel.

Un sous-ensemble important de l’IA est l’apprentissage automatique, qui permet aux ordinateurs d’apprendre à partir de données au lieu d’être explicitement programmés pour chaque tâche. Pour simplifier, la machine observe des schémas dans les données et les utilise pour faire des prédictions ou prendre des décisions. Dans le cas d’un filtre antispam par exemple, le système est entraîné à partir de milliers d’exemples de courriers électroniques indésirables et non indésirables. Au fil du temps, il apprend des éléments – des mots, des phrases ou des détails sur l’expéditeur – qui sont courants dans les spams.

Différentes expressions sont utilisées pour désigner un large éventail de systèmes d’IA © Elsa Couderc, CC BY

L’apprentissage profond est lui-même un sous-ensemble de l’apprentissage automatique et utilise des réseaux de neurones complexes composés de plusieurs couches afin de repérer et d’apprendre des motifs récurrents encore plus sophistiqués. L’apprentissage profond s’avère d’une valeur exceptionnelle pour travailler avec des données textuelles ou des images, et constitue la technologie de base de divers outils de reconnaissance d’images ou de grands modèles de langage tels que ChatGPT.

Réglementer l’IA

Les exemples du début de cet article montrent la grande variété d’applications possibles de l’IA dans différents secteurs. Plusieurs de ces applications, par exemple la suggestion de films sur Netflix, semblent relativement peu risquées, tandis que d’autres, comme le recrutement, l’évaluation d’éligibilité à un crédit bancaire ou le diagnostic médical, peuvent avoir un impact important sur la vie d’une personne. Il est donc essentiel que ces applications soient conformes à des critères éthiques partagés.

C’est à cause de ce besoin d’encadrement que l’Union européenne a proposé son AI Act. Ce cadre réglementaire classe les applications de l’IA en quatre niveaux de risque différents en fonction de leur impact potentiel sur la société et les individus : inacceptable, élevé, limité, et minimal. Chaque niveau mène à différents degrés de réglementation et d’exigences.

Ainsi, les systèmes d’IA à “risque inacceptable”, tels que les systèmes utilisés pour le score social ou la police prédictive, sont interdits en Union européenne, car ils représentent des menaces importantes pour les droits de l’homme.

Les systèmes d’IA à “haut risque” sont autorisés, mais ils sont soumis à la réglementation la plus stricte, car ils sont susceptibles de causer des dommages importants en cas d’échec ou d’utilisation abusive, par exemple dans les secteurs sensibles que sont l’application de la loi et le maintien de l’ordre, le recrutement et l’éducation.

Les systèmes d’IA à “risque limité” comportent un certain risque de manipulation ou de tromperie, par exemple les chatbots ou les systèmes de reconnaissance des émotions, dans lesquels il est primordial que les humains soient informés de leur interaction avec le système d’IA.

Les systèmes d’IA à “risque minimal” contiennent tous les autres systèmes d’IA, tels que les filtres antispam, qui peuvent être déployés sans restrictions supplémentaires.

Le besoin d’explications, ou comment sortir l’IA de la “boîte noire”

De nombreux consommateurs ne sont plus disposés à accepter que les entreprises imputent leurs décisions à des algorithmes à boîte noire. Prenons l’exemple de l’incident Apple Card, où un homme s’est vu accorder une limite de crédit nettement plus élevée que celle de sa femme, en dépit du fait qu’ils partageaient les mêmes biens. Cet incident a suscité l’indignation du public, car Apple n’a pas été en mesure d’expliquer le raisonnement qui sous-tend la décision de son algorithme. Cet exemple met en évidence le besoin croissant d’expliquer les décisions prises par l’IA, non seulement pour garantir la satisfaction des clients et utilisateurs, mais aussi pour éviter une perception négative de la part du public.

De plus, pour les systèmes d’IA à haut risque, l’article 86 de la loi sur l’IA établit le droit de demander une explication des décisions prises par les systèmes d’IA, ce qui constitue une étape importante pour garantir la transparence des algorithmes.

Au-delà de la conformité légale, les systèmes d’IA “transparents” présentent plusieurs avantages, tant pour les propriétaires de modèles que pour les personnes concernées par les décisions.

Une IA transparente

Tout d’abord, la transparence renforce la confiance (comme dans l’affaire de l’Apple Card) : lorsque les utilisateurs comprennent le fonctionnement d’un système d’IA, ils sont plus susceptibles de l’utiliser.

Deuxièmement, la transparence contribue à éviter les résultats biaisés, en permettant aux régulateurs de vérifier si un modèle favorise injustement des groupes spécifiques.

Enfin, la transparence permet l’amélioration continue des systèmes d’IA en révélant les erreurs ou les effets récurrents inattendus.

Globalement, il existe deux approches pour rendre les systèmes d’IA plus transparents.

Tout d’abord, on peut utiliser des modèles d’IA simples, comme les arbres de décision ou les modèles linéaires pour faire des prédictions. Ces modèles sont faciles à comprendre car leur processus de décision est simple.

Par exemple, un modèle de régression linéaire peut être utilisé pour prédire les prix des maisons en fonction de caractéristiques telles que le nombre de chambres, la superficie et l’emplacement. La simplicité réside dans le fait que chaque caractéristique est affectée d’un poids et que la prédiction est simplement la somme de ces caractéristiques pondérées : on distingue clairement comment chaque caractéristique contribue à la prédiction finale du prix du logement.

Cependant, à mesure que les données deviennent plus complexes, ces modèles simples peuvent ne plus être suffisamment performants.

C’est pourquoi les développeurs se tournent souvent vers des “systèmes boîte noire” plus avancés, comme les réseaux de neurones profonds, qui peuvent traiter des données plus importantes et plus complexes, mais qui sont difficiles à interpréter. Par exemple, un réseau de neurones profond comportant des millions de paramètres peut atteindre des performances très élevées, mais la manière dont il prend ses décisions n’est pas compréhensible pour l’homme, car son processus de prise de décision est trop vaste et trop complexe.

L’IA explicable

Une autre option consiste à utiliser ces puissants modèles malgré leur effet de “boîte noire” en conjonction avec un algorithme d’explication distinct. Cette approche, connue sous le nom d’”IA explicable”, permet de bénéficier de la puissance des modèles complexes tout en offrant un certain niveau de transparence.

Une méthode bien connue pour cela est l’explication contre-factuelle, qui consiste à expliquer la décision atteinte par un modèle en identifiant les changements minimaux des caractéristiques d’entrée qui conduiraient à une décision différente.

Par exemple, si un système d’IA refuse un prêt à quelqu’un, une explication contre-factuel pourrait informer le demandeur : “Si votre revenu annuel avait été supérieur de 5 000 euros, votre prêt aurait été approuvé“. Cela rend la décision plus compréhensible, tout en conservant un modèle d’apprentissage automatique complexe et performant. L’inconvénient est que ces explications sont des approximations, ce qui signifie qu’il peut y avoir plusieurs façons d’expliquer la même décision.

Vers des usages positifs et équitables

À mesure que les systèmes d’IA deviennent de plus en plus complexes, leur potentiel de transformer la société s’accroît, tout comme leur capacité à commettre des erreurs. Pour que les systèmes d’IA soient réellement efficaces et fiables, les utilisateurs doivent pouvoir comprendre comment ces modèles prennent leurs décisions.

La transparence n’est pas seulement une question de confiance, elle est aussi cruciale pour détecter les erreurs et garantir l’équité. Par exemple, dans le cas des voitures autonomes, une IA explicable peut aider les ingénieurs à comprendre pourquoi la voiture a mal interprété un panneau d’arrêt ou n’a pas reconnu un piéton. De même, en matière d’embauche, comprendre comment un système d’IA classe les candidats peut aider les employeurs à éviter les sélections biaisées et à promouvoir la diversité.

En nous concentrant sur des systèmes d’IA transparents et éthiques, nous pouvons faire en sorte que la technologie serve les individus et la société de manière positive et équitable.

David Martens & Sofie Goethals, Université d’Anvers


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © la.blogs.nvidia.com ; © Elsa Couderc, CC BY.


Plus de dispositifs en Wallonie…

THONART : Raison garder est un cas de conscience.s (2024)

Temps de lecture : 31 minutes >

Elections communales obligent. C’est l’histoire du Bourgmestre de Liège qui va au Conseil communal. Il est toujours de bon ton de commencer un article par une bonne nouvelle : il se sent en sécurité. Plus encore : en pénétrant dans la salle, il y a quelques instants, il savait où il allait s’assoir et il savait qu’il serait flanqué des mêmes collègues que d’habitude. Dans la même veine, toutes les interventions de la séance, il les prévoit et les attend au juste moment où elles sont prévues dans le protocole qui fixe le déroulement des débats. Et pour le conforter dans le sentiment rassurant qu’une règle universelle est d’application (dans la salle du Conseil communal à tout le moins), l’ensemble des personnes, des objets et des décors est à sa place, des cravates (éventuelles) des Conseillers aux dorures des portes, des micros aux galettes sur les sièges.

J’ai longtemps cherché dans la littérature (comme on dit) pour trouver une communauté aussi éprise d’absence de surprise, aussi peu désireuse d’aventure et aussi bien organisée pour se donner un sentiment permanent de… sécurité. Je n’en ai trouvé qu’une : les Hobbits de la Comté.

Voici ce que Tolkien, l’auteur du Hobbit puis du Seigneur des Anneaux, en dit dans les années 1950 (vous allez voir, la ressemblance est troublante), je le cite : “Les Hobbits sont un peuple effacé mais très ancien, qui fut plus nombreux dans l’ancien temps que de nos jours, car ils aiment la paix et la tranquillité et […] s’ils ont tendance à l’embonpoint et ne se pressent pas sans nécessité,  […] Ils ont toujours eu l’art de disparaître vivement et en silence quand des gens qu’ils ne désirent pas rencontrer viennent par hasard de leur côté […] Et, pour ce qui était de rire, de manger et de boire, ils le faisaient bien, souvent et cordialement, car ils aimaient les simples facéties en tout temps et six repas par jour (quand ils pouvaient les avoir) […] et ils étaient très considérés, non pas seulement parce que la plupart d’entre eux étaient riches, mais aussi parce qu’ils n’avaient jamais d’aventures et ne faisaient rien d’inattendu : on savait ce qu’un Hobbit allait dire sur n’importe quel sujet sans avoir la peine de le lui demander…

Alors, que nous dit donc ce besoin obsessionnel de sécurité, manifestement aussi typique des Conseillers communaux que des Hobbits ? Est-il limité à la vie au Conseil ou bien la nécessité de pouvoir faire confiance à notre environnement est-elle plus fondamentale chez l’Humain ? Renoncer à Sauron, chez Tolkien, ou renvoyer la rassurante présence du dieu dans les coulisses, nous a-t-il condamné à rechercher ailleurs une légalité rassurante, c’est-à-dire le sentiment qu’il y a dans l’air que nous respirons tous un ordre des choses qui garantit que ce nous attendons du monde autour de nous, se passera comme nous l’attendons ?

Dieu est mort“, soit, la cause est entendue mais, une fois la Loi divine sortie du décor, il revient de se pencher sur une injonction beaucoup moins facile à gérer au jour le jour : “Tu es ta propre loi,” nous disent les moralistes. Facile à dire. Me voilà tenu de devenir mon propre pouvoir législatif, mon pouvoir exécutif et, surtout, mon propre pouvoir judiciaire : si je suis coupable de quoi que ce soit, c’est moi qui prononcerai la sentence, dans ma délibération intime ! En clair : non seulement tout phénomène, tout événement qui réduit ma sécurité m’obligera à réagir mais je me tiendrai personnellement responsable de ma décision d’agir…

Quand on y regarde de plus près, nous sommes au quotidien, comme les bons citoyens à la fin du siècle des Lumières : la Révolution a raccourci d’une tête tout ce qui ressemblait à l’autorité usurpée du Roi et éloigné du débat public les donneurs de leçons en soutane. C’était assurément un véritable moment de vertige où le bon citoyen ne disposait plus d’aucun catéchisme auquel se conformer, ni de lettres de cachet auxquelles obéir aveuglément ! Que s’est-il passé alors ? Quelles leçons en tirer ?

Les uns (et c’est tout à leur honneur) ont gardé raison et se sont appliqués à convenir de nouvelles règles de vivre-ensemble telle que la Déclaration des droits de l’homme et du citoyen, souvent ornée, je cite, de “l’œil suprême de la Raison qui vient dissiper les nuages de l’erreur qui l’obscurcissaient.” Ainsi, sans l’aval du Roi ou du Clergé, des hommes et des femmes faisaient la lumière sur un ensemble de droits dont ils convinrent qu’ils étaient naturels, qu’ils soient individuels ou communs, délimitant un périmètre civilisé, où chacun devait pouvoir se sentir en sécurité.

Les autres (parmi lesquels certains des uns) ont vécu cette liberté soudaine comme des veaux que l’on met à l’herbe pour la première fois : de la pure sauvagerie ! Ils ont couru dans tous les sens ou sont restés terrés près du tracteur ; ils se sont blessés aux barbelés ou se sont assommés mutuellement à coups de cornes et de sabots ; les routiniers ont longuement meuglé qu’ils ne trouvaient plus leurs granulés pendant que les bien-sevrés s’explosaient la caillette en broutant comme des fous !

Toutes proportions gardées, tout phénomène nouveau provoquant un état d’insécurité individuelle semble également être, pour chacun d’entre nous, comme un chaos à expérimenter, comme un lendemain de prise de Bastille : pas de règles auxquelles se conformer ; pas encore assez de confiance dans une situation inédite et une lourde inquiétude quant à la capacité de faire face à l’expérience directe, celle qui est proche de la réalité.

Et d’ailleurs, n’est-ce pas également à ce moment-là, alors que nous ne nous sentons pas en sécurité, alors que nous n’avons pas confiance, que nous aurions tendance à projeter sur le monde des explications qui nous sont propres, des fabulations qui nous rassurent : à savoir, nous raconter des histoires où la Princesse épouse le Prince, où il ne pleut pas pendant le match du gamin et où nous retouchons des impôts ? En un mot comme en cent : des histoires où les gens et les choses respectent une règle du jeu et dans lesquelles la fin tourne à notre avantage.

Nos fabulations (c’est ainsi que Nancy Huston les baptise), nos fabulations face à l’insécurité et leur capacité à nous empêcher de raison garder : c’est bien notre sujet, en trois séries de mots-clefs. Nous commencerons par les 3 premiers d’entre eux : confiance, puissance et légalité.

Première série, d’abord, la confiance

Un philosophe de l’Université de Louvain, Mark Hunyadi, y consacre son livre Faire confiance à la confiance, paru en 2023. Une réelle découverte pour moi. Il y aura un avant et un après. L’auteur s’y étonne du nombre important des occurrences du mot ‘confiance’ dans tous nos discours, sans que la chose ne reçoive de définition claire.

Nous vivons dans des sociétés individualistes“, commence-t-il, c’est-à-dire que la volonté individuelle, l’affirmation de soi, semble y être le moyen suprême pour briser toutes les limitations. Comme souvent dit : c’est au point qu’on est passé du “je pense donc je suis” au “je crois donc j’ai raison.

Qui plus est, précise Hunyadi, le numérique permet à chacun de vivre comme dans un cockpit d’avion, dans un espace protégé où chacun peut, de manière fiable, piloter du bout des doigts son environnement médiatisé. Tout y est sécurisé autant que faire se peut et, de manière quasi libidinale, le numérique satisfait tous nos désirs sans faillir… à condition de choisir uniquement ce qui est sur le menu ! Pas question ici de souhait alternatif, d’option divergente ou de créativité, pas question de pensée négative (c’est une notion positive, à savoir une pensée libre qui serait capable de critiquer le système dans lequel elle pense). Si l’on parle de liberté aujourd’hui, insiste Hunyadi, “c’est une liberté de supermarché !

Pensez à votre dernière commande de pizza en ligne. Vous aviez fortement envie de manger une, je cite, “pizza blanche, pommes de terre, mozzarella, et romarin” en regardant Les Aventuriers de l’Arche perdue devant votre nouveau super-écran de 77 pouces de diagonale. Pas de chance, la pizza n’est plus au menu des plats livrés par votre fournisseur habituel. C’est donc avec la “quatre fromages” plébiscitée par les clients habituels de la plateforme que vous avez vécu la vraie aventure… dans vos pantoufles.

Dans ce contexte de vie médiatisée, où la liberté est limitée par ce qu’offrent les systèmes, l’auteur déplore la diminution de la confiance, non pas à cause d’une augmentation de la méfiance mais, simplement, parce que tout un chacun a moins besoin de la confiance ! La digitalisation de la majorité de nos activités fait rentrer celles-ci dans des cases et des tableaux qui limitent fortement le risque de ne pas voir nos attentes comblées, à la condition que nous restions dans le cadre donné.

Par exemple : ai-je vraiment besoin de faire confiance à Mère Nature lorsque, sans surprise, je reçois un billet de 50 €, que j’ai demandé au travers d’une suite de menus sur l’écran d’un terminal, après m’être identifié grâce à un code secret ?

C’est ici qu’il devient nécessaire de définir cette confiance naturelle qui, selon Hunyadi, est à la base même de notre relation au monde. Pour ce faire, il prend l’exemple assez limpide d’un conducteur au volant de son véhicule. Imaginez : il fait beau ;  vous êtes au volant de votre voiture sur une route de campagne en ligne droite ; vitesse autorisée 90 km/h ; une voiture vient dans l’autre sens à la même vitesse ; elle est sur l’autre bande ; vous allez vous croiser sans ralentir et… continuer votre chemin.

Que s’est-il passé ? Rien. Mais vous avez pris un risque énorme (une collision frontale à 90 + 90 = 180 km/h) parce que vous avez eu confiance dans le fait que l’autre conducteur n’allait pas se dérouter et vous emboutir. Aucune explication rationnelle, aucun contrat avec des petites lettres à la fin, aucun fétiche pendu à votre rétroviseur ne garantissait votre sécurité. Vous avez agi comme s’il était dans l’ordre des choses, dans la légalité naturelle, que la collision n’aurait pas lieu et, d’ailleurs, vous êtes là, aujourd’hui, à me lire, après un pari où vous avez misé votre vie et celle de vos passagers.

C’est de cette confiance-là que parle Hunyadi. Une confiance sans laquelle notre vie serait impossible : comment s’asseoir sans la conviction que la chaise n’est pas en caoutchouc, comment trinquer sans être persuadé que le vin qu’on va boire n’est pas un lavement et comment aller marcher en forêt sans être intimement convaincu du bénéfice qu’on en recevra ?

Partant, voilà une définition plus praticable de la confiance : j’ai confiance quand j’agis comme si les attentes de comportement que j’ai envers le monde où je vis n’étaient pas susceptibles d’être déçues. On fait ça 24 heures sur 24, 7 jours sur 7 ! Cette confiance procède donc plutôt de notre relation au monde, avant que d’être une relation au risque même…

Se sentir en sécurité, c’est donc être en confiance et avoir la conviction que les attentes de comportement que nous avons envers notre environnement seront satisfaites, et que nous pouvons agir dans le cadre d’une certaine légalité, un certain ordre des choses, qui garantit cette sécurité.

D’accord, mais que ce passe-t-il alors si nous ne pouvons avoir pleinement confiance dans notre environnement ; en d’autres termes, lorsque notre sentiment de sécurité n’est pas à 100 % ?

Hunyadi ne répond pas spécifiquement à la question et son propos passe peut-être à côté d’une autre dimension, qui, selon moi, participe également du sentiment de sécurité : la puissance ressentie par chacun. Là où je n’ai pas pleinement confiance, peut-être le sentiment de ma propre puissance peut-il compenser et permettre une équation du type : x % de confiance + y % de puissance = 100 % de sécurité.

Illustrons cela : si une jeune liégeoise descend dans le Carré après minuit (j’ai des noms !), elle ne peut se sentir en sécurité que accompagnée de sa bande (ceci pour la puissance) et que après quelques shots de mauvaise vodka (ceci pour la confiance). Si, il y a de nombreuses années de cela, je descendais dans le même Carré, quelle que soit l’heure, quel que soit le déficit de confiance que je puisse avoir ressenti alors, ma taille et mon poids le compensaient allègrement et je me sentais suffisamment en sécurité.

Mais qu’en est-il alors lorsqu’un homme ou une femme, comme vous et moi, n’a pas pleinement confiance dans son environnement et que, de plus, le sentiment de sa propre puissance est insuffisant pour que, dans son cerveau, le voyant “sécurité” reste au vert ?

Je ne parle pas ici d’inquiétudes globales, comme l’avenir de nos enfants, les orangs-outans qui ne seront bientôt plus que des fantômes, la droite extrême qui prend ses aises dans nos démocraties (les dernières du modèle probablement), ou même l’omniprésence de prothèses numériques de 7 pouces de diagonale qui nécrosent les cervicales de nos ados.

Non, au quotidien, dans des situations où nous ressentons un enjeu personnel et où règne l’inconfort quand nous délibérons dans notre petite tête, nous pouvons avoir le sentiment que notre sécurité – donc, la somme de notre confiance et de notre puissance – n’est pas suffisante pour que nous puissions toujours agir avec une pensée claire, sans inquiétude, sans aveuglement ; en d’autres termes : pour que nous puissions “raison garder” (comme le disait déjà Marie de France, au XIIe siècle), puisque la sécurité semble en  être une condition…

Deuxième série, la confrontation

Jusque-là, nous avons évoqué les trois premiers mots-clefs : confiance, puissance et légalité. On continue…

Tous les phénomènes qui arrivent à notre conscience (à nos consciences, comme on va le voir) n’appellent pas de notre part des réactions simples, des réflexes comme ceux qui réveillent le chat : il sent qu’il a faim, il se lève, va manger, passe par sa litière puis revient digérer sur son coussin. Si c’est la vie rêvée pour un chat ou un Hobbit, c’est la honte pour un honnête individu : être libre et probe demande une délibération intérieure, appelle un travail d’objectivation, nécessite l’analyse des informations traitées, suppose un jugement critique et non-dogmatique des options disponibles, et implique une décision d’agir qui devra être efficace et, accessoirement… juste. Par parenthèse, c’est le très britannique Stephen Fry – un homme selon notre coeur – qui s’indignait devant l’obsession de l’être humain à vouloir être juste, plutôt qu’à vouloir être efficace. Nous en reparlerons…

Qu’il s’agisse de décisions graves ou de choix plus anodins, quand nous sommes confrontés à des phénomènes trop originaux pour notre périmètre de sécurité – réduisant par là notre taux de confiance naturelle – nous devons mettre en oeuvre les trois mots-clefs de la deuxième série, c’est-à-dire : l’aliénation, l’attention et les consciences (au nombre de trois, elles donnent leur “s” au titre de l’article : “Raison garder est un cas de consciences“).

J’insiste ici : souvent, quotidiennement même, alors que nous en avons besoin, nous ne percevons pas de légalité dans nos échanges avec le monde, nous ne décelons pas un ordre des choses qui réduirait notre expérience directe à une résolution de problèmes simples et concrets, avec mesure et raison, sans aveuglement, un peu comme la vie de ce foutu chat qui continue à dormir sur le coussin.

Hélas, le monde, tel qu’il se présente à nous, dépasse notre entendement, c’est un fait (sinon, nous n’aurions pas eu besoin d’inventer des notions comme le mystère et ou l’absurde). Souvent, chaque jour, nos attentes de comportement envers lui sont détrompées, frustrées et nous vivons la surprise voire… l’aventure (“l’aventure ? beurk !” dit le petit Hobbit qui venait justement de s’endormir pour digérer un peu).

Pour jouer sur les mots : dans cette confrontation avec les phénomènes de l’existence, notre quête du sens est peut-être l’exact contraire de notre sens de la quête !

Le sens de la Vie auquel Sisyphe a renoncé et que certain attendent toujours, comme ils attendent Godot ; ce sens tant recherché, qui fait l’objet de mille quêtes, serait-il platement la recherche de l’assurance, sécurisante, que les choses obéissent à une légalité et que nous pouvons avancer en toute confiance puisque, dans ce cas, le déroulement de l’avenir existe déjà et, qu’en gros, il ne nous reste plus qu’à apprendre à lire le futur avec une appli de gsm, dans notre fauteuil ou sur le coussin, à côté du chat.

Je veux insister sur ce point : ma proposition (qui n’est pas originale, d’ailleurs) est que le Sens de la vie vécu comme un objet idéal, pré-existant quelque part, qu’il nous faut atteindre et gagner au terme d’une quête que l’on voudra longue, aventureuse et difficile, est un Graal romantique tout à fait encombrant pour la Raison. Quelque part, dans le monde des Idées de Platon, dans le sublime de l’Olympe où festoient les Dieux, dans l’au-delà du Grand Barbu, derrière la bouille incroyable de Superman ou entre les seins de Lilith, la première femme, il y aurait un Grand Secret, un mode d’emploi universel, multilingue et illustré, prêt pour le téléchargement dans le répertoire de votre choix : dans le répertoire “religion”, dans celui dédié aux initiations, dans celui des intuitions chamaniques ou dans cet autre répertoire où se rangent les raisonnements cartésiens sur l’essence des choses…

Sans moi ! La Joie de découvrir la légalité ou l’harmonie, nait de l’exercice de soi, de la pratique de sa propre puissance, de son humanité. C’est autre chose alors de penser que, au contraire de l’option idéaliste, notre lot est de continuellement éprouver notre puissance face à ce qui nous advient par aventure. “Ce qui ne me tue pas me rend plus fort“, disait Nietzsche entre deux Xanax : voilà bien les termes qui donnent sens à notre quête. Nous nous sentirons et nous serons plus forts à chaque décision prise librement, à chaque acte raisonné que nous poserons sans faire appel à un dogme quelconque, souvenez-vous : “Sapere Aude“, Ose savoir par toi-même, disait Kant. Nous serons plus forts à chaque lecture critique mais apaisée du “bruit et de la fureur” d’un monde dont la complexité rend, hélas, notre confiance spontanée assez difficile. C’est ainsi que le déficit de confiance qui nous colle à la peau pourra être compensé par notre puissance personnelle.

L’idée est belle et résonne encore du bruit chevaleresque des sabots (ou des noix de coco, selon la référence…) de Lancelot, de Galahad et autres Arthur. Mais, hélas, nous ne sommes pas Indiana Jones et, manifestement, les humains, comme les Hobbits – ou les Conseillers communaux – n’ont pas réellement le goût de l’aventure.

Diable. Le monde est trop complexe pour moi, je me tue à le dire ! Je ne perçois pas spontanément comment les choses tombent juste. Je n’ai plus confiance en la légalité de la vie, parce que je ne la reconnais pas dans ce qui m’arrive, à moi. Comment dès lors me sentir en sécurité ? Comment avoir assez confiance ?

Qu’à cela ne tienne : puisque le monde comme il va ne me donne pas confiance, puisqu’il dépasse mon entendement, je vais en fabuler un autre à ma mesure où la légalité des choses sera évidente et m’y projeter, m’y aliéner ! Ce sera une expérience virtuelle (le contraire d’un voyage spirituel) que d’être un moi augmenté dans un environnement sécurisé

    • Regardez dans votre bus, cet ado qui ‘scrolle’ sur son gsm avec les écouteurs sur les oreilles, on dirait un singe avec une banane. Comment lui en vouloir, la femme mûre assise en face de lui fait la même chose : deux singes, deux bananes. Et ils ne se parleront pas…
    • Regardez ce manager qui, dans son langage Corporate, a trouvé un slot pour tirer les Lessons Learned avec son N+1, lors d’un meeting One-2-One, alors qu’il est overbooké.
    • Et regardez l’indigence intellectuelle qui permet à des dirigeants, même grimés en Van Gogh avec un pansement sur l’oreille, de fantasmer à haute voix une nation entière qui serait faite d’êtres humains divisés en deux groupes exclusifs, grossièrement définis : nous et les autres !

Dans les trois cas, je ne vois que projection de soi dans un monde virtuel, fabulé, qui réduit la réalité à un périmètre compréhensible sans effort, dans lequel le sujet inquiet se projette par facilité, en recherce de sécurité. Souvenez-vous, Hunyadi évoquait un cockpit d’avion, à ce propos. Face à l’insécurité comme nous l’avons définie, l’aliénation est l’option libidinale du moindre effort : je me projette dans une autre situation puisque la mienne me semble trop difficile.

On pourrait dire : “Choisis ton camp, camarade. A chaque baisse de la confiance, feras-tu face à l’expérience directe de ta propre réalité complexe ou te projetteras-tu dans un monde virtuel, simple, binaire, partagé entre les bisounours et les terroristes du Hamas ?

Petite parenthèse. Avant d’aller plus loin, il nous faut encore parler d’un truc bizarre qu’on appelle communément… la réalité. Selon Jacques Lacan : “Le réel, c’est quand on se cogne.” Soit, la formule est belle. Mais que penser de cette assertion à l’ère des neurosciences, alors que l’hypnose permet de réaliser des opérations chirurgicales avec des scalpels bien réels, bien coupants, sans douleur et sans narcose complète ?

Plus proche de notre propos, Marie-Louise von Franz, une élève de Jung, affirme en 1972 : “Il nous est impossible de parler d’une réalité quelconque si ce n’est sous la forme d’un contenu de notre conscience.” Voilà la clef : nous ne vivons la réalité qu’au travers de sa représentation dans notre conscience. Si les phénomènes au travers desquels nous percevons cette réalité mettent en danger notre sentiment de sécurité, nous avons alors beau jeu de truquer la représentation que nous en avons, en fait : de nous aliéner dans une représentation moins risquée de ce qui nous arrive.

Plus tard, en 1985, Endel Tulving d’ailleurs aurait pu réécrire la phrase de von Frantz comme ceci : “Il nous est impossible de parler d’une réalité quelconque si ce n’est sous la forme d’un contenu de nos trois consciences.

Nous en avons déjà parlé ailleurs : mort en 2023, Tulving était un psychologue estonien établi au Canada qui a développé un modèle original où trois formes de conscience correspondent chacune à un type de mémoire :

      1. la conscience a-noétique concerne nos fonctionnements les plus automatiques (faire du vélo, nager, jouer d’un instrument ou réagir sous l’influence d’un trauma…).
      2. La conscience noétique permet d’évoquer des choses qui ne sont pas présentes, pas perceptibles dans l’immédiat, c’est là qu’on retrouve les représentations du monde.
      3. Enfin, la conscience auto-noétique est centrée sur la représentation de soi : c’est ce que je me raconte à propos de moi-même.

Cette taxonomie des consciences est basée sur la racine grecque “noûs” qui signifie “connaissance, intelligence, esprit” ; elle est directement héritée des travaux de Edmund Husserl, le père de la phénoménologie, une discipline de la philosophie contemporaine qui exclut l’abstraction, pour se concentrer sur les seuls phénomènes perçus. Je le cite : “Toute conscience est conscience de quelque chose.

Que ces théories soient exactes ou non importe peu ici. Si elles ne font pas obligatoirement autorité auprès de tous les chercheurs en neurosciences, ce n’est pas déterminant pour nous : adoptons-les simplement comme des occasions généreuses d’alimenter nos exercices de pensée. Pour mémoire, les “exercices de pensée” ou “expériences de pensée” (“thought experiments” en anglais) sont des outils puissants utilisés, entre autres, en philosophie morale, pour tester des concepts, pour aller jusqu’au bout d’un raisonnement : on imagine un scénario hypothétique et on lui applique le concept que l’on veut éprouver. Vous avez peut-être entendu parler de l’exercice du Chat de Schrödinger qui permet d’explorer les paradoxes de la physique quantique, l’exercice du Dilemme du tramway en philosophie morale ou encore l’exercice de la Chambre de Mary en psychologie cognitive : “Mary est une scientifique qui connaît tout ce qu’il y a à savoir sur la vision des couleurs, mais elle a toujours vécu dans une pièce en noir et blanc et n’a jamais vu de couleurs elle-même. Si Mary venait à sortir de sa pièce et voyait la couleur rouge pour la première fois, apprendrait-elle quelque chose de nouveau ?

Ceci boucle la boucle avec le problème de la réalité : pour nous, n’est objet du réel que ce dont nous avons conscience, au travers de sa représentation. Partant, quand on parle d’aliénation, la réalité que nous allons déformer par nos fabulations est aussi précisément celle qui est à notre portée, celle qui vit au creux de nos consciences.

Pour y voir plus clair, passons donc en revue les trois consciences selon Tulving et trouvons chaque fois des exemples de deux réactions possibles devant l’insécurité : soit l’aliénation qui traduit la fuite, soit l’attention qui implique la confrontation. Pour ne pas vous jouer la carte du suspense, je précise déjà que ces deux réactions pourraient être au nombre de trois, nous l’allons voir. Donc, face à une situation nouvelle (donc insécurisante), deux options ambivalentes :

    1. OPTION 1 – L’aliénation > le sujet s’évade vers des Paradis Perdus ou
    2. OPTION 2 – L’attention > le sujet regarde ses mains et agit à propos.
Conscience auto-noétique

Allons-y. En vedette américaine, j’ai le plaisir de vous présenter la conscience auto-noétique ! Elle va être notre plat de résistance. Tulving la définit comme suit, en 1985 : “La conscience autonoétique (connaissance de soi) est le nom donné au type de conscience qui permet à un individu de prendre conscience de son existence et de son identité dans un temps subjectif qui s’étend du passé personnel au futur personnel, en passant par le présent.” Traduit par l’anthropologue Paul Jorion en 2023, cela donne : “La conscience autonoétique est la conscience réfléchie de soi : la capacité de situer son expérience actuelle dans le cadre d’un récit de sa propre vie qui s’étend au passé et à l’avenir.” En clair, c’est l’aquarium personnel où nagent les histoires que je me raconte à propos de moi-même : c’est mon moi héroïque et narratif. “Héroïque” parce qu’il faut reconnaître que chacun se vit souvent comme un personnage libéré des contingences du quotidien (du calibre de Héraclès, Athéna, Superman, Achab, Galadriel, Harley Quinn ou… Gollum), plutôt que comme une personne qui doit faire la vaisselle tous les jours ou soigner ses cors au pied. “Narratif” parce que, précisément, le vocabulaire que nous utilisons pour nous décrire nous-mêmes, seuls devant le miroir, est celui de la fiction et des rêves. De même, la logique de notre auto-fiction est, comme celle des contes, des romans et des séries, peu rationnelle et elle ne tient pas compte de tous les aspects de la réalité pour faire avancer le scénario.

Qu’est-ce alors que raison garder devant cet aquarium d’histoires de tout type, traitées par notre conscience auto-noétique : des histoires exaltées, des faits divers interprétés comme moches, des légendes auto-dénigrantes, accusatrices ou follement admiratives ?

En 1947, Paul Diel propose un baromètre pour évaluer ces auto-fictions. Il explique que tout va bien tant que l’image que j’ai de moi (= ce que je me raconte à mon propos) correspond à mon activité effective (= ce que je fais vraiment).

Si c’est le cas, je suis satisfait de ma vie et… vogue la galère : pas besoin de se poser des questions. Par exemple : pourquoi Simenon aurait-il douté de sa capacité à écrire des romans policiers intimistes ? Les problèmes auraient commencé s’il avait voulu se lancer dans le Tour de France avec ses petits mollets…

Si ce n’est pas le cas, alors je le sais car l’écart entre ce que je pense de moi et ce que je fais effectivement est à la mesure de l’angoisse qu’il va provoquer chez moi. Je sais que je triche et cela m’angoisse. Selon Diel :

      • je triche par vanité, parce que je suis loyal envers une image de moi un peu trop sublime (du genre : “moi, vous savez, je ne suis pas capable de mentir, ce serait trop vilain“).
      • Je triche par culpabilité, parce que je suis timide, que je me sens nul et que j’évite tout ce qui pourrait me montrer que c’est vrai (du genre : “moi, vous savez, je ne suis pas capable de mentir, je suis tellement timide que je rougis tout de suite“).
      • Je triche par sentimentalité, parce que je veux qu’on m’estime, qu’on m’aime (du genre : “moi, vous savez, je suis incapable de mentir car je sais combien c’est important pour vous”).
      • Enfin, je triche par accusation, parce que j’en veux aux autres de ne pas m’estimer à ma juste valeur (du genre : “moi, vous savez, je ne suis pas capable de mentir, c’est pas comme mon mari. N’est-ce pas, chéri ?”).

Diel était un spécialiste des mythes et de leur interprétation et il parle dans ce cas des quatre catégories de la fausse motivation (vanité, culpabilité, sentimentalité et accusation) ; en clair, il parle des quatre manières de ne pas bien motiver nos actions parce que l’on porte un regard biaisé, aliéné sur les phénomènes. Il considère que cet écart, qu’il baptise la vanité (dans le sens de ce qui est vain, vide ; ce que j’ai appelé l’aliénation), est la faute originelle dans les mythes. Cette vanité serait la clef de lecture de tous les comportements déviants ou, en d’autres termes, de nos actions mal motivées, des actes que nous posons pour de mauvaises raisons.

Diel va plus loin et avance que cette notion d’aliénation permet également la lecture des mythes qui racontent l’origine de l’humain et de sa curieuse destinée : c’est à cause de sa vanité morale qu’Adam se voit condamné gagner son pain à la sueur de son front, lui qui voulait savoir le bien et le mal sans en faire d’abord l’expérience ; c’est à cause de sa vanité sexuelle qu’Héraklès souffrira des brûlures infligées par une peau empoisonnée que Déjanire, son épouse, lui a jeté sur le dos, au point qu’il devra plonger dans un bûcher allumé par son fils pour être purifié ; c’est à cause de sa vanité technique que Prométhée ose voler l’outil suprême, le feu, pour le donner aux hommes, et qu’il ne pourra également qu’être puni par Zeus…

Ainsi, à la lecture de Diel, on comprend assez bien l’option numéro 1 (pour mémoire : l’option Je m’évade vers des Paradis Perdus) : pour fuir devant une situation désagréable, insécurisante, je vais m’identifier (dans ma délibération, dans ma tête) à une version de moi plus sublime, je vais adopter une posture où je me sentirai plus en sécurité, je vais m’aliéner en adoptant l’attitude d’un personnage qui n’est pas le moi qui agit. Mais je vais ainsi créer un écart angoissant entre ma posture et mon action effective. A tout ceux pour qui ceci n’est pas encore clair, je recommande de revoir le film Psychose de Hitchcock et puis on en reparle.

Couche en plus. Vu que je triche et que je le sais, je ne vais pas manquer de me justifier en insistant sur le fait que je reste “loyal envers moi-même” : pas de chance, si je suis loyal dans ce cas c’est envers le mauvais cheval. Qui de nous n’a connu un proche qui se disait “loyal envers lui-même“, martelant “mais, c’est parce que je suis comme ça“, afin de justifier une posture empruntée, qui ne correspondait pas à ses actes. Et malheur à celui qui vexerait le quidam en question : en mettant en doute sa sublimité, il s’exposerait à toute la violence possible. En fait, la violence individuelle ne prend-elle pas toujours racine dans une vexation et la vexation ne trahit-elle pas toujours une posture plus ou moins sublime de celui – ou celle – que l’on offusque ?

Reprenons notre fil. Option 1 : je me sens insécurisé dans une situation nouvelle alors, dans ma vision de moi-même, je fuis et je m’assimile à une version de moi plus sublime, donc plus intouchable, en vertu d’une légalité imaginaire qui laisserait tranquilles les gens comme mon moi sublime. On parlera clairement d’aliénation dans ce cas : j’agis en me conformant à un modèle… qui est irréel.

Je me dois d’évoquer ici une variante moins toxique de cette option de fuite : dans une situation où je me sens insécurisé, je vais faire un pas de côté et imaginer ce que ferait un héros… à ma place. Il n’y aura pas d’action de ma part si ce n’est que je vais peut-être m’apaiser au travers de l’exercice de pensée “Comment mon héros aurait-il réagi dans cette situation ?

En matière de ‘héros’, c’est Daniel Boorstin qui remet les pendules à l’heure, aussitôt qu’en 1962 ! Dans son livre intitulé L’image : un guide des pseudo-événements en Amérique, il explique la différence entre les héros et les célébrités. Il y a cette formule magnifique : “les célébrités sont célèbres parce qu’elles sont connues.” Autre chose est de parler d’héroisme : pour Boorstin, un héros pose des actes libres et courageux, par une espèce de surcroît d’humanité, et peut nous servir d’exemple. On pense à Charlier-Jambe-de-bois, à Saint-Exupéry, à Rosa Parks, à Edward Snowden, etc.

…ou à mon collègue de travail. Loin de moi de vouloir flatter un collègue, mais il est des héroismes discrets qui méritent le souvenir. “Je me souviens” dirait Perec : nous devions voter collectivement sur une proposition fort discutée, j’avais des doutes réels sur l’attitude à adopter et, fraîchement débarqué dans l’équipe, j’étais tétanisé. J’ai voté “pour” alors que je pensais “relativement contre.” J’ai suivi le troupeau, je n’étais pas sûr de moi mais la quantité de bras levés a eu raison de mes doutes. Je n’en suis pas fier. C’est alors qu’à l’annonce “Les votes contre ?” du responsable, un seul bras s’est levé, le sien. Il y a eu de la beauté dans cet instant et j’ai appris de ce discret courage, de cette main levée seule contre tous, de ce moment que j’ai toujours vécu comme un acte de pensée libre.

Face à l’adversité, on peut donc fuir et se conformer à un modèle imaginaire et sublime. Option 1, c’est l’aliénation qui ne fait pas du bien. On peut aussi faire un tour de passe-passe avec un modèle exemplaire pour apprendre de ce qu’il ou elle aurait fait à notre place. Dira-t-on que c’est une aliénation qui fait du bien à retardement ?

Identifier et puis réduire l’aliénation : voilà donc un premier chantier balisé depuis de longues années tant par les spiritualités de l’intime que par les psychologues et psychanalystes de tous poils et, bien entendu, par les apôtres du développement personnel. Tous proposent des recettes plus ou moins onéreuses (posez la question à Woody Allen…), des trucs ou des méthodes exigeantes pour réduire cet écart toxique qui, ramené à notre travail intime, nous verrait intervenir… dans le vide, à côté de notre “moi”. Car il n’est pas question ici d’appel à l’humilité ou à la discrétion : lutter contre cette aliénation qui nous fait boîter l’âme, c’est faire preuve, à chaque petite victoire, de plus d’attention, de plus de présence effective à notre activité effective. Souvenez-vous : Montaigne parlait de “vivre à propos.”

Alors, amie lectrice, lecteur, retrouve ton coeur réel, ajuste ton regard et corrige l’angle d’attaque de ta délibération !

La conscience a-noétique

La conscience auto-noétique était le gros morceau, passons plus rapidement sur les deux autres manières de vivre l’expérience d’être soi. Le deuxième chantier voudrait nous voir explorer l’aliénation et son option opposée, l’attention, dans le giron de la conscience a-noétique. Ce deuxième moi, ce moi atavique et sauvage qui, s’il n’est pas le plus primitif, reste peut-être le plus difficile à concevoir, car il ne se paie pas mots ! D’où le terme de ‘sauvage.’

De quoi parle-t-on ici ? Je cite Tulving : “la mémoire procédurale est dite anoétique car elle s’exprime directement dans les comportements et l’action, sans conscience.” Pour mémoire, citons aussi notre anthropologue national, Paul Jorion : “La conscience anoétique, peut-être la plus insaisissable de toutes, est une expérience qui n’implique ni conscience de soi ni connaissance sémantique. Elle comprend, par exemple, des sentiments de justesse ou d’injustice, de confort ou d’inconfort, de familiarité, de malaise, de présence ou d’absence, de fatigue, de confiance, d’incertitude et de propriété. Il s’agit par exemple du sentiment que l’objet que l’on voit du coin de l’œil est bien un oiseau, du sentiment, en rentrant chez soi, que les choses sont telles qu’on les a laissées (ou pas), du sentiment que l’on est en train de contracter une maladie. Chez l’homme, ces sensations anoétiques se situent en marge de la conscience et ne sont que rarement au centre de l’attention. Chez d’autres animaux, il est possible que l’anoétique soit tout ce qu’il y a.”

Pour ramener notre propos dans le giron de la philosophie, on peut également citer Alan Watts, un grand apôtre britannique de la pensée zen dans les années 60-70 du siècle dernier. Je le cite : “Le Zen ne confond pas la spiritualité avec le fait de penser à Dieu pendant qu’on épluche des pommes de terre. La spiritualité zen consiste seulement à éplucher les pommes de terre.” Quel magnifique rappel à l’ordre : arrête ton bla-bla et regarde tes mains !

Regarde tes mains” ! Nous avons tous déjà dit cela à un ado (ou un partenaire) qui pose négligemment un objet sur le bord de la table, avec le regard déjà ailleurs. Au bord du vide, l’objet en question est en position instable, c’est un flacon en verre et il devient la seule raison pour que le chat se réveille, quitte son coussin et donne le petit coup de patte qui manquait pour que le flacon tombe sur le carrelage de la cuisine et provoque catastrophes, réprimandes et nettoyages énervés. “Comme tu es distrait“, “Comme tu es distraite“, entendra-t-on tonner dans la maison, “c’est insupportable, fais attention ! Regarde donc tes mains quand tu fais quelque chose !” Et le paternel de donner un coup de pied fâché dans le coussin du chat, avant de se rasseoir en ruminant contre la distraction coupable.

Mais est-ce toujours la distraction qui est coupable de cette aliénation envers la matière ? Ce défaut d’attention (puisque nous avons opposé les deux termes) ne peut-il procéder d’autre chose ?

Les neurosciences, encore elles, n’expliquent pas encore tout mais, aujourd’hui, elles concluent que le cerveau est avant tout une machine à anticiper et, comme nous l’avons vu, idéalement dans un contexte de confiance, ce qui est loin d’être toujours le cas. Pour faire court, lorsqu’il s’active suite à la perception d’un phénomène, quel qu’il soit, le cerveau conçoit notre fonctionnement à venir (la fuite, la sidération ou l’attaque) selon les attentes de comportement qu’il a envers l’environnement où le phénomène a été perçu. Or, ces attentes ne sont pas toujours fondées sur la confiance. Que l’on pense aux traumatismes, par exemple : allez savoir pourquoi Indiana Jones a tellement peur des serpents, pourquoi les limaces effraient tant ma dernière ado et pourquoi, quand je reçois un recommandé, je fais de la tachycardie. D’où le terme ‘atavique’ : il y a là un héritage qui persiste à nous brouiller l’écoute.

C’est un des phénomènes identifiés par les neurosciences : face aux phénomènes que nous percevons, notre cerveau peut se lancer sur deux pistes différentes, activant une zone active ou une autre, les deux étant distinctes.

Souvenez-vous du conseil de sagesse : “Changez le changeable, acceptez l’inchangeable.Viktor Frankl lui ajoute d’ailleurs l’option : “pour réduire la souffrance, changez votre attitude à l’égard du problème.” Il revenait alors des camps de concentration ! Et bien, au niveau cognitif, notre cerveau peut faire tout cela, tant qu’il garde raison… Il peut être proactif et raisonner en termes de résolution de problèmes, en utilisant la logique, en identifiant des modèles et en pensant de manière plus réfléchie. Il peut, par contre, s’avérer hyper-réactif, plus impulsif, et croire qu’il lui faut répondre rapidement aux stimuli environnementaux. Il le fait ainsi parce que, souvent, il part du sentiment d’insécurité dont nous avons parlé et qu’il active l’amygdale qui nous invite à réagir avant de penser.

C’est très pratique quand on est attaqué par un lion mais, au quotidien, c’est également inconfortable et peut générer une angoisse ou un inconfort continu. C’est, par ce fait, également une Invitation au voyage, un appel à l’aliénation dont nous parlons, car la conscience a-noétique peut également s’enfuir, s’aliéner dans un ensemble de perceptions hypnotisantes : l’ado ou le joggeur qui garde les écouteurs sur les oreilles diminue son lien avec l’environnement qu’il traverse ; le gamin ou la fille en bonnet qui arrête sa voiture ‘tunée’ au feu rouge et qui fait vibrer le tarmac en poussant les basses de sa sono n’est pas dérangé par le chant des oiseaux. Ce sont ici des caricatures (bien réelles, par contre) mais elles traduisent une posture cognitive bien précise : pour rester dans un environnement connu (entendez : sécurisé), je le transporte avec moi, là où je vais, transformant les autres environnements en toile de fond, en décor en deux dimensions.

Pour vous représenter la chose, asseyez-vous dans une pièce fermée et pensez à la différence entre le poster grandeur nature du lion de tout à l’heure, là, sur le mur (en deux dimensions, donc) et un lion réel, devant vous, en trois dimensions, avec l’odeur. L’expérience cognitive est différente, non ? Pour le lion aussi, d’ailleurs.

Être distrait reviendrait-il à ne pas participer physiquement de son environnement, à le traiter comme une image en deux dimensions, plus inoffensive que le monde réel, lui en trois dimensions, avec tambours et trompettes ? Après une expérience violente, quelle qu’elle soit, l’individu traumatisé aurait-il tendance à marquer son rejet du réel enduré, en ne jouant pas le jeu avec la matière qui l’entoure ou qu’il faut ingérer, dans certains cas ?

Je ne peux pas prétendre au statut de victime traumatisée, je n’ai pas été victime d’une violence que j’aurais ressentie comme plus grande que moi, qui m’aurait submergée, mais, après une journée difficile au boulot, un pneu crevé sur l’autoroute ou un Avertissement-Extrait de rôle trop gourmand, je sais que j’ai le même réflexe de fuite. Merci aux Suites pour violoncelle de Bach de me permettre, dans mon salon, de réduire le monde à un décor éloigné en deux dimensions, bien distinct des sensations sonores qui m’aliènent, certes, mais dans une réalité virtuelle faite d’harmonie, où règne une légalité rassurante.

Ce que Kant préconisait comme base d’un comportement moral authentique semble bien être l’enjeu dans ce cas également. Selon lui, il importe de reconnaître l’Autre comme une fin en soi (“an Sich“), ‘dans ses trois dimensions’ dirions-nous, et non comme un moyen d’atteindre une autre finalité. Je pense que chacun d’entre vous peut parfaitement entendre ce discours. Emmanuel Levinas insistait dans ce contexte sur le visage de l’autre, qui, une fois son existence reconnue, permet un comportement moral envers lui.

Dame Raison, voilà donc la mission qui t’incombe dans le périmètre a-noétique : identifie les postures de fuite qui réduisent l’environnement ressenti à une image (cognitive) en deux dimensions et, pour que survive paisiblement ton sujet, amène-le à plus d’attention envers les choses qui constituent son périmètre de Vie.

Ce qui était vendu dans les années septante (du siècle dernier) comme la quintessence de l’Esprit du Zen est, aujourd’hui toujours, au centre de notre quête de satisfaction : regarde tes mains, quand tu pèles les pommes de terre !

Pour illustrer ceci, quoi de mieux qu’un poème, en l’espèce un poème de Mary Oliver que je vous traduis ici :

Le matin, je descends sur la plage
où, selon l’heure, les vagues
montent ou descendent,
et je leur dis, oh, comme je suis triste,
que vais-je–
que dois-je faire ? Et la mer me dit,
de sa jolie voix :
Excuse-moi, j’ai à faire.

Alors, lecteur, fais silence, enlace ce que tu prends en mains, renifle-le, soupèse-le, mire ses trois dimensions et palpe toutes ses aspérités avant de passer à l’acte !

On le voit, des trois manières de se sentir en vie, l’expérience a-noétique est peut-être la plus directe, voire la plus pure : rien d’étonnant à ce qu’elle fasse office de Graal dans l’Esprit du Zen. Ceci, probablement parce qu’elle n’est pas systématiquement dévoyée par la logique des mots : par nos fictions ou par la logique des discours explicatifs…

La conscience noétique

Il nous reste enfin à rapidement régler nos comptes avec ces derniers, qui sont la monnaie courante de notre troisième et dernière conscience, la noétique, celle qui s’occupe de nos représentations du monde sans nous impliquer dedans !

Autant la conscience a-noétique parle le langage des sensations et des réflexes, dans l’aquarium de notre conscience noétique, ne nagent que mots, concepts et rapports logiques.

La conscience noétique, c’est la vielle gloire, la Gloria Swanson des consciences sauf que… historiquement, on l’a appelée Raison alors qu’elle n’était qu’amas d’explications. Or, pour la Raison éveillée, expliquer n’est pas justifier. Si on prend les dossiers Strauss-Kahn, Depardieu ou Weinstein : une libido soi-disant démesurée, le stress des responsabilités et une absence systématique au ‘cours de philosophie et de citoyenneté’ peuvent constituer pour les susdits et leurs avocats des explications aux actes d’agression sexuelle et aux harcèlements qui ont été commis mais, en aucun cas, ils ne peuvent en constituer une justification.

Et c’est bien le problème que nous avons avec notre conscience noétique. Pour faire court : elle est toujours prête à nous expliquer le pourquoi de certaines de nos actions mais, quand il s’agit d’évaluer si ces dernières sont justifiées ou satisfaisantes, Madame-je-sais-tout n’a que des dogmes, des modèles et des savoirs pré-établis à nous proposer. C’est en ceci qu’on peut la dire ‘dogmatique‘ et, fondée sur la logique comme elle est, on n’hésitera pas à la dire ‘technique‘ également.

Ainsi, mon moi dogmatique et technique a une longue histoire, qu’à force nous trouvons naturelle, à tort selon moi. Dans la droite ligne de la théorie des Idées de Platon, toute une tradition philosophique s’est construite en Occident, fondée sur la recherche de la Vérité (ou des cinquante nuances de vérité, plus récemment). Vérité il devait y avoir, qu’elle soit transcendantale ou matérielle, car la connaissance devait être basée sur la certitude, fondement impératif pour pouvoir déduire par spéculation les règles de la morale. Dans cette vision du monde, la morale était donc une question de conformité !

Et c’est là qu’est l’os… Il n’est de vérité (et donc de conformité rassurante) que dans les limites convenues d’un domaine technique : nous sommes en classe de physique et on nous apprend que ceci entraîne cela. OK. Dans un domaine qui touche au vital, l’absence de vérité disponible pour fonder une décision oblige chacun au jugement : cela implique une intervention personnelle du sujet.

Si l’on revient à notre besoin de ressentir une légalité autour de nous, dans ce qui nous arrive, la conscience noétique nous proposera des explications techniquement exactes dans un discours donné : ma religion, mon histoire familiale, la physique quantique, le comportement du voisin ou le côté prédateur qui dort en tout individu mâle.

C’est précisément ce qui agace notre grand-breton Stephen Fry chez les humains d’aujourd’hui : cette manie de vouloir être, avant toute chose, juste et de se justifier par des explications qui prouvent qu’on est conforme à un dogme, quel qu’il soit, à la logique ou à la tradition. Fry préfère manifestement viser l’efficacité et assume le vertige de, chaque fois, devoir juger de quel comportement on fera le meilleur usage. Montaigne appelait cela : vivre à propos !

Et voilà l’aliénation débusquée : par sentiment d’insécurité devant l’obligation de choisir et la possibilité de se tromper, on fuit vers une représentation du monde sécurisée puisque constituée d’explications, de causes et de leurs conséquences logiques, de règles auxquelles il suffira de se conformer.

Ici aussi, l’attention exigera un travail de déconstruction des biais cognitifs pour expérimenter une réalité moins construite, limitée à un périmètre utile à la prise de décision. Il s’agira de se méfier des explications qui font plaisir, de tester un regard plus vierge  d’histoire devant les phénomènes perçus et de renvoyer tous les savoirs du monde à ce qu’ils sont : l’occasion d’un exercice de pensée.

Alors, lecteur, lectrice, étudie et lis tout ce que tu veux sur tous les savoirs du monde mais n’oublie pas qu’ils occultent un peu la fulgurance des parfums.

Troisième série, la Raison en action

Nous arrivons au bout de la promenade. Nous avons épluché une série de termes (confiance, puissance, légalité, aliénation, attention et conscience.s) que nous avons mis en relation. Pour ne pas vous assommer avec plus de spéculations, je vous propose de travailler les trois derniers termes (raison, âme et valorisation) au travers d’un exercice de pensée bien concret.

Nous sommes à Cockerill, dans les ateliers de maintenance (je peux vous les dessiner : j’ai travaillé à CMI, aujourd’hui John Cockerill). Tous les bancs de travail sont occupés par des cols-bleus qui usinent, ébarbent, polissent, ajustent, montent, démontent, alignent ou rejettent des pièces métalliques ou des assemblages qui rentrent par un côté et en ressortent par l’autre. La vie, quoi, le corps réel de l’atelier.

Tout au fond, au sommet d’un escalier métallique (à Cockerill, what else ?), une porte vitrée qui ouvre sur le bureau des ingénieurs. Leur local est vaste et surplombe l’atelier. C’est un grand plateau de bureaux paysagers. Du côté des fenêtres du fond, trois grandes tables, une par équipe d’ingénieurs : il y a l’équipe des ingénieurs d’auto-noétique, celle des ingénieurs de noétique et, sur la droite, la table des ingénieurs noétique, les “ingénieux ingénieurs” comme disent les autres. Chacune des tables est présidée par un chef d’équipe. A proximité de l’entrée, il y a le bureau de l’ingénieur-chef, le seul à avoir un téléphone… qui sonne souvent.

Chaque fois que le téléphone apporte une nouvelle demande, un incident ou ressort un problème qui doit être résolu, l’ingénieur-chef qui, vous l’avez compris, joue pour nous le rôle de la Raison, l’ingénieur-chef convoque les représentants des trois tables à une réunion technique, dans son bureau. Selon le sujet, il demande à un des trois délégués de présenter le cas, son interprétation, la solution qu’il préconise et de la commenter, ceci, avant de donner la parole aux deux autres délégués qui réagissent à la proposition.

Notre ingénieur-chef, la Raison, n’est pas nécessairement logique ou scientifique : il doit composer avec des paramètres qui ne sont pas toujours techniques ! Qui plus est, lui (tout comme ses ingénieurs, d’ailleurs) doit respecter les seuls objectifs qui lui sont imposés : assurer la continuité de l’atelier.

Tout serait parfait s’il n’y avait un problème : les trois tables d’ingénieurs reflètent pour nous trois manières de percevoir les phénomènes et, si chaque équipe vise sincèrement la survie de l’atelier, elle le fait selon sa propre interprétation ! Et nous avons vu combien celle-ci peut être faussée par des aliénations diverses et variées.

Vous l’avez compris, chacun des délégués va partir de son point de vue et poursuivre un objectif unique : assurer la pérennité du moi, je, ego, myself, dans des représentations propres à son équipe, à savoir…

      • comment je survis dans le monde où je pense vivre (pour l’équipe noétique), quitte à fabuler des explications fumeuses ou des visions du monde partisanes ;
      • comment je survis dans le monde que je ressens (pour l’équipe a-noétique), quitte à devenir hypersensible ou à pratiquer les sensations extrêmes pour me sentir bien en vie (il y aurait-il des motards parmi vous ?) ;
      • comment je survis vu la manière dont je me conçois (pour l’équipe autonoétique), quitte à me prendre pour Brad Pitt ou CatWoman.

Les trois approches de la « réalité » ne sont pas toujours compatibles et les discussions sont parfois houleuses, voire confuses. Les propositions sont quelquefois difficiles à départager et, pire encore, il arrive qu’au moment de la réunion, un des cols blancs soit déjà descendu à l’atelier pour discuter en direct avec les ouvriers. Il s’agit constamment de comprendre, de comparer, de donner sa juste valeur à chacune des positions puis, dans la limite des infos disponibles, de décider de la marche à suivre. Ca s’appelle délibérer.

Voilà probablement pourquoi il est plus impératif de venir entraîner notre Raison sur wallonica.org, plutôt que d’aller transpirer chez MultiGym (même si l’un n’empêche pas l’autre) : chaque fin de journée, notre ingénieur-chef doit avoir concilié des points de vue divergents (ce qui ne veut pas dire mal intentionnés), faire rapport des décisions prises et soumettre les indicateurs de pertinence (satisfaisant ou pas satisfaisant ?).

Mais à qui rapporte donc notre Raison ? Dans notre scénario, elle a une position de cadre mais elle ne siège pas au Comité de direction ? Elle coordonne et donne sa juste valeur vitale aux propositions qui lui sont faites par chacune des trois équipes : elle les valorise. C’est une fonction d’encadrement. Mais qui est son interlocuteur hiérarchique ? Qui est garant de la stratégie qui réunirait nos trois modes de conscience ?

Spinoza disait “…car nous avons une idée vraie.” Il parlait de cette petite fenêtre au creux de nous, qui est ouverte sur la légalité de la Vie, par laquelle nous voyons ce qui est juste ou injuste en nous, avant tout commentaire, malgré toutes nos aliénations (celles-ci faisaient d’ailleurs l’objet de son petit ouvrage posthume, en 1677, Le traité de la réforme de l’entendement). Peut-être serait-ce le moment de restaurer la notion d’âme, que l’on définirait, à la suite de Spinoza, comme le siège de l’idée vraie en nous. L’idée vraie, l’âme dans ce cas, ne serait rien de plus que ce nombril permanent qui nous relie avec le seul sens de la Vie, à savoir : continuer à vivre. Pour l’âme définie ainsi, tout le reste est littérature…

Voilà, c’est fini. Comment résumer ce que vous venez d’endurer ? Simplement : “raison garder” c’est considérer les propositions faites par chacune des trois consciences comme des exercices de pensée. Notre Raison garde comme seule mission d’identifier et de réduire nos aliénations, nos artifices, pour nous amener à une plus grande attention envers la Vie qui se présente à nous. C’est seulement à cette condition que nous pouvons juger de la conduite à adopter au jour le jour et… vivre à propos, comme disait l’autre.

Il vous manque encore notre exercice de pensée du jour. Je propose que chacun d’entre vous se transporte dans l’atelier de maintenance de notre exemple et teste la question : que se passerait-il dans mon atelier si ma Raison était restée chez elle pour cause de grippe ? On en parle ?

Patrick Thonart


[INFOS QUALITE] statut : mis à jour | mode d’édition : rédaction, édition et iconographie | sources : contribution privée | contributeur : Patrick Thonart | crédits illustrations : en-tête, © DP ; © Unwin & Allen.


Plus de parole libre en Wallonie ?

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Temps de lecture : 5 minutes >

[THECONVERSATION.COM, 8 juillet 2024] Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les ‘deepfakes’, ou hypertrucages, ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu. Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio.

Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean Phillips.

En Slovaquie, en mars 2024, une fausse conversation générée par IA mettait en scène la journaliste Monika Tódová et le dirigeant du parti progressiste slovaque Michal Semecka fomentant une fraude électorale. Les enregistrements diffusés sur les réseaux sociaux pourraient avoir influencé le résultat de l’élection.

Le même mois, en Angleterre, une soi-disant fuite sur X fait entendre Keir Starmer, le leader de l’opposition travailliste, insultant des membres de son équipe. Et ce, le jour même de l’ouverture de la conférence de son parti. Un hypertrucage vu plus d’un million de fois en ligne en quelques jours.

Un seul deepfake peut causer de multiples dégâts, en toute impunité. Les implications de l’utilisation de cette technologie affectent l’intégrité de l’information et du processus électoral. Analyser comment les hypertrucages sont générés, interpréter pourquoi ils sont insérés dans les campagnes de déstabilisation et réagir pour s’en prémunir relève de l’Éducation aux médias et à l’information.

Analyser : un phénomène lié à la nouvelle ère des médias synthétiques

Le deepfake audio est une composante des médias synthétiques, à savoir des médias synthétisés par l’intelligence artificielle, de plus en plus éloignés de sources réelles et authentiques. La manipulation audio synthétisée par l’IA est un type d’imitation profonde qui peut cloner la voix d’une personne et lui faire dire des propos qu’elle n’a jamais tenus.

C’est possible grâce aux progrès des algorithmes de synthèse vocale et de clonage de voix qui permettent de produire une fausse voix, difficile à distinguer de la parole authentique d’une personne, sur la base de bribes d’énoncés pour lesquels quelques minutes, voire secondes, suffisent.

L’évolution rapide des méthodes d’apprentissage profond (Deep Learning), en particulier les réseaux antagonistes génératifs (GAN) a contribué à son perfectionnement. La mise à disposition publique de ces technologies à bas coût, accessibles et performantes, ont permis, soit de convertir du texte en son, soit de procéder à une conversion vocale profonde. Les vocodeurs neuronaux actuels sont capables de produire des voix synthétiques qui imitent la voix humaine, tant par le timbre (phonation) que la prosodie (accentuation, amplitude…)

Comment repérer les « deepfakes » ? (France 24, mars 2023).

Les deepfakes sonores sont redoutablement efficaces et piégeants parce qu’ils s’appuient également sur les avancées révolutionnaires de la psycho-acoustique – l’étude de la perception des sons par l’être humain, notamment en matière de cognition. Du signal auditif au sens, en passant par la transformation de ce stimulus en influx nerveux, l’audition est une activité d’attention volontaire et sélective. S’y rajoutent des opérations sociocognitives et interprétatives comme l’écoute et la compréhension de la parole de l’autre, pour nous faire extraire de l’information de notre environnement.

Sans compter le rôle de l’oralité dans nos cultures numériques, appuyée sur des usages en ligne et en mobilité, comme en témoigne la vogue des podcasts. Les médias sociaux se sont emparés de cette réalité humaine pour construire des outils artificiels qui instrumentent la voix comme outil narratif, avec des applications comme FakeYou. La voix et la parole relèvent du registre de l’intime, du privé, de la confidence… et la dernière frontière de la confiance en l’autre. Par exemple, la radio est le média en qui les gens ont le plus confiance, selon le dernier baromètre de confiance Kantar publié par La Croix !

Interpréter : des opérations d’influence facilitées par l’intelligence artificielle

Le clonage vocal présente un énorme potentiel pour détruire la confiance du public et permettre à des acteurs mal intentionnés de manipuler les appels téléphoniques privés. Les deepfakes audio peuvent être utilisés pour générer des falsifications sonores et diffuser de la désinformation et du discours de haine, afin de perturber le bon fonctionnement de divers secteurs de la société, des finances à la politique. Ils peuvent aussi porter atteinte à la réputation des personnes pour les diffamer et les faire chuter dans les sondages.

Le déploiement de deepfakes audio présente de multiples risques, notamment la propagation de fausses informations et de « fake news », l’usurpation d’identité, l’atteinte à la vie privée et l’altération malveillante de contenus. Les risques ne sont pas particulièrement nouveaux mais néanmoins réels, contribuant à dégrader le climat politique, selon le Alan Turing Institute au Royaume-Uni.

Le deepfake, expliqué (Brut, 2021)

Il ne faut donc pas sous-estimer cette amplification à échelle industrielle. Les deepfakes audio sont plus difficiles à détecter que les deepfakes vidéo tout en étant moins chers et plus rapides à produire : ils se greffent facilement sur une actualité récente et sur les peurs de certains secteurs de la population, bien identifiés. En outre, ils s’insèrent avantageusement dans l’arsenal des extrémistes, lors de campagnes d’ingérence en temps de paix comme les élections.

Réagir : de la détection des fraudes à la régulation et à l’éducation

Il existe plusieurs approches pour identifier les différents types d’usurpation audio. Certaines mesurent les segments silencieux de chaque signal de parole et relèvent les fréquences plus ou moins élevées, pour filtrer et localiser les manipulations. D’autres entraînent des IA pour qu’elles distinguent des échantillons authentiques naturels d’échantillons synthétiques. Toutefois, les solutions techniques existantes ne parviennent pas à résoudre complètement la question de la détection de la parole synthétique.

Cette détection reste un défi car les manipulateurs tentent de supprimer leurs traces de contrefaçon (par des filtres, des bruits…), avec des générateurs de deepfake audio qui sont de plus en plus sophistiqués. Face à ces vulnérabilités démocratiques restent donc des solutions humaines diverses, qui vont de l’autorégulation à la régulation et impliquent divers types d’acteurs.

Les journalistes et les fact-checkeurs ont augmenté leurs techniques de recherche contradictoire, pour tenir compte de cette nouvelle donne. Ils s’en remettent à leurs stratégies de vérification des sources et de validation du contexte d’émission. Mais ils font aussi appel, via Reporters sans Frontières, au corps juridique, pour la protection des journalistes, afin qu’ils créent un ‘délit de deepfake‘ capable de dissuader les manipulateurs.

Les plates-formes de médias sociaux (Google, Meta, Twitter et TikTok) qui les véhiculent et les amplifient par leurs algorithmes de recommandation sont soumises au nouveau Code de pratique de l’UE en matière de désinformation. Renforcé en juin 2022, il interdit les deepfakes et enjoint les plates-formes à utiliser leurs outils (modération, déplatformisation…) pour s’en assurer.

Les enseignants et les formateurs en Éducation aux Médias et à l’Information se doivent à leur tour d’être informés, voire formés, pour pouvoir alerter leurs étudiants sur ce type de risque. Ce sont les plus jeunes qui sont les plus visés. A leurs compétences en littératie visuelle, ils doivent désormais ajouter des compétences en littératie sonore.

Les ressources manquent à cet égard et réclament de la préparation. C’est possible en choisissant de bons exemples comme ceux liés à des personnalités politiques et en faisant attention aux 5D de la désinformation (discréditer, déformer, distraire, dévier, dissuader). S’appuyer sur le contexte et le timing de ces cyberattaques est aussi fructueux.

Aux personnalités politiques, somme toute concernées mais très peu formées, le Alan Turing Institute propose une stratégie partageable par tous, les 3I : informer, intercepter, insulariser. En phase de pré-élection, cela consiste à informer sur les risques des deepfakes audio ; en phase de campagne, cela implique d’intercepter les deepfakes et de démonter les scénarios de menace sous-jacents ; en phase post-électorale, cela oblige à renforcer les stratégies d’atténuation des incidents relevés et à les faire connaître auprès du public.

Toutes ces approches doivent se cumuler pour pouvoir assurer l’intégrité de l’information et des élections. Dans tous les cas, soignez votre écoute et prenez de l’AIR : analysez, interprétez, réagissez !

Divina Frau-Meigs


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © DP ; © France 24 ; © Brut.


Plus de presse en Wallonie…

EDL : L’intelligence artificielle à l’épreuve de la laïcité

Temps de lecture : 5 minutes >

[EDL.LAICITE.BE, 14 mai 2024] L’IA révolutionne nos vies mais soulève des questions éthiques. Des chatbots religieux aux risques de discrimination, la régulation devient essentielle. Le Centre d’Action Laïque propose la création d’un comité indépendant pour assurer une IA éthique dans une société laïque.

Depuis l’apparition de ChatGPT, l’intelligence artificielle n’a cessé de faire parler d’elle. Rapidement, les médias se sont emparés du sujet, tantôt en saluant une nouvelle technologie révolutionnaire, tantôt en alertant sur les risques d’un remplacement de l’humain par la machine. Et aujourd’hui, on ne compte plus le nombre de dispositifs d’IA développés avec des agents conversationnels plus farfelus les uns que les autres. Parmi les plus surprenants : AI Jesus, un chatbot donnant vie au Christ pour qu’il prêche la bonne parole sur Twitch, tout en partageant son opinion sur la géopolitique, les relations amoureuses et même les voitures. Plus récemment, le MR a carrément accompagné son programme aux élections 2024 du robot Victor, accessible auprès de tous les électeurs cherchant à obtenir rapidement des informations sur les propositions du parti.

C’est quoi, une intelligence artificielle laïque ?

Face à ce foisonnement technologique, comment le Centre d’Action Laïque peut-il se positionner ? En créant sa propre intelligence artificielle laïque ? L’idée est amusante mais faut-il encore y trouver un réel intérêt. En revanche, avant de définir une position, nous pouvons nous demander si l’IA est en elle-même laïque. Et qui de mieux que ChatGPT pour nous éclairer sur cette question ? Voici sa réponse : “L’intelligence artificielle elle-même n’a pas de croyances religieuses ou spirituelles, donc elle est intrinsèquement laïque. Cependant, les personnes qui créent et utilisent l’intelligence artificielle peuvent avoir des croyances religieuses diverses, et cela peut influencer la manière dont elles conçoivent et appliquent l’IA. En fin de compte, la laïcité ou le caractère religieux d’un système d’IA dépendra des valeurs et des intentions de ses créateurs et utilisateurs.

La réponse a ceci d’intéressant qu’elle nous rappelle que l’IA n’est pas une entité autonome qui se serait auto-engendrée, mais bien un outil conçu par et pour des êtres humains. Et comme le démontre l’exemple d’AI Jesus, elle est le résultat des idées et croyances de ses créateurs. Or cela pose des difficultés, notamment en matière de discriminations. En effet, les recherches en sciences sociales nous prouvent l’existence de biais dans le raisonnement humain. Dès lors, de tels biais se retrouvent inévitablement dans le mode de pensée des intelligences artificielles puisqu’ils coïncident avec celui de leurs concepteurs.

De nombreux exemples illustrent ce phénomène, comme celui du logiciel américain COMPAS consacré à la justice prédictive qui attribuait à des prévenus noirs une probabilité plus élevée de récidive qu’aux prévenus blancs. Autre exemple, celui des algorithmes utilisés par les entreprises lors des processus de recrutement. En fonction du poste à pourvoir et des stéréotypes de genre associés, l’IA privilégie la candidature soit d’une femme, soit d’un homme. De cette façon, les femmes se retrouveront plus systématiquement exclues des postes à haute responsabilité, puisque ceux-ci sont toujours majoritairement occupés par des hommes.

Ces exemples démontrent l’ampleur des nouveaux défis soulevés par l’intelligence artificielle en matière de lutte contre les discriminations. Alors que les laïques aspirent à une société réellement égalitaire, voilà que les algorithmes risquent d’accentuer davantage les inégalités. Mais gardons néanmoins à l’esprit que cela est loin d’être une fatalité. Il est tout à fait possible de supprimer la présence de ces biais par la mise en place d’un cadre éthique qui oblige les concepteurs à respecter un certain nombre de principes humanistes dans la configuration des algorithmes. Par ailleurs, l’investissement dans la recherche peut aider à prévenir les éventuels problèmes éthiques et sociaux liés à l’usage de l’intelligence artificielle. De cette façon, si les laïques doivent rester attentifs aux soucis de discriminations engendrés par l’IA, ils peuvent en même temps soutenir sa régulation éthique afin d’en faire un instrument de lutte contre ces mêmes discriminations. Si nous revenons à notre exemple d’égalité à l’embauche, un algorithme entraîné aux enjeux féministes pourrait tout à fait garantir une chance égale à une femme d’accéder à un poste à haute responsabilité ; là où les ressources humaines continueraient d’employer des raisonnements sexistes. Une IA éthique qui applique les valeurs associées à la laïcité pourrait donc être vectrice d’émancipation à l’égard de tous les individus.

L’aliénation de l’humain par la machine

Mais cette question de l’émancipation ne se pose pas uniquement pour des enjeux liés aux discriminations. La multiplication des outils d’intelligence artificielle offre aux individus des avantages considérables en matière de rigueur et d’efficacité. Citons l’exemple des algorithmes d’aide au diagnostic. Leur précision en fait des alliés de choix dans la détection et la prévention de certaines maladies graves et qui nécessitent une prise en charge rapide. Mais qu’en est-il lorsqu’ils se substituent carrément à l’expertise du prestataire de soins ? Le Wall Street Journal a récemment publié un fait divers sur l’issue dramatique à laquelle peut mener une utilisation aveugle de l’usage des algorithmes. Il évoque le cas d’une infirmière californienne, Cynthia Girtz, qui a répondu à un patient se plaignant de toux, de douleurs thoraciques et de fièvre en suivant les directives du logiciel d’IA de son institution. Le logiciel n’autorisant une consultation urgente qu’en cas de crachement de sang, elle a fixé un simple rendez-vous téléphonique entre un médecin et le patient. Or celui-ci est décédé d’une pneumonie quelques jours plus tard, et l’infirmière a été tenue responsable pour n’avoir pas utilisé son jugement clinique. Cet exemple malheureux démontre bien les risques d’aliénation du jugement des utilisateurs de l’IA. L’opacité des algorithmes et la complexité de leur fonctionnement rendent difficile la gestion totale de ceux-ci. Si l’utilisateur cesse de s’interroger sur la méthode qui a permis à l’algorithme de produire des résultats, il risque alors de se voir doublement déposséder de son jugement. D’abord, au regard des outils qu’ils ne maîtrisent pas, mais aussi par rapport à des conclusions auxquelles il ne serait désormais plus capable d’aboutir par lui-même. Un tel impact de l’IA sur l’autonomie humaine attire nécessairement l’attention des laïques qui militent pour l’émancipation des citoyens par la diffusion des savoirs et l’exercice du libre examen. La transparence des algorithmes et la connaissance de leur fonctionnement par tous les usagers deviennent donc des enjeux laïques à part entière.

Face aux enjeux et risques précités mais aussi à tous ceux liés encore à la désinformation, le cyber-contrôle, la cybersécurité, aux coûts environnementaux, etc., le Centre d’Action Laïque a décidé de reprendre un contrôle humaniste sur la technologie. Les enjeux étant de taille pour parvenir à une IA laïque, le CAL propose de doter la Belgique d’un comité consultatif indépendant relatif à l’éthique en matière d’intelligence artificielle et d’usages du numérique dans tous les domaines de la société.

Ce comité serait chargé, par saisine ou autosaisine, de rendre des avis indépendants sur les questions éthiques liées à l’utilisation de l’intelligence artificielle, de la robotique et des technologies apparentées dans la société, en prenant en compte les dimensions juridiques, sociales et environnementales. Il serait aussi chargé de sensibiliser et d’informer le public, notamment grâce à un centre de documentation et d’information tenu à jour. Mieux qu’un chatbot laïque, non ?

Lucie Barridez, Déléguée Étude & Stratégie


[INFOS QUALITE] statut : validé | mode d’édition : compilation, édition et iconographie | sources : edl.laicite.be | contributeur : Patrick Thonart | crédits illustrations : en-tête, © Anne-Gaëlle Amiot – Le Parisien.


Plus d’engagement en Wallonie…

THONART : Intelligence artificielle et artifices de l’intelligence (2024)

Temps de lecture : 25 minutes >

Mises-en-bouche

Fidèles lecteurs, je sais qu’une question lancinante vous taraude, au point d’avoir pris plus d’un apéritif avant de vous mettre devant cet écran, afin de noyer votre malaise existentiel avant de commencer à lire. Plus précisément, deux interrogations vous minent le moral. La première concerne la longueur de cet article (“Vais-je prendre plus de temps pour lire et comprendre cet article que le minutage calculé automatiquement et affiché dans l’en-tête ?”) et la seconde, nous l’avons tous et toutes en tête, tient en une question simple : “Allons-nous un jour lire dans wallonica.org des articles rédigés par un robot doté d’un moteur d’Intelligence Artificielle, afin de nous rapprocher plus rapidement de la Vérité ?”

Aux deux questions, la réponse est “non”, selon moi. Selon moi et selon l’algorithme simple grâce auquel je surveille le décompte des mots de mon texte. Il me confirme qu’il tourne autour des 6.000 mots, soit moins de 25 minutes de lecture. Ensuite, pour répondre à la question 2 : il y a peu de chances qu’un robot, fut-il assez rusé pour passer le filtre de nos interviews préliminaires, puisse un jour être actif au sein de notre équipe et y exercer son intelligence… artificielle.

Sans vouloir manquer de respect envers mes voisins ou mes amis (ce sont quelquefois les mêmes), je ne doute pas qu’un robot puisse faire le service pendant une de nos fêtes de quartier, d’autant qu’on l’aura probablement équipé de bras supplémentaires pour rendre la tâche plus aisée. Mais je doute par contre que je puisse partager avec lui la joie de ce genre de festivités, comme je le fais avec mes amis voisins, que je présuppose honnêtes et libres.

Car libres, les algorithmes ne sont pas – ils sont prisonniers de leurs cartes-mémoire – et, honnêtes, ils le sont d’autant moins puisque, lorsqu’on leur demande de dire la Vérité, ils en inventent une qui est… statistiquement la plus probable !

Pour filer le parallèle, en adoptant de nouveaux amis, je mise premièrement sur leur liberté de pensée qui permettra des échanges sains ; je parie ensuite sur leur probité en ceci que j’attends, en retour de ma confiance, qu’ils partagent en toute sincérité leur expérience de vie ; enfin, puisque nous savons que de Vérité il n’y a pas, j’espère que toute vérité individuelle qu’ils soumettraient au cours de nos échanges soit la plus pertinente… et pas celle qui me séduirait le plus probablement.

La liberté, la probité et la pertinence : voilà trois points de comparaison entre intelligence artificielle et intelligence humaine qui peuvent nous aider à déduire le travail à entreprendre, pour ne pas vivre une singularité de l’histoire de l’humanité, où les seuls prénoms disponibles pour nos enfants resteraient Siri, Alexa ou leur pendants masculins…

Pour mémoire, le mot singularité – ici, singularité technologique – désigne ce point de rupture où le développement d’une technique devient trop rapide pour que les anciens schémas permettent de prévoir la suite des événements. La même notion est employée pour décrire ce qui se passe à proximité d’un trou noir : les grandeurs qui d’habitude décrivent l’espace-temps y deviennent infinies et ne permettent plus de description au départ des paramètres connus.

Mais, revenons à l’Intelligence Artificielle car tout débat a besoin d’un contexte. A moins de croire en un dieu quelconque, aucun objet de pensée ne peut décemment être discuté dans l’absolu et, cet absolu, nous n’y avons pas accès. Alors versons au dossier différentes pièces, à titre de mises en bouche…

Pièce n°1

Brièvement d’abord, un panneau affiché dans une bibliothèque anglophone évoque la menace d’un grand remplacement avec beaucoup d’humour (merci FaceBook), je traduis : “Merci de ne pas manger dans la bibliothèque : les fourmis vont pénétrer dans la bibliothèque, apprendre à lire et devenir trop intelligentes. La connaissance c’est le pouvoir, et le pouvoir corrompt, donc elles vont devenir malfaisantes et prendre le contrôle du monde. Sauvez-nous de l’apocalypse des fourmis malfaisantes.

© NA

Au temps pour les complotistes de tout poil : l’intelligence artificielle est un merveilleux support de panique, puisqu’on ne la comprend pas. Qui plus est, l’AI (ou IA, en français) est un sujet porteur pour les médias et je ne doute pas que les sociétés informatiques qui en vendent se frottent les mains face au succès de ce nouveau ‘marronnier‘, qui trouve sa place dans les gros titres des périodes sans scoop : “Adaptez notre régime minceur avant l’été“, “Elvis Presley n’est pas mort : les archives de la CIA le prouvent“, “L’intelligence artificielle signe la fin de l’humanité” et, si vraiment on n’a plus rien à dire, un dossier sur les “Secrets de la Franc-Maçonnerie“. Plus on en parle, plus on en vend, ne l’oubliez pas.

Pièce n°2

Moins rigolo mais toujours dans des domaines prisés par les alarmistes, la confidentialité serait mise à mal par l’utilisation des IA. Là, on revient à la réalité : pour répondre à des cahiers spéciaux des charges de plus en plus exigeants et dévoreurs de temps, beaucoup de responsables commerciaux s’adjoignent l’assistance de ChatGPT (licence payante) pour rédiger leur documents de soumission et, ce faisant, partagent des données confidentielles de leur entreprise avec le GPT (GPT signifie en anglais Generative Pre-trained Transformer, soit transformeur génératif pré-entraîné que j’aurais plutôt traduit par ‘transformateur’). Si c’est confortable, économise beaucoup de temps et donne des résultats surprenants de pertinence en termes techniques, cela reste une faute professionnelle grave !

Autre chose est l’utilisation individuelle du même outil (même licence payante) par des consultants indépendants qui doivent également ‘pisser à la copie’, comme on dit, et qui demandent à ChatGPT une première version du texte qu’ils doivent rédiger, un brouillon, un draft, sur lequel ils reviennent ensuite pour lui donner ‘forme humaine’.

Pièce n°3

J’en ai moi-même fait l’expérience lorsqu’il m’a fallu rédiger un article nécrologique sur André Stas dans ces pages. André Stas était un artiste pataphysicien liégeois né en 1949, qui vient de passer l’arme à gauche en 2023. Par curiosité, j’ai demandé à ChatGPT qui était André Stas.

Réponse du robot : “André Stas était un chimiste belge du XIXe siècle, né le 30 décembre 1813 à Leuven en Belgique et décédé le 13 décembre 1864 à Schaerbeek. Il est surtout connu pour sa découverte de la loi de Stas, qui a permis d’établir avec précision les masses atomiques des éléments chimiques. […] Cette méthode a été essentielle pour la compréhension de la composition chimique de la matière, et a jeté les bases de la chimie moderne. […] Sa contribution à la science lui a valu de nombreux honneurs, notamment l’élection à l’Académie royale des sciences, des lettres et des beaux-arts de Belgique en 1850.” Impressionnant ! Surtout la qualité du français !

André Stas © rtbf.be

La réponse du robot est identique si la question devient : “Qui était le liégeois André Stas ?” et lorsque ChatGPT est à nouveau sollicité avec la question “Qui était l’artiste liégeois André Stas ?“, la réponse ne se fait pas attendre : “Je suis désolé, mais il n’y a pas d’artiste liégeois connu sous le nom d’André Stas. Le nom André Stas est généralement associé à un chimiste belge du XXe siècle, comme je l’ai expliqué dans ma réponse précédente.

Le chimiste belge évoqué s’appelait en fait Jean-Servais Stas ; la datation donnée (1813-1864) aurait dû être (1813-1891) et, personnellement, j’avais l’habitude de situer ces dates au XIXe siècle, et non au XXe ; par ailleurs, notre André Stas n’était pas un inconnu ! La messe est dite !

Pièce n°4

Une expérience similaire a été faite par le sémanticien français, Michelange Baudoux, qui a donné à ChatGPT le devoir suivant : “Quelles sont les trois caractéristiques les plus importantes de l’humour chez Rabelais ? Illustre chaque caractéristique avec un exemple suivi d’une citation avec référence à la page exacte dans une édition de ton choix.” Du niveau BAC, du lourd…

Avec l’apparence d’une totale confiance en soi, le robot a répondu par un texte complet et circonstancié, qui commençait par le nécessaire “Voici trois caractéristiques de l’humour chez Rabelais, illustrées avec des exemples et des citations…” Vérification faite, les trois caractéristiques étaient crédibles mais… les citations étaient inventées de toutes pièces et elles étaient extraites d’un livre… qui n’a jamais existé. J’ai partagé son article dans notre revue de presse : il y explique pourquoi, selon lui, ‘intelligence artificielle’ est un oxymore (un terme contradictoire). Détail amusant : il tutoie spontanément le robot qu’il interroge. Pourquoi cette familiarité ?

Pièce n°5

Le grand remplacement n’est pas qu’un terme raciste, il existe aussi dans le monde de la sociologie du travail. “Les machines vont-elles nous remplacer professionnellement” était le thème d’un colloque de l’ULiège auquel j’ai assisté et au cours duquel un chercheur gantois a remis les pendules à l’heure sur le sujet. Il a corrigé deux points cruciaux qui, jusque là, justifiaient les cris d’orfraie du Forem et des syndicats. Le premier concernait l’étude anglaise qui aurait affirmé que 50 % des métiers seraient exercés par des robots en 2050. Le texte original disait “pourrait techniquement être exercés“, ce qui est tout autre chose et avait échappé aux journalistes qui avaient sauté sur le scoop. D’autant plus que, deuxième correction : si la puissance de calcul des Intelligences Artificielles connaît une croissance exponentielle (pour les littéraires : ça veut dire “beaucoup et chaque fois beaucoup plus“), les progrès de la robotique qui permet l’automatisation des tâches sont d’une lenteur à rendre jaloux un singe paresseux sous Xanax. Bonne nouvelle, donc, pour nos voisins ils garderont leur job derrière le bar de la fête en Pierreuse.

Pièce n°6

Dans le même registre (celui du grand remplacement professionnel, pas de la manière de servir 3 bières à la fois), les juristes anglo-saxons sont moins frileux et, même, sont assez demandeurs d’un fouineur digital qui puisse effectuer des recherches rapides dans la jurisprudence, c’est à dire, dans le corpus gigantesque de toutes les décisions prises dans l’histoire de la Common Law, le système de droit appliqué par les pays anglo-saxons. Il est alors question que l’Intelligence Artificielle dépouille des millions de références pour isoler celles qui sont pertinentes dans l’affaire concernée plutôt que de vraiment déléguer la rédaction des conclusions à soumettre au Juge. Je demanderai discrètement à mes copains juristes s’ils font ou non appel à ChatGPT pour lesdites conclusions…

Pièce n°7

Dernière expérience, celle de la crise de foie. Moi qui vous parle, j’en ai connu des vraies et ça se soigne avec de l’Elixir du Suédois (je vous le recommande pendant les périodes de fêtes). Mais il y a aussi les problèmes de foie symboliques : là où cet organe nous sert à s’approprier les aliments que nous devons digérer et à en éliminer les substances toxiques, il représente symboliquement la révolte et la colère… peut-être contre la réalité. C’est ainsi que le Titan Prométhée (étymologiquement : le Prévoyant), représentera la révolte contre les dieux, lui qui a dérobé le feu de l’Olympe pour offrir aux hommes les moyens de développer leurs premières technologies, leurs premiers outils. Zeus n’a pas apprécié et l’a condamné à être enchaîné sur un rocher (la matière, toujours la matière) et à voir son foie dévoré chaque jour par un aigle, ledit foie repoussant chaque nuit. Il sera ensuite libéré par Hercule au cours de la septième saison sur Netflix.

IA : un marteau sans maître ?

Le mythe de Prométhée est souvent brandi comme un avertissement contre la confiance excessive de l’homme en ses technologies. De fait, l’angoisse des frustrés du futur, des apocalyptophiles, comme des amateurs de science-fiction alarmiste, porte sur la révolte des machines, ce moment affreux où les dispositifs prendraient le pouvoir.

© Côté

Les robots, développés par des hommes trop confiants en leurs capacités intellectuelles, nous domineraient en des beaux matins qui ne chanteraient plus et qui sentiraient l’huile-moteur. Nous serions alors esclaves des flux de téra-octets circulant entre les différents capteurs de Robocops surdimensionnés, malveillants et ignorants des 3 lois de la robotique formulées par Isaac Asimov en… 1942. Je les cite :

  1. Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
  2. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
  3. Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la première ou la deuxième loi.

Une illustration magnifique de ce moment-là est donnée par Stanley Kubrick dans son film 2001, l’odyssée de l’espace. Souvenez-vous : une expédition scientifique est envoyée dans l’espace avec un équipage de 5 humains, dont trois sont en léthargie (il n’y a donc que deux astronautes actifs) ; cet équipage est secondé par un robot, une Intelligence Artificielle programmée pour réaliser la mission et baptisée HAL (si vous décalez d’un cran chaque lettre, cela donne IBM). HAL n’est qu’intelligence, au point qu’il va éliminer les astronautes quand ceux-ci, pauvres humains, menaceront le succès de la mission. Pour lui, il n’y a pas de volonté de détruire : il est simplement logique d’éliminer les obstacles qui surgissent, fussent-ils des êtres humains.

© Metro Goldwyn Mayer / Collection Christophel

Kubrick fait de HAL un hors-la-loi selon Asimov (il détruit des êtres humains) mais pousse le raffinement jusqu’à une scène très ambiguë où, alors que Dave, le héros qui a survécu, débranche une à une les barrettes de mémoire du robot, celui-ci affirme : “J’ai peur“, “Mon esprit s’en va, je le sens…” Génie du réalisateur qui s’amuse à brouiller les cartes : une Intelligence Artificielle connaît-elle la peur ? Un robot a-t-il un esprit ? Car, si c’est le cas et que HAL n’est pas simplement un monstre de logique qui compare les situations nouvelles aux scénarios prévus dans sa mémoire, l’Intelligence Artificielle de Kubrick a consciemment commis des assassinats et peut être déclarée ‘coupable’…

A la lecture de ces différentes pièces, on peut garder dans notre manche quelques mots-miroirs pour plus tard. Des mots comme ‘menace extérieure’, ‘dispositif’, ‘avenir technologique’, ‘grand remplacement’, ‘confiance dans la machine’, ‘intelligence froide’, ‘rapport logique’ et, pourrait-on ajouter : ‘intellect‘, conscience‘ et ‘menace intérieure‘, nous allons y venir.

Mais, tout d’abord, il faudrait peut-être qu’on y voie un peu plus clair sur comment fonctionne une Intelligence Artificielle (le calculateur, pas la machine mécanique qui, elle, s’appelle un robot). Pour vous l’expliquer, je vais retourner… au début de mes années nonante !

A l’époque, je donnais des cours de traduction à l’ISTI et j’avais été contacté par Siemens pour des recherches sur leur projet de traduction automatique METAL. C’était déjà une application de l’Intelligence Artificielle et le terme était déjà employé dans leurs documents, depuis le début des travaux… en 1961. METAL était l’acronyme de Mechanical Translation and Analysis of Languages. On sentait déjà les deux tendances dans le seul nom du projet : traduction mécanique pour le clan des pro-robotique et analyse linguistique pour le clan des humanistes. Certaines paires de langues avaient déjà été développées par les initiateurs du projet, l’Université du Texas, notamment le module de traduction du Russe vers l’Anglais (on se demande pourquoi, en pleine période de guerre froide).

Couverture du dossier METAL dans notre DOCUMENTA… © Siemens

Siemens a repris le flambeau sans connaître le succès escompté, car le modèle de METAL demandait trop… d’intelligence artificielle. Je m’explique brièvement. Le projet était magnifique et totalement idéaliste. Noam Chomsky – qui n’est pas que le philosophe qu’on connaît aujourd’hui – avait développé ce que l’on appelait alors la Grammaire Générative et Transformationnelle. En bon structuraliste, il estimait que toute phrase est générée selon des schémas propre à une langue, mais également qu’il existe une structure du discours universelle, à laquelle on peut ramener les différentes langues usuelles. C’est cette hypothèse que devait utiliser METAL pour traduire automatiquement :

      1. en décomposant la syntaxe de la phrase-source en blocs linguistiques [sujet] [verbe de type A] [attribut lié au type A] ou [sujet] [verbe de type B] [objet lié au type B], etc.,
      2. en identifiant les expressions idiomatiques traduisibles directement (ex. le français ‘tromper son partenaire‘ traduit le flamand ‘buiten de pot pissen‘, littéralement ‘pisser hors du pot‘ : on ne traduit pas la phrase mais on prend l’équivalent idiomatique) puis
      3. en transposant le résultat de l’analyse dans la syntaxe de la langue-cible puis
      4. en traduisant les mots qui rentrent dans chacun des blocs.

Deux exemples :

      1. FR : “Enchanté !” > UK : “How do you do !” > expression idiomatique que l’on peut transposer sans traduire la phrase ;
      2. FR : “Mon voisin la joue fair play” > UK : “My neighbour is being fair” > phrase où la syntaxe doit être analysée + une expression idiomatique.

Le schéma utilisé par les ingénieurs de METAL pour expliquer le modèle montrait une espèce de pyramide où les phases d’analyse montaient le long d’un côté et les phases de génération de la traduction descendaient de l’autre, avec, à chaque étage, ce qui pouvait être traduit de la langue source à la langue cible (donc, un étage pour ce qui avait déjà été traduit et pouvait être généré tel quel ; un étage pour les expressions idiomatiques à traduire par leur équivalent dans la langue cible ; un étage pour les phrases de type A demandant analyse, puis un étage pour celles de type B, etc.). Le tout supposait l’existence d’une langue “virtuelle” postée au sommet de la pyramide, une langue théorique, désincarnée, universelle, un schéma commun à la langue source comme à la langue cible : voilà un concept universaliste que la machine n’a pas pu gérer… faute d’intelligence. Sisyphe a donc encore de beaux jours devant lui…

Ce grand rêve Chomskien (doit-on dire humaniste) de langue universelle a alors été balayé du revers de la main, pour des raisons économiques, et on en est revenu au modèle bon-marché des correspondances de un à un de SYSTRAN, un autre projet plus populaire qui alignait des paires de phrases traduites que les utilisateurs corrigeaient au fil de leur utilisation, améliorant la base de données à chaque modification… quand tout allait bien. C’est le modèle qui, je pense, tourne aujourd’hui derrière un site comme LINGUEE.FR ou GOOGLE TRANSLATE.

Pour reprendre les mêmes exemples, si vous demandez la traduction de ‘enchanté‘ hors contexte vous pouvez obtenir ‘charmed‘ ou ‘enchanted‘ (à savoir charmé, enchanté par un sort) aussi bien que “How do you do !” Pour la deuxième phrase, si vous interrogez LINGUEE.FR, et que vous constatez que la traduction anglaise enregistrée est “My donut is being fair” (ce qui équivaut à “Mon beignet est blondinet“), votre correction améliorera automatiquement la mémoire de référence et ainsi de suite…

A l’époque, nous utilisions déjà des applications de TAO (ce n’est pas de la philosophie, ici : T.A.O. est l’acronyme de Traduction Assistée par Ordinateur). Elles fonctionnaient selon le même modèle. Dans notre traitement de texte, il suffisait d’ouvrir la mémoire de traduction fournie par le client (Toyota, Ikea ou John Deere, par exemple), c’est-à-dire, virtuellement, un gigantesque tableau à deux colonnes : imaginez simplement une colonne de gauche pour les phrases en anglais et, en regard, sur la droite, une colonne pour leurs traductions déjà faites en français.

© trados.com

On réglait ensuite le degré de similarité avec lequel on voulait travailler. 80% voulait dire qu’on demandait à l’application de nous fournir toute traduction déjà faite pour ce client-là qui ressemblait au minimum à 80% à la phrase à traduire.

Exemple pour un mode d’emploi IKEA : je dois traduire l’équivalent de “Introduire la vis A23 dans le trou préforé Z42” et cette phrase est similaire à plus de 80% à la phrase, déjà traduite dans la mémoire, “Introduire le tenon A12 dans le trou préforé B7“. Le logiciel me proposera la traduction existant dans sa mémoire comme un brouillon fiable puisqu’elle est exacte… à plus de 80%.

La seule différence avec l’Intelligence Artificielle dont nous parlons aujourd’hui est que le GPT répond avec assurance, comme s’il disait la vérité… à 100% ! Dans cet exemple, dire que le moteur informatique d’Intelligence Artificielle est malhonnête serait une insulte pour notre intelligence… humaine : un algorithme n’a pas conscience de valeurs comme la droiture ou, comme nous le disions, comme la probité.

Ceci nous renvoie plutôt à nous-mêmes, au statut que nous accordons, en bon prométhéens, à un simple outil ! Si Kubrick brouille les cartes (mémoire) avec la possibilité d’un robot doté d’une conscience en… 1968, il est beaucoup plus sérieux quand il montre le risque encouru, si l’on donne les clefs du château à un dispositif dont le fonctionnement est purement logique (je n’ai pas dit ‘raisonnable’). Dans son film, il y a bel et bien mort d’homme… du fait d’un robot !

Le maître sans marteau ?

La problématique n’est pas nouvelle. Depuis l’histoire de Prométhée et du feu donné aux hommes, beaucoup de penseurs plus autorisés que nous ont déjà exploré la relation de l’Homme avec ses dispositifs. Des malins comme Giorgio Agamben, Jacques Ellul, Michel Foucault ou le bon vieux Jacques Dufresne, ont questionné notre perception du monde, l’appropriation de notre environnement, selon qu’elle passe ou non par des dispositifs intermédiaires, en un mot, par des médias au sens large.

© Gary Larson

C’est ainsi que différence est faite entre, d’une part, la connaissance immédiate que nous pouvons acquérir de notre environnement (exemple : quand vous vous asseyez sur une punaise et que vous prenez conscience de son existence par la sensation de douleur aux fesses émise dans votre cerveau) et, d’autre part, la connaissance médiate, celle qui passe par un dispositif intermédiaire, un médium. Par  exemple : je ne pourrais pas écrire cet article, sans l’aide de mes lunettes.

Ces lunettes sont un dispositif passif qui m’aide à prendre connaissance de mon environnement dans des conditions améliorées. Dans ce cas, le dispositif est un intermédiaire dont la probité ne fait aucun doute : je conçois mal que mes lunettes faussent volontairement la vision du monde physique qui m’entoure. Dans ce cas, les deux types de connaissance – immédiate et médiate – restent alignées, ce qui est parfait dans un contexte technique, où l’outil se contente d’augmenter passivement les capacités de mon corps, là où elles sont déficientes.

Mais qu’en est-il lorsque l’outil, le dispositif – mécanique, humain ou même conceptuel : il est un intermédiaire entre moi et le monde à percevoir – est actif, que ce soit par nature (le dispositif a une volonté propre, comme lorsque vous apprenez la situation politique d’un pays au travers d’un article tendancieux) ou par programmation (exemple : l’algorithme de Google qui propose des réponses paramétrées selon mon profil d’utilisation du moteur de recherche). Dans ces cas d’espèce, le dispositif m’offre activement une vue déformée de mon environnement, un biais défini par ailleurs, pas par moi, et selon les cas, avec neutralité, bienveillance ou… malveillance.

Transposé dans le monde des idées, l’exemple type, la quintessence d’un tel dispositif intermédiaire actif qui offre à notre conscience une vue biaisée du monde autour de nous est, tout simplement, le… dogme. Le dogme – et au-delà du dogme, la notion même de Vérité – le dogme connaît le monde mieux que nous, sait mieux que nous comment aborder notre expérience personnelle et dispose souvent de sa police privée pour faire respecter cette vision. Si nous lui faisons confiance, le dogme se positionne comme un médium déformant, un intermédiaire pas réglo, placé entre le monde qui nous entoure et la connaissance que nous en avons.

CNRTL : “DOGME, subst. masc., Proposition théorique établie comme vérité indiscutable par l’autorité qui régit une certaine communauté. Un dogme moral, métaphysique ; le dogme du fatalisme ; “À mesure que les peuples croiront moins, soit à un dogme, soit à une idée, ils mourront moins volontiers et moins noblement” (Lamartine) ; “Hélas ! à quels docteurs faut-il que je me fie ? La leçon des Anciens, dogme ou philosophie, Ne m’a rien enseigné que la crainte et l’orgueil ; Ne m’abandonne pas, toi, qui seule, ô science, Sais forger dans la preuve une ancre à la croyance ! Le doute est douloureux à traîner, comme un deuil.” (Sully Prudhomme).

Aborder le dogme – ou, par exemple, l’intégrisme woke ou la religion – sous l’angle de l’intermédiaire, du dispositif, ce n’est pas nouveau et la connaissance proposée aux adeptes d’un dogme organisé a ceci de particulier que, non seulement il s’agit d’une connaissance médiate, mais que, ici, le medium est une fin en soi, qu’il définit en lui la totalité de la connaissance visée. De cette manière, un ‘religieux’ pourrait se retirer du monde et s’appuyer sur les seules Écritures pour conférer sur la morale ou sur la nécessité de payer son parking en période de soldes.

Or, dans mon approche de la Connaissance, je peux difficilement me satisfaire d’une image du monde fixe et prédéfinie, qui resterait à découvrir (ce qui suppose une énigme à résoudre) ou qui serait déjà consignée dans des textes codés, gardés par Dan Brown avec la complicité de Harry Quebert : ceci impliquerait que cette vérité ultime existe quelque part, comme dans le monde des Idées de Platon, qu’elle soit éternelle et que seuls certains d’entre nous puissent y avoir accès.

© BnF

Or, c’est le travail, et non la croyance, qui est au centre de toutes nos représentations de l’Honnête Homme (et de l’Honnête Femme, bien entendu) et nous naviguons chaque jour de veille entre les rayons d’un Brico spirituel qui, de la culture à l’intuition vitale, nous invite à la pratique de notre humanité, à trouver la Joie dans le sage exercice de notre puissance d’être humain.

Travaillez, prenez de la peine“, “Cent fois sur le métier…“, “Rien n’est fait tant qu’il reste à faire…” : le citoyen responsable, actif, critique et solidaire (les CRACS visés par l’éducation permanente en Belgique) se définit par son travail et, pourrait-on préciser, “par son travail intellectuel.” Or, pour retourner à notre vrai sujet, réfléchir, l’Intelligence Artificielle le fait aussi. Oui, elle le fait, et plus vite, et mieux ! Mais, me direz-vous, le dispositif d’Intelligence Artificielle ne fait que manipuler des savoirs, calculer des données mémorisées, il n’a pas accès à la connaissance comme nous, humains, faute de disposer d’une conscience

Ce que tu ne ramènes pas à ta conscience te reviendra sous forme de destin.

Magnifique citation de Carl-Gustav Jung qui propose lui aussi de travailler, plus précisément de travailler à élargir le champ de notre conscience, à défaut de quoi, nos œillères, nos écailles sur les yeux, nous mettront à la merci de pulsions refoulées ou d’une réalité déformée par nos biais cognitifs.

Pour lui aussi, manifestement, le couple Connaissance-Conscience serait alors le critère qui nous permettrait de faire la différence entre l’Homme et la Machine. On l’opposerait alors au couple Savoirs-Mémoire évoqué au XVIIe par le matheux le plus intéressant de l’histoire de la religion catholique, l’inventeur torturé de la machine à calculer, j’ai nommé : Blaise Pascal. Je le cite : “La conscience est un livre qui doit être consulté sans arrêt.” La conscience est vue ici comme l’ancêtre de la carte-mémoire des Intelligences Artificielles !

Mais, ici encore, de quoi parlons-nous ? Nous voici en fait rentrés dans le périmètre d’une science récente, baptisée la noétique (du grec “noûs” pour connaissance, esprit). Il s’agit de l’étude de la connaissance, sous tous ses aspects.

Endel TULVING est un neuroscientifique canadien d’origine estonienne qui vient de mourir, le 11 septembre dernier. Rassurez-vous, l’homme a d’autres qualités : il a dressé une taxonomie de la conscience en trois types : la conscience autonoétique, la conscience noétique et la conscience anoétique. Je donne la parole à l’anthropologue Paul JORION pour les explications. Il cite un texte de 2023, récent donc :

La conscience autonoétique est la conscience réfléchie de soi : la capacité de situer son expérience actuelle dans le cadre d’un récit de sa propre vie qui s’étend au passé et à l’avenir.
La conscience noétique implique une conscience sémantique et conceptuelle sans conscience de soi ; elle implique la capacité d’appliquer des concepts à vos perceptions actuelles et de générer des connaissances à partir de celles-ci.
La conscience anoétique, peut-être la plus insaisissable de toutes, est une expérience qui n’implique ni conscience de soi ni connaissance sémantique. Elle comprend, par exemple, des sentiments […] de confort ou d’inconfort, de familiarité, de malaise, de présence ou d’absence, de fatigue, de confiance, d’incertitude et de propriété. Il s’agit par exemple du sentiment que l’objet que l’on voit du coin de l’œil est bien un oiseau, du sentiment, en rentrant chez soi, que les choses sont telles qu’on les a laissées (ou pas), du sentiment que l’on est en train de contracter une maladie. Chez l’homme, ces sensations anoétiques se situent en marge de la conscience et ne sont que rarement au centre de l’attention. Chez d’autres animaux, il est possible que l’anoétique soit tout ce qu’il y a.

Au temps pour les définitions. Et, quand le même Paul Jorion demande à ChatGPT, quand il lui demande (et vous remarquerez qu’il vouvoie le robot) : “Où situez-vous le niveau de conscience d’un GPT (comme vous-même) ?“, ledit GPT répond :

Dans la taxonomie tripartite de la conscience d’Endel Tulving, il est important de noter que GPT-3.5, ou tout autre modèle de langage d’IA, ne possède pas de conscience de la même manière que les humains. Les systèmes d’IA tels que GPT-3.5 sont dépourvus d’expériences subjectives, d’émotions, de conscience de soi et de la compréhension profonde associée à la conscience humaine. Ils fonctionnent sur la base de modèles de données et de relations statistiques apprises au cours de leur formation. Sur la base de la taxonomie fournie, les capacités de GPT-3.5 pourraient être partiellement classées dans la catégorie de la conscience “noétique” dans une certaine mesure. Il a la capacité de traiter et de générer des connaissances sémantiques et conceptuelles sans véritable conscience de soi ou conscience réflexive. Il peut appliquer des concepts à un texte d’entrée et générer des réponses qui semblent contextuellement pertinentes et cohérentes, ce qui s’apparente au niveau de conscience “noétique” décrit.

En répondant à d’autres questions de Paul Jorion, le GPT remet une couche et insiste (je résume) :

Il existe des différences importantes entre la façon dont les humains apprennent et la façon dont les modèles de langage de l’IA tels que GPT-3 fonctionnent, ce qui contribue aux différences dans leurs capacités et leur conscience : (1) la profondeur et la portée de l’apprentissage… ; (2) la généralisation… ; (3) l’expérience subjective et la conscience… ; (4) la compréhension du contexte… ; et (5) l’apprentissage adaptatif, à savoir que les humains peuvent adapter leurs stratégies d’apprentissage, intégrer de nouvelles informations et réviser leur compréhension au fil du temps. Les modèles d’IA nécessitent un recyclage manuel pour intégrer de nouvelles données ou s’adapter à des circonstances changeantes.

Le GPT la joue modeste… et il a raison : il ne fait jamais que la synthèse statistiquement la plus logique de ce qu’il a en mémoire ! Plus encore, il aide (sans le savoir vraiment) Paul Jorion à faire le point quand ce dernier lui rappelle que, lorsqu’il lui a parlé un jour de la mort d’un de ses amis, le GPT avait écrit “Mes pensées vont à sa famille…” d’où émotion, donc, pense Jorion. Et le logiciel de préciser :

La phrase “Mes pensées vont à sa famille…” est une réponse socialement appropriée, basée sur des modèles appris, et non le reflet d’une empathie émotionnelle ou d’un lien personnel. Le GPT n’a pas de sentiments, de conscience ou de compréhension comme les humains ; ses réponses sont le produit d’associations statistiques dans ses données d’apprentissage.

Comment faut-il nous le dire ? Les Transform(at)eurs Génératifs Pré-entraînés (GPT) disposent d’algorithmes qui dépasse notre entendement, soit, mais seulement en termes de quantité de stockage de données et en termes de puissance combinatoire d’éléments pré-existant dans leur mémoire. Leur capacité à anticiper le mot suivant dans la génération d’une phrase donne des résultats bluffants, peut-être, mais indépendants d’une quelconque conscience. Ils sont très puissants car très rapides. Souvenez-vous de votre cours de physique : la puissance est la force multipliée par la vitesse ! Et n’oublions pas que notre cerveau peut compter sur quelque chose comme 100 milliards de neurones et que le développement récent d’un mini-cerveau artificiel ne comptait que 77.000 neurones et imitait un volume de cerveau équivalent à… 1 mm³ !

Est-ce que ça veut dire que, faute de conscience auto-noétique et a-noétique, l’IA ne représentera aucun danger pour l’humanité avant longtemps ? Je ne sais pas et je m’en fous : la réponse n’est pas à ma portée, je ne peux donc rien en faire pour déterminer mon action.

Mais, est-ce que ça veut dire que nous pouvons faire quelque chose pour limiter le risque, si risque il y a ? Là, je pense que oui et je pense que notre sagesse devrait nous rappeler chaque jour qu’un outil ne sert qu’à augmenter notre propre force et que la beauté de nos lendemains viendra d’une sage volonté de subsistance, pas de notre aveugle volonté de croissance infinie avec l’aide de dispositifs efficaces à tout prix.

Résumons-nous : tout d’abord, qu’une Intelligence Artificielle ne soit pas dotée d’une conscience autonoétique d’elle-même semble acquis actuellement. Qu’elle soit dénuée d’une conscience anoétique qui lui donnerait à tout le moins autant d’instinct qu’un animal semble aussi évident dans l’état actuel de la science informatique. En fait, une Intelligence Artificielle fait, à une vitesse folle, une synthèse statistiquement probable de données présentes dans sa mémoire et génère sa réponse (pour nous) dans un français impeccable mais sans afficher de degré de certitude !

Quant à lui refuser l’accès à une conscience noétique, en d’autres termes “une conscience sémantique et conceptuelle sans conscience de soi“, le questionnement qui en découlerait est au cœur de cet article.

© Thomas Kuhlenbeck/Ikon Images/Corbis

Car, voilà, vous en savez autant que moi, maintenant, nous sommes plus malins, plus savants : nous savons tout de l’Intelligence Artificielle. Nous savons tout de l’intelligence, de la conscience, des rapports de cause à effet. Nous sommes des as de la noétique. Nous avons enregistré tous ces savoirs dans notre mémoire. Nous avons confiance en notre capacité logique. Nous sommes à même d’expliquer les choses en bon français et de répondre à toute question de manière acceptable, à tout le moins crédible, comme des vrais GPT !

D’accord, mais, en sommes-nous pour autant heureux d’être nous-mêmes ? Est-ce que limiter notre satisfaction à cela nous suffit ? Je n’en suis pas convaincu et j’ai l’impression que le trouble que l’on ressent face à la machine, les yeux dans l’objectif de la caméra digitale, cette froideur, ce goût de trop peu, nous pourrions l’attribuer à un doute salutaire qui ne porte pas sur les capacités de ladite machine mais bien sur le fait que le fonctionnement d’une Intelligence Artificielle, manifestement basé sur les mots et les concepts sans conscience de soi, pourrait bien servir de métaphore d’un fonctionnement déviant dont nous, humains, nous rendons trop souvent coupables…

Ce qu’il y a de terrible quand on cherche la vérité, c’est qu’on la trouve.

Quelles qu’aient été les intentions de Remy de Gourmont (un des fondateurs du Mercure de France, mort en 1915) lorsqu’il a écrit cette phrase, elle apporte de l’eau à mon moulin. Il est de fait terrible, quand on cherche la Vérité avec un grand T, d’interroger une Intelligence Artificielle et… de toujours recevoir une réponse. Et on frôle l’horreur absolue, humainement parlant, quand on réalise que cette Vérité tant désirée est statistiquement vraie… à 80% (merci Pareto). Bienvenue en Absurdie !

Ces 80% de ‘certitude statistique’ (un autre oxymore !) donneraient un sourire satisfait au GPT, s’il était capable de satisfaction : il lui faudrait pour cela une conscience de lui-même, de sa propre histoire. Qui plus est, les robots ne sont pas réputés pour être les rois de la passion et de l’affect. Surfant sur les mots et les concepts, une Intelligence Artificielle ne peut pas plus se targuer d’une conscience anoétique, non-verbalisée et reptilienne, on l’a assez dit maintenant.

Reste cette activité dite noétique, nourrie de structures verbales et de concepts, de rapports principalement logiques et de représentations intellectuelles du monde non-validées par l’expérience, bref, d’explications logiques !

C’est avec cette froideur explicative que le robot répond à nos requêtes, fondant son texte sur, postulons, 80% de données pertinentes selon sa programmation, des données exclusivement extraites de sa mémoire interne. Il nous vend la vérité pour le prix du 100% et les 20% qu’il a considérés comme hors de propos sont pour lui du bruit (données extraites non-pertinentes) ou du silence (absence de données). Le GPT nous vend la carte pour le territoire !

Mais n’avons-nous pas aussi, quelquefois, tendance à fonctionner comme des Intelligences Artificielles, à délibérer dans notre for intérieur comme des GPT et à nous nourrir d’explications logiques, générées in silico (c’est-à-dire dans le silicium de notre intellect), générant à volonté des conclusions dites rationnelles, des arguments d’autorité et des rapports de causalité bien éloignés de notre expérience vitale ? Pire encore, ne considérons-nous pas souvent qu’une explication peut tenir lieu de justification et que ce qui est expliqué est d’office légitime ? En procédant ainsi, ne passons-nous pas à côté des 20% restant, négligés par le robot, obsédé qu’il est par ses savoirs, ces 20% qui, pourtant, constituent, pour nous humains, le pourcentage de connaissance bien nécessaire à une saine délibération interne.

Qui plus est, ce faisant, nous ne rendons pas justice à notre Raison : nous clamons qu’elle n’est que science, nous la travestissons en machine savante, logique et scientifique, spécialisée qu’elle serait dans les seules explications intellectuelles. Dans ma vision de l’Honnête Homme, la Raison est autre chose qu’une simple intelligence binaire, synthétisée par un algorithme, verbalisant et conceptualisant tous les phénomènes du monde face auxquels je dois prendre action.

Non, la Raison que j’aime vit d’autre chose que des artifices de l’intellect, plus encore, elle s’en méfie et trempe sa plume dans les 100% de la Vie qui est la mienne, pour répondre à mes interrogations intimes ; elle tempère la froide indépendance de mes facultés logiques avec les caresses et les odeurs de l’expérience, et du doute, et des instincts, avec la peur et l’angoisse et avec la poésie et les symboles qui ne parlent pas la même langue que mes raisonnements, juchés qu’ils sont au sommet de la pyramide de l’intellect.

La Raison que j’aime est dynamique et je la vois comme un curseur intuitif entre deux extrêmes :

      • à une extrémité de la graduation, il y a ce que je baptiserais notre volonté de référence, notre soif inquiète d’explications logiques, de réponses argumentées qui nous permettent de ne pas décider, puisqu’il suffit d’être conforme à ce qui a été établi logiquement,
      • à l’autre extrémité, il y a la volonté d’expérience et le vertige qui en résulte. De ce côté-là, on travaillera plutôt à avoir les épaules aussi larges que sa carrure et on se tiendra prêt à décider, à émettre un jugement subjectif mais sincère.

La pensée libre naît du positionnement du bouton de curseur sur cette échelle, une échelle dont je ne connais pas l’étalonnage et dont la graduation nous permettrait de mesure l’écart entre volonté de référence et volonté d’expérience, plus simplement, entre les moments où je fais primer les explications et les autres où c’est la situation qui préside à mon jugement.

La Raison que j’aime veille en permanence (lorsqu’elle reste bien réveillée) à me rappeler d’où je délibère face aux phénomènes du monde intérieur comme extérieur. Elle m’alerte lorsque je cherche trop d’explications là où l’intuition me permettrait d’avancer ; elle me freine là où mes appétences spontanées manquent de recul. C’est peut-être en cela que la Raison me (nous) permet d’enfin renoncer à la Vérité (qu’elle soit vraie à 80% ou à 100%) !

Dans le beau texte d’Henri Gougaud avec lequel j’aimerais conclure, l’auteur du livre sur les Cathares d’où vient l’extrait compare l’influence du mythe et de la raison sur l’histoire ; mais, nous pouvons le lire en traduisant automatiquement mythe et raison par expérience et référence, la Raison que j’aime mariant les deux dans des proportions variables selon les circonstances. Je cite Gougaud :

Le mythe est accoucheur d’histoire. Il lui donne vie, force, élan. Il fait d’elle, en somme, un lieu à l’abri du non-sens, de l’objectif froid, de l’absurde. La raison s’accommode mal de ses extravagances. Elle fait avec, à contrecœur, comme d’un frère fou dont on craint les ruades et les emportements toujours intempestifs. Elle s’insurge parfois contre les excès de ce proche parent incontrôlable qu’elle nomme, avec un rien de gêne, “imagination populaire”. Elle a besoin d’ordre et d’appuis solides. Elle est sûre, et donc rassurante. Elle nous est à l’évidence un bien infiniment précieux, mais elle n’est guère téméraire. Elle se veut ceinte de remparts, elle tremble si l’on se risque à les franchir car elle ne voit, au-delà de ses territoires, que dangereuse obscurité. Elle sait déduire, analyser, bâtir théories et systèmes. Elle ne peut pas créer la vie. Elle ne peut accoucher d’un être. Le mythe, lui, est fort, mais intenable. Il crée ce que nul n’a prévu. Sur un Jésus crucifié que la science connaît à peine et dont la raison ne sait rien il a enfanté des croisades, des saint François, des cathédrales, deux mille ans de folle espérance, d’horreurs, d’effrois et de chefs-d’oeuvre, un monde, une histoire, la nôtre. Quel homme de raison pouvait prévoir cela?

Tout est dit : les 20% de Connaissance que nous ne partageons décidément pas avec les Intelligences Artificielles ont encore un bel avenir dans mon quartier. Il est vrai qu’entre voisins, nous ne tutoyons que les vivants !

Patrick Thonart


[INFOS QUALITE] statut : validé | mode d’édition : rédaction, iconographie et documentation | auteur : Patrick Thonart | crédits illustrations : © NA ; © Metro Goldwyn Mayer / Collection Christophel ; © rtbf.be ; © Siemens AG ; © trados.com ; © BnF ; © Gary Larson ; © Thomas Kuhlenbeck/Ikon Images/Corbis.


Place au débat : pus de tribunes libres en Wallonie-Bruxelles…

 

KLEIN : Les IA organisent le plus grand pillage de l’histoire de l’humanité

Temps de lecture : 8 minutes >

[THEGUARDIAN.COM, traduit par COURRIERINTERNATIONALCOM et publié intégralement par PRESSEGAUCHE.ORG, 30 mai 2023] Quand elles se fourvoient, les intelligences artificielles “hallucinent”, disent leurs concepteurs. Cet emprunt au vocabulaire de la psychologie leur permet de renforcer le mythe de machines douées de raison et capables de sauver l’humanité. Alors qu’elles sont de “terrifiants instruments de spoliation”, affirme l’essayiste Naomi Klein, dans cette tribune traduite en exclusivité par Courrier international.

“Au milieu du déluge de polémiques inspirées par le lancement précipité des technologies dites “d’intelligence artificielle” (IA), une obscure querelle fait rage autour du verbe “halluciner”. C’est le terme qu’emploient les concepteurs et défenseurs des IA génératives pour caractériser certaines des réponses totalement inventées, ou objectivement fausses, formulées par les robots conversationnels, ou chatbots.

En récupérant un terme plus communément utilisé dans les domaines de la psychologie, du psychédélisme ou dans diverses formes de mysticisme, les apôtres de l’IA reconnaissent certes le caractère faillible de leurs machines, mais, surtout, ils renforcent le mythe favori de cette industrie : l’idée qu’en élaborant ces grands modèles de langue [LLM] et en les entraînant grâce à tout ce que l’humanité a pu écrire, dire ou représenter visuellement, ils sont en train de donner naissance à une forme d’intelligence douée d’une existence propre et sur le point de marquer un bond majeur pour l’évolution de notre espèce.

Si les hallucinations sont effectivement légion dans le monde de l’IA, elles ne sont toutefois pas le produit des chatbots, mais des esprits fiévreux de certains grands pontes de la tech. Les IA génératives mettront fin à la pauvreté dans le monde, nous disent-ils. Elles vont résoudre le problème du dérèglement climatique. Et elles vont redonner du sens à nos métiers et les rendre plus intéressants.

Il existe bien un monde où les IA génératives pourraient effectivement être au service de l’humanité, des autres espèces et de notre maison commune. Encore faudrait-il pour cela qu’elles soient déployées dans un environnement économique et social radicalement différent de celui que nous connaissons.

Nous vivons dans un système conçu pour extraire le maximum de richesses et de profits – à la fois des êtres humains et de la nature. Et dans cette réalité où le pouvoir et l’argent sont hyper-concentrés, il est nettement plus probable que les IA se transforment en terrifiants instruments de vol et de spoliation.

Je reviendrai sur ce point, mais, dans un premier temps, il est utile de réfléchir au but que servent les charmantes hallucinations des utopistes de l’IA. Voici une hypothèse : sous leur vernis brillant, ces jolies histoires permettent de dissimuler ce qui pourrait se révéler le plus vaste pillage, et le plus conséquent, de l’histoire de l’humanité. Car ce que l’on observe, c’est que les entreprises les plus riches de l’histoire sont en train de faire main basse sur l’entièreté des connaissances humaines consignées sous forme numérique et de les enfermer dans des produits propriétaires, parmi lesquels bon nombre porteront préjudice à des hommes et femmes dont le travail aura été utilisé – sans leur consentement – pour fabriquer ces machines.

C’est ce que la Silicon Valley appelle couramment “disruption” – un tour de passe-passe qui a trop souvent fonctionné. On connaît le principe : foncez dans le Far West réglementaire ; clamez haut et fort que les vieilles règles ne peuvent pas s’appliquer à vos nouvelles technologies. Le temps de dépasser l’effet de nouveauté et de commencer à mesurer les dégâts sociaux, politiques et économiques de ces nouveaux jouets, la technologie est déjà si omniprésente que les législateurs et les tribunaux jettent l’éponge.

Voilà pourquoi les hallucinations sur tous les bienfaits qu’apporteront les IA à l’humanité prennent tant d’importance. Non seulement ces belles promesses tentent de faire passer un pillage à grande échelle comme un cadeau, mais en plus elles contribuent à nier les incontestables menaces que constituent ces technologies.

Comment justifie-t-on le développement d’instruments qui présentent des risques aussi catastrophiques ? Généralement, en affirmant que ces outils recèlent d’immenses bénéfices potentiels. Sauf que la plupart de ces bénéfices relèvent de l’hallucination, du mirage. Examinons-en quelques-uns.

Hallucination n° 1 : les IA résoudront la crise climatique

Le géant de fer (1999) © Warner

Parmi les qualités des IA, l’idée qu’elles pourront d’une manière ou d’une autre trouver une solution à la crise climatique figure presque invariablement en tête de liste. L’ancien PDG de Google Eric Schmidt résume cette conception dans un entretien paru dans The Atlantic, où il affirme qu’en matière d’IA, le jeu en vaut la chandelle : “Quand on pense aux principaux problèmes dans le monde, ils sont tous très compliqués – le changement climatique, les organisations humaines, etc. Et donc, je milite toujours pour que les gens soient plus intelligents.

Selon cette logique, l’absence de solution aux grands défis de notre époque – tels que la crise climatique – serait donc liée à un déficit d’intelligence. Sauf que cela fait des décennies que des gens très intelligents, bardés de doctorats et de prix Nobel, pressent les gouvernements de prendre des mesures impératives. Si leurs très judicieux conseils n’ont pas été écoutés, ce n’est pas parce qu’on ne les comprend pas. C’est parce qu’en suivant leurs recommandations, les gouvernements risqueraient de perdre des milliards et des milliards de dollars dans l’industrie des énergies fossiles et que cela ferait vaciller le modèle de croissance fondé sur la consommation, qui est la clé de voûte de nos économies interconnectées. L’idée qu’il vaut mieux attendre que des machines formulent des solutions plus acceptables et/ou profitables n’est pas un remède au mal, mais un symptôme de plus.

Balayez ces hallucinations et il apparaît nettement plus probable que le déploiement des IA contribuera au contraire à activement aggraver la crise climatique. D’abord parce que les immenses serveurs qui permettent à ces chatbots de produire des textes et des créations artistiques instantanés sont une source énorme et croissante d’émissions de CO2. Ensuite, parce qu’à l’heure où des entreprises comme Coca-Cola investissent massivement dans les IA génératives pour doper leurs ventes, il devient parfaitement évident que l’objectif n’est pas de sauver le monde, mais d’inciter les gens à acheter toujours plus de produits émetteurs de carbone.

Enfin, cette évolution aura une autre conséquence, plus difficile à anticiper. Plus nos médias seront envahis de deepfakes et de clones, plus les informations se transformeront en zone de sables mouvants. Lorsque nous nous méfions de tout ce que nous lisons et voyons dans un environnement médiatique de plus en plus troublant, nous sommes encore moins bien équipés pour résoudre les problèmes les plus pressants de l’humanité.

Hallucination n° 2 : les IA assureront une bonne gouvernance

Le géant de fer (1999) © Warner

Il s’agit ici d’évoquer un avenir proche dans lequel politiciens et bureaucrates, s’appuyant sur l’immense intelligence cumulée des IA, seront capables de “détecter des besoins récurrents et d’élaborer des programmes fondés sur des éléments concrets” pour le plus grand bénéfice de leurs administrés.

Comme pour le climat, la question mérite d’être posée : est-ce par manque d’éléments concrets que les responsables politiques imposent des décisions aussi cruelles qu’inefficaces ? Est-ce qu’ils ne comprennent vraiment pas le coût humain qu’impliquent les réductions budgétaires du système de santé en pleine pandémie ? Ne voient-ils pas le bénéfice pour leurs administrés de créer des logements non soumis aux règles du marché quand le nombre de sans domicile ne cesse d’augmenter ? Ont-ils vraiment besoin des IA pour devenir “plus intelligents” ou bien sont-ils juste assez intelligents pour savoir qui financera leur prochaine campagne ?

Ce serait merveilleux si les IA pouvaient effectivement contribuer à rompre les liens entre l’argent des entreprises et la prise de décision de politiques irresponsables. Le problème est que ces liens sont précisément la raison pour laquelle des entreprises comme Google et Microsoft ont été autorisées à déployer leurs chatbots sur le marché en dépit d’une avalanche de mises en garde. L’an dernier, les grandes entreprises de la tech ont dépensé la somme record de 70 millions de dollars [65 millions d’euros] pour défendre leurs intérêts à Washington.

Alors qu’il connaît pertinemment le pouvoir de l’argent sur les politiques du gouvernement, Sam Altman, le PDG d’OpenAI – concepteur de ChatGPT –, semble halluciner un monde complètement différent du nôtre, un monde dans lequel les dirigeants politiques et les industriels prendraient leurs décisions sur la base des données les plus pertinentes. Ce qui nous amène à une troisième hallucination.

Hallucination n° 3 : les IA nous libéreront des travaux pénibles

Le géant de fer (1999) © Warner

Si les séduisantes hallucinations de la Silicon Valley semblent plausibles, la raison en est simple. Les IA génératives en sont pour l’heure à un stade de développement qu’on pourrait qualifier de “simili-socialisme”. C’est une étape incontournable dans la méthode désormais bien connue des entreprises de la Silicon Valley. D’abord, créez un produit attractif et mettez-le à disposition gratuitement ou presque pendant quelques années, sans apparent modèle commercial viable. Faites de nobles déclarations sur votre objectif de créer une “place publique” [Elon Musk à propos de Twitter] ou de “relier les gens”, tout en propageant la liberté et la démocratie. Puis, voyez les gens devenir accros à votre outil gratuit et vos concurrents faire faillite. Une fois le champ libre, faites de la place pour la publicité, la surveillance, les contrats avec l’armée et la police, la boîte noire des reventes de données utilisateurs et les frais d’abonnement croissants.

Des chauffeurs de taxi en passant par les locations saisonnières et les journaux locaux, combien de vies et de secteurs ont-ils été décimés par cette méthode ? Avec la révolution de l’IA, ces préjudices pourraient paraître marginaux par rapport au nombre d’enseignants, de programmeurs, de graphistes, de journalistes, de traducteurs, de musiciens, de soignants et tant d’autres professionnels menacés de voir leur gagne-pain remplacé par du mauvais code.

Mais n’ayez crainte, prophétisent les apôtres de l’IA – ce sera merveilleux. Qui a envie de travailler de toute manière ? Les IA génératives ne signeront pas la fin du travail, nous dit-on, seulement du travail “ennuyeux”. Pour sa part, Sam Altman imagineun avenir où le travail “recouvre une notion plus large ; [où] ce n’est pas quelque chose que l’on fait pour manger, mais pour laisser parler sa créativité, comme une source de joie et d’épanouissement.

Il se trouve que cette vision de l’existence qui fait la part belle aux loisirs est partagée par de nombreux militants de gauche. Sauf que nous, gauchistes, pensons également que si gagner de l’argent n’est plus le but de l’existence, il faut d’autres moyens pour satisfaire à nos besoins essentiels, tels que la nourriture et le logis. Dans un monde débarrassé des métiers aliénants, l’accès au logement doit donc être gratuit, de même que l’accès aux soins, et chaque individu doit se voir garantir des droits économiques inaliénables. Et soudainement, le débat ne tourne plus du tout autour des IA, mais du socialisme.

Or nous ne vivons pas dans le monde rationnel et humaniste que Sam Altman semble voir dans ses hallucinations. Nous vivons dans un système capitaliste où les gens ne sont pas libres de devenir philosophes ou artistes, mais où ils contemplent l’abîme – les artistes étant les premiers à y plonger.

Naomi Klein © Diario Sur

Alors que les géants de la tech voudraient nous faire croire qu’il est déjà trop tard pour revenir en arrière et renoncer aux machines qui supplantent les humains, il est bon de rappeler qu’il existe des précédents légaux démontrant le contraire. Aux États-Unis, la Commission fédérale du commerce (FTC) [l’autorité américaine de la concurrence] a contraint Cambridge Analytica, ainsi qu’Everalbum, propriétaire d’une application photographique, à détruire la totalité de plusieurs algorithmes entraînés avec des données et des photos acquises de manière illégitime.

Un monde de deepfakes et d’inégalités croissantes n’est pas une fatalité. Il est le résultat de choix politiques. Nous avons les moyens de réglementer les chatbots qui vampirisent aujourd’hui nos existences et de commencer à bâtir un monde où les promesses les plus fantastiques des IA ne seront pas que des hallucinations de la Silicon Valley.”

Naomi Klein


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | source : pressegauche.org (CA) | contributeur : Patrick Thonart | crédits illustrations : ALLEN Jason M., Théâtre d’opéra spatial (tableau réalisé via IA, avec le logiciel MIDJOURNEY, qui a gagné un premier prix contesté dans la catégorie “Arts numériques/Photographie manipulée numériquement” au Colorado State Fair : le débat porte sur le concept de “création”) © Warner ; © Diario Sur.


Plus de parole libre en Wallonie-Bruxelles…

I.A. : ChatGPT, tu peux écrire mon mémoire ? (quand les profs mènent l’enquête…)

Temps de lecture : 4 minutes >

[RTBF.BE, 7 juin 2023] C’est une nouvelle réalité dans le monde de l’enseignement : les applications capables de générer du contenu, comme ChatGPT, aident certains étudiants à finaliser leurs travaux. Ces “coups de pouce” de l’intelligence artificielle passent-ils inaperçus ? Comment font les profs pour les débusquer ? Et avec quelles conséquences, à la clé ? Nous avons, nous aussi, mené notre petite enquête…

Pour ceux qui auraient loupé l’info, ChatGPT, c’est ce robot qui vous rédige une lettre de motivation, un poème, un discours de mariage en moins de temps qu’il ne faut pour l’écrire. L’application compte déjà plus de 100.000 utilisateurs dans le monde. Et parmi ses fans, beaucoup d’étudiants.

C’est très tentant, manifestement

Caroline est prof dans le supérieur. Cette habitante de Wallonie picarde parcourt à longueur de journée des travaux d’étudiants, des rapports de stage ou des mémoires. De façon très claire, certains ont eu recours à l’IA (Intelligence Artificielle) pour composer leurs textes. “On s’y attendait. Mais c’est un peu plus rapide que ce qu’on imaginait. On pensait avoir encore un peu le temps… Je pense d’ailleurs que les logiciels de détection de plagiat sont eux aussi un peu pris de court ! C’est tentant, je pense, pour un étudiant d’utiliser l’intelligence artificielle pour se rassurer, avoir des idées, ou peut-être être malhonnête, ça arrive aussi !

Habituée à corriger les productions écrites de ses étudiants, Caroline pense pouvoir détecter, assez rapidement, les passages “made in ChatGPT“. “Cela ne complique pas le métier de correctrice, cela complique l’enquête. Quelqu’un qui tombe sur un texte généré par l’IA et qui ne connaît pas l’étudiant peut tomber dans le panneau. Il peut trouver ça bien écrit, ça tient la route… Mais quand on connaît bien ses étudiants, leur style, leur qualité d’orthographe, etc., on se réveille. On se dit ‘tiens, c’est bizarre’, et ça met la puce à l’oreille !

Je leur ai permis d’utiliser ChatGPT

Avoir recours à l’intelligence artificielle, est-ce du plagiat ? De la fraude ? Y a-t-il une base légale sur laquelle les enseignants peuvent se reposer ? Ces questions sont particulièrement “touchy”, vu le vide juridique qui entoure ces outils. “C’est une question très intéressante, mais à laquelle il n’y a pas de réponse absolue, nous explique Yves Deville, professeur à l’UCLouvain et conseiller du recteur pour le numérique. ChatGPT est un outil extrêmement nouveau. Il n’y a pas aujourd’hui de règles communes. Qu’est-il admis ? Interdit ? En quoi ChatGPT peut-il aider ? Ce n’est pas très clair ! Pour l’instant, c’est un peu à l’enseignant de déterminer par rapport à ses étudiants quelles sont les limites qu’il veut mettre en place.

Par rapport à mes étudiants, j’ai autorisé le recours à ChatGPT pour autant que les étudiants expliquent comment ils utilisent ChatGPT et à quel endroit de leur mémoire de fin d’étude il est utilisé. Ça n’a pas beaucoup de sens d’interdire ce type d’outil, car cela va se déployer de plus en plus dans la vie citoyenne. Il faut surtout apprendre à utiliser ces outils de manière intelligente.” Il faut, pour lui, distinguer les extraits “sourcés” et les extraits “pirates”, qui seraient de simples “copiés-collés”, assimilables à du plagiat. “Le plagiat, c’est reprendre une idée d’un autre sans le citer. Si on dit qu’on a utilisé ChatGPT et qu’on indique à quel endroit, ce n’est pas du plagiat : on prévient le lecteur.

ChatGPT ? Un excellent baratineur !

Pour Yves Deville, ChatGPT peut se révéler d’une grande efficacité pour une série de tâches : “corriger l’orthographe, améliorer la syntaxe, la forme d’un texte dans une langue étrangère. On peut utiliser ChatGPT pour déblayer aussi une thématique.

Mais gare à l’excès de confiance ! “Il faut surtout, surtout vé-ri-fier que ce que ChatGPT dit est bien une réalité scientifique ! ChatGPT est un excellent baratineur. Il ne faut pas utiliser ce type d’outil comme une encyclopédie.” L’Intelligence Artificielle peut jouer de vilains tours à ceux qui lui font trop confiance. En témoignent certaines anecdotes, récits de mésaventures relayés sur internet. “Il y a par exemple cet avocat américain qui a sollicité ChatGPT pour bâtir un argumentaire, dans un procès, raconte Yves Deville. Oups : ChatGPT a inventé des cas de jurisprudence. L’avocat n’a pas vérifié et transmis cette jurisprudence fantaisiste au juge. L’avocat a passé pour un idiot ! ChatGPT doit être considéré comme une aide, un premier jet, un générateur d’idées premières. Ensuite, on vérifie, on s’informe ailleurs, on travaille son sujet… Ne surtout pas tout prendre pour argent comptant.”

Yves Deville et Caroline se rejoignent sur ce point : l’importance de conserver (et d’activer) son esprit critique. Il doit agir comme un véritable bouclier, capable de débusquer les erreurs et fausses pistes sur lesquelles ChatGPT peut emmener ceux qui lui font confiance aveuglément.

Charlotte Legrand, rtbf.be


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | sources : rtbf.be | contributeur : Patrick Thonart | crédits illustrations : en-tête, l’œil du robot HAL (= IBM moins une lettre) dans 2001, l’odyssée de l’espace de Stanley Kubrick (1968) © MGM.

Pour bien faire la différence entre des références validées (comme dans wallonica.org, par exemple) et des textes fabriqués au départ des données statistiquement les plus probables (comme via ChatGPT), lisez sur le même sujet :

L’intelligence artificielle génère aussi des images et nous ne résistons pas à l’envie de partager une info (ou un délicieux canular) : un utilisateur aurait demandé à Dall-E [programme d’intelligence artificielle générative, capable de créer des images à partir de descriptions textuelles] une photographie de “Montaigne inscrivant son dernier Essai”… Si non e vero, e bene trovato !

Source : Jean-Philippe de Tonnac

Plus de dispositifs en Wallonie-Bruxelles…

STAS, André (1949-2023)

Temps de lecture : 5 minutes >

Ultime farce de mauvais goût, André STAS nous a quittés ce 26 avril 2023. Ce ne sera pas dit dans les nécrologies qui vont fleurir sur sa tombe mais l’homme était avant tout bienveillant et, s’il grommelait beaucoup, il grommelait gentil : le fait est assez rare chez les trublions de la contre-culture liégeoise des années 70 pour être relevé. L’homme aimait le pastiche (51 ?), aussi allons-nous jouer sans vergogne la compil d’hommages. Ne cherchez pas le contrepet…

“Chattes, j’ai pété !”

Pour l’instant, les manchettes de nos journaux explosent d’images générées par intelligence artificielle (“IA, mijnheer”). De beaux visages de femmes aux poitrines d’oiseaux sont mariés, avec une élégance toute commerciale, avec des câbles et des connecteurs informatiques : une impression de contre-nature s’en dégage de manière indicible. Voilà bien un phénomène qui se situe aux antipattes (dixit Alice au pays des merveilles) de la contre-culture que pratiquait André Stas : manifestement, pour le pataphysicien (si peu, si différemment), l’oeuvre doit provoquer par son contenu autant que par sa facture. Stas partageait son propos au travers du fait-main, comme en témoigne son montage ci-dessous (Ensor, le timbré ?).

© Fonds Thonart

On le voit : si la culture, c’est penser à la culture, la contre-culture, c’est aussi faire penser à la culture. J’ai l’intuition qu’André Stas aurait joué sa détestation du contre-nature au travers d’un objet de contre-culture. Nous ne le verrons pas, André Stas est mort. Mais, cette détestation, dans sa bêtise aveugle, la contre-nature la lui rend bien : nous avons demandé à ChatGPT (“Chattes, j’ai pété !” aurait grommelé André) qui était André Stas :

André Stas était un chimiste belge du XIXe siècle, né le 30 décembre 1813 à Leuven en Belgique et décédé le 13 décembre 1864 à Schaerbeek. Il est surtout connu pour sa découverte de la loi de Stas, qui a permis d’établir avec précision les masses atomiques des éléments chimiques. En utilisant des techniques de mesure très précises, Stas a réussi à déterminer la masse atomique de nombreux éléments avec une précision de l’ordre de 0,01%. Cette méthode a été essentielle pour la compréhension de la composition chimique de la matière, et a jeté les bases de la chimie moderne. Stas a également joué un rôle important dans le développement de la chimie analytique, et a travaillé sur de nombreux autres sujets en chimie, notamment la synthèse organique et la chimie des gaz. Sa contribution à la science lui a valu de nombreux honneurs, notamment l’élection à l’Académie royale des sciences, des lettres et des beaux-arts de Belgique en 1850.

La réponse du robot est identique si la question devient : “Qui était le liégeois André Stas ?” et lorsque ChatGPT est a nouveau sollicité avec la question “Qui était l’artiste liégeois André Stas ?“, la réponse ne se fait pas attendre :

Je suis désolé, mais il n’y a pas d’artiste liégeois connu sous le nom d’André Stas. Le nom André Stas est généralement associé à un chimiste belge du XXe siècle, comme je l’ai expliqué dans ma réponse précédente.

On notera que ChapGPT travaille sur un corpus de données postérieures à 2021 et compose intégralement la réponse… la plus probable : la véracité n’est pas un critère pour un robot ! Et notre ami contre-cultureux de se réjouir dans la tombe, des inepties de la contre-nature, qui sont également des contre-vérités :

      • Le chimiste belge évoqué s’appelait en fait Jean Servais Stas ;
      • La datation (1813-1864) devait alors être (1813-1891) et, personnellement, j’avais l’habitude de les situer au XIXe siècle, et non au XXe ;
      • notre André Stas n’était pas un inconnu !

La messe est dite (et André piaffe).

Patrick Thonart


[LE-CARNET-ET-LES-INSTANTS.NET] Nous apprenons le décès du collagiste et écrivain André Stas. Il avait 73 ans. André Stas est né à Rocourt le 19 novembre 1949. Diplôme de philologie romane de l’Université de Liège, il a présenté un mémoire consacré à l’aphorisme, un genre auquel il s’adonnera lui-même par la suite.

Subversif, affectionnant l’humour, il était lié à l’univers des pataphysiciens et des surréalistes. Il était également l’un des incontournables du Cirque Divers. Plasticien autodidacte, il a particulièrement excellé dans l’art du collage, qui lui a valu une reconnaissance internationale.

Il a aussi pratiqué le collage dans le domaine littéraire. Cent nouvelles pas neuves, paru aux éditions Galopin en 2005, est un recueil de textes composés exclusivement d’extraits d’œuvres d’autres auteurs. Il avait d’ailleurs poursuivi l’exercice en 2021 avec Un second cent de nouvelles pas neuves, paru au Cactus inébranlable.

Bibliographie partielle d’André Stas

André Stas
ou le spadassin passe-murailles

[LE-CARNET-ET-LES-INSTANTS.NET, 28 août 2022] On peut rire aux larmes, et de tout, et de rien… mais pour rédiger un traité de savoir-rire, il faut dénicher l’arme et l’avoir bien en main. L’entretenir. Depuis plus de quatre décennies, André Stas, “ce chiffonnier muni de son crochet” – comme le décrivait en 1981 Scutenaire dans sa préface à une exposition de collages au Salon d’Art, chez Jean Marchetti – a toujours trouvé matière à confectionner ses flèches et couteaux, aiguisés, effilés, enduits d’un secret mélange de curare, de houblon et d’eau de Spa, pour atteindre ses cibles. Les collages de Stas, nés dans la parfaite connaissance de ses prédécesseurs surréalistes, ont acquis très vite une autonomie personnelle, que Jacques Lizène définissait comme “des enluminures libres.” À la fois absurdes, drolatiques, parfois féériques et souvent sensuelles voire sexuelles, mais sans illusions : Stas est impitoyable à l’égard de lui-même et de ses semblables. Cet homme ne s’épargne pas, pas plus que ses collages au scalpel n’épargnent le monde qui l’environne. On cite à nouveau Scutenaire : un collage de Stas, c’est “comme si une éponge morte et saturée d’une eau sale redevenait une créature marine, vivante et fraîche, encore que parfois effrayante.

Stas passe à travers tout, en véritable passe-muraille des situations désespérées et de l’effroi : “Mon humour est noir, certes. Au moins, j’arrive encore à rire“, écrit-il dans son nouveau recueil d’aphorismes, Bref caetera, que publie Marchetti, juste continuité d’une longue complicité avec La pierre d’alun. La filiation se prolonge d’ailleurs avec les dessins de Benjamin Monti, qui accompagnent d’un même esprit, passé au savon noir, les “grenailles errantes” de Stas. Car tirant javelot de tout bois, ce spadassin de l’image et des mots pratique de longue date, on le sait, l’écriture brève, incisive, lapidaire, laissant jaillir “un aphorisme propice, comme un moment peut l’être.” Avec lui, les mots s’entraînent, s’entraident, se déchaînent, se détournent les uns des autres et se rattrapent, pour mieux contrer l’adversité. Qu’elle soit météorologique (“Le réchauffement climatique serait inéluctable. Le chaud must go on“), métaphysique (“Je pense donc j’y suis, j’y reste“), littéraire (“Quand j’entends le mot surréalisme, je rêve d’une pipe“), ou situation personnelle autant qu’universelle : “Désapprendre, se déposséder, se déliter, décliner, délirer, décéder.

L’humour, l’humeur, la gaieté désabusée, le drame derrière le nez du clown. Mais l’intime ou la gravité peuvent surgir également derrière une plaisanterie d’allure potache, un calembour, une grivoiserie (“Il n’y a pas que les écureuils invertis qui aiment les glands“) – et cela même si de nos jours “la liberté d’expression est forcément mâtinée d’autocensure, écrémage du pire.” Sans cependant ériger telle ou telle maxime délictueuse en sentence définitive, car pour Stas “les aphorismes sont les amuse-gueules de la philosophie.” Au mieux, l’aphorisme n’est qu’ “un trublion, un rastaquouère“, tel le Jésus-Christ du dadaïste Francis Picabia. […]

Alain Delaunois


[INFOS QUALITE] statut : validé | mode d’édition : rédaction, partage, compilation et iconographie | sources : e.a. Le carnet et les instants | commanditaire : wallonica.org | contributeur : Patrick Thonart  | crédits illustrations : l’entête de l’article montre André Stas sur le ring de l’exposition consacrée au Cirque Divers en 2018 © rtbf.be ; © Fonds Thonart.


Plus d’artistes en Wallonie-Bruxelles…

TRIBUNE LIBRE : Intelligence Artificielle, l’oxymoron du siècle

Temps de lecture : 8 minutes >

[FUTURIMMEDIAT.NET, 11 janvier 2023] Puisque tout le monde en parle, il doit certainement se passer quelque chose. Pas une journée ne s’écoule sans que sorte un nouvel article, dithyrambique ou alarmiste, dans le domaine très en vogue de l’Intelligence Artificielle. Depuis le Guardian jusqu’à Trust My Science, on nous apprend comment l’IA, en ce moment même, est en train de nous propulser dans une nouvelle ère – ou de nous condamner à l’apocalypse numérique. Sommes-nous à l’aube d’une réelle transition technologique, qui nous apporterait enfin des logiciels d’image pourvus d’imagination, des véhicules autonomes fiables, et des assistants rédacteurs capables de résumer plusieurs textes et d’en faire la synthèse ? Ou bien sommes-nous désormais proches de la “singularité”, plus menacés que jamais par un futur dystopique, du genre Matrix ou Terminator, où les machines auront atteint leur autonomie et prendront le contrôle de l’humanité ?

Ni l’un ni l’autre : les progrès récents, bien que réels et importants pour l’Intelligence Artificielle elle-même, n’auront probablement qu’un impact négligeable sur l’industrie et sur notre quotidien. Le seul vrai problème avec Chat GPT, l’outil de génération de texte que les commentateurs montrent du doigt, c’est la profusion des articles alarmistes – et très mal documentés – qui nous mettent en garde contre cette prétendue menace.

Quant aux synthétiseurs d’images par diffusion (Dall-e, Stable Diffusion, Midjourney, etc.) ils n’ont pas pour objectif de révolutionner les métiers graphiques, et n’en ont pas les moyens, quoiqu’en disent les millions de geeks désœuvrés qui passent leurs nuits à générer des images sans queue ni tête. Tempête dans un verre d’eau, à moitié vide ou à moitié plein, selon l’humeur de l’auteur. Beaucoup de bruit pour des clopinettes. Jouer avec les IA est certes merveilleux : c’est fascinant de les voir écrire, dialoguer, dessiner, cracher des photographies stupéfiantes et élaborer des créations graphiques à couper le souffle. Mais, malheureusement, ces jouets extraordinaires ne pourront pas nous servir à grand’chose de plus qu’à jouer.

Quand l’artifice nous trompe énormément

Au premier contact, les nouvelles intelligences artificielles sont brillantes. On a vu fleurir un peu partout sur le web des images inédites et spectaculaires dans tous les styles graphiques et photographiques, des paysages somptueux, des portraits séduisants, des pastiches délirants, et même des œuvres nouvelles de grands peintres.

Quant à ChatGPT, il est capable de disserter brillamment, à peu près dans toutes les langues, sur n’importe quel sujet pas trop récent. Et cela même en français, à propos de la littérature française :

© futurimmediat.net

Mais si on gratte sous le vernis de sa tchatche, le bot raconte n’importe quoi : les trois citations sont montées de toutes pièces, un Frankenstein vraisemblable – et totalement factice – prétendument extrait d’un livre qui, vérification faite, n’a jamais existé !

C’est d’autant plus pernicieux que, dans un domaine où on manque de compétence, l’assurance trompeuse de ChatGPT est extrêmement convaincante. Et comme il ne se trompe pas systématiquement, on a vite fait de croire que c’est juste une maladie de jeunesse, qui va s’arranger avec les corrections successives. Malheureusement, comme on le verra plus loin, c’est une espérance qu’il faut abandonner, et qui a d’ores et déjà conduit les geeks du monde entier à accorder à l’intelligence artificielle un crédit qu’elle ne mérite absolument pas.

En ce qui concerne la synthèse d’images, pour peu que l’on essaie de se servir des outils existants avec un minimum de sérieux, on finit par passer des nuits blanches à éliminer des tombereaux d’images grotesques, incohérentes ou simplement moches, dans l’espoir d’en trouver une seule qui tienne la route. Florilège :

© futurimmediat.net

Tristes coulisses : derrière les superbes images partagées par les geeks du monde entier se cachent une multitude de ces résultats inutiles, et des heures de fastidieux labeur digital.

Limites techniques, limites de conception

Si les systèmes d’IA dont on parle tant aujourd’hui échouent à dépasser certaines limites, c’est d’abord par manque de puissance et ensuite en raison de limites inhérentes à leur conception. Pour ce qui est du déficit de puissance, il suffit de se rappeler qu’un réseau de neurones artificiels est essentiellement un programme d’ordinateur, et qu’il est donc contraint par les limites d’un pc courant.

Un système d’IA typique est limité à quelques couches d’une centaine de neurones chacune, parce que tous les neurones d’une couche donnée doivent dialoguer avec chacun des neurones de la couche suivante et de la couche précédente, et donc chaque neurone supplémentaire augmente les besoins en ressources. Par comparaison, un cerveau humain comprend une bonne centaine de milliards de neurones. Et on pourrait mettre en avant de nombreuses autres différences.

Mais plus encore que les problèmes de puissance, c’est leur conception même qui rend les réseaux artificiels actuels cruellement inefficaces. Ces réseaux sont entraînés sur des corpus (d’images légendées, de phrases en contexte) et leur objectif est de produire, pour toute demande quelconque (légende dépourvue de l’image associée, question attendant une réponse) un complément vraisemblable (image, texte).

On obtient ce complément par tentatives successives, en produisant plusieurs assemblages de divers fragments pertinents du corpus original. L’assemblage finalement retenu sera celui qui, dans l’ensemble, semble statistiquement le plus proche des données du corpus. Comme le réseau de neurones ne dispose pas d’un modèle (pas de représentation mentale des mots utilisés dans les phrases, pas de notion des objets objets présents dans les les images) et que la ressemblance formelle avec le corpus constitue le seul critère de filtre, on a une vraisemblance purement superficielle, dépourvue de sens : les images produites avec Stable Diffusion sont souvent absurdes, les textes générés par ChatGPT peuvent révéler de profondes incohérences.

Le mirage fatal de l’autocorrection

On peut légitimement se poser la question : pourquoi les nouvelles IA génératives, comme ChatGPT ou Stable Diffusion, ne peuvent-elles pas corriger d’elles-mêmes leurs propres erreurs ? Ainsi, par exemple, le YouTuber Anastasi in tech, se demande pourquoi le système ne donne pas de lui-même un degré de confiance à ses résultats ?

La réponse est simple : du fait de leur manière de traiter l’information, les IA considèrent chacune de leurs productions comme la meilleure production possible : leur indice de confiance est de 100 % à chaque fois. En effet, de manière à obtenir le produit le plus vraisemblable, les AI optimisent déjà en permanence la cohérence de chaque fragment au sein de leur réponse. C’est même là le secret technique essentiel de leur fonctionnement.

Dans les générateurs d’images, on peut même contrôler de manière précise, et en divers endroits, le degré de hasard qu’on souhaite faire intervenir dans la génération : on peut régler le taux de conformité par rapport au texte (”guidance”), le degré de ressemblance du résultat avec une éventuelle image initiale, et sélectionner la matrice de bruit initiale (”seed”). Les chatbots basés sur GPT et les générateurs d’images à base de diffusion sont structurellement incapables d’évaluer la pertinence de leurs réponses et ne peuvent donc pas être améliorés dans ce domaine.

Quand qui peut le plus ne peut pas le moins

Les IA produisent de telles merveilles (images somptueuses, surprenantes et réalistes, réponses limpides et amplement documentées) que pour nous, humains, leurs erreurs évidentes, voire grossières (mains à six doigts, raisonnements incohérents…) paraissent par contraste extrêmement simples à éviter. Malheureusement, cette “évidence” est une projection anthropomorphique. Qui donc aurait un style écrit aussi brillant et serait en même temps incapable de disserter ? Qui donc serait en mesure de dessiner de si belle images et oublierait une jambe, voire un œil, de son personnage ? Réponse : les machines !

Quand on voit l’IA générer un enfant à trois jambes ou une main à dix doigts, on pense tout de suite, “qui peut le plus peut le moins, une machine tellement douée pourra forcément arriver à corriger ces bêtises”. Anthropomorphisme, fatale erreur : les machines ne pensent pas comme des êtres humains.

Rivés à leurs écrans, les geeks du monde entier s’imaginent que les limites intrinsèques des IA seront aisément dépassées, tant les inepties qu’elles contribuent à générer sont criantes : à force d’essais et d’erreurs, par itérations et corrections successives, on parviendra forcément à entraîner des systèmes fiables, capables de détecter par avance ces échecs évidents, et de les éliminer.

Mais non. Pour aider les machines à dépasser leurs limites, il ne suffira pas de leur apporter des améliorations à la marge : il faudra soit augmenter leur puissance, soit améliorer leur conception.

Dans le domaine de la puissance, les progrès sont dans le meilleur des cas contraints par la loi de Moore, selon laquelle le progrès technique permet de diviser la taille des transistors par deux tous les deux ans. Cette contrainte ne satisfait pas les exigences d’un réseau neuronal un peu costaud (rappelez-vous, chaque nouveau neurone fait croître de manière exponentielle le nombre d’interconnexions nécessaires à son fonctionnement). Or, tous les progrès récemment engrangés par les modèles GPT de génération de texte sont basés sur l’augmentation de puissance.

Il faudrait donc se tourner du côté de la conception. Mais les découvertes sont directement liées à la recherche et leur fréquence d’apparition n’est pas prévisible. Aujourd’hui, tous les systèmes populaires de génération d’images procèdent de la combinaison des modèles GPT avec une solution de conception relativement ancienne, la diffusion, inventée en 2015, et qui est à l’origine de tous les progrès qu’on a pu voir en 2022. On ne sait absolument pas quand on aura à nouveau la joie d’assister à une découverte autorisant un progrès d’une telle ampleur.

Tout bien considéré, la geekosphère peut redescendre de son perchoir, rien ne garantit que la prochaine révolution nous attende au coin de la rue.

Proprioception, affects, et conscience, insurmontables limites de l’IA ?

Notre intelligence humaine est multimodale : lorsque nous prononçons un mot, celui-ci ravive une série d’expériences préalablement mémorisées qui sont intellectuelles, pratiques (réponse à la question “que puis-je faire ?”), perceptives (visuelles, auditives, tactiles, olfactives, gustatives), proprioceptives (liées à nos sensations corporelle internes) et, par-dessus tout, émotionnelles. Ainsi le mot “chat” c’est conceptuellement un “animal domestique non-chien”, lié à un tas de perceptions dont des déplacements souples, une couleur et une fourrure, les miaulements, les ronronnements, l’odeur du chat, celle des croquettes qu’on lui donne, la fourrure qu’on touche, l’animal qu’on caresse et grattouille, qu’on nourrit et à qui on doit ouvrir la porte, etc. Sans parler des liens affectifs et des rapports psychologiques qu’on peut entretenir avec un chat, domaines dans lesquels on fera sans doute bien de ne pas se cantonner aux instructions d’un chat-bot.

Cette réalité multidimensionnelle et imbriquée de la mémoire, thématique des romans de Marcel Proust, constitue la limite théorique de l’approche binaire de l’intelligence. Son importance pour la compréhension des énoncés et des images avait été démontrée au plan théorique par quelques sémanticiens mal connus du grand public, comme l’américain Georges Lakoff (Metaphors we Live By) et le belge Henri Van Lier (L’Animal Signé). Cette vision théorique est à présent étayée par des expériences récentes d’imagerie cérébrale, qui ont effectivement rendu visibles, lors de la prononciation d’un mot, l’activation à travers tout le cerveau humain, de réseaux multi-fonctionnels spécifiquement associés à ce mot (conversement, l’imagerie en question permet aussi de plus ou moins bien deviner à quoi pense la personne observée !). En somme, l’expérience humaine liée à la corporéité et aux affects constitue un versant de l’intelligence qui restera probablement à jamais hors de portée des machines électroniques.

Quant à la conscience, manifestement, on nous vend de la peau de Yéti : d’année en année, les spécialistes reportent encore et encore à plus tard leurs prédictions quant l’apparition d’une IA consciente et autonome, ou “General Purpose AI” (intelligence artificielle généraliste), qui prendrait sa destinée en mains. Demain, la Singularité rase gratis.

Dernière annonce en date, la fameuse “interview” de LaMDA, le système d’IA de Google, soi-disant devenu capable de ressentir et conscient de lui-même. Suite à cette fumeuse publication, Google a pris ses distances avec l’auteur et a publié un démenti. Le misérable article inspire même à présent un discours appelant à une évaluation plus raisonnable des systèmes actuels. Another hoax bites the dust.

Si on considère que proprioception, affects et conscience font partie intégrante de l’intelligence, alors il n’y a aucune raison légitime d’utiliser ensemble les mots “intelligence” et “artificielle”.

Michelange Baudoux, sémanticien et blogueur


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie (l’article original contient plus d’illustrations et de références) | sources : futurimmediat.net | contributeur : Patrick Thonart | crédits illustrations : en-tête, © futurimmediat.net.


Plus de dispositifs en Wallonie-Bruxelles…

FN Meka, le robot-rappeur, abandonné par son label accusé de racisme

Temps de lecture : 3 minutes >

FN Meka, un robot rappeur noir star de TikTok, créé grâce à l’intelligence artificielle, a été remercié par Capitol Records après avoir été accusé de colporter des stéréotypes racistes sur les personnes noires.

Il avait “signé” un contrat il y a dix jours avec le label Capitol Records. Mais le robot rappeur noir FN Meka, star de TikTok créée grâce à l’intelligence artificielle, a été “congédié”, mercredi 24 août, après avoir été accusé de véhiculer des stéréotypes racistes sur les personnes noires. Selon le communiqué de sa maison de disques, le groupe Capitol Music a rompu ses liens avec le projet FN Meka, avec effet immédiat.” C’est le groupe d’activistes américains Industry Blackout qui, après une campagne sur les réseaux sociaux, a écrit mardi à Capitol Music, filiale d’Universal Music, pour dénoncer FN Meka, “une insulte directe à la communauté noire et à [sa] culture.” Industry Blackout avait dénoncé un amalgame de stéréotypes grossiers, d’appropriations [culturelles] d’artistes noirs et d’insultes contenues dans les paroles”. FN Meka est notamment accusé d’avoir utilisé le fameux “N-word”, expression devenue imprononçable aux Etats-Unis en raison du caractère jugé raciste, insultant et injurieux à l’égard des personnes noires.

Dix millions d’abonnés, plus d’un milliard de vues

“Nous présentons nos plus profondes excuses à la communauté noire pour notre absence de sensibilité en ayant signé pour ce projet sans nous être interrogés suffisamment sur son équité et sa créativité”, a reconnu la maison de disques. Sur les réseaux sociaux, une image numérique montre également le robot – sorte de cyborg noir au visage tatoué et au crâne à moitié rasé – se faire matraquer au sol par l’avatar d’un policier américain blanc.

Techniquement, le robot rappeur ne chante pas – c’est un vrai artiste noir anonyme qui le fait – mais la musique est, elle, générée par l’intelligence artificielle. FN Meka conserve toutefois son compte TikTok avec plus de dix millions d’abonnés et plus d’un milliard de vues pour ses vidéos.

d’après LEMONDE.FR


Peu de temps après avoir été qualifié de “premier artiste virtuel au monde à signer avec un gros label”, FN Meka a été abandonné par Capitol Records qui a annoncé le 23 août avoir “rompu les liens” avec le robot-rappeur suite aux accusations portées par Industry Blackout, un groupe d’artistes activistes. Lesdites accusations soulignent la perpétuation de stéréotypes et l’appropriation de la culture noire.

Dans un communiqué, via Billboard, Capitol Music Group a annoncé avoir rompu les accords récemment signés et a présenté ses excuses. “Nous présentons nos plus sincères excuses à la communauté noire pour notre insensibilité à signer ce projet sans poser suffisamment de questions sur l’équité et le processus créatif qui le sous-tend. Nous remercions ceux qui nous ont fait part de leurs commentaires constructifs au cours des deux derniers jours – votre contribution a été inestimable lorsque nous avons pris la décision de mettre fin à notre collaboration avec le projet.”, pouvons-nous lire d’après MusicTech.

Il est vrai que FN Meka, initié par Anthony Martini et Brandon Le, utilise le N-Word de manière décomplexée et est même victime de violences policières. Le rappeur virtuel, qui ne subit en aucun cas les oppressions qui poussent les Noirs à lever le poing et à scander des slogans pour rappeler que leurs vies comptent, semble s’en amuser dans ses clips. Dans une lettre ouverte publiée sur Twitter, le groupe Industry Blackout affirme que “Cette effigie numérique est une abomination négligente et irrespectueuse envers de vraies personnes qui font face à de vraies conséquences dans la vraie vie.”

Le groupe d’activistes décrit également le personnage “de caricature qui est une insulte à la culture noire” et “d’amalgame de stéréotypes grossiers, d’appropriation de manières qui dérivent des artistes noirs, avec des insultes infusées dans les paroles.”

La lettre se conclut par une demande d’excuses publiques et de retrait de FN Meka et ce, de toutes les plateformes. Capitol Records et le label virtuel d’Anthony Martini et Brandon Le, Factory New, sont également appelés à reverser tous les bénéfices générés par FN Meka à des œuvres caritatives soutenant la jeunesse noire dans les arts ainsi qu’à des musiciens noirs signés par Capitol.

lire la suite sur RTBF.BE


[INFOS QUALITÉ] statut : validé | mode d’édition : partage, décommercalisation et correction par wallonica | commanditaire : wallonica.org | contributeur : Philippe Vienne | crédits illustrations : © damrea.com ; © Capitol Record.


Plus de presse en Wallonie-Bruxelles…

META, la déclaration d’intention idéologique de Zuckerberg

Temps de lecture : 7 minutes >

Le relookage de Facebook n’est pas une affaire d’image : c’est une question de vision

En 2011, le joueur de basket professionnel Ron Artest a changé de nom pour se faire appeler Metta World Peace. «À mesure que je me suis mis à évoluer en tant que personne et que les choses ont commencé à influencer ma vie, je suis tombé amoureux de la méditation, du zen et de la culture indienne», a déclaré Metta Sandiford-Artest (son nouveau nom) en 2019. Le monde du basketball a plongé dans la perplexité. À l’époque, Artest sortait d’une longue période au cours de laquelle il s’était acquis une réputation d’agressivité (et d’excellence dans la défense). Il avait un jour frappé un fan des Detroit Pistons venu le défier sur le terrain. Pendant des années, quel que soit le match, le plus susceptible de commettre une faute technique, c’était toujours lui.

Aujourd’hui, c’est la planète entière qui tombe dans des abîmes de perplexité devant le changement de nom de l’entreprise Facebook rebaptisée META, préfixe dérivé du mot grec signifiant après ou au-delà. Son PDG, Mark Zuckerberg, qui a étudié l’antiquité grecque et romaine lorsqu’il était dans un collège privé, a écarté l’équivalent latin post, probablement pour éviter d’associer une entreprise de surveillance et de publicité mondiale notoire pour saper la démocratie et les droits humains avec une marque de céréales de petits déjeuner ou un journal basé dans la capitale américaine.

Si le nom de Metta World Peace détonnait avec la réputation du joueur sur le terrain, même s’il correspondait mieux à son état d’esprit zen du moment, META a exactement l’effet inverse. C’est l’accomplissement de la vision à long terme de l’entreprise et le prolongement de sa personnalité. En changeant de nom, World Peace tournait le dos à son passé et à sa réputation. En se baptisant META, Facebook persiste et signe dans tout ce qu’il est et tout ce qu’il est devenu.

Jusqu’au bout du rêve

META est la proclamation explicite d’un projet. Cela fait presque dix ans que Zuckerberg décrit sa vision et emmène son entreprise dans cette direction avec divers moyens et sous diverses formes. Son rêve –sa folie des grandeurs– n’a jamais été censé s’arrêter à la frontière de nos téléphones. Comme la gestion de nos vies sociales, culturelles et politiques à grands renforts d’algorithmes ne lui suffisait pas, Zuckerberg a acheté et développé des technologies qui introduisent le style Facebook dans les cryptomonnaies, la réalité virtuelle et les interactions commerciales. En gros, avec META et les plus vastes projets qu’il a exposés fin octobre, Zuckerberg a annoncé qu’il voulait dominer la vie elle-même. Il veut le faire totalement, partout, constamment et commercialement.

Si vous aimez la manière dont Facebook et Instagram semblent lire dans vos pensées ou écouter votre voix grâce à leur surveillance généralisée, leur collecte de données comportementales, l’apprentissage automatique prédictif et un design addictif, alors vous allez adorer vivre dans un métavers. Celui-ci ajoutera en effet des données biométriques, l’analyse des mouvements de vos yeux et un ensemble d’indices comportementaux bien plus riches au mélange qui guide déjà les algorithmes qui nous guident, nous.

Si l’influence toujours plus grande qu’exerce l’entreprise de Zuckerberg sur les opinions politiques et la vision du monde de votre tonton vous plaît, vous comme lui allez vraiment apprécier la manière dont les valeurs intrinsèques de META vont diriger sa vie sociale, commerciale et intellectuelle.

Si vous appréciez à quel point votre ado de fils est accro aux jeux vidéo, imaginez les profondeurs dans lesquelles il va plonger lorsqu’il découvrira la pornographie en réalité virtuelle grâce à un puissant système de recommandations guidé par l’intérêt manifesté par d’autres jeunes gens comme lui.

Et si l’influence excessive qu’exerce Instagram sur l’image que votre fille a d’elle-même vous enchante, alors vous adorerez constater à quel point la stimulation constante de messages immersifs d’un métavers va l’affecter.

Dystopie et utopie
Mark Zuckerberg en 2019 © Nicholas Kamm – AFP

Zuckerberg rêve depuis longtemps de construire ce que je décris dans mon livre, Antisocial Media, comme «le système d’exploitation de nos vies». Depuis plus de dix ans, il achète des entreprises et des technologies qu’il assimile à Facebook, auquel il ajoute la capacité d’exécuter des transactions financières et des recherches, d’abriter des vidéos et de lancer des mondes en réalité virtuelle. Il convoite depuis longtemps le statut dont jouit WeChat en Chine: celui des yeux omniscients du pouvoir à travers lesquels tout le monde doit effectuer ses tâches quotidiennes, de l’appel d’un taxi à son paiement en passant par l’utilisation d’un distributeur de nourriture, sans oublier la prise de rendez-vous chez le médecin.

Aujourd’hui, Zuckerberg a mis un nom sur sa vision, un nom bien plus évocateur que celui que j’avais choisi. Au lieu d’emprunter une analogie informatique du XXe siècle, il a sorti une vision dystopique de la science-fiction et lui a donné un petit aspect utopique –en tout cas, c’est ce qu’il croit.

META est supposé évoquer le métavers, un concept décrit par l’auteur de science-fiction Neal Stephenson dans son roman de 1992, Le samouraï virtuel. Pensez au métavers comme à un grand mélange de plateformes de réalité virtuelle d’une part, avec lesquelles les utilisateurs peuvent vivre des expériences au-delà de leurs environnements dits réels, et de réalité augmentée d’autre part, à travers laquelle la vision du monde réel inclut des stimulations et des informations supplémentaires, peut-être au moyen de lunettes, peut-être par le biais d’une autre interface qui n’a pas encore été inventée.

Le meilleur cas d’usage pour cette conscience à plusieurs niveaux, cette possibilité d’avoir le corps à un endroit tout en ayant l’attention divisée entre plusieurs interfaces et stimuli différents (avec une décomposition totale du contexte) semble être, à en croire Zuckerberg lui-même, que «vous allez pouvoir participer à un fil de messagerie pendant que vous serez au milieu d’une réunion ou en train de faire tout à fait autre chose et personne ne s’en rendra compte».

Je ne suis pas entrepreneur dans les nouvelles technologies, mais il me semble qu’investir des milliards de dollars par le biais de milliers d’experts extrêmement bien formés pour trouver la solution à un problème que personne ne semble avoir envie de résoudre est un mauvais emploi de ressources. Or il se trouve que les ressources comme l’argent, la formation et la main-d’œuvre sont extrêmement concentrées chez une poignée d’entreprises internationales, dont Facebook. Donc elles peuvent faire ce genre de choix ineptes et nous, nous devons vivre avec.

Une confiance inébranlable

Il importe de clarifier qu’il ne s’agit pas d’un changement de nom ou d’un rebranding autant que d’une déclaration d’intention idéologique. Imaginez, à l’aube de l’expansion de la Compagnie britannique des Indes orientales dans le sous-continent indien en 1757, que quelqu’un ait renommé l’entreprise «l’Empire britannique». Voilà qui aurait été osé. Eh bien ça, ça l’est aussi.

Il ne s’agit donc pas d’une démarche de relations publiques, d’une réaction à tous les puissants écrits critiques tant intellectuels que journalistiques qui ont révélé au cours des dix dernières années la nature toxique de Facebook. Malgré les occasionnelles réactions aux observations dont il fait l’objet, la confiance avec laquelle Zuckerberg façonne et dirige nos vies à notre place reste inébranlable. Malgré la foule d’enquêtes, de fuites, de plaintes, d’articles, de livres et d’indignation généralisée, l’usage de Facebook continue de croître à un rythme constant et l’argent continue de couler à flot.

Zuckerberg n’a jamais reçu de signal du marché lui intimant d’être plus modeste ou de changer sa façon de faire. Soyons clairs sur cette vision : elle a beau se construire sur les rails du vieil internet, il ne s’agit pas d’un internet nouveau ou remis au goût du jour. Les nœuds du nouveau réseau, ce sont des corps humains. Et la plus grande partie de l’architecture essentielle sera entièrement propriétaire.

Le changement vers META n’est pas non plus un rejet du nom Facebook. La principale application et le site, ce que les initiés de l’entreprise appellent Blue, resteront Facebook. Au bout d’un moment, nous pouvons nous attendre à ce qu’Instagram et WhatsApp fusionnent totalement avec Blue, ne laissant qu’une seule grande appli, totalement unifiée, avec des éléments distribuant des images et des vidéos grâce à une interface de style Instagram (ou TikTok) et un service de messagerie cryptée proposant des fonctionnalités de style WhatsApp.

Donc, ne vous attendez pas à de l’immobilisme. Mais n’espérez pas non plus que “Facebook” ne soit plus prononcé à brève échéance. Cela n’arrivera pas davantage que nous n’avons cessé d’utiliser et de dire “Google” malgré le changement de nom de la société rebaptisée Alphabet.

Des petits garçons et leurs jouets

Si META est peut-être l’annonce la plus affichée de cette intention de construire un métavers qui lui permettra de surveiller, monétiser et gérer tout ce qui concerne nos vies, il n’est pas le seul à le tenter, ni nécessairement le mieux placé. Alphabet introduit sa technologie de surveillance et d’orientation prédictive dans les véhicules, les thermostats et les produits à porter (comme des lunettes) depuis plus de dix ans. Il continue à imposer la manière de Google de collecter des données et de structurer notre relation à la géographie et au savoir dans un nombre croissant d’éléments de nos vies quotidiennes.

Apple vend la montre qui surveille le rythme cardiaque et l’activité sportive que je porte au poignet à ce moment même, et promet de protéger toutes mes données personnelles de la convoitise d’autres grandes méchantes entreprises accros aux données comme Alphabet et META. Son objectif à long terme est le même, mais sa stratégie est différente : construire un métavers de confiance avec des consommateurs riches des pays industrialisés soucieux du respect de leur vie privée. Il construit le métavers gentrifié.

Amazon investit directement dans la science des données et les projets de réalité virtuelle que d’autres entreprises pourraient développer mais qu’Amazon serait capable d’introduire sur le marché. En attendant, il pousse les systèmes de surveillance Echo et Echo Dot sur nos paillasses de cuisine et nous convainc que commander de la musique et des produits avec nos voix est un confort dont nous ne pouvons plus nous passer.

Et pendant ce temps, le milliardaire farfelu Elon Musk comble ses propres illusions de grandeur en finançant des projets d’intelligence artificielle et de réalité virtuelle qu’il espère contrôler.

En gros, nous avons au moins quatre des entreprises les plus riches et les plus puissantes de l’histoire du monde rivalisant pour construire un énorme système de surveillance et comportemental commercial dont ils sont sûrs et certains que nous ne voudrons pas nous passer ni dépasser. Ce sont des petits garçons qui vendent des jouets, mais ils ne rigolent pas. Et nous sommes tout à fait susceptibles de craquer, comme nous avons craqué pour tout ce qu’ils nous ont déjà vendu.

Les chances sont fort minces que nous trouvions la volonté politique de prévoir et de limiter les conséquences indésirables et la concentration des pouvoirs qui ne manqueront pas d’accompagner cette course à l’érection et à la domination d’un métavers. Il nous faudrait pour cela différer collectivement et mondialement une gratification immédiate pour privilégier notre sécurité sur le long terme. Or nous n’avons pas voulu le faire pour sauver la banquise arctique et les récifs coralliens. Nous ferions bien de ne pas faire trop confiance à notre volonté ou à nos capacités lorsqu’il s’agit de faire ralentir Mark Zuckerberg et consorts. On dirait bien qu’à la fin, ce sont toujours les petits garçons et leurs jouets qui gagnent.

Siva Vaidhyanathan

  • L’article original (avec pubs) est de Siva Vaidhyanathan. Traduit par Bérengère Viennot, il est paru sur SLATE.FR le 23 novembre 2021.
  • L’illustration de l’article est © slate.fr

S’informer encore…

Ada Lovelace, la première codeuse de l’histoire

Temps de lecture : 2 minutes >

“Comtesse de Lovelace, elle naît Ada Byron, d’une relation scandaleuse entre le poète Lord Byron et une aristocrate érudite. À 12 ans, elle écrit déjà un traité dédié aux ailes des volatiles. Sa mère, férue de mathématiques, surnommée “princesse des parallélogrammes” par Byron, veut contrecarrer la fascination d’Ada pour son père absent et son inclination pour la passion amoureuse en focalisant son attention sur les sciences dures. Ses tuteurs, parmi les plus brillants scientifiques, l’éduquent dans la rigueur et l’exigence. À 16 ans, Ada rencontre Mary Somerville, éminente astronome du XIXe siècle, qui l’encourage et l’aide à progresser en mathématiques. Ada veut déjà développer une “science poétique“, germe d’une future intelligence artificielle.

“Mon travail mathématique implique une imagination  considérable.” Ada Lovelace

À 17 ans, Ada rencontre dans un salon mondain le mathématicien Charles Babbage, inventeur de la calculatrice mécanique. Il écrira à son propos : “Cette enchanteresse des nombres a jeté son sort magique autour de la plus abstraite des sciences et l’a saisie avec une force que peu d’intellects masculins – dans notre pays au moins – auraient pu exercer.”

Pendant 20 ans, ils amélioreront constamment ensemble “la machine analytique“, l’ancêtre de l’ordinateur moderne, avec 100 ans d’avance.

“Son rôle est de nous aider à effectuer ce que nous savons déjà dominer” écrira-t-elle. Ada pressent tout l’impact que pourra avoir l’informatique sur la société. Elle veut faire des calculateurs des “partenaires de l’imagination” en programmant musique, poésie ou peinture.

Selon Nicolas Witkowski, physicien et auteur de l’essai d’histoire des sciences au féminin Trop belles pour le Nobel (Le Seuil), interviewé dans l’émission “La Marche des sciences”, consacrée à Ada Lovelace en 2016 : “Ce qu’elle cherche, c’est plus une métaphysique qu’une science ou une technique. Une façon de vivre. À un moment, elle propose d’utiliser son propre corps comme laboratoire moléculaire. Non seulement elle anticipe l’informatique et l’ordinateur, mais elle anticipe les neurosciences”. 

Le 1er programme informatique

À 27 ans, Ada traduit l’article d’un ingénieur italien consacré aux machines à calculer. Dans ses longues notes de traduction, elle esquisse ce qui permettrait à une machine d’agir seule. Elle décrit l’enchaînement d’instructions qu’il faut donner pour réaliser une suite mathématique, jusqu’à la position des rouages.

Selon elle, la machine pourrait manipuler des nombres mais aussi des lettres et des symboles, au-delà du calcul numérique. La machine “tisse des motifs algébriques comme le métier de Jacquard tisse des fleurs et des feuilles”. La première programmation informatique est née. Comme les autres femmes scientifique de son temps, elle signe son article de ses seules initiales.

Alternant phases d’exaltation et de dépression, Ada s’adonne aux paris hippiques pour financer ses recherches et celles de Babbage. Malgré ses efforts pour concevoir un algorithme servant ses paris, elle dilapide son argent. À 36 ans, elle meurt d’un cancer de l’utérus. Son ami Charles Dickens lit un texte à son enterrement.

Négligences et postérité

Il faudra attendre 1930 pour qu’Alan Turing formalise à son tour un calculateur universel manipulant des symboles. Ada est restée longtemps oubliée, négligée, malgré une reconnaissance progressive et inattendue. En 1979, le département de la Défense américain appelle de son nom un langage de programmation “Ada”, de même, le CNRS nomme en son hommage un de ses supercalculateurs.” [d’après FRANCECULTURE.FR]

  • image en tête de l’article : Ada Lovelace © sciencesetavenir.fr

[INFOS QUALITE] statut : actualisé | mode d’édition : compilation par wallonica.org  | contributeur : Philippe Vienne | crédits illustrations : © sciencesetavenir.fr


D’autres dispositifs ?

VIROUL : Alan Turing, un génie sacrifié (CHiCC, 2020)

Temps de lecture : 5 minutes >
Alan Turing © k-actus.net

Alan TURING est de ces génies tardivement reconnus. Son travail scientifique, aujourd’hui considéré comme majeur, s’est développé sur une quinzaine d’années, de 1936 à 1952 environ.

Alan Mathison Turing est né le 23 juin 1912 à Londres. En 1931, il a 19 ans, il intègre le King’s College de l’Université de Cambridge où il trouve un milieu favorable pour étudier les mathématiques. Il va s’y épanouir, car personne là-bas ne raille son homosexualité, son apparence décalée. Chacun, dit-on là-bas, doit être ce qu’il est.

Seules les mathématiques pures et appliquées procurent à Alan un sentiment d’épanouissement. Il pénètre avec passion dans le monde solitaire et virtuel qui va devenir le sien. Il sera diplômé en 1933.

En 1936, Alan Turing débarque à New York à l’Université de Princeton où se côtoient John von Neumann et Albert Einstein, tous les grands noms de la science et notamment ceux qui ont fui le nazisme.

Turing démontre que certains problèmes mathématiques ne peuvent être résolus. Pour cela, il postule l’existence théorique d’une machine programmable, capable d’effectuer vite toutes sortes de calculs.

Cette machine est composée d’un “ruban” supposé infini, chaque case contenant un symbole parmi un “alphabet fini”, d’une “tête de lecture/écriture” ; d’un “registre d’états” ; d’une “liste d’instructions”.

L’ordinateur – théorique – est né ! Même si elle reste purement abstraite, cette “machine de Turing”, passée sous ce nom à la postérité, est un saut crucial vers les fondements de l’informatique.

Enigma M4 at The Alan Turing Institute © Clare Kendall.

En 1939, Alan Turing, revenu enseigner à Cambridge, s’engage dans l’armée britannique où il travaille à Bletchley Park au déchiffrement des messages de la marine allemande. Pour ses communications radio, le IIIe Reich utilise un engin cryptographique sophistiqué baptisé Enigma.

Poursuivant les travaux des Polonais qui avaient déjà découvert le mécanisme de la machine infernale, Alan Turing et les autres mathématiciens construisent donc un appareil destiné à passer en revue extrêmement rapidement les différents paramètres possibles d’Enigma.

Tous les renseignements issus des codebreakers étaient frappés du sceau “ultra”, plus confidentiel encore que “top secret”, un niveau de protection créé spécialement pour Bletchley. Tous ceux qui y travaillaient étaient soumis à l’Official Secret Act, un texte drastique qui leur interdisait toute allusion à leur activité, et ce, en théorie, jusqu’à leur mort.

En janvier 1943, Turing quitte l’Angleterre et rejoint les laboratoires de télécommunication Bell dans le New Jersey où le savant Claude Shannon travaille au codage de la parole. Turing propose quelques mois plus tard un prototype de machine à voix artificielle, ayant pour nom de code Delilah.

Après la guerre, Alan Turing travaille au National Physical Laboratory et conçoit un prototype de calculateur électronique, l’ACE (Automatic Computing Engine), qui prend du retard dans sa réalisation.

Aussi il rejoint l’Université de Manchester qui avait construit en 1948 le premier ordinateur programmable opérationnel, le Mark 1. Turing participe à la programmation et se passionne pour l’intelligence artificielle.

En 1950, Alan Turing publie, dans Mind, son article “Computing Machinery and Intelligence”. Dans cet article, il défend des positions “révolutionnaires”. Il se propose d’examiner la question : Les machines peuvent-elles penser ? Il élabore un test qui valide l’intelligence d’une machine, le “test de Turing”. Selon lui, si une machine dialogue avec un interrogateur (qui ne la voit pas) et arrive à lui faire croire qu’elle est un être humain, nous devrions dire d’elle qu’elle pense. Dans cette mesure, à la question a priori “Les machines peuvent-elles penser ?”, Turing substitue la question empirique : “Une machine peut-elle gagner au jeu de l’imitation ?”. Le prix Loebner, créé en 1990, est une compétition annuelle récompensant le programme considéré comme le plus proche de réussir le test de Turing.

En 1952, il propose un modèle mathématique de morphogenèse. Il fait paraître un article, “The Chemical Basis of Morphogenesis” (Philosophical Transactions of the Royal Society, août 1952), où il propose trois modèles de formes (Turing patterns). Les structures spatiales formées par le mécanisme physico-chimique très simple qu’il a suggéré s’appellent depuis des  “structures de Turing”.

Il faudra attendre quarante ans après Turing pour obtenir la première mise en évidence expérimentale d’une structure de Turing. Ce mécanisme, très simple, de formation de motifs est devenu un modèle emblématique, invoqué pour expliquer de nombreuses structures naturelles, en particulier vivantes.

Il est conscient du manque de preuves expérimentales. Son but est davantage de proposer un mécanisme plausible, et de montrer tout ce qu’il permet déjà d’expliquer, malgré sa simplicité. Les exemples donnés par Turing sont les motifs tachetés comme la robe du guépard, l’hydre et la phyllotaxie des feuilles en rosette.

Élu membre de la Royal Society, Turing éprouve de graves difficultés quand la révélation de son homosexualité provoque un scandale en 1952. C’est un crime pour la justice britannique. Le procès est médiatisé. Hugh Alexander fait de son confrère un brillant portrait, mais il est empêché de citer ses titres de guerre par le Secret Act”.

Alan Turing © diacritik.com

Alan Turing, qui n’a jamais réellement caché son homosexualité, a longtemps couru à un niveau olympique, pratiquant très régulièrement la course à pied pour calmer ses pulsions sexuelles. Pour éviter l’enfermement, il est contraint d’accepter la castration chimique, mais sa carrière est brisée.

Il meurt à 42 ans. L’autopsie conclut à un suicide par empoisonnement au cyanure. Il n’existe pas de certitude à cet égard, la pomme n’ayant pas été analysée.

La figure d’Alan Turing a mis du temps à émerger dans l’inconscient collectif. Le rôle de Bletchley Park et de ses employés qui décodaient plus de 3.000 messages nazis par jour n’a été rendu public que tardivement, dans les années 70, lorsque les dossiers ont été déclassifiés. Il faudra attendre 2013 pour que Turing sorte enfin des oubliettes de l’Histoire et soit réhabilité par la reine Elisabeth II.

La loi qui a brisé la carrière de Turing, après avoir envoyé Oscar Wilde en prison, ne fut abrogée en Angleterre qu’en 1967. C’est en 1972 que la loi de dépénalisation de l’homosexualité est promulguée en Belgique. L’OMS déclarera avoir retiré l’homosexualité de la Classification internationale des maladies le 17 mai 1990.

Le Britannique Alan Turing (1912-1954), père de l’informatique, co-inventeur de l’ordinateur, visionnaire de l’intelligence artificielle, a eu droit à tous ces signes posthumes, comme autant de regrets de n’avoir compris de son vivant à quel point il était important. Décerné chaque année (1966), un prix qui porte son nom est considéré comme le Nobel de l’informatique.

Des palmarès, comme celui du magazine Time en 1999, l’ont classé parmi les 100 personnages-clés du XXe siècle. Il a été choisi pour illustrer le verso des futurs billets de 50 livres à partir de la fin de l’année 2021.

Claude VIROUL


La CHICC ou Commission Historique et Culturelle de Cointe (Liège, BE) et wallonica.org sont partenaires. Ce texte de Claude VIROUL a fait l’objet d’une conférence organisée en mars 2020 par la CHiCC : le voici diffusé dans nos pages. Pour les dates des autres conférences, voyez notre agenda en ligne

Plus de CHiCC ?

La société algorithmique serait un cauchemar

Temps de lecture : < 1 minute >

“Le premier est suédois, professeur de philosophie à Oxford et l’un des leaders du courant transhumaniste, depuis qu’il a fondé en 1998 la World Transhumanist Association (devenue depuis Humanity+). En 2014, il prédisait dans son livre Superintelligence : chemins, dangers, stratégies, recommandé par Elon Musk et Bill Gates, l’arrivée prochaine d’une superintelligence qui surpassera l’intelligence humaine. Le second, médecin, co-fondateur de Doctissimo et entrepreneur, est devenu le porte-parole français le plus virulent du débat sur l’avenir de l’intelligence artificielle, et se défend d’être transhumaniste. Nick Bostrom et Laurent Alexandre se sont succédés à Paris sur la scène de l’USI, conférence dédiée aux professionnels et à l’avenir du numérique et du monde. Usbek & Rica s’est glissé dans le public pour tenter de résoudre l’équation suivante : deux gourous + une IA = zéro chance de s’en sortir ?

“Je vous demande maintenant d’accrocher vos ceintures de sécurité car nous allons traverser une petite zone de turbulences : merci d’accueillir Laurent Alexandre”. L’introduction réservée au médecin / entrepreneur / expert en nouvelles technologies qui prend place sur scène ce mardi 20 juin, au Carrousel du Louvre (Paris, FR), est flatteuse : Laurent Alexandre n’a en effet pas l’habitude d’endormir son public, même quand il fait 35°C. Transformer ses conférences en zones de turbulence est, en quelque sorte, sa marque de fabrique…”

Lire tout l’article d’Annabelle LAURENT sur USBEKETRICA.COM…

Plus d’enjeux techniques…