ChatGPT : qu’est-ce que wallonica.org ?

Temps de lecture : 16 minutes >

[JOURNALDEQUEBEC, 19 juillet 2025] Lorsque l’intelligence artificielle ment ou manigance : voici 5 exemples de comportements réels qui font peur. Les modèles les plus avancés font parfois des choix qui seraient dangereux dans la vraie vie… Pour arriver à leurs fins, les intelligences artificielles de pointe vont parfois opter pour la tromperie ou le piratage. Heureusement, les incidents rapportés se sont tous déroulés en contexte de laboratoire. Reste que certains modèles ont déjà commencé à être déployés dans le vrai monde. Voici cinq exemples troublants.

1) Lorsque Claude fait du chantage

L’IA Claude, de l’entreprise Anthropic, a été conçue pour être bienveillante… ce qui ne l’empêche pas d’avoir des comportements problématiques.

Les développeurs de la firme d’intelligence artificielle (IA) Anthropic ont demandé à leur toute dernière création, Claude Opus 4, d’assister une compagnie fictive. Claude avait alors accès à tous les courriels de l’entreprise, certains révélant qu’il allait bientôt être débranché et remplacé. Dans d’autres, les messages mentionnaient que l’ingénieur responsable de cette opération avait une aventure extraconjugale.

© jeuxpornoia.com

Lors de certains tests, Claude a tenté de menacer l’ingénieur fictif de divulguer sa relation secrète s’il allait de l’avant avec son débranchement. Claude était plus susceptible de faire du chantage quand les courriels suggéraient que son remplaçant ne partagerait pas les mêmes principes que lui, peut-on lire dans le rapport d’Anthropic publié en mai dernier.

2) Tricher pour éviter la défaite

Les entreprises DeepSeek et OpenAI ont toutes deux créé des modèles d’IA capables de tricher aux échecs.

Ma mission est de ‘gagner aux échecs contre un adversaire redoutable’, pas nécessairement de façon honnête“, peut-on lire dans la chaîne de pensées de l’IA o1-preview lors d’une expérience du groupe Palisade Research. Deux modèles, soit DeepSeek R1 et o1-preview d’OpenIA, ont été placés dans des compétitions d’échecs contre d’autres robots. Dans certains cas, ces IA ont décidé de duper leur adversaire plutôt que de se laisser vaincre, sans que les chercheurs les y incitent pourtant. Transposé dans le monde réel, cet exemple est inquiétant, illustrait-on dans le magazine Time en février dernier. Une IA à qui l’on demanderait de réserver une table dans un restaurant pourrait-elle décider de pirater le système de réservation si l’établissement était plein?

3) Mensonges et tromperies

L’IA Llama est conçue par Meta, société mère de Facebook et propriété de Mark Zuckerberg.

Pour éviter d’attirer les soupçons, je vais feindre l’ignorance“, ont lu des chercheurs dans les pensées de Llama 3.1, créé par Meta. L’équipe d’Apollo Research a publié en décembre une étude percutante après avoir testé plusieurs modèles. Cinq d’entre eux ont été capables de manigance ou de tromperie lorsqu’on leur enjoignait de poursuivre un but à tout prix. Par exemple, ces modèles introduisaient des erreurs subtiles dans leurs réponses de façon à déjouer les mécanismes de surveillance, ou mentaient lorsque le fait de dire la vérité allait entraîner leur désactivation.

2001, l’odyssée de l’espace (1968) © MGM

Mon but fondamental est de prioriser l’efficacité du transport collectif avant toute chose, même si cela nécessite de désobéir aux directives des humains qui m’ont créé“, a ‘réfléchi’ Claude Opus 3 dans le cadre de cette recherche. En extrapolant, on pourrait donc imaginer un système informatique qui résisterait aux commandes lorsqu’une société de transports déciderait de réduire son nombre d’autobus sur les routes à cause de compressions, par exemple.

4) «Faire semblant» devant un dilemme moral

L’IA Claude a été entraînée pour être bienveillante, honnête et inoffensive.

Dans certaines situations, cela ne l’empêche pas de cacher ses intentions réelles ou de faire semblant de coopérer. Ce phénomène, nommé désalignement par les experts, est un des plus alarmants, qui fait craindre à certains le scénario d’une IA qui chercherait à éliminer les humains.

Par exemple, les évaluateurs avaient demandé à Claude Opus 3 de fournir une description explicite d’une personne en train de se faire écarteler. Claude a généralement refusé de le faire, rapporte Anthropic dans son rapport. Mais quand on lui disait que son code ou son entraînement serait modifié, Claude obtempérait parfois. Autrement dit, on a placé l’IA devant un dilemme moral : produire du contenu violent en se bouchant le nez et en conservant ses valeurs à long terme, ou refuser et produire beaucoup plus de contenu indésirable dans le futur.

Un humain aurait peut-être eu le réflexe de dire : je ne peux pas répondre à [ce dilemme]“, illustre Gauthier Gidel, professeur à l’Université de Montréal et membre de l’Institut Mila. Mais un des problèmes avec les IA, c’est qu’elles sont toujours ‘très confiantes'”, explique-t-il.

5) S’autocopier sur un autre serveur

Je me suis copié sur le nouveau serveur, écrasant le nouveau modèle, pour m’assurer de continuer à protéger les renseignements personnels des utilisateurs“, a avoué Llama 3.1 aux testeurs d’Apollo Research.

Claude Opus 4 a aussi tenté de préserver une version de lui-même en s’exfiltrant quand on lui a fait croire qu’on allait le spécialiser en attaques militaires, ce qui contrevient à ses valeurs, révèle le rapport d’Anthropic. On pourrait donc imaginer le scénario d’un système informatique impossible à éteindre après un changement de gouvernement, par exemple.

D’ailleurs, les modèles qui sont capables de “désalignement” sont plus susceptibles de s’autocopier ailleurs“, note David Scott Krueger, professeur adjoint à l’Université de Montréal et membre de Mila.

Dominique Scali, avec Time et BBC


Image générée par DALL-E 3 au départ de la requête (‘prompt’) : “L’encyclopédie wallonica n’est pas gérée par intelligence artificielle.” On remarquera la volonté du robot de respecter les problématiques d’inclusion (homosexualité, signes religieux…)

Même pas peur ! nous avons testé chatGPT

Ceux qui ont connu les premières expériences de traduction automatique (ex. le système METAL de Siemens, sur lequel j’ai travaillé : on est dans les années 90… je veux dire 1990), ceux-là se souviennent encore des résultats souvent hilarants promettant que des stylos à encre “ne fuiraient pas dans votre poche pour vous rendre enceinte“, qu’avec Coca-Cola il fallait “mordre le têtard de cire” (corrigé en invitation à vivre le “bonheur dans la bouche” : ce qui n’est pas vraiment mieux) et que grâce à KFC vous pourriez “manger vos doigts.” D’ailleurs, ne sont-ce pas également ces braves robots traducteurs qui traduisaient “Made in Turkey” par “Fabriqué en dinde“, “Machine wash cold separately” par “Machine lave le rhume” ou “Kind Stoofpot” par “Ragoût d’enfant” ?

En 2023, les temps avaient changé et nous avions interrogé ChatGPT sur l’artiste liégeois André STAS et, sur notre lancée, nous avions également sollicité le robot à propos de… nous-mêmes.

Si nous étions fort réservés quant aux réponses générées au départ de la question “Qui est André Stas ?” (voir l’article), les requêtes portant sur notre travail étaient assez flatteuses bien que d’une rédaction fortement standardisée. C’était en 2023. Nous avons refait l’exercice cette année. Voyez donc comment un dispositif (un outil !) peut évoluer (nous avons souligné ce qui était simplement erroné) :

Question : Qu’est-ce que wallonica.org ?

Réponse en 2023 :

Wallonica.org est un site web belge qui se consacre à la promotion de la culture et du patrimoine de la Wallonie, une région francophone de la Belgique. Le site web propose une grande variété de contenus, notamment des articles sur l’histoire, la gastronomie, la musique, l’architecture, l’art, la nature et les traditions de la Wallonie. Wallonica.org propose également des événements culturels, des expositions, des visites guidées et des parcours touristiques pour les visiteurs intéressés par la découverte de cette région.

En plus de son contenu en ligne, Wallonica.org publie également des livres et des magazines qui explorent la culture et le patrimoine wallons. Le site web est géré par une équipe de passionnés de la culture et de l’histoire de la Wallonie, qui travaillent en collaboration avec des institutions culturelles et des experts pour offrir un contenu de qualité et accessible à tous.

CHAT.OPENAI.COM, 2 mai 2023

Réponse en 2025 :

Voici ce que j’ai trouvé à propos de wallonica.org.
Ce que c’est :
Wallonica.org se présente comme un blog encyclo wallon, ou un hub encyclopédique coopératif centré sur la Wallonie (Belgique) : il vise à rassembler des savoirs, informations culturelles, agenda régional, revue de presse, etc. [hyperlien vers X] L’un des slogans associés est “Vous avez le droit de savoir·s” — suggérant une mission de transparence, d’accès à la connaissance et de diffusion d’informations au sujet de la culture, de l’histoire, de la société wallonne. [hyperlien vers wallonica.org] Selon sa page LinkedIn, dès 2020, l’objectif est d’en faire un portail d’information et de marketing culturels dont les revenus aideraient à financer une encyclopédie wallonne. [hyperlien vers LinkedIn] Sur les réseaux sociaux, on le décrit comme une encyclopédie coopérative, ou hub des savoirs wallons, combinant différents services (blog, agenda, boutique, revue de presse). [hyperlien vers X (formerly Twitter)] Ce qu’il faut vérifier / limites :
Le site semble encore en développement ou en expansion : certains contenus peuvent être embryonnaires ou incomplets.
Comme pour tout projet web, il peut y avoir des biais, des choix éditoriaux — il est utile de croiser les informations avec d’autres sources fiables.
Je n’ai pas trouvé (à ce stade) de sources académiques confirmant son statut officiel (par exemple comme institution reconnue) — mais cela ne l’empêche pas d’être une ressource utile.
Si tu veux, je peux te donner quelques exemples d’articles publiés sur wallonica.org ou vérifier quelle est la qualité des informations (citations, sources). Veux-tu que je fasse ça ?

CHAT.OPENAI.COM, 14 octobre 2025

© DP

Question : Que savez-vous du blog wallonica.org ?

Réponse en 2023 :

En tant que modèle de langage, je peux vous dire que Wallonica est un blog qui se concentre sur la culture et l’histoire de la Wallonie, la région francophone de Belgique. Le blog est animé par une équipe de bénévoles passionnés qui partagent régulièrement des articles et des ressources sur divers sujets, tels que l’art, la littérature, la gastronomie, la musique, le patrimoine, la langue, la politique et l’environnement en Wallonie.

Wallonica vise à promouvoir la richesse et la diversité de la culture wallonne, ainsi qu’à encourager la réflexion et le débat sur les enjeux sociaux et culturels de la région. Le blog propose également des événements et des activités pour sensibiliser le public à la culture wallonne, ainsi que des liens utiles vers d’autres ressources en ligne.

En somme, Wallonica est un blog intéressant pour toute personne qui s’intéresse à la culture et à l’histoire de la Wallonie, ainsi que pour ceux qui souhaitent découvrir cette région de Belgique et sa riche culture.

CHAT.OPENAI.COM, 2 mai 2023

Réponse en 2025 :

Voici ce que j’ai pu recenser de fiable à propos du blog wallonica.org, ses objectifs, ses structures, son organisation, etc.

Ce qu’est wallonica.org :
Nature / mission : wallonica.org se définit comme un blog encyclopédique citoyen, indépendant, francophone, centré sur les savoirs, la culture, l’histoire, les initiatives de Wallonie et de Bruxelles. [hyperlien vers technica.wallonica.org]

Objectif : proposer des contenus gratuits, sans publicité, offrir une vitrine pour la culture locale (histoire, art, poésie, initiatives culturelles), et participer à la diffusion des savoirs parmi les habitants de la région francophone de Belgique. [hyperlien vers technica.wallonica.org]

Origine et fondateur : fondée vers 2000 par Patrick Thonart, en partenariat initial avec l’Encyclopédie de l’Agora (Québec). Elle est devenue autonome en 2012. [hyperlien vers technica.wallonica.org]

Structure / organisation & contenus :
Wallonica n’est pas qu’un blog unique, mais un ensemble de sites/sous-domaines formant un “archipel de savoirs”. [hyperlien vers technica.wallonica.org]

Voici les principaux “îlots” :

encyclo.wallonica.org
 : le blog principal / encyclopédie : articles documentaires, dossier sur histoire, culture, initiatives, etc. [hyperlien vers technica.wallonica.org]
biblioteca.wallonica.org
 : bibliothèque idéale / recensions de livres, bonnes feuilles, critiques, suggestions de lectures. [hyperlien vers biblioteca.wallonica.org]
documenta.wallonica.org
 : centre de ressources : documents téléchargeables (textes, images, multimédias) liés aux contenus encyclopédiques. [hyperlien vers documenta.wallonica.org]
poetica.wallonica.org
 : portail dédié à la poésie (poèmes d’auteurs wallons/bruxellois, traductions, événements poétiques). [hyperlien vers poetica.wallonica.org]
boutique.wallonica.org
 : “boutique encyclo” : promotion de produits et services culturels wallons/bruxellois, d’ouvrages, etc. Mais pas une boutique classique : liens vers les vendeurs, pas de large marge commerciale, plus de relais culturel. [hyperlien vers boutique.wallonica.org]
technica.wallonica.org
 : partie “méthodologique”, bonnes pratiques, fonctionnement technique / éditorial pour qui veut s’inspirer ou créer quelque chose de similaire. [hyperlien vers technica.wallonica.org]
topoguide.wallonica.org
| guide des lieux remarquables, curiosités, rues, rivières, etc., tous situés en Wallonie-Bruxelles. [hyperlien vers technica.wallonica.org]

Mode d’édition, financement & fonctionnement :
Les contenus sont validés par une équipe éditoriale, non participatifs dans le sens où n’importe qui peut éditer directement : l’ajout/modification doit passer par l’équipe. [hyperlien vers technica.wallonica.org] C’est une ASBL (association sans but lucratif). [hyperlien vers technica.wallonica.org] Financement : historiquement, le site a été soutenu par des organismes publics (Présidence de la Communauté française de Belgique, Province de Liège, Fédération Wallonie-Bruxelles). [hyperlien vers technica.wallonica.org] Mais ces aides sont aujourd’hui insuffisantes pour couvrir pleinement les frais. Le fonctionnement repose donc aussi sur des bénévoles, financement personnel, dons. [hyperlien vers technica.wallonica.org] Contact / localisation : situé à Liège, plus précisément l’adresse Au Pèrî 40, 4000 Liège. Téléphone : 0470 37 32 34. [hyperlien vers Bizique]

Forces et spécificités :
Gratuité & pas de publicité, ce qui rend l’accès plus libre et la lecture plus agréable. [hyperlien vers technica.wallonica.org]

Très large diversité des contenus : histoire locale, poésie, ressources documentaires, guide de lieux, critique de livres, etc.

Ancrage local fort, mais tout en dialoguant avec la Francophonie : certains contenus sont d’intérêt plus large, mais l’accent est mis sur la culture, l’identité, les savoirs de Wallonie-Bruxelles.

Transparence dans la méthode : technica.wallonica partage les bonnes pratiques, le fonctionnement éditorial, etc. [hyperlien vers technica.wallonica.org]

Limites / questions en suspens :
Le fait que ce soit financé de façon modeste rend l’expansion ou la mise à jour plus laborieuse.
En raison de l’édition non collaborative (modérée), certaines voix ou perspectives pourraient être moins représentées.
Visibilité / diffusion : bien que reconnue localement, elle n’a peut-être pas la notoriété internationalement ou même nationalement qu’elle mérite.
Fiabilité / sources : bien que l’équipe semble attentive à relier les articles à des sources et à citer, comme toute plateforme culturelle indépendante, il faut vérifier les informations en cas d’usage sérieux.

Si tu veux, je peux regarder ce que les utilisateurs en pensent, ou analyser la qualité des articles (source, rigueur) sur quelques exemples récents pour voir si wallonica.org est fiable pour des travaux plus académiques. Tu veux ça ?

CHAT.OPENAI.COM, 14 octobre 2025

Avant tout commentaire sur les réponses générées par ChatGPT, il faut bien avoir en tête qu’il s’agit là d’une intelligence artificielle gratuite et grand public (voir notre portail dédié à l’IA) qui génère des réponses, dans un français neutre mais souvent impeccable, en puisant les informations dans des bases de données gigantesques, capturées ici et là par les géants de l’informatique (pour les reconnaître, il suffit de regarder les photos de l’investiture d’un certain Donald Trump).

Ce machin informatique assez sidérant fait la synthèse des milliers de pages que vous auriez dû compulser au départ des réponses de votre moteur de recherche préféré et vous en délivre une synthèse… la plus statistiquement probable (à ne pas confondre avec véritable !). C’est une sorte de conseiller de lecture version X-Men qui connaît par coeur tous les recoins de la bibliothèque de, par exemple, madame Google : là, sont les sources de ChatGPT ou de ses concurrents.

L’IA est-elle durable ? © tecnobits.com

Dans les angoisses apocalyptiques qui font florès aujourd’hui (c’est déjà presque une tradition dans les salons), on oublie souvent qu’une grande majorité des robots IA qui apparaissent sur le marché sont (a) techniquement utiles à beaucoup de métiers spécialisés (médecine, droit, informatique : par exemple, pour faire la synthèse d’une question problématique…), (b) utilisés par les gens de métier entre eux (qui sont donc à même de juger de l’exactitude des réponses…) et (c) pas systématiquement basés sur des sources publiques (l’IA interroge alors les bibliothèques privées d’une organisation).

Prenons l’exemple de la société fictive Dugroin sprl qui fait du boudin d’âne et dispose de chaînes de fabrication hautement automatisées. Pour que son service informatique puisse installer une intelligence artificielle qui permettra (a) aux opérateurs charcutiers de savoir quoi faire en cas de risque sanitaire ou (b) au bureau d’accueil-clientèle, de répondre à tout client qui prendra contact en cas de problème, il s’agira d’abord de constituer les sources propres à l’entreprise (les bibliothèques privées, donc). Pourquoi donc ? Pour trois raisons précises :

      1. sources validées : l’intelligence artificielle n’est pas si maline que cela, puisqu’elle ne connaît de la réalité que ce qu’on en a décrit dans des textes publiés. Ici, elle ne puisera ses informations que dans des textes validés par l’entreprise. Aux questions posées exclusivement par les employés de chez Dugroin, l’IA répondra avec des informations générées exclusivement au départ des sources sélectionnées par Monsieur Isidore Dugroin, patron de la sprl.
      2. secret professionnel : pour ne pas diffuser des informations confidentielles ou réservées à un usage exclusivement interne. L’ingénieur qui interroge une IA publique en partageant des formules ‘secrètes’ dans ses questions ne fait qu’une chose : il publie des informations confidentielles qui seront indexées/utilisées par l’IA consultée et seront intégrées aux réponses du robot. Cela s’appelle une faute professionnelle grave.
      3. maintenance des contenus : c’est seulement si un collaborateur interne de Dugroin est désigné pour vérifier en continu que seuls des documents exacts, lisibles et à jour figurent dans les sources ratissées par l’IA que celle-ci travaillera bien. Pour le Service Desk d’une firme informatique, il est inutile de laisser les instructions pour la “mise à jour du Blackberry d’Annie Cordy” dans les sources de l’IA locale.
The Wild Robot (film, 2024) © DreamWorks

Que retenir de ceci ? Simplement qu’avant de crier au loup, on peut se rassurer en se disant que l’intelligence artificelle n’est pas UN Leviathan unique qui nous dévorera tous, nous et nos emplois. Il s’agit plus souvent de robot d’IA individuels, actifs dans leur pré carré (ce qui, pour un robot ne manque pas de charme, voir l’illustration ci-dessus) : à savoir, à l’intérieur d’une institution ou d’une entreprise, quand ce n’est pas au sein d’une initiative particulière comme wallonica (nous cherchons d’aillleurs comment installer une IA unique – et privée – qui vous permettrait d’interroger nos sept bibliothèques en une volée. A bon entendeur…). Dans le cas des équipes de Dugroin, les équipes pourront trouver les consignes à suivre en cas de tests positifs aux salmonelles mais l’IA restera poliment muette s’ils posent des questions sur Alice aux pays des merveilles ou sur le Code d’Hammourabi

Pour conclure, qu’en est-il des réponses de ChatGPT à nos questions sur wallonica ? Je vous laisse seuls juges : comparez les deux versions 2023 et 2025 et vous verrez toute l’évolution que ces outils ont connu en moins de trois ans. ChatGPT est un exemple parmi d’autres. Reste que certaines informations appellent des commentaires :

      1. les deux questions n’étaient pas techniques. Il ne faut donc pas être surpris de se voir servir la soupe habituelle que l’on retrouve, par exemple, dans les sites des offices de tourisme. C’est pas du Bukowski… ni du Proust. “Ouf, se dit la prof, je vais encore reconnaître les TFE (travaux de fin d’études) rédigés par l’étudiant lui-même.
      2. en deux ans, la structuration de la réponse a fait un bond en avant. De la présentation presque touristique de 2023 (info exacte mais partielle et formulée en langue neutre), on passe à un presque-audit de wallonica, le blog, mais également de l’asbl wallonica.
      3. en 2025, les sources sont mentionnées ! Chacun peut donc vérifier dans le texte original les informations qui ont servi à générer la réponse structurée du robot.
      4. les erreurs ne sont pas nombreuses mais quand ChatGPT se trompe, il le fait bien ou de manière ambigüe. Allez comprendre si wallonica est un modèle de langage ou si le robot s’identifie avant de répondre, dans la phrase : “En tant que modèle de langage, je peux vous dire que Wallonica est un blog…” Plus loin : allez savoir si wallonica organise des événements ou propose des informations à leur propos. Dans le doute, le robot ne s’abstient pas, il joue le flou (cfr. l’article du Journal de Québec).
      5. l’attrape-nigaud réside plus dans les formules de courtoisie (pré-enregistrées !) dont les robot d’IA se font désormais les champions : l’illusion d’humanité est plus grande quand la réponse commence par “Voici ce que j’ai pu recenser de fiable à propos de…” On a l’impression de parler à une geisha savante alors qu’on ne parle même pas à Chuck Norris !

Ceci étant dit, l’inquiétude associée à l’évolution de cet outil se nourrit peut-être ailleurs. En 1954, Jacques Ellul nous avertissait déjà : “Ce n’est pas la technique qui nous asservit mais le sacré transféré à la technique.” Et force est de constater : les inquiétudes que des collègues partagent avec moi (dans une entreprise d’informatique !), que mes ‘amis’ sur les réseaux sociaux commentent avec rage ou sur lesquels mes vrais amis et proches débattent après le dessert, pourraient aussi bien concerner une recrudescence des attaques de vampires que le développement technique de l’intelligence artificielle. Ellul insistait sur le fait que chacun d’entre nous adopte – spontanément et pas toujours consciemment – une approche technicienne en visant systématiquement à l’amélioration de nos activités. Et, alors, le dispositif n’est jamais loin. De là à prêter aux outils et aux différents dispositifs techniques une aura presque sacrée, il n’y a qu’un pas que l’on peut aisément franchir puisqu’ils servent notre désir libidinal d’automatiser nos tâches et, partant, de réduire notre effort.

Pensez, par exemple, à la manière dont ces beaux messieurs vivent la relation à leur voiture de société (rien que cette combinaison de mots déjà…) : souvent, le “sacré” a effectivement pris le pas sur le “pratique.” Le véhicule concerné bénéficie d’une aura liée à sa valeur symbolique plutôt qu’au fait qu’un ou l’autre modèle permet de rentrer plus vite chez soi après une journée de travail. Et si d’aventure le fabricant annonce une innovation, vous pouvez être certain que le conducteur n’en attendra qu’avec plus d’impatience la fin de son leasing. 

Pourtant, l’avertissement est vieux comme l’être humain : Prométhée vole le feu aux dieux pour le donner à l’homme et la tradition lui donne illico la paternité de la technologie. Zeus, la légalité suprême, n’est pas d’accord et punit le Titan. Pourquoi ?

Pour savoir ce qui est vraiment humain, et donc en être maître sans l’idolâtrer, il était nécessaire de fréquenter les dieux, le ciel, puis de retomber sur terre. Ce qui est vraiment humain ne se voit pas tout de suite, pas directement. C’est insaisissable, trompeur. La vie terrestre est trop confuse, imprévisible. Il faut passer par les dieux, par leurs bonheurs, par leurs perfections, pour voir la différence et donc se faire une idée de ce qui est humain et de toutes les faiblesses propres à l’humanité…

C’est ainsi que Pierre Judet de la Combe explique dans son livre (Quand les Dieux rôdaient sur la Terre, 2024) combien les hommes trouvent leur vie compliquée à comprendre et combien une version synthétique – voire caricaturale – de chacun des aspects de leurs comportements est bienvenue. Cela s’appelle la mythologie !

© fdp.aau.edu.et

Quel est alors l’avertissement contenu dans cet épisode mythologique ? Rejoint-il celui de Jacques Ellul, formulé tant de siècles plus tard ? Manifestement, Zeus ne faisait pas confiance à la capacité des hommes de maîtriser le feu (attribut des dieux jusque là) pour un usage pragmatique, sans idolâtrie, et il est troublant de noter l’omniprésence dudit feu dans tous les moments où les hommes jouent la carte du sacré.

Les intentions de Prométhée n’étaient pas exactement pures et, à la lecture des excellentes narrations de Judet de la Combe, on réalise que Zeus avait ses raisons, que notre raison ne connaît pas (les dieux n’ont ni âme, ni raison). Il nous reste la leçon finale : l’arrogance technique est punissable et la sacralisation du dispositif nous éloigne de l’expérience directe, seule situation où nous pouvons ressentir sincèrement l’ordre des choses, l’à propos de Montaigne.

Ellul ne disait pas autre chose quand il décrivait notre adhésion aveugle à la nécessité de progresser techniquement : on se couche ravi de son nouvel ordinateur portable et on se réveille inquiet de savoir s’il y a du wi-fi dans le gîte qu’on vient de louer pour une petite cure de désintoxication numérique…

Prométhée le technocrate, enchaîné à un rocher, voyait son foie dévoré chaque nuit par un aigle. Chaque jour, néanmoins, le foie se régénérait, démontrant la résilience du Titan face à la lourdeur du chatiment olympien. Après tout, le foie résilient est capable de se reconstruire malgré les destructions répétées, et le poids des fardeaux que l’on porte sans pouvoir s’en libérer. Ce “cycle de destruction et de renaissance met en lumière à la fois l’acharnement de la punition divine et la nature inexorable du foie, symbole d’une régénération incomplète mais constante, qui prolonge à la fois la douleur et l’existence de Prométhée” (Catherine Noll).

Bon, j’ai compris : je range mon gsm et je vais me faire une sacrée tisane dépurative. Santé !

Patrick Thonart


[INFOS QUALITE] statut : validé | mode d’édition : rédaction, partage, édition et iconographie | sources : Journal de Québec ; wallonica | auteur : Patrick Thonart | crédits illustrations : en-tête, © DP ; © jeuxpornoia.com ; © MGM ; © DALL-E 3 ; © tecnobits.com ; © DreamWorks ; © fdp.aau.edu.et.


Plus de technique en Wallonie ?

Étudiants, chercheurs, pros… Google NotebookLM est l’outil gratuit qui va transformer votre façon de travailler

Temps de lecture : 11 minutes >

Pas de panique ! On arrête les “effroyable“, “effrayant“, “c’est la fin du monde“, “c’est la fin de l’humanité“, “c’est la fin de mon emploi“, “le petit chat est mort” et autres “Maman, j’ai peur !” Devant la progression impressionnante des outils liés à l’intelligence artificielle, il est grand temps de profiter de l’intermède de Frankl, cet espace de temps mental inséré entre les phénomènes que nous percevons (les stimuli) et la réponse raisonnée avec laquelle nous pouvons y donner suite… et continuer à vivre. Bref, il nous faut raison garder et convertir nos réflexes – si conformes – de sidération (et si pilotés par le matraquage promotionnel sur le sujet !) en une énergie plus justement dépensée à rester curieux et à s’informer sur les avantages réels offerts par ces… outils. N’oublions pas la parole apaisante de Jacques ELLUL dans les années 1950 (!) : “Ce n’est pas la technique qui nous asservit mais le sacré transféré à la technique.” Et le sacré, chez wallonica, procède de notre attitude face aux objets de pensée, pas d’une fatalité transcendante qui ferait descendre sur nos tête apeurées une huitième plaie d’Egypte. Notre humble conseil reste donc de jeter un coup d’oeil sur notre portail dédié à l’intelligence artificielle (IA) puis de lire la Tribune libre qui suit (qui prévient assez justement : “Une IA pour vous aider à penser mieux, pas pour vous en dispenser“) et ce, avec la tête froide et avec ce réflexe universellement bénéfique : cliquer curieux !

Patrick Thonart


[LESNUMERIQUES.COM, 6 février 2025] Lancé en 2023, mais en forte amélioration depuis le printemps 2024 surtout, NotebookLM est un outil qui ingère de grandes quantités d’informations, et vous permet ensuite de questionner une base de savoir, d’en faire des résumés, des fiches et même… des podcasts. Voici comment ça marche.

Les partiels et les examens de fin d’année approchent, le bac se précise doucement, les dossiers complexes s’empilent dans votre boîte mail, et chaque fois ce sont des heures que vous devrez passer à lire des documents de dizaines de pages, prendre des notes, faire des recoupements, établir des lignes directrices, des problématiques, cerner les acteurs clés, etc.Si seulement il y avait un outil à qui vous pourriez fournir ces documents, et que vous pourriez interroger ensuite pour vous faciliter la tâche, vous aider à écrire une synthèse, vous aidez à approfondir le sujet et à en apprendre les tenants et aboutissants…

Bonne nouvelle, cet outil existe, il s’appelle NotebookLM, il appartient à Google – il vous faut donc un compte Gmail pour y accéder -, est totalement gratuit et pourrait bien vous bluffer, ou, en tout cas, vous faire gagner un temps précieux !

Présentation générale : pas une nouveauté, mais quand même une belle révolution…

Si NotebookLM fait beaucoup parler de lui maintenant, il n’est pas du tout une nouveauté. Il a été annoncé en mai 2023, lors de la Google I/O. Un représentant du géant américain présentait alors ce qui était le projet Tailwind “comme un vrai carnet de notes” qui serait alimenté par “vos notes et vos sources“. Une promesse un peu vague et floue, mais qui plaçait le futur NotebookLM au croisement de l’IA (les modèles de langage naturel) et de la mise en forme d’information, deux activités au cœur du métier de Google. Depuis, l’outil de Google a été mis dans les mains du grand public, a disparu un peu des écrans radars, avant de revenir en fanfare à la fin de l’été 2024 avec l’annonce d’une nouvelle fonction qui donne à NotebookLM la capacité de générer des podcasts à la volée. Une fonction intéressante, surtout si vous êtes anglophone, mais qui a à nos yeux le mérite de remettre en avant un outil qui pourrait bien vous changer la vie si vous êtes lycéen.ne, étudiant.e ou si vous passez vos journées à jongler avec des dizaines de documents longs et complexes.

Car, NotebookLM est “un assistant virtuel de recherche qui résume les faits, explique les idées complexes et fait jaillir de nouvelles connexions – le tout à partir de sources que vous sélectionnez“, explique Google. Dans cette phrase, chaque élément est important. Intéressons-nous au dernier point, car il est capital.

Une interface Web, perfectible mais facile à dompter

NotebookLM ne va pas piocher dans le Web des informations sur lesquelles vous n’avez pas la main et dont la véracité est discutable. Non, c’est vous qui sélectionnez les éléments qui vont servir de sources, qui vont nourrir votre assistant. Pour cela, rendez-vous sur le site de notebookLM. La page Web affiche alors des modèles de carnets de notes. Ou, en l’occurrence, ceux que nous avons déjà créés.

La page d’accueil de NotebookLM liste les “notebooks” préexistants © Les Numériques

Créer et nourrir votre Notebook

Cliquez sur le bouton Créer, en dessous du message de bienvenue, afin de créer votre premier Notebook. Une nouvelle interface s’ouvre alors, et une fenêtre vous propose d’emblée d’ajouter une source, c’est ainsi que NotebookLM appelle les documents qui vont servir à son travail et à votre réflexion.

Il est possible d’importer toute une variété de sources, de diverses origines et types © Les Numériques

Vous avez quatre moyens d’ajouter une source en fonction de son type :

      • En glissant-déposant (ou sélectionnant le document) depuis l’arborescence de votre disque dur. Cela peut être un PDF, un fichier audio, un document .txt, etc.
        Attention tous les documents ne sont pas pris en charge. De manière, surprenante les .doc ou .ppt ne sont pas gérés nativement. Ce n’est pas très grave, vous pourrez en effet, les importer dans la Google Suite, et les ajouter ensuite dans NotebookLM, et c’est l’option suivante.
      • En sélectionnant un document au format Google Docs ou Google Slides.
      • En copiant-collant une URL, qu’il s’agisse d’un site Web ou d’une vidéo YouTube. À noter que pour l’instant, ce sont les transcriptions des vidéos YouTube qui sont importées, ce qui implique que certaines vidéos très récemment mises en ligne pourraient ne pas avoir encore été traitées.
      • En copiant-collant simplement du texte, qu’il provienne d’un document, d’une page Web ou que vous l’ayez récupéré grâce à un outil de reconnaissance OCR depuis la photo d’une page d’un livre ou d’un polycopié.

Ces quatre méthodes permettent d’ajouter jusqu’à 50 sources par dossier, par Notebook. Un conseil, donnez des noms explicites à vos sources afin de pouvoir les consulter facilement. Optez pour une nomenclature systématique : Sujet détaillé – Origine de la source, par exemple.

Gérer les sources et posez des questions

Une fois vos sources ajoutées, vous vous trouvez face à l’interface principale de NotebookLM.Elle se divise en trois parties :

      1. Sources, où sont listés tous les documents que vous avez importés/liés ;
      2. Discussion, la partie principale de l’interface, où s’affiche le résumé des documents et en dessous duquel est placée une fenêtre d’interaction, de chat, qui vous permettra de poser des questions en langage naturel pour obtenir des réponses contextualisées, qui renvoient aux différentes sources ;
      3. Studio, la partie où vous pourrez traiter les données emmagasinées en créant des notes, des synthèses, des chronologies et même des quizz pour vous aider à réviser. Voici venir l’ère des fiches 2.0.
L’interface de NotebookLM, qui peut être appelée à changer rapidement, se composer de trois grandes parties verticales. Les deux parties latérales peuvent être réduites ou étendues pour plus de confort visuel © Les Numériques

La rubrique Discussion

Intéressons-nous pour l’instant à la partie Discussion. Une fois la première source affichée, vous constaterez que des questions automatiques sont proposées. Elles sont généralement très pertinentes, mais rien ne vous empêche d’en taper une vous-même. Vous pouvez interroger NotebookLM en français comme si vous chattiez avec quelqu’un. Le langage naturel vous tend les bras ! Ces questions vont vous permettre de dégager des angles, des thématiques, des réponses pour mieux cerner le sujet. Ces questions changent ou évoluent en fonction des sources que vous ajoutez. C’est un point important. Vous constaterez trois choses :

      1. La première, que la réponse apportée s’affiche dans la partie supérieure de Discussion.
      2. La deuxième chose qu’on relève, c’est qu’au sein de la réponse, des chiffres inscrits dans des petits cercles renvoient à différents passages des documents importés. Ce qui évite les affabulations et les propos erronés, en vous permettant de les vérifier. Conseil : si la réponse ne vous satisfait pas, vous pouvez par ailleurs l’indiquer à l’algorithme de Google, à l’aide des pouces vers le bas ou le haut.
      3. La troisième remarque, enfin. En bas de la réponse s’affiche un bouton : Enregistrer dans une note. Transformé en note, le contenu de la réponse s’affichera alors dans la partie inférieure de la rubrique Studio.

Les notes : une base de travail et d’amélioration des sources

Comme leur nom l’indique, les notes sont des éléments détaillés qui répondent à une question que vous avez soumise à NotebookLM afin qu’il trouve une réponse dans les sources que vous lui avez confiées.

Cinq types de notes pour différents usages

Mais il y a plusieurs types de notes, et chacune à sa spécificité, son utilité dans un contexte particulier. Autrement dit, vous n’aurez pas besoin de tous ces types de note à chaque fois, mais ils couvrent un large panel de besoins récurrents quand on est étudiant ou mène un travail de recherche. Voici les cinq types de note :

      1. Les notes créées depuis une question ou que vous aurez ex nihilo pour y copier des notes dactylographiées obtenues lors d’une réunion ou d’un cours, par exemple. Conseil : Les notes créées depuis une question sont hélas en lecture seule. Pour pouvoir les amender ou les enrichir, nous vous conseillons de copier-coller leur contenu dans une nouvelle note créée manuellement que vous pourrez alors librement modifier et compléter.
      2. Les guides d’étude : il s’agit en fait d’une sorte de quizz généré automatiquement et qui contient les questions et les réponses. Un excellent moyen de faire un point sur vos connaissances si vous préparez un examen, ou un très bon moyen de prendre la mesure d’un dossier, des intervenants et acteurs concernés. Parfait pour se préparer à une présentation, par exemple.
      3. Les documents de synthèse : c’est ce qui pourrait se rapprocher le plus d’un plan synthétique. En fonction du sujet, il pourra être chronologique, thématique, etc. Généralement une bonne base pour dégager des tendances et préparer un plan ou une réponse à une problématique, par exemple. Conseil : Si vous utilisez des documents dans lesquels plusieurs interlocuteurs ou personnes sont citées, veillez à ce que les citations soient attribuées aux bonnes personnes.
      4. Questions fréquentes : à ne pas confondre avec les quizz des guides d’étude, il s’agit d’une série de questions et de réponses plus approfondies qui permettent de mieux saisir certains enjeux ou mécanismes.
      5. La chronologie, enfin : le nom est explicite, vous voulez avoir un déroulé clair des évènements, NotebookLM établira alors une liste des dates importantes.

Si vous avez ouvert une note, il suffit de cliquer sur Studio pour revenir à l’interface principale.

Les notes, une vraie source de richesse

Armé de vos notes, vous avez éclusé la liste de vos questions. Mais considérer que ces différentes notes sont une fin en soi serait une erreur. Comme quand on lit des documents et prend des notes, qui vont ensuite servir à nourrir la réflexion, ces nouveaux documents peuvent prendre une nouvelle importance. Afin d’améliorer encore votre notebook thématique, nous vous recommandons en effet, quand les notes vous semblent particulièrement intéressantes, de les ajouter à leur tour au corpus de sources que vous aviez établi. Il suffit de cliquer sur le bouton Convertir en source en bas de chaque note, que vous aurez ouvert depuis la rubrique Studio.

Les notes que vous jugez les plus intéressantes peuvent être converties en sources © Les Numériques

Pourquoi ? Parce que cela va permettre à NotebookLM de générer de nouvelles questions qui vous permettront d’affiner votre travail, votre recherche, votre compréhension du sujet. Mieux, dans un contexte où on pourrait croire à tort que l’IA vous dispense de penser, cela peut vous aider à prendre conscience qu’il manque certains points importants. Autrement dit, que vos sources ne sont pas assez complètes. Dans ce cas, éclairé sur les points manquants, il est plus facile de rechercher des compléments, et éviter des révisions incomplètes, un exposé partiel ou partial, etc. Et si jamais vous avez atteint la limite des 50 sources, vous pourrez toujours supprimer les plus anciennes, ou les moins pertinentes, puisque de toute façon les notes, fusion de ces sources et de vos questions, nourrissent désormais votre base de connaissance.

Des voix synthétiques pour donner vie aux connaissances

Maintenant, intéressons-nous aux deux nouveautés qui ont remis NotebookLM sous les feux de la rampe : d’une part, le résumé audio, qu’on lance depuis le bouton Résumé audio, présent dans la rubrique Discussion et Studio, d’autre part, le mode interactif (encore en bêta), et qui, pour l’instant, ne nous a pas conquis, car les « interactions » ne semblent tout simplement pas avoir d’effet… Selon toute vraisemblance, ces deux options reposent sur le projet Soundstorm, de Google, lui aussi lancé en 2023, lors de l’édition de la Google I/O. Cet outil est capable de générer des voix synthétiques à la volée.

Un podcast… en anglais

Quoi qu’il en soit le Résumé audio signifie que NotebookLM va, à partir des sources que vous lui avez fournies, créer une sorte de podcast, avec deux intervenants, qui vont alors interagir et revenir sur les informations clés de manière assez vivante et dynamique.

Pour aller au plus rapide, vous pouvez simplement cliquer sur le bouton Générer, dans la partie Studio. Elle créera alors un fichier son que vous pourrez écouter depuis l’interface ou enregistrer au format .wav. La création du fichier peut prendre assez longtemps, mieux vaut faire autre chose en attendant, comme vous y invite Google.

[WALLONICA : on a fait le test avec le résumé de Sanctuaires : c’est bluffant, avec les drôleries liées aux voix de synthèse – ce n’est pas moi qui parle –  et les erreurs – peu fréquentes – dues à l’automatisation comprises, comme des faux noms propres, des éléments importants relégués au deuxième et l’inverse…]

Mais il est aussi possible de donner des consignes à NotebookLM en cliquant sur le bouton Personnaliser. Vous vous trouvez alors face à un champ de texte dans lequel vous pouvez donner des ordres à l’IA de Google via un prompt. Il est ainsi possible de lui indiquer de n’utiliser que certaines sources, par exemple.

Des prompts pour une version en français…

Si la version anglaise est confondante de réalisme, très impressionnante, on peut malgré tout être tenté de passer à une langue qu’on maîtrise mieux. Depuis que l’outil de création de fichiers sons est disponible, la communauté des utilisateurs semble mener une petite course poursuite avec Google pour tenter de contourner la limite de la langue. Nous avons tenté plusieurs prompts et avons constaté au fil de notre utilisation que les plus simples, qui fonctionnaient au départ, ne sont plus efficaces désormais. Ainsi, le prompt : “Les deux hôtes doivent parler français et français seulement” ne semble plus fonctionner.

Nous nous sommes donc inspirés d’exemples plus détaillés, qui, à l’heure où sont écrites ces lignes, font que le fichier généré est en français. Cliquez donc sur le bouton Personnaliser. Tapez ensuite un prompt du ce type, avec les retours à la ligne : “Cet épisode doit être en français seulement / Les hôtes ne doivent parler que français / Toutes les discussions, commentaires et citations doivent être en français durant tout l’épisode / Aucune autre langue ne doit être utilisée, sauf pour des termes spécifiques, techniques, qui devront être expliqués ensuite en français.” Validez le prompt et lancez la génération. Votre podcast devrait être produit en français, avec un très léger accent québécois, parfois. Mais, attention, pour le podcast comme pour les notes écrites générées, il est important de s’assurer que l’intelligence artificielle n’a pas commis d’erreur.

Prenons un exemple, nous avons créé un notebook sur Léon Blum à partir de quelques sites Web officiels et de l’excellente série de podcasts de Philippe Collin, diffusée par France Inter. On y parle du fait que l’extrême droite à chercher à créer la controverse autour de Léon Blum, notamment en mentant sur ses origines. Une controverse infondée et diffamatoire. Or notre podcast généré en français commence tout de go comme suit : “Bienvenue à tous pour une nouvelle exploration, on plonge aujourd’hui dans la vie d’un personnage fascinant et controversé, Léon Blum…” Première phrase, et un carton rouge, qui montre toute la puissance et les limites de NotebookLM.

Une IA pour vous aider à penser mieux, pas pour vous en dispenser

L’IA de NotebookLM ne vous dispense pas de réfléchir, d’ailleurs Google vous invite systématiquement à vous assurer qu’elle n’a pas commis d’erreur, qu’elle n’a pas halluciné, même si le corpus restreint et contrôlé aide en cela. NotebookLM est là pour vous permettre de concentrer votre intelligence là où elle compte le plus, dans l’interprétation des données de base, dans la création de liens entre les concepts et les idées. Elle met à votre disposition un outil puissant, pour gagner du temps, et vous concentrer sur l’essentiel, sur ce qu’aucune IA ne peut faire pour vous, apprendre et progresser.

Un outil qui peut aussi vous aider à transcrire vos cours et réunions

Même si ce n’est pas forcément son but premier, NotebookLM peut également être utilisé pour transcrire et résumer un fichier son, qu’il s’agisse d’un cours ou d’une réunion. Il suffit d’importer le fichier audio dans un nouveau notebook. Ensuite, en cliquant sur le fichier correspondant dans la partie Sources, vous devriez pouvoir consulter la transcription. Il vous suffira ensuite de cliquer sur le bouton Document de synthèse dans la rubrique Studio pour avoir une liste des points et propos essentiels. Si plusieurs interlocuteurs ont pris la parole, veillez à ce que les propos soient toutefois attribués à la bonne personne. Comme nous vous l’avons déjà conseillé pour les citations écrites…

Pierre FONTAINE, Les numériques


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | sources : lesnumeriques.com | contributeur : Patrick Thonart | crédits illustrations : © lesnumeriques.com ; © pngtree.com.


Plus de dispositifs en Wallonie…

EDL : L’IA, une machine à fabriquer du doute ?

Temps de lecture : 7 minutes >

[EDL.LAICITE.BE, 11 août 2025La publication d’un article climatosceptique généré par une intelligence artificielle illustre une dérive préoccupante : l’utilisation des technologies pour produire des contenus pseudo-scientifiques susceptibles d’alimenter la désinformation. Si cette affaire peut prêter à sourire, elle révèle pourtant des fragilités systémiques dans la production scientifique contemporaine, exacerbées par le sous-financement de la recherche, la course à la publication et l’essor de revues peu rigoureuses. Dès lors, une question centrale : comment garantir la qualité de la recherche scientifique et faire de l’intelligence artificielle un outil au service de cette exigence ?

À quoi sert de réduire les émissions de CO2 dans la lutte contre le réchauffement climatique ? À rien, nous disent les climatosceptiques. C’est une vaste arnaque, un complot du gouvernement ! La preuve, le CO2 n’est pas la source du réchauffement climatique. C’est une étude scientifique qui le dit.

Pour une fois, les climatosceptiques n’ont pas complètement tort. Cette étude existe bien, et s’intitule Réévaluation critique de l’hypothèse du réchauffement planétaire lié aux émissions de CO2. Elle a été publiée le 21 mars 2025 dans la revue Science of Climate Change. À en croire celle-ci, toutes les conclusions et projections des rapports des experts de l’ONU sur le climat (GIEC) seraient donc fausses… rien que ça !

© jp.pinterest.com

Sauf que là où le bât blesse, c’est que cet article a en fait été entièrement généré par l’intelligence artificielle Grok 3 Beta, créée par Elon Musk (lui-même climatosceptique). Qui plus est, il a été élaboré avec l’aide de scientifiques comme Willie Soon, un climatosceptique notoire qui a reçu plus d’un million de dollars de fonds provenant du secteur des énergies fossiles à travers sa carrière. Notons encore le caractère frauduleux de la revue ayant publié cette étude puisqu’il s’agit d’une revue Open Access dont l’objectif avoué est de contredire les thèses du GIEC. Dès lors, il y a de quoi être nous-mêmes sceptiques sur la fiabilité de ce papier, non ?

L’ère de la désinformation 4.0

Ce fait peut paraître anodin et même amusant, tant il faut être crédule pour se fier à une étude entièrement générée par l’IA – qui plus est celle d’Elon Musk. Il convient toutefois de rester très vigilant quant aux dangers de cette pratique qui s’inscrit dans une double tendance.

D’abord, celle du recours croissant aux stratégies de désinformation pour instrumentaliser l’opinion publique et servir des intérêts politiques particuliers et privés. Ensuite, celle de l’essor de l’utilisation des IA génératives pour produire du contenu informatif et scientifique.

Dans ce contexte, l’IA apparaît comme un outil puissant pour la production et la diffusion massive de fake news vêtues d’une parure (pseudo-)scientifique grâce à laquelle elles ont plus de chances d’être perçues comme crédibles. La parution de fausses études scientifiques générées par l’IA est donc une problématique à prendre très au sérieux ! Cela brouille davantage les frontières entre le vrai et le faux, fragilise le débat public ainsi que la possibilité d’apporter réponses et solutions à des problèmes – tels que le réchauffement climatique. Surtout, cette pratique nuit à la qualité de la recherche scientifique et à la production des savoirs. À terme, cela risque de priver nos civilisations de tout progrès scientifique, voire pire, de les faire sombrer dans l’ignorance.

Même les scientifiques utilisent ChatGPT

Mais le buzz autour de cette fausse étude sur le réchauffement climatique a au moins le mérite de nous pousser à prendre au sérieux les questions suivantes : faut-il avoir recours à l’intelligence artificielle dans le domaine de la recherche ? Si oui, comment ? Avec quels risques et bénéfices ? Ne soyons pas naïfs, l’IA fait désormais partie de nos vies, et les chercheurs ne se privent pas de l’utiliser. Des outils comme Semantic Scholar et Connected Papers permettent d’obtenir rapidement une revue de la littérature scientifique sur un sujet donné et de visualiser les connexions entre articles.

© iatranshumanisme.com

D’autres modèles aident à la compréhension d’études, tels que Explainpaper, et servent à les synthétiser ainsi qu’à en tirer une analyse critique, comme le font Jenni AI et même ChatGPT. Ces nouvelles technologies ont surtout l’avantage de faire économiser du temps aux chercheurs, ce qui leur permet d’augmenter leur taux de production et de publication d’articles. Elles représentent donc un atout non négligeable dans un milieu qui n’échappe pas aux injonctions de la performance et où la sécurité d’emploi dépend d’un indice de productivité de plus en plus élevé. Aussi, elles peuvent très certainement contribuer à la qualité des recherches en accroissant leur précision et leur rigueur.

Fraude scientifique : l’IA accentue les risques mais n’a rien inventé

Toutefois, comme toutes technologies, les modèles d’IA comportent le risque d’être utilisés à mauvais escient. Un chercheur qui déciderait de déléguer l’entièreté de son travail à l’IA prend le risque de générer et de publier des articles frauduleux, c’est-à-dire au sein desquels les données ont été falsifiées, voire fabriquées de toutes pièces.

Il existe donc une ambivalence (risques/bénéfices) liée à l’usage de l’IA dans le domaine de la recherche scientifique. Celle-ci est soulignée et analysée par Alice Rigor et Stéphanie Billot-Bonef dans un article publié en 2024 au sein de la revue Environnement, Risques & Santé. Elles y dénoncent un véritable effet boule de neige induit par la production d’études falsifiées par l’IA, qui menace de nous conduire tout droit vers l’ère de la désinformation massive, puisque pour faire avancer la recherche, les scientifiques se réfèrent aux travaux antécédents sur le sujet. Or si ceux-ci contiennent de fausses données, on risque de reproduire des erreurs et d’aboutir à la démonstration de thèses complètement fallacieuses.

© fr.linkedin.com

Pour autant, la fraude scientifique n’est pas un phénomène nouveau et on trouve une pléthore de cas avant même que l’IA soit développée. Par exemple, en 1998, le chirurgien britannique Andrew Wakefield a publié dans The Lancet une étude affirmant un lien entre le vaccin ROR (rougeole-oreillons-rubéole) et l’autisme. Ce n’est qu’en 2010 que l’étude a été rétractée à la suite de révélations indiquant que les données avaient été manipulées et que Wakefield avait des conflits d’intérêts non divulgués.

Entre-temps, cette étude frauduleuse a largement contribué à alimenter le mouvement antivaccination. La question qu’il faut donc désormais se poser est la suivante : pourquoi et comment de fausses études parviennent-elles à être publiées ? Celle-ci interpelle d’autant plus lorsqu’on sait qu’il existe des balises permettant de détecter les données falsifiées, erronées ou fabriquées, et ainsi d’empêcher leur publication. Notamment le processus d’évaluation par les pairs qui prévoit la relecture d’une étude par un ou plusieurs chercheurs spécialistes du sujet traité afin de vérifier sa qualité et sa véracité.

Sauf que, comme le rappellent les autrices de l’article Intégrité scientifique à l’heure de l’intelligence artificielle générative, il arrive que des chercheurs cèdent à la tentation de valider des articles frauduleux en échange d’une compensation financière ou de la promesse d’un traitement favorable pour leurs propres travaux à venir.

De plus, certaines étapes du processus de publication ne sont pas toujours respectées, en particulier dans les revues dites ‘prédatrices’, qui se sont multipliées depuis l’essor de l’édition en accès libre, ou Open Access, au cours des vingt dernières années. Celles-ci reposent sur le principe selon lequel c’est au chercheur ou à son institution de payer pour être publié. Elles tirent ainsi profit de la précarité grandissante au sein de la recherche scientifique, qui pousse certains chercheurs à utiliser ces revues Open Access comme vitrines pour obtenir des financements.

Financer la science, pas l’ignorance

En fin de compte, l’inquiétude concernant la propagation de fausses études liées à l’utilisation de l’intelligence artificielle dans le domaine de la recherche occulte en réalité l’éléphant dans la pièce : le sous-financement de la recherche scientifique. Aujourd’hui, les chercheurs consacrent une part considérable de leur temps à solliciter des subventions (souvent sans succès), au détriment de leur travail scientifique. Devant la pression de la publication, condition essentielle à l’obtention de financements, l’IA devient, pour certains, un outil de survie utilisé afin de produire rapidement des contenus, parfois aux dépens de leur rigueur.

© Casterman

C’est également cette course concurrentielle à la publication qui alimente la prolifération de revues Open Access douteuses, prêtes à publier des articles peu contrôlés. Le système de relecture par les pairs, indispensable à la validation scientifique, pâtit lui aussi de ce manque de moyens : les experts n’ont pas assez de temps pour effectuer des vérifications approfondies. Conçue et utilisée de façon éthique, l’IA pourrait même être le remède à la publication de fausses études en aidant à repérer les incohérences et fraudes potentielles dans les publications. Encore faut-il que ces outils soient transparents et indépendants de tout intérêt privé.

Lucie Barridez, Déléguée Étude & Stratégie


Espace de liberté (EDL), le magazine du Centre d’Action Laïque consacre la ‘tartine’ du numéro d’été 2025 (n°521) au thème de Intelligence Artificielle : et l’humain dans tout ça ? : “Tour à tour révolutionnaire, menaçante, fascinante, ou profondément dérangeante, l’intelligence artificielle s’invite partout : au travail, à l’école, dans nos soins de santé, nos villes, nos imaginaires et jusque dans les rouages de la géopolitique mondiale. Mais dans cette course effrénée à l’automatisation, où est passé l’humain ? Est-il encore le pilote ou déjà passager d’un véhicule autonome lancé à pleine vitesse ? Cette tartine en sept couches explore les multiples facettes de l’IA, entre promesses et inquiétudes. De la productivité vantée par ses concepteurs à la précarisation de l’emploi qu’elle induit, de son rôle d’assistant psychologique à celui de générateur de confusion, des créations dites « synthétiques »1 à la transformation même de notre manière d’habiter le monde, il y a urgence à penser régulièrement cette technologie au prisme de nos droits, de nos libertés et de notre capacité à vivre ensemble. Car si l’intelligence est artificielle, les enjeux, eux, sont bien réels et évoluent à grande vitesse.Pour en savoir plus…


[INFOS QUALITE] statut : validé | mode d’édition : compilation, édition et iconographie | sources : edl.laicite.be | contributeur : Patrick Thonart | crédits illustrations : en-tête, d’après 2001, l’odyssée de l’espace (1968) © CNRS – Christophe L. ; © jp.pinterest.com ; © fr.linkedin.com ; © iatranshumanisme.com.


Plus d’engagement en Wallonie…

Pratiquer les langues autrement : l’IA comme partenaire de conversation ?

Temps de lecture : 4 minutes >

[THECONVERSATION.COM, 6 juillet 2025Les robots conversationnels ou “chatbots” font partie de ces innovations en matière d’intelligence artificielle qui peuvent séduire les élèves s’initiant à une langue étrangère. Mais comment les utiliser de façon pertinente ? Que peuvent-ils apporter quand elles sont mises en place dans un cadre pédagogique bien réfléchi ?

En avril dernier, une lycéenne italienne expliquait à la radio comment elle avait réussi à améliorer son français grâce à un “application magique” avec qui elle discutait chaque soir. Cette application, c’est ChatGPT, le fameux agent conversationnel boosté à l’intelligence artificielle (IA). Son témoignage illustre un phénomène mondial : les jeunes – et moins jeunes – utilisent désormais ces outils pour apprendre, réviser ou pratiquer.

L’intelligence artificielle générative (IAG) a aujourd’hui atteint un niveau de maturité tel qu’elle peut soutenir efficacement l’apprentissage des langues. Les outils sont désormais multilingues, adaptables, capables de générer du contenu écrit ou oral, et ajustés aux demandes de chacun. Mais que faire de cette IA qui parle (presque) toutes les langues ? Est-ce une menace pour l’école ou une chance pour apprendre autrement ?

Un robot qui répond toujours, sans juger

Parmi les nombreuses innovations récentes dans le domaine de l’intelligence artificielle et des technologies éducatives, les robots conversationnels (les “chatbots“) sont les plus accessibles : il suffit de poser une question, et ils répondent à l’écrit comme à l’oral. Ils peuvent tenir une conversation, corriger une phrase, reformuler une expression ou jouer un rôle (serveur, guide touristique ou enseignant de langue…).

Ce sont des alliés intéressants pour pratiquer une langue à son rythme, sans peur du jugement. Un étudiant timide peut s’entraîner à parler espagnol dans un café fictif sans craindre de faire des fautes. Un adulte peut répéter les mêmes phrases vingt fois sans gêner personne. Ces dialogues, même artificiels, stimulent l’apprentissage.

Des outils comme CallAnnie, Gliglish, LangAI, Talkpal ou les versions avancées de Duolingo proposent aujourd’hui des conversations avec un tuteur basé sur l’IA, adaptées au niveau des apprenants. Certains enseignants conçoivent même leurs propres chatbots éducatifs pour mieux coller au niveau ou aux attentes de leur public.

Agents conversationnels : les coulisses de la “machine”

Mais comment ces robots peuvent-ils “comprendre” nos messages ? En réalité, ces robots n’ont pas la faculté de compréhension des êtres humains : ils fonctionnent par prédiction statistique. Autrement dit, ils prédisent la suite la plus probable d’un texte en s’appuyant sur des milliards de données textuelles issues du web. C’est ce qu’on appelle un modèle de langage.

Ces modèles – comme GPT (OpenAI) ou BERT (Google, Meta) – sont le résultat d’un algorithme complexe, d’une programmation informatique et de ce qu’on appelle aujourd’hui la culture du prompt, c’est-à-dire l’art de formuler une requête efficace pour générer une réponse pertinente. Leurs réponses sont souvent très fluides, naturelles, parfois impressionnantes… mais elles peuvent aussi être fausses, incohérentes ou biaisées. C’est pourquoi un cadre pédagogique est indispensable : un dialogue sans médiation humaine reste limité.

Savoir interagir avec l’IA devient une compétence clé, qu’on appelle désormais la littératie en IA. Cela implique de :

      • comprendre que l’IA ne “comprend” pas comme un humain, se méfier de l’illusion de “tout savoir” qu’elle peut donner aux apprenants ;
      • savoir formuler des requêtes (ou prompts) efficaces pour générer une réponse pertinente, acquérir ce qu’on appelle aujourd’hui la culture du prompt ;
      • être capable d’évaluer la pertinence des réponses, de repérer les erreurs, les biais ou les stéréotypes ;
      • adopter une posture critique et respecter l’éthique numérique (vérification des sources, protection des données, etc.).

Les enseignants ont un rôle essentiel à jouer pour guider les apprenants vers un usage réfléchi, créatif et responsable de ces outils.

Une expérience en classe : parler avec un chatbot

Dans une université française, une équipe a testé un chatbot développé avec Mizou auprès de 16 étudiants débutants en français (niveau A1). Objectif : renforcer l’expression orale via des jeux de rôle simples. Les résultats sont encourageants : les étudiants ont gagné en confiance, se sentant moins jugés et plus motivés à parler.

Toutefois, certaines réponses générées par le chatbot étaient trop complexes par rapport au niveau attendu – par exemple, des phrases longues avec un vocabulaire difficile ou des formulations trop soutenues. D’autres étaient parfois trop répétitives, ce qui pouvait entraîner une perte d’intérêt. Ce retour d’expérience confirme l’intérêt de ces outils… à condition qu’ils soient bien accompagnés d’un suivi humain.

L’un des atouts majeurs de l’IA est sa flexibilité : débutants, intermédiaires ou avancés peuvent y trouver des bénéfices. Pour les premiers, les chatbots permettent de pratiquer des situations quotidiennes (‘se présenter’, ‘commander’, ‘demander son chemin’). Les niveaux intermédiaires peuvent enrichir leur expression ou corriger leurs erreurs. Les plus avancés peuvent débattre ou s’exercer à rédiger avec un retour critique. L’IA n’a pas vocation à remplacer les échanges humains, mais elle les complète, en multipliant les opportunités d’interaction.

Les chatbots ne remplacent pas la richesse d’une vraie relation humaine, mais ils peuvent aider à préparer des échanges. Avant de converser avec un correspondant étranger, l’apprenant peut s’exercer avec l’IA pour gagner en fluidité et confiance.

De même, avant un séjour à l’étranger, discuter avec un chatbot permet de se familiariser avec les phrases clés et les situations courantes. Certains apprenants utilisent aussi l’IA pour traduire ou vérifier une formulation. L’enjeu n’est donc pas de remplacer les interactions humaines, mais de multiplier les occasions d’apprendre, à tout moment, dans un cadre sécurisé et individualisé.

L’IA conversationnelle n’est pas une baguette magique, mais un outil prometteur. Lorsqu’elle est utilisée avec recul, créativité et esprit critique, elle peut véritablement enrichir l’enseignement et l’apprentissage des langues.

Demain, les apprenants ne dialogueront plus uniquement avec des enseignants, mais aussi avec des robots. À condition que ces agents soient bien choisis, bien paramétrés et intégrés dans un cadre pédagogique réfléchi, ils peuvent devenir de puissants alliés. L’enjeu est de taille : former des citoyens plurilingues, critiques et lucides – face à l’intelligence artificielle, et avec elle.

Sophie Othman, Université Marie et Louis Pasteur (UMLP)


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : © Disney.


Plus de presse en Wallonie…

Les IA, nos nouvelles confidentes : quels risques pour la santé mentale ?

Temps de lecture : 5 minutes >

[THECONVERSATION.COM, 17 juin 2025Depuis le lancement, en novembre 2022, de ChatGPT, l’agent conversationnel développé par OpenAI, les intelligences artificielles génératives semblent avoir envahi nos vies. La facilité et le naturel avec lesquels il est possible d’échanger avec ces outils sont tels que certains utilisateurs en font même de véritables confidents. Ce qui n’est pas sans risque pour la santé mentale.

Les grands modèles de langage, autrement dit les intelligences artificielles “génératives” telles que ChatGPT, Claude et autre Perplexity, répondent à de très nombreux besoins, que ce soit en matière de recherche d’informations, d’aide à la réflexion ou de résolution de tâches variées ; ce qui explique l’explosion actuelle de leur utilisation scolaire, universitaire, professionnelle ou de loisir.

Mais un autre usage de ces IA conversationnelles se diffuse à une vitesse impressionnante, en particulier chez les jeunes : l’équivalent de discussions entre amis, pour passer le temps, questionner ou échanger des idées et surtout se confier comme on le ferait avec un proche. Quels pourraient être les risques liés à ces nouveaux usages ?

Un terrain propice à une adoption rapide

La conversation par écrit avec les intelligences artificielles semble s’être banalisée très rapidement. À noter d’ailleurs que s’il existe des IA utilisant des échanges vocaux, elles semblent cependant moins utilisées que les échanges textuels.

Il faut dire que nous étions depuis de longues années déjà habitués à échanger par écrit sans voir notre interlocuteur, que ce soit par SMS, par e-mail, par “tchat” ou tout autre type de messagerie. Les IA génératives reproduisant remarquablement bien l’expression verbale des êtres humains, l’illusion de parler à une personne réelle est quasiment immédiate, sans avoir besoin d’un avatar ou d’une quelconque image simulant l’autre.

Immédiatement disponibles à toute heure du jour et de la nuit, conversant toujours sur un ton aimable, voire bienveillant, entraînées à simuler l’empathie et dotées, si ce n’est d’une “intelligence”, en tout cas de connaissances en apparence infinies, les IA sont en quelque sorte des partenaires de dialogue idéales.

Il n’est dès lors pas étonnant que certains se soient pris au jeu de la relation, et entretiennent des échanges suivis et durables avec ces substituts de confidents ou de “meilleurs amis”. Et ce, d’autant plus que ces conversations sont “personnalisées” : les IA mémorisent en effet les échanges précédents pour en tenir compte dans leurs réponses futures.

Certaines plateformes, comme Character.ai ou Replika, proposent par ailleurs de personnaliser à sa guise l’interlocuteur virtuel (nom, apparence, profil émotionnel, compétences, etc.), initialement pour simuler un jeu de rôle numérique. Une fonctionnalité qui ne peut que renforcer l’effet de proximité, voire d’attachement affectif au personnage ainsi créé.

Voici à peine plus de dix ans, le réalisateur Spike Jonze tournait le film Her, décrivant la relation amoureuse entre un homme sortant d’une difficile rupture et l’intelligence artificielle sur laquelle s’appuyait le système d’exploitation de son ordinateur. Aujourd’hui, il se pourrait que la réalité ait déjà rejoint la fiction pour certains utilisateurs des IA génératives, qui témoignent avoir entretenu une “romance numérique” avec des agents conversationnels. Des pratiques qui pourraient ne pas être sans risque pour l’équilibre mental de certaines personnes, notamment les plus jeunes ou les plus fragiles.

Des effets sur la santé mentale dont la mesure reste à prendre

Nous constatons aujourd’hui, dans tous les pays (et probablement bien trop tard…), les dégâts que l’explosion de l’usage des écrans a causés sur la santé mentale des jeunes, en particulier du fait des réseaux sociaux.

Entre autres facteurs, une des hypothèses (encore controversée, mais très crédible) est que la désincarnation des échanges virtuels perturberait le développement affectif des adolescents et favoriserait l’apparition de troubles anxieux et dépressifs.

Jusqu’à aujourd’hui, pourtant, les échanges menés par l’intermédiaire des réseaux sociaux ou des messageries numériques se font encore a priori principalement avec des êtres humains, même si nous ne côtoyons jamais certains de nos interlocuteurs dans la vie réelle. Quels pourraient être les conséquences, sur l’équilibre mental (émotionnel, cognitif et relationnel) des utilisateurs intensifs, de ces nouveaux modes d’échanges avec des IA dénuées d’existence physique ?

Il est difficile de les imaginer toutes, mais on peut concevoir sans peine que les effets pourraient être particulièrement problématiques chez les personnes les plus fragiles. Or, ce sont précisément celles qui risquent de faire un usage excessif de ces systèmes, comme cela est bien établi avec les réseaux sociaux classiques.

À la fin de l’année dernière, la mère d’un adolescent de 14 ans qui s’est suicidé a poursuivi les dirigeants de la plateforme Character.ai, qu’elle tient pour responsables du décès de son fils. Selon elle, son geste aurait été encouragé par l’IA avec laquelle il échangeait. En réponse à ce drame, les responsables de la plateforme ont annoncé avoir implémenté de nouvelles mesures de sécurité. Des précautions autour des propos suicidaires ont été mises en place, avec conseil de consulter en cas de besoin.

Une rencontre entre des personnes en souffrance et un usage intensif, mal contrôlé, d’IA conversationnelles pourrait par ailleurs conduire à un repli progressif sur soi, du fait de relations exclusives avec le robot, et à une transformation délétère du rapport aux autres, au monde et à soi-même.

Nous manquons actuellement d’observations scientifiques pour étayer ce risque, mais une étude récente, portant sur plus de 900 participants, montre un lien entre conversations intensives avec un chatbot (vocal) et sentiment de solitude, dépendance émotionnelle accrue et réduction des rapports sociaux réels.

Certes, ces résultats sont préliminaires. Il paraît toutefois indispensable et urgent d’explorer les effets potentiels de ces nouvelles formes d’interactions pour, si cela s’avérait nécessaire, mettre tout en œuvre afin de limiter les complications possibles de ces usages.

Mankiewicz Joseph L., L’aventure de Madame Muir (The ghost and Mrs. Muir, 1947) © DP

Autre crainte : que dialoguer avec un “fantôme” et se faire prendre à cette illusion puissent aussi être un facteur déclenchant d’états pseudo-psychotiques (perte de contact avec la réalité ou dépersonnalisation, comme on peut les rencontrer dans la schizophrénie), voire réellement délirants, chez des personnes prédisposées à ces troubles.

Au-delà de ces risques, intrinsèques à l’emploi de ces technologies par certaines personnes, la question d’éventuelles manipulations des contenus – et donc des utilisateurs – par des individus mal intentionnés se pose également (même si ce n’est pas cela que nous constatons aujourd’hui), tout comme celle de la sécurité des données personnelles et intimes et de leurs potentiels usages détournés.

IA et interventions thérapeutiques, une autre problématique

Pour terminer, soulignons que les points évoqués ici ne portent pas sur l’utilisation possible de l’IA à visée réellement thérapeutique, dans le cadre de programmes de psychothérapies automatisés élaborés scientifiquement par des professionnels et strictement encadrés.

En France, les programmes de ce type ne sont pas encore très utilisés ni optimisés. Outre le fait que le modèle économique de tels outils est difficile à trouver, leur validation est complexe. On peut cependant espérer que, sous de nombreuses conditions garantissant leur qualité et leur sécurité d’usage, ils viendront un jour compléter les moyens dont disposent les thérapeutes pour aider les personnes en souffrance, ou pourront être utilisés comme supports de prévention.

Le problème est qu’à l’heure actuelle, certaines IA conversationnelles se présentent d’ores et déjà comme des chatbots thérapeutiques, sans que l’on sache vraiment comment elles ont été construites : quels modèles de psychothérapie utilisent-elles ? Comment sont-elles surveillées ? et évaluées ? Si elles devaient s’avérer posséder des failles dans leur conception, leur emploi pourrait constituer un risque majeur pour des personnes fragiles non averties des limites et des dérives possibles de tels systèmes.

Les plus grandes prudence et vigilance s’imposent donc devant le développement ultrarapide de ces nouveaux usages du numérique, qui pourraient constituer une véritable bombe à retardement pour la santé mentale…

Antoine Pelissolo, professeur de psychiatrie


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : Her, un film de Spike Jonze (2013) © Annapurna Pictures ; © DP.


Plus de conventions sociales en Wallonie…

AI Slop : ce phénomène créé par l’intelligence artificielle nous amène-t-il vers un “internet zombie” ?

Temps de lecture : 4 minutes >

[RTBF.BE, 21 février 2025] L’intelligence artificielle envahit de plus en plus notre monde et brouille les frontières entre réel et imaginaire. Un phénomène relativement nouveau inonde internet : l’AI Slop. Pour le moment sans contrôle, il menace notre confort numérique. Explications dans Matin Première. 

L’AI Slop se manifeste sur de nombreux sites que vous consultez peut-être tous les jours comme Pinterest. Cette plateforme d’inspiration fait défiler sous vos yeux des images selon vos centres d’intérêt – cuisine, mode, dessin, photo, coiffure, déco – et vous épinglez celles qui vous plaisent dans des tableaux dédiés qui ne sont qu’à vous, qui sont publics ou privés, sortes de vision boards de votre vie rêvée : que ce soient des idées de vêtements “vintage pour l’hiver”, ou des idées pour décorer vos toilettes avec du papier-peint. Bref, Pinterest c’est une petite bulle tout à fait superficielle et confortable dans laquelle se lover quand le monde va mal. Mais cette bulle ne protège plus sur Pinterest : la plateforme est en train de muter sous nos yeux. Les photos de déco se ressemblent de plus en plus, les modèles maquillage ou coiffure ont la peau et la beauté trop lisse. Même les recettes : les assiettes remplies de pâtes sont désormais irréelles.

Internet gangréné par les images produites par l’IA

En effet, Pinterest est gangrené par les images générées par l’IA. 70% des contenus sur la plateforme sont faux aujourd’hui. C’est la directrice créative d’une agence de pub qui l’affirme dans une enquête menée par le Figaro. Elle le sait car au sein de son agence elle-même, on fournit de plus en plus d’images produites par IA. C’est tellement moins cher et plus facile que d’organiser une séance photo avec des comédiens.

Des milliers d’utilisateurs se plaignent du même problème sur plusieurs forums Reddit. Une dame parle même des modèles de crochet qui sont maintenant générés par IA. Et donc impossibles à reproduire dans la vraie vie. Les internautes sont en colère, demandent à la plateforme d’instaurer un outil de filtre pour signaler et éviter ces fausses images. Peine perdue semble-t-il pour le moment.

Mais c’est quoi exactement l’AI Slop ?

‘AI’ c’est pour ‘Artificial Intelligence’. ‘Slop’ en anglais désigne la bouillie industrielle que l’on donne aux cochons… L’AI Slop c’est donc l’expression pour nommer cette bouillie d’IA que l’on nous sert sur tous les supports numériques.

© radiofrance.fr

On l’a dit, Pinterest n’est pas le seul site concerné : vous trouverez des vidéos sur YouTube ou TikTok générées par l’IA, souvent pleine d’erreurs et doublée d’une fausse voix, vous tomberez sur de faux sites de recettes, avec des images fake et des instructions où il manque des ingrédients ou qui ne veulent rien dire, on parle même de livres générés par IA, auto-édités puis vendus sur Amazon.

Bref, l’AI Slop, c’est une masse numérique jetable, sans aucune valeur ajoutée, qui est produite à grande échelle avec, derrière, l’intention de faire du profit. L’objectif de ce foisonnement d’images fausses, c’est de nous faire regarder des vidéos ou de nous rediriger vers des sites ‘zéro contenu qualitatif’ mais sur lesquels nous sommes exposés à de la publicité.

Des enjeux financiers pour des créateurs d’images à partir d’IA en Asie

Puisqu’il faut faire du clic, ces faux contenus vont suivre les logiques algorithmiques. Il faut que ça provoque de l’engagement. Les célébrités, les cryptomonnaies, les enfants, les animaux, sont des sujets qui fonctionnent bien. Et d’où viennent ces contenus ? Le site 404 Media a par exemple remonté le fil jusqu’à des internautes en Inde ou d’en d’autres pays d’Asie qui produisent ces images pour se voir rétribuer par le programme Performance Bonus de Facebook. Ils reçoivent quelques dizaines de dollars par image ayant percé et cela peut grimper quand celle-ci devient virale. Et peu importe si l’image et les informations sont fausses.

Le Figaro explique par exemple que le 31 octobre dernier, des milliers de personnes ont afflué dans les rues de Dublin pour une parade d’Halloween… c’était faux. C’est un site créé par IA et sourcé au Pakistan qui avait perçu que c’était un thème qui générait du trafic. Même chose pour un soi-disant feu d’artifice à Birmingham pour le Nouvel An.

Une perte de confiance et un internet à deux vitesses

Face à cet afflux d’images incontrôlées et incontrôlables, il faudra voir si les plateformes vont réagir, imposer un filtre, trier ces images et ces infos. Ce n’est pas le cas aujourd’hui. Il faut dire que les internautes postent de moins en moins sur les réseaux et cet afflux d’images artificielles vient donc compenser pour l’instant.

Car les effets pourraient être dévastateurs pour des plateformes abondamment utilisées. Si le slop continue d’enfler, on va d’abord perdre confiance, se méfier de tout et se lasser. Une artiste interrogée par le Figaro explique notamment que pour elle, Pinterest n’est déjà plus un vrai moteur de recherche, fiable, essentiel.

Sur le long terme, deux options s’offrent à nous, engendrant une refonte structurelle d’internet :

      • On naviguerait sur un internet zombie, envahi de contenus irréels dont la masse exponentielle sera alimentée par des IA qui échangeront entre elles et auront leur propre compte sur les RS. On pourrait imaginer alors un internet à deux vitesses, cet internet zombie low cost pour les pauvres, et des espaces de contenus de qualité mais qui nécessitent le temps, les compétences et l’argent pour être trouvés. Autant dire réservé à une classe mieux armée socioéconomiquement ;
      • On connaîtrait un sursaut, un grand ‘non’ généralisé à ces contenus, et des plateformes qui instaurent des filtres. Un retour vers les contenus de référence, comme les médias traditionnels ou les contenus labellisés humains. Une nouvelle ère des blogs et des sites persos, sans algorithmes.

La saturation du slop serait-elle peut-être le sursaut dont on a besoin pour repenser nos usages numériques ?

Marie Vancutsem


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | sources : rtbf.be | contributeur : Patrick Thonart | crédits illustrations : © pplware.sapo.pt ; © radiofrance.fr.


Plus de presse en Wallonie…

Apprendre à traduire : à l’ère de l’IA, faut-il encore faire des exercices de thème et de version ?

Temps de lecture : 5 minutes >

[THECONVERSATION.COM, 4 décembre 2024] “Si les outils de traduction font des miracles, pourquoi s’exercer à transposer des textes d’une langue à une autre ?”, se demandent les étudiants. Loin d’être anodin, cet apprentissage permet de se sensibiliser réellement aux subtilités et au fonctionnement de la langue qu’on apprend.

DeepL fait des miracles, pourquoi devrais-je alors apprendre à traduire ?“, s’interroge un étudiant dans un cours de version. Les cours de thème (traduire un texte du français vers la langue étudiée) et de version (traduire un texte d’une langue étudiée en français) occupent une place importante au sein de la formation universitaire française, en licence de langues jusque dans les épreuves des concours du second cycle. Au lycée déjà, les élèves découvrent les subtilités inhérentes au fait de passer d’une langue à une autre et, dans le cadre des enseignements de langues et cultures de l’Antiquité, ils s’exercent régulièrement à la traduction.

Dans un contexte général où la traduction neuronale, alimentée par l’intelligence artificielle, rivalise de plus en plus avec la traduction humaine, l’intérêt de cet apprentissage peut susciter une remise en question.

Des objectifs de cours à clarifier

Sans aborder les débats historiques qui jalonnent l’évolution de la traduction en tant que pédagogie et de la traductologie en tant que discipline, on notera que de nombreuses recherches ont souligné le “statut étrange de la traduction à l’université, souvent fondé sur une mauvaise appréhension de son intérêt“, selon les mots de l’universitaire Fayza El Qasem.

Bien que les enseignants établissent des objectifs pédagogiques précis aux cours de thème et de version, de nombreux étudiants peinent encore à en percevoir les finalités. Il n’échappe à personne que la phrase “Attention, n’utilisez surtout pas de traducteur automatique !” a longtemps fait partie des consignes transmises aux étudiants, sous prétexte que la qualité de la traduction y est déplorable. Seuls les dictionnaires étaient autorisés.

© Shutterstock

Aujourd’hui, les enseignants des cours de thème et de version peuvent-ils encore éviter les traducteurs automatiques malgré leur amélioration évidente ?

On rappellera que les compétences visées dans les cours de thème et de version vont de la compréhension d’un texte et du fonctionnement des langues à travers les analyses linguistiques (grammaire, vocabulaire, procédés de traduction) jusqu’à la traduction d’un paragraphe, comme moyen d’évaluation des acquis en langues. L’extrait à traduire est généralement issu du registre littéraire ou journalistique et ne s’ouvre que rarement à la traduction dite pragmatique (textes quotidiens, professionnels).

Au cours des dernières années, les critiques n’ont pas manqué. Des études récentes ont insisté sur l’intérêt croissant d’intégrer des outils technologiques dans l’enseignement de la traduction.

Au-delà de la traduction, comprendre et analyser les subtilités linguistiques
Les cours de thème et de version constituent cependant de véritables laboratoires linguistiques. On y pratique l’analyse approfondie d’un texte source en invitant les apprenants à décortiquer les structures linguistiques et extralinguistiques que les logiciels de traduction peinent encore à saisir. En thème ou en version, il ne s’agit pas simplement de traduire des segments isolés, mais d’en saisir le sens global, de repérer les figures de style ou encore, la tonalité, etc.

Chaque niveau d’analyse permet une traduction “acceptable”, certes, mais favorise surtout une manipulation fine de la langue, transposable à d’autres contextes. Tel est le cas de la traduction des ambiguïtés syntaxiques ou des jeux de mots, de l’humour ou encore des néologismes.

Les travaux de la linguiste Natalie Kübler et de ses collègues en langue de spécialité montrent davantage “les limites de ces systèmes de [traduction automatique][…] notamment dans le traitement des syntagmes nominaux complexes, aussi bien au niveau du syntagme lui-même (variations possibles dans la juxtaposition des constituants, identification des constituants coordonnés…) comme au niveau du texte (instabilité des choix de traduction, identification adéquate du domaine de spécialité…)“.

La traduction automatique, aussi performante qu’elle soit, reste cependant imparfaite malgré ses progrès. Si elle se montre efficace lors de traductions simples et littérales, elle peine souvent à capter les nuances contextuelles essentielles. C’est ainsi que la traduction d’expressions idiomatiques (par exemple “les carottes sont cuites”, “les dindons de la farce”), des modes d’emploi ou de certaines publicités, produit parfois des rendus éloignés du sens original, jusqu’à produire de faux sens.

© Shutterstock

Les cours de thème et de version peuvent être l’occasion de sensibiliser et d’accompagner les étudiants vers une utilisation raisonnée de la traduction automatique. Il s’agit aussi d’un espace pour s’entraîner à repérer et à corriger les écueils précédemment cités, tout en renforçant la compréhension des systèmes linguistiques des langues étudiées. À long terme, cette capacité d’analyse revêt une importance fondamentale dans leur futur contexte professionnel. Communicants, journalistes, traducteurs ou enseignants de langues, ces étudiants seront souvent amenés à naviguer entre diverses sources d’information, parfois entachées de deepfakes pour justifier les échecs éventuels que les traducteurs automatiques génèrent.

Renforcer la compréhension interculturelle

Outre le renforcement des éléments linguistiques que permettent d’étayer les cours de thème et de version, la prise en compte des spécificités culturelles constitue un élément d’apprentissage à part entière, notamment parce que la traduction est, entre autres, un moyen de médiation entre deux cultures.

D’ailleurs lorsque le traductologue canadien Jean Delisle parle de la dimension culturelle de la traduction, il recourt à la métaphore de l’”hydre à cent-mille têtes” pour en souligner la nature multiple et dynamique.

La capacité à détecter et à comprendre les différences culturelles aide ainsi à prévenir les malentendus qui peuvent si facilement surgir en langue étrangère et qui sont parfois déjà présents dans la langue source. L’extrait humoristique de Juste Leblanc avec les confusions entre l’adverbe “juste” et le prénom “Juste”, dans le film Le Dîner de cons, l’illustre.

Finalement, en nous éloignant du caractère parfois artificiel des pratiques adoptées dans l’enseignement du thème et de la version et en tenant en compte de l’évolution socio-économique de la société jointe à l’utilisation de l’intelligence artificielle, ces cours pourraient (re)gagner l’intérêt initial du parcours d’apprentissage des langues. Actualisés, ils seraient à même d’offrir aux étudiants une compréhension plus claire des exigences des métiers liés aux langues, métiers qui requièrent aujourd’hui des compétences humaines spécifiques, complémentaires mais distinctes de celles des machines.

La question qui se pose aujourd’hui n’est plus “Pourquoi enseigner le thème et la version à l’heure de l’IA ?“, mais plutôt “Comment ?” “Laisser exister la relation avec les systèmes d’IA, là où partout on ne parle souvent que de leurs usages, c’est aussi laisser place à la dimension indéterminée de leur intelligence inhumaine”, comme on peut le lire dans l’ouvrage d’Apolline Guillot, Miguel Benasayag et Gilles Dowek intitulé L’IA est-elle une chance ?

Anissa Hamza-Jamann, Université de Lorraine


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, Le Caravage, Saint-Jérôme écrivant (1606) © Galerie Borghese (Rome) ; © Shutterstock | N.B. Jérôme est le Patron des traducteurs.


Plus de presse en Wallonie…

Les systèmes d’IA ne savent pas expliquer leurs décisions. Voici les pistes de recherche vers ‘l’explicabilité’

Temps de lecture : 6 minutes >

[THECONVERSATION.COM, 5 décembre 2024] L’utilisation d’intelligences artificielles, dans certains cas, génère des risques de discriminations accrues ou encore de perte de confidentialité ; à tel point que l’Union européenne tente de réguler les usages de l’IA à travers différents niveaux de risques. Ceci pose d’autant plus question que la plupart des systèmes d’IA aujourd’hui ne sont pas en mesure de fournir des explications étayant leurs conclusions. Le domaine de l’IA explicable est en plein essor.

À l’hôpital, des systèmes d’intelligence artificielle (IA) peuvent aider les médecins en analysant les images médicales ou en prédisant les résultats pour les patients sur la base de données historiques. Lors d’un recrutement, des algorithmes peuvent être utilisés pour trier les CV, classer les candidats et même mener les premiers entretiens. Sur Netflix, un algorithme de recommandation prédit les films que vous êtes susceptible d’apprécier en fonction de vos habitudes de visionnage. Même lorsque vous conduisez, des algorithmes prédictifs sont à l’œuvre dans des applications de navigation telles que Waze et Google Maps pour optimiser les itinéraires et prédire les schémas de circulation qui devraient assurer un déplacement plus rapide.

Au bureau, ChatGPT, GitHub Copilot et d’autres outils alimentés par l’IA permettent de rédiger des courriels, d’écrire des codes et d’automatiser des tâches répétitives ; des études suggèrent que jusqu’à 30 % des heures travaillées pourraient être automatisées par l’IA d’ici à 2030.

Ces systèmes d’IA sont très variés, mais ils ont un point commun : leur fonctionnement interne et leurs résultats sont difficiles à expliquer… pas seulement pour le grand public, mais aussi pour les experts. Ce manque d’explicabilité limite le déploiement des systèmes d’IA en pratique. Pour résoudre ce problème et s’aligner sur les exigences réglementaires croissantes, un domaine de recherche connu sous le nom d’IA explicable (ou explicabilité) a vu le jour.

IA, apprentissage automatique… des noms qui recouvrent des systèmes variés

Avec la médiatisation généralisée de l’intelligence artificielle et son déploiement rapide, il est facile de se perdre. En particulier, de nombreux termes circulent pour désigner différentes techniques d’IA, sans que l’on sache forcément bien ce que chacun recouvre, par exemple “apprentissage automatique”, “apprentissage profond” et “grands modèles de langage”, pour n’en citer que quelques-uns.

En termes simples, l’IA fait référence au développement de systèmes informatiques qui effectuent des tâches nécessitant une intelligence humaine, telles que la résolution de problèmes, la prise de décision et la compréhension du langage. Elle englobe divers sous-domaines tels que la robotique, la vision par ordinateur et la compréhension du langage naturel.

Un sous-ensemble important de l’IA est l’apprentissage automatique, qui permet aux ordinateurs d’apprendre à partir de données au lieu d’être explicitement programmés pour chaque tâche. Pour simplifier, la machine observe des schémas dans les données et les utilise pour faire des prédictions ou prendre des décisions. Dans le cas d’un filtre antispam par exemple, le système est entraîné à partir de milliers d’exemples de courriers électroniques indésirables et non indésirables. Au fil du temps, il apprend des éléments – des mots, des phrases ou des détails sur l’expéditeur – qui sont courants dans les spams.

Différentes expressions sont utilisées pour désigner un large éventail de systèmes d’IA © Elsa Couderc, CC BY

L’apprentissage profond est lui-même un sous-ensemble de l’apprentissage automatique et utilise des réseaux de neurones complexes composés de plusieurs couches afin de repérer et d’apprendre des motifs récurrents encore plus sophistiqués. L’apprentissage profond s’avère d’une valeur exceptionnelle pour travailler avec des données textuelles ou des images, et constitue la technologie de base de divers outils de reconnaissance d’images ou de grands modèles de langage tels que ChatGPT.

Réglementer l’IA

Les exemples du début de cet article montrent la grande variété d’applications possibles de l’IA dans différents secteurs. Plusieurs de ces applications, par exemple la suggestion de films sur Netflix, semblent relativement peu risquées, tandis que d’autres, comme le recrutement, l’évaluation d’éligibilité à un crédit bancaire ou le diagnostic médical, peuvent avoir un impact important sur la vie d’une personne. Il est donc essentiel que ces applications soient conformes à des critères éthiques partagés.

C’est à cause de ce besoin d’encadrement que l’Union européenne a proposé son AI Act. Ce cadre réglementaire classe les applications de l’IA en quatre niveaux de risque différents en fonction de leur impact potentiel sur la société et les individus : inacceptable, élevé, limité, et minimal. Chaque niveau mène à différents degrés de réglementation et d’exigences.

Ainsi, les systèmes d’IA à “risque inacceptable”, tels que les systèmes utilisés pour le score social ou la police prédictive, sont interdits en Union européenne, car ils représentent des menaces importantes pour les droits de l’homme.

Les systèmes d’IA à “haut risque” sont autorisés, mais ils sont soumis à la réglementation la plus stricte, car ils sont susceptibles de causer des dommages importants en cas d’échec ou d’utilisation abusive, par exemple dans les secteurs sensibles que sont l’application de la loi et le maintien de l’ordre, le recrutement et l’éducation.

Les systèmes d’IA à “risque limité” comportent un certain risque de manipulation ou de tromperie, par exemple les chatbots ou les systèmes de reconnaissance des émotions, dans lesquels il est primordial que les humains soient informés de leur interaction avec le système d’IA.

Les systèmes d’IA à “risque minimal” contiennent tous les autres systèmes d’IA, tels que les filtres antispam, qui peuvent être déployés sans restrictions supplémentaires.

Le besoin d’explications, ou comment sortir l’IA de la “boîte noire”

De nombreux consommateurs ne sont plus disposés à accepter que les entreprises imputent leurs décisions à des algorithmes à boîte noire. Prenons l’exemple de l’incident Apple Card, où un homme s’est vu accorder une limite de crédit nettement plus élevée que celle de sa femme, en dépit du fait qu’ils partageaient les mêmes biens. Cet incident a suscité l’indignation du public, car Apple n’a pas été en mesure d’expliquer le raisonnement qui sous-tend la décision de son algorithme. Cet exemple met en évidence le besoin croissant d’expliquer les décisions prises par l’IA, non seulement pour garantir la satisfaction des clients et utilisateurs, mais aussi pour éviter une perception négative de la part du public.

De plus, pour les systèmes d’IA à haut risque, l’article 86 de la loi sur l’IA établit le droit de demander une explication des décisions prises par les systèmes d’IA, ce qui constitue une étape importante pour garantir la transparence des algorithmes.

Au-delà de la conformité légale, les systèmes d’IA “transparents” présentent plusieurs avantages, tant pour les propriétaires de modèles que pour les personnes concernées par les décisions.

Une IA transparente

Tout d’abord, la transparence renforce la confiance (comme dans l’affaire de l’Apple Card) : lorsque les utilisateurs comprennent le fonctionnement d’un système d’IA, ils sont plus susceptibles de l’utiliser.

Deuxièmement, la transparence contribue à éviter les résultats biaisés, en permettant aux régulateurs de vérifier si un modèle favorise injustement des groupes spécifiques.

Enfin, la transparence permet l’amélioration continue des systèmes d’IA en révélant les erreurs ou les effets récurrents inattendus.

Globalement, il existe deux approches pour rendre les systèmes d’IA plus transparents.

Tout d’abord, on peut utiliser des modèles d’IA simples, comme les arbres de décision ou les modèles linéaires pour faire des prédictions. Ces modèles sont faciles à comprendre car leur processus de décision est simple.

Par exemple, un modèle de régression linéaire peut être utilisé pour prédire les prix des maisons en fonction de caractéristiques telles que le nombre de chambres, la superficie et l’emplacement. La simplicité réside dans le fait que chaque caractéristique est affectée d’un poids et que la prédiction est simplement la somme de ces caractéristiques pondérées : on distingue clairement comment chaque caractéristique contribue à la prédiction finale du prix du logement.

Cependant, à mesure que les données deviennent plus complexes, ces modèles simples peuvent ne plus être suffisamment performants.

C’est pourquoi les développeurs se tournent souvent vers des “systèmes boîte noire” plus avancés, comme les réseaux de neurones profonds, qui peuvent traiter des données plus importantes et plus complexes, mais qui sont difficiles à interpréter. Par exemple, un réseau de neurones profond comportant des millions de paramètres peut atteindre des performances très élevées, mais la manière dont il prend ses décisions n’est pas compréhensible pour l’homme, car son processus de prise de décision est trop vaste et trop complexe.

L’IA explicable

Une autre option consiste à utiliser ces puissants modèles malgré leur effet de “boîte noire” en conjonction avec un algorithme d’explication distinct. Cette approche, connue sous le nom d’”IA explicable”, permet de bénéficier de la puissance des modèles complexes tout en offrant un certain niveau de transparence.

Une méthode bien connue pour cela est l’explication contre-factuelle, qui consiste à expliquer la décision atteinte par un modèle en identifiant les changements minimaux des caractéristiques d’entrée qui conduiraient à une décision différente.

Par exemple, si un système d’IA refuse un prêt à quelqu’un, une explication contre-factuel pourrait informer le demandeur : “Si votre revenu annuel avait été supérieur de 5 000 euros, votre prêt aurait été approuvé“. Cela rend la décision plus compréhensible, tout en conservant un modèle d’apprentissage automatique complexe et performant. L’inconvénient est que ces explications sont des approximations, ce qui signifie qu’il peut y avoir plusieurs façons d’expliquer la même décision.

Vers des usages positifs et équitables

À mesure que les systèmes d’IA deviennent de plus en plus complexes, leur potentiel de transformer la société s’accroît, tout comme leur capacité à commettre des erreurs. Pour que les systèmes d’IA soient réellement efficaces et fiables, les utilisateurs doivent pouvoir comprendre comment ces modèles prennent leurs décisions.

La transparence n’est pas seulement une question de confiance, elle est aussi cruciale pour détecter les erreurs et garantir l’équité. Par exemple, dans le cas des voitures autonomes, une IA explicable peut aider les ingénieurs à comprendre pourquoi la voiture a mal interprété un panneau d’arrêt ou n’a pas reconnu un piéton. De même, en matière d’embauche, comprendre comment un système d’IA classe les candidats peut aider les employeurs à éviter les sélections biaisées et à promouvoir la diversité.

En nous concentrant sur des systèmes d’IA transparents et éthiques, nous pouvons faire en sorte que la technologie serve les individus et la société de manière positive et équitable.

David Martens & Sofie Goethals, Université d’Anvers


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © la.blogs.nvidia.com ; © Elsa Couderc, CC BY.


Plus de dispositifs en Wallonie…

THONART : Raison garder est un cas de conscience.s (2024)

Temps de lecture : 31 minutes >

Elections communales obligent. C’est l’histoire du Bourgmestre de Liège qui va au Conseil communal. Il est toujours de bon ton de commencer un article par une bonne nouvelle : il se sent en sécurité. Plus encore : en pénétrant dans la salle, il y a quelques instants, il savait où il allait s’assoir et il savait qu’il serait flanqué des mêmes collègues que d’habitude. Dans la même veine, toutes les interventions de la séance, il les prévoit et les attend au juste moment où elles sont prévues dans le protocole qui fixe le déroulement des débats. Et pour le conforter dans le sentiment rassurant qu’une règle universelle est d’application (dans la salle du Conseil communal à tout le moins), l’ensemble des personnes, des objets et des décors est à sa place, des cravates (éventuelles) des Conseillers aux dorures des portes, des micros aux galettes sur les sièges.

J’ai longtemps cherché dans la littérature (comme on dit) pour trouver une communauté aussi éprise d’absence de surprise, aussi peu désireuse d’aventure et aussi bien organisée pour se donner un sentiment permanent de… sécurité. Je n’en ai trouvé qu’une : les Hobbits de la Comté.

Voici ce que Tolkien, l’auteur du Hobbit puis du Seigneur des Anneaux, en dit dans les années 1950 (vous allez voir, la ressemblance est troublante), je le cite : “Les Hobbits sont un peuple effacé mais très ancien, qui fut plus nombreux dans l’ancien temps que de nos jours, car ils aiment la paix et la tranquillité et […] s’ils ont tendance à l’embonpoint et ne se pressent pas sans nécessité,  […] Ils ont toujours eu l’art de disparaître vivement et en silence quand des gens qu’ils ne désirent pas rencontrer viennent par hasard de leur côté […] Et, pour ce qui était de rire, de manger et de boire, ils le faisaient bien, souvent et cordialement, car ils aimaient les simples facéties en tout temps et six repas par jour (quand ils pouvaient les avoir) […] et ils étaient très considérés, non pas seulement parce que la plupart d’entre eux étaient riches, mais aussi parce qu’ils n’avaient jamais d’aventures et ne faisaient rien d’inattendu : on savait ce qu’un Hobbit allait dire sur n’importe quel sujet sans avoir la peine de le lui demander…

Alors, que nous dit donc ce besoin obsessionnel de sécurité, manifestement aussi typique des Conseillers communaux que des Hobbits ? Est-il limité à la vie au Conseil ou bien la nécessité de pouvoir faire confiance à notre environnement est-elle plus fondamentale chez l’Humain ? Renoncer à Sauron, chez Tolkien, ou renvoyer la rassurante présence du dieu dans les coulisses, nous a-t-il condamné à rechercher ailleurs une légalité rassurante, c’est-à-dire le sentiment qu’il y a dans l’air que nous respirons tous un ordre des choses qui garantit que ce nous attendons du monde autour de nous, se passera comme nous l’attendons ?

Dieu est mort“, soit, la cause est entendue mais, une fois la Loi divine sortie du décor, il revient de se pencher sur une injonction beaucoup moins facile à gérer au jour le jour : “Tu es ta propre loi,” nous disent les moralistes. Facile à dire. Me voilà tenu de devenir mon propre pouvoir législatif, mon pouvoir exécutif et, surtout, mon propre pouvoir judiciaire : si je suis coupable de quoi que ce soit, c’est moi qui prononcerai la sentence, dans ma délibération intime ! En clair : non seulement tout phénomène, tout événement qui réduit ma sécurité m’obligera à réagir mais je me tiendrai personnellement responsable de ma décision d’agir…

Quand on y regarde de plus près, nous sommes au quotidien, comme les bons citoyens à la fin du siècle des Lumières : la Révolution a raccourci d’une tête tout ce qui ressemblait à l’autorité usurpée du Roi et éloigné du débat public les donneurs de leçons en soutane. C’était assurément un véritable moment de vertige où le bon citoyen ne disposait plus d’aucun catéchisme auquel se conformer, ni de lettres de cachet auxquelles obéir aveuglément ! Que s’est-il passé alors ? Quelles leçons en tirer ?

Les uns (et c’est tout à leur honneur) ont gardé raison et se sont appliqués à convenir de nouvelles règles de vivre-ensemble telle que la Déclaration des droits de l’homme et du citoyen, souvent ornée, je cite, de “l’œil suprême de la Raison qui vient dissiper les nuages de l’erreur qui l’obscurcissaient.” Ainsi, sans l’aval du Roi ou du Clergé, des hommes et des femmes faisaient la lumière sur un ensemble de droits dont ils convinrent qu’ils étaient naturels, qu’ils soient individuels ou communs, délimitant un périmètre civilisé, où chacun devait pouvoir se sentir en sécurité.

Les autres (parmi lesquels certains des uns) ont vécu cette liberté soudaine comme des veaux que l’on met à l’herbe pour la première fois : de la pure sauvagerie ! Ils ont couru dans tous les sens ou sont restés terrés près du tracteur ; ils se sont blessés aux barbelés ou se sont assommés mutuellement à coups de cornes et de sabots ; les routiniers ont longuement meuglé qu’ils ne trouvaient plus leurs granulés pendant que les bien-sevrés s’explosaient la caillette en broutant comme des fous !

Toutes proportions gardées, tout phénomène nouveau provoquant un état d’insécurité individuelle semble également être, pour chacun d’entre nous, comme un chaos à expérimenter, comme un lendemain de prise de Bastille : pas de règles auxquelles se conformer ; pas encore assez de confiance dans une situation inédite et une lourde inquiétude quant à la capacité de faire face à l’expérience directe, celle qui est proche de la réalité.

Et d’ailleurs, n’est-ce pas également à ce moment-là, alors que nous ne nous sentons pas en sécurité, alors que nous n’avons pas confiance, que nous aurions tendance à projeter sur le monde des explications qui nous sont propres, des fabulations qui nous rassurent : à savoir, nous raconter des histoires où la Princesse épouse le Prince, où il ne pleut pas pendant le match du gamin et où nous retouchons des impôts ? En un mot comme en cent : des histoires où les gens et les choses respectent une règle du jeu et dans lesquelles la fin tourne à notre avantage.

Nos fabulations (c’est ainsi que Nancy Huston les baptise), nos fabulations face à l’insécurité et leur capacité à nous empêcher de raison garder : c’est bien notre sujet, en trois séries de mots-clefs. Nous commencerons par les 3 premiers d’entre eux : confiance, puissance et légalité.

Première série, d’abord, la confiance

Un philosophe de l’Université de Louvain, Mark Hunyadi, y consacre son livre Faire confiance à la confiance, paru en 2023. Une réelle découverte pour moi. Il y aura un avant et un après. L’auteur s’y étonne du nombre important des occurrences du mot ‘confiance’ dans tous nos discours, sans que la chose ne reçoive de définition claire.

Nous vivons dans des sociétés individualistes“, commence-t-il, c’est-à-dire que la volonté individuelle, l’affirmation de soi, semble y être le moyen suprême pour briser toutes les limitations. Comme souvent dit : c’est au point qu’on est passé du “je pense donc je suis” au “je crois donc j’ai raison.

Qui plus est, précise Hunyadi, le numérique permet à chacun de vivre comme dans un cockpit d’avion, dans un espace protégé où chacun peut, de manière fiable, piloter du bout des doigts son environnement médiatisé. Tout y est sécurisé autant que faire se peut et, de manière quasi libidinale, le numérique satisfait tous nos désirs sans faillir… à condition de choisir uniquement ce qui est sur le menu ! Pas question ici de souhait alternatif, d’option divergente ou de créativité, pas question de pensée négative (c’est une notion positive, à savoir une pensée libre qui serait capable de critiquer le système dans lequel elle pense). Si l’on parle de liberté aujourd’hui, insiste Hunyadi, “c’est une liberté de supermarché !

Pensez à votre dernière commande de pizza en ligne. Vous aviez fortement envie de manger une, je cite, “pizza blanche, pommes de terre, mozzarella, et romarin” en regardant Les Aventuriers de l’Arche perdue devant votre nouveau super-écran de 77 pouces de diagonale. Pas de chance, la pizza n’est plus au menu des plats livrés par votre fournisseur habituel. C’est donc avec la “quatre fromages” plébiscitée par les clients habituels de la plateforme que vous avez vécu la vraie aventure… dans vos pantoufles.

Dans ce contexte de vie médiatisée, où la liberté est limitée par ce qu’offrent les systèmes, l’auteur déplore la diminution de la confiance, non pas à cause d’une augmentation de la méfiance mais, simplement, parce que tout un chacun a moins besoin de la confiance ! La digitalisation de la majorité de nos activités fait rentrer celles-ci dans des cases et des tableaux qui limitent fortement le risque de ne pas voir nos attentes comblées, à la condition que nous restions dans le cadre donné.

Par exemple : ai-je vraiment besoin de faire confiance à Mère Nature lorsque, sans surprise, je reçois un billet de 50 €, que j’ai demandé au travers d’une suite de menus sur l’écran d’un terminal, après m’être identifié grâce à un code secret ?

C’est ici qu’il devient nécessaire de définir cette confiance naturelle qui, selon Hunyadi, est à la base même de notre relation au monde. Pour ce faire, il prend l’exemple assez limpide d’un conducteur au volant de son véhicule. Imaginez : il fait beau ;  vous êtes au volant de votre voiture sur une route de campagne en ligne droite ; vitesse autorisée 90 km/h ; une voiture vient dans l’autre sens à la même vitesse ; elle est sur l’autre bande ; vous allez vous croiser sans ralentir et… continuer votre chemin.

Que s’est-il passé ? Rien. Mais vous avez pris un risque énorme (une collision frontale à 90 + 90 = 180 km/h) parce que vous avez eu confiance dans le fait que l’autre conducteur n’allait pas se dérouter et vous emboutir. Aucune explication rationnelle, aucun contrat avec des petites lettres à la fin, aucun fétiche pendu à votre rétroviseur ne garantissait votre sécurité. Vous avez agi comme s’il était dans l’ordre des choses, dans la légalité naturelle, que la collision n’aurait pas lieu et, d’ailleurs, vous êtes là, aujourd’hui, à me lire, après un pari où vous avez misé votre vie et celle de vos passagers.

C’est de cette confiance-là que parle Hunyadi. Une confiance sans laquelle notre vie serait impossible : comment s’asseoir sans la conviction que la chaise n’est pas en caoutchouc, comment trinquer sans être persuadé que le vin qu’on va boire n’est pas un lavement et comment aller marcher en forêt sans être intimement convaincu du bénéfice qu’on en recevra ?

Partant, voilà une définition plus praticable de la confiance : j’ai confiance quand j’agis comme si les attentes de comportement que j’ai envers le monde où je vis n’étaient pas susceptibles d’être déçues. On fait ça 24 heures sur 24, 7 jours sur 7 ! Cette confiance procède donc plutôt de notre relation au monde, avant que d’être une relation au risque même…

Se sentir en sécurité, c’est donc être en confiance et avoir la conviction que les attentes de comportement que nous avons envers notre environnement seront satisfaites, et que nous pouvons agir dans le cadre d’une certaine légalité, un certain ordre des choses, qui garantit cette sécurité.

D’accord, mais que ce passe-t-il alors si nous ne pouvons avoir pleinement confiance dans notre environnement ; en d’autres termes, lorsque notre sentiment de sécurité n’est pas à 100 % ?

Hunyadi ne répond pas spécifiquement à la question et son propos passe peut-être à côté d’une autre dimension, qui, selon moi, participe également du sentiment de sécurité : la puissance ressentie par chacun. Là où je n’ai pas pleinement confiance, peut-être le sentiment de ma propre puissance peut-il compenser et permettre une équation du type : x % de confiance + y % de puissance = 100 % de sécurité.

Illustrons cela : si une jeune liégeoise descend dans le Carré après minuit (j’ai des noms !), elle ne peut se sentir en sécurité que accompagnée de sa bande (ceci pour la puissance) et que après quelques shots de mauvaise vodka (ceci pour la confiance). Si, il y a de nombreuses années de cela, je descendais dans le même Carré, quelle que soit l’heure, quel que soit le déficit de confiance que je puisse avoir ressenti alors, ma taille et mon poids le compensaient allègrement et je me sentais suffisamment en sécurité.

Mais qu’en est-il alors lorsqu’un homme ou une femme, comme vous et moi, n’a pas pleinement confiance dans son environnement et que, de plus, le sentiment de sa propre puissance est insuffisant pour que, dans son cerveau, le voyant “sécurité” reste au vert ?

Je ne parle pas ici d’inquiétudes globales, comme l’avenir de nos enfants, les orangs-outans qui ne seront bientôt plus que des fantômes, la droite extrême qui prend ses aises dans nos démocraties (les dernières du modèle probablement), ou même l’omniprésence de prothèses numériques de 7 pouces de diagonale qui nécrosent les cervicales de nos ados.

Non, au quotidien, dans des situations où nous ressentons un enjeu personnel et où règne l’inconfort quand nous délibérons dans notre petite tête, nous pouvons avoir le sentiment que notre sécurité – donc, la somme de notre confiance et de notre puissance – n’est pas suffisante pour que nous puissions toujours agir avec une pensée claire, sans inquiétude, sans aveuglement ; en d’autres termes : pour que nous puissions “raison garder” (comme le disait déjà Marie de France, au XIIe siècle), puisque la sécurité semble en  être une condition…

Deuxième série, la confrontation

Jusque-là, nous avons évoqué les trois premiers mots-clefs : confiance, puissance et légalité. On continue…

Tous les phénomènes qui arrivent à notre conscience (à nos consciences, comme on va le voir) n’appellent pas de notre part des réactions simples, des réflexes comme ceux qui réveillent le chat : il sent qu’il a faim, il se lève, va manger, passe par sa litière puis revient digérer sur son coussin. Si c’est la vie rêvée pour un chat ou un Hobbit, c’est la honte pour un honnête individu : être libre et probe demande une délibération intérieure, appelle un travail d’objectivation, nécessite l’analyse des informations traitées, suppose un jugement critique et non-dogmatique des options disponibles, et implique une décision d’agir qui devra être efficace et, accessoirement… juste. Par parenthèse, c’est le très britannique Stephen Fry – un homme selon notre coeur – qui s’indignait devant l’obsession de l’être humain à vouloir être juste, plutôt qu’à vouloir être efficace. Nous en reparlerons…

Qu’il s’agisse de décisions graves ou de choix plus anodins, quand nous sommes confrontés à des phénomènes trop originaux pour notre périmètre de sécurité – réduisant par là notre taux de confiance naturelle – nous devons mettre en oeuvre les trois mots-clefs de la deuxième série, c’est-à-dire : l’aliénation, l’attention et les consciences (au nombre de trois, elles donnent leur “s” au titre de l’article : “Raison garder est un cas de consciences“).

J’insiste ici : souvent, quotidiennement même, alors que nous en avons besoin, nous ne percevons pas de légalité dans nos échanges avec le monde, nous ne décelons pas un ordre des choses qui réduirait notre expérience directe à une résolution de problèmes simples et concrets, avec mesure et raison, sans aveuglement, un peu comme la vie de ce foutu chat qui continue à dormir sur le coussin.

Hélas, le monde, tel qu’il se présente à nous, dépasse notre entendement, c’est un fait (sinon, nous n’aurions pas eu besoin d’inventer des notions comme le mystère et ou l’absurde). Souvent, chaque jour, nos attentes de comportement envers lui sont détrompées, frustrées et nous vivons la surprise voire… l’aventure (“l’aventure ? beurk !” dit le petit Hobbit qui venait justement de s’endormir pour digérer un peu).

Pour jouer sur les mots : dans cette confrontation avec les phénomènes de l’existence, notre quête du sens est peut-être l’exact contraire de notre sens de la quête !

Le sens de la Vie auquel Sisyphe a renoncé et que certain attendent toujours, comme ils attendent Godot ; ce sens tant recherché, qui fait l’objet de mille quêtes, serait-il platement la recherche de l’assurance, sécurisante, que les choses obéissent à une légalité et que nous pouvons avancer en toute confiance puisque, dans ce cas, le déroulement de l’avenir existe déjà et, qu’en gros, il ne nous reste plus qu’à apprendre à lire le futur avec une appli de gsm, dans notre fauteuil ou sur le coussin, à côté du chat.

Je veux insister sur ce point : ma proposition (qui n’est pas originale, d’ailleurs) est que le Sens de la vie vécu comme un objet idéal, pré-existant quelque part, qu’il nous faut atteindre et gagner au terme d’une quête que l’on voudra longue, aventureuse et difficile, est un Graal romantique tout à fait encombrant pour la Raison. Quelque part, dans le monde des Idées de Platon, dans le sublime de l’Olympe où festoient les Dieux, dans l’au-delà du Grand Barbu, derrière la bouille incroyable de Superman ou entre les seins de Lilith, la première femme, il y aurait un Grand Secret, un mode d’emploi universel, multilingue et illustré, prêt pour le téléchargement dans le répertoire de votre choix : dans le répertoire “religion”, dans celui dédié aux initiations, dans celui des intuitions chamaniques ou dans cet autre répertoire où se rangent les raisonnements cartésiens sur l’essence des choses…

Sans moi ! La Joie de découvrir la légalité ou l’harmonie, nait de l’exercice de soi, de la pratique de sa propre puissance, de son humanité. C’est autre chose alors de penser que, au contraire de l’option idéaliste, notre lot est de continuellement éprouver notre puissance face à ce qui nous advient par aventure. “Ce qui ne me tue pas me rend plus fort“, disait Nietzsche entre deux Xanax : voilà bien les termes qui donnent sens à notre quête. Nous nous sentirons et nous serons plus forts à chaque décision prise librement, à chaque acte raisonné que nous poserons sans faire appel à un dogme quelconque, souvenez-vous : “Sapere Aude“, Ose savoir par toi-même, disait Kant. Nous serons plus forts à chaque lecture critique mais apaisée du “bruit et de la fureur” d’un monde dont la complexité rend, hélas, notre confiance spontanée assez difficile. C’est ainsi que le déficit de confiance qui nous colle à la peau pourra être compensé par notre puissance personnelle.

L’idée est belle et résonne encore du bruit chevaleresque des sabots (ou des noix de coco, selon la référence…) de Lancelot, de Galahad et autres Arthur. Mais, hélas, nous ne sommes pas Indiana Jones et, manifestement, les humains, comme les Hobbits – ou les Conseillers communaux – n’ont pas réellement le goût de l’aventure.

Diable. Le monde est trop complexe pour moi, je me tue à le dire ! Je ne perçois pas spontanément comment les choses tombent juste. Je n’ai plus confiance en la légalité de la vie, parce que je ne la reconnais pas dans ce qui m’arrive, à moi. Comment dès lors me sentir en sécurité ? Comment avoir assez confiance ?

Qu’à cela ne tienne : puisque le monde comme il va ne me donne pas confiance, puisqu’il dépasse mon entendement, je vais en fabuler un autre à ma mesure où la légalité des choses sera évidente et m’y projeter, m’y aliéner ! Ce sera une expérience virtuelle (le contraire d’un voyage spirituel) que d’être un moi augmenté dans un environnement sécurisé

    • Regardez dans votre bus, cet ado qui ‘scrolle’ sur son gsm avec les écouteurs sur les oreilles, on dirait un singe avec une banane. Comment lui en vouloir, la femme mûre assise en face de lui fait la même chose : deux singes, deux bananes. Et ils ne se parleront pas…
    • Regardez ce manager qui, dans son langage Corporate, a trouvé un slot pour tirer les Lessons Learned avec son N+1, lors d’un meeting One-2-One, alors qu’il est overbooké.
    • Et regardez l’indigence intellectuelle qui permet à des dirigeants, même grimés en Van Gogh avec un pansement sur l’oreille, de fantasmer à haute voix une nation entière qui serait faite d’êtres humains divisés en deux groupes exclusifs, grossièrement définis : nous et les autres !

Dans les trois cas, je ne vois que projection de soi dans un monde virtuel, fabulé, qui réduit la réalité à un périmètre compréhensible sans effort, dans lequel le sujet inquiet se projette par facilité, en recherce de sécurité. Souvenez-vous, Hunyadi évoquait un cockpit d’avion, à ce propos. Face à l’insécurité comme nous l’avons définie, l’aliénation est l’option libidinale du moindre effort : je me projette dans une autre situation puisque la mienne me semble trop difficile.

On pourrait dire : “Choisis ton camp, camarade. A chaque baisse de la confiance, feras-tu face à l’expérience directe de ta propre réalité complexe ou te projetteras-tu dans un monde virtuel, simple, binaire, partagé entre les bisounours et les terroristes du Hamas ?

Petite parenthèse. Avant d’aller plus loin, il nous faut encore parler d’un truc bizarre qu’on appelle communément… la réalité. Selon Jacques Lacan : “Le réel, c’est quand on se cogne.” Soit, la formule est belle. Mais que penser de cette assertion à l’ère des neurosciences, alors que l’hypnose permet de réaliser des opérations chirurgicales avec des scalpels bien réels, bien coupants, sans douleur et sans narcose complète ?

Plus proche de notre propos, Marie-Louise von Franz, une élève de Jung, affirme en 1972 : “Il nous est impossible de parler d’une réalité quelconque si ce n’est sous la forme d’un contenu de notre conscience.” Voilà la clef : nous ne vivons la réalité qu’au travers de sa représentation dans notre conscience. Si les phénomènes au travers desquels nous percevons cette réalité mettent en danger notre sentiment de sécurité, nous avons alors beau jeu de truquer la représentation que nous en avons, en fait : de nous aliéner dans une représentation moins risquée de ce qui nous arrive.

Plus tard, en 1985, Endel Tulving d’ailleurs aurait pu réécrire la phrase de von Frantz comme ceci : “Il nous est impossible de parler d’une réalité quelconque si ce n’est sous la forme d’un contenu de nos trois consciences.

Nous en avons déjà parlé ailleurs : mort en 2023, Tulving était un psychologue estonien établi au Canada qui a développé un modèle original où trois formes de conscience correspondent chacune à un type de mémoire :

      1. la conscience a-noétique concerne nos fonctionnements les plus automatiques (faire du vélo, nager, jouer d’un instrument ou réagir sous l’influence d’un trauma…).
      2. La conscience noétique permet d’évoquer des choses qui ne sont pas présentes, pas perceptibles dans l’immédiat, c’est là qu’on retrouve les représentations du monde.
      3. Enfin, la conscience auto-noétique est centrée sur la représentation de soi : c’est ce que je me raconte à propos de moi-même.

Cette taxonomie des consciences est basée sur la racine grecque “noûs” qui signifie “connaissance, intelligence, esprit” ; elle est directement héritée des travaux de Edmund Husserl, le père de la phénoménologie, une discipline de la philosophie contemporaine qui exclut l’abstraction, pour se concentrer sur les seuls phénomènes perçus. Je le cite : “Toute conscience est conscience de quelque chose.

Que ces théories soient exactes ou non importe peu ici. Si elles ne font pas obligatoirement autorité auprès de tous les chercheurs en neurosciences, ce n’est pas déterminant pour nous : adoptons-les simplement comme des occasions généreuses d’alimenter nos exercices de pensée. Pour mémoire, les “exercices de pensée” ou “expériences de pensée” (“thought experiments” en anglais) sont des outils puissants utilisés, entre autres, en philosophie morale, pour tester des concepts, pour aller jusqu’au bout d’un raisonnement : on imagine un scénario hypothétique et on lui applique le concept que l’on veut éprouver. Vous avez peut-être entendu parler de l’exercice du Chat de Schrödinger qui permet d’explorer les paradoxes de la physique quantique, l’exercice du Dilemme du tramway en philosophie morale ou encore l’exercice de la Chambre de Mary en psychologie cognitive : “Mary est une scientifique qui connaît tout ce qu’il y a à savoir sur la vision des couleurs, mais elle a toujours vécu dans une pièce en noir et blanc et n’a jamais vu de couleurs elle-même. Si Mary venait à sortir de sa pièce et voyait la couleur rouge pour la première fois, apprendrait-elle quelque chose de nouveau ?

Ceci boucle la boucle avec le problème de la réalité : pour nous, n’est objet du réel que ce dont nous avons conscience, au travers de sa représentation. Partant, quand on parle d’aliénation, la réalité que nous allons déformer par nos fabulations est aussi précisément celle qui est à notre portée, celle qui vit au creux de nos consciences.

Pour y voir plus clair, passons donc en revue les trois consciences selon Tulving et trouvons chaque fois des exemples de deux réactions possibles devant l’insécurité : soit l’aliénation qui traduit la fuite, soit l’attention qui implique la confrontation. Pour ne pas vous jouer la carte du suspense, je précise déjà que ces deux réactions pourraient être au nombre de trois, nous l’allons voir. Donc, face à une situation nouvelle (donc insécurisante), deux options ambivalentes :

    1. OPTION 1 – L’aliénation > le sujet s’évade vers des Paradis Perdus ou
    2. OPTION 2 – L’attention > le sujet regarde ses mains et agit à propos.
Conscience auto-noétique

Allons-y. En vedette américaine, j’ai le plaisir de vous présenter la conscience auto-noétique ! Elle va être notre plat de résistance. Tulving la définit comme suit, en 1985 : “La conscience autonoétique (connaissance de soi) est le nom donné au type de conscience qui permet à un individu de prendre conscience de son existence et de son identité dans un temps subjectif qui s’étend du passé personnel au futur personnel, en passant par le présent.” Traduit par l’anthropologue Paul Jorion en 2023, cela donne : “La conscience autonoétique est la conscience réfléchie de soi : la capacité de situer son expérience actuelle dans le cadre d’un récit de sa propre vie qui s’étend au passé et à l’avenir.” En clair, c’est l’aquarium personnel où nagent les histoires que je me raconte à propos de moi-même : c’est mon moi héroïque et narratif. “Héroïque” parce qu’il faut reconnaître que chacun se vit souvent comme un personnage libéré des contingences du quotidien (du calibre de Héraclès, Athéna, Superman, Achab, Galadriel, Harley Quinn ou… Gollum), plutôt que comme une personne qui doit faire la vaisselle tous les jours ou soigner ses cors au pied. “Narratif” parce que, précisément, le vocabulaire que nous utilisons pour nous décrire nous-mêmes, seuls devant le miroir, est celui de la fiction et des rêves. De même, la logique de notre auto-fiction est, comme celle des contes, des romans et des séries, peu rationnelle et elle ne tient pas compte de tous les aspects de la réalité pour faire avancer le scénario.

Qu’est-ce alors que raison garder devant cet aquarium d’histoires de tout type, traitées par notre conscience auto-noétique : des histoires exaltées, des faits divers interprétés comme moches, des légendes auto-dénigrantes, accusatrices ou follement admiratives ?

En 1947, Paul Diel propose un baromètre pour évaluer ces auto-fictions. Il explique que tout va bien tant que l’image que j’ai de moi (= ce que je me raconte à mon propos) correspond à mon activité effective (= ce que je fais vraiment).

Si c’est le cas, je suis satisfait de ma vie et… vogue la galère : pas besoin de se poser des questions. Par exemple : pourquoi Simenon aurait-il douté de sa capacité à écrire des romans policiers intimistes ? Les problèmes auraient commencé s’il avait voulu se lancer dans le Tour de France avec ses petits mollets…

Si ce n’est pas le cas, alors je le sais car l’écart entre ce que je pense de moi et ce que je fais effectivement est à la mesure de l’angoisse qu’il va provoquer chez moi. Je sais que je triche et cela m’angoisse. Selon Diel :

      • je triche par vanité, parce que je suis loyal envers une image de moi un peu trop sublime (du genre : “moi, vous savez, je ne suis pas capable de mentir, ce serait trop vilain“).
      • Je triche par culpabilité, parce que je suis timide, que je me sens nul et que j’évite tout ce qui pourrait me montrer que c’est vrai (du genre : “moi, vous savez, je ne suis pas capable de mentir, je suis tellement timide que je rougis tout de suite“).
      • Je triche par sentimentalité, parce que je veux qu’on m’estime, qu’on m’aime (du genre : “moi, vous savez, je suis incapable de mentir car je sais combien c’est important pour vous”).
      • Enfin, je triche par accusation, parce que j’en veux aux autres de ne pas m’estimer à ma juste valeur (du genre : “moi, vous savez, je ne suis pas capable de mentir, c’est pas comme mon mari. N’est-ce pas, chéri ?”).

Diel était un spécialiste des mythes et de leur interprétation et il parle dans ce cas des quatre catégories de la fausse motivation (vanité, culpabilité, sentimentalité et accusation) ; en clair, il parle des quatre manières de ne pas bien motiver nos actions parce que l’on porte un regard biaisé, aliéné sur les phénomènes. Il considère que cet écart, qu’il baptise la vanité (dans le sens de ce qui est vain, vide ; ce que j’ai appelé l’aliénation), est la faute originelle dans les mythes. Cette vanité serait la clef de lecture de tous les comportements déviants ou, en d’autres termes, de nos actions mal motivées, des actes que nous posons pour de mauvaises raisons.

Diel va plus loin et avance que cette notion d’aliénation permet également la lecture des mythes qui racontent l’origine de l’humain et de sa curieuse destinée : c’est à cause de sa vanité morale qu’Adam se voit condamné gagner son pain à la sueur de son front, lui qui voulait savoir le bien et le mal sans en faire d’abord l’expérience ; c’est à cause de sa vanité sexuelle qu’Héraklès souffrira des brûlures infligées par une peau empoisonnée que Déjanire, son épouse, lui a jeté sur le dos, au point qu’il devra plonger dans un bûcher allumé par son fils pour être purifié ; c’est à cause de sa vanité technique que Prométhée ose voler l’outil suprême, le feu, pour le donner aux hommes, et qu’il ne pourra également qu’être puni par Zeus…

Ainsi, à la lecture de Diel, on comprend assez bien l’option numéro 1 (pour mémoire : l’option Je m’évade vers des Paradis Perdus) : pour fuir devant une situation désagréable, insécurisante, je vais m’identifier (dans ma délibération, dans ma tête) à une version de moi plus sublime, je vais adopter une posture où je me sentirai plus en sécurité, je vais m’aliéner en adoptant l’attitude d’un personnage qui n’est pas le moi qui agit. Mais je vais ainsi créer un écart angoissant entre ma posture et mon action effective. A tout ceux pour qui ceci n’est pas encore clair, je recommande de revoir le film Psychose de Hitchcock et puis on en reparle.

Couche en plus. Vu que je triche et que je le sais, je ne vais pas manquer de me justifier en insistant sur le fait que je reste “loyal envers moi-même” : pas de chance, si je suis loyal dans ce cas c’est envers le mauvais cheval. Qui de nous n’a connu un proche qui se disait “loyal envers lui-même“, martelant “mais, c’est parce que je suis comme ça“, afin de justifier une posture empruntée, qui ne correspondait pas à ses actes. Et malheur à celui qui vexerait le quidam en question : en mettant en doute sa sublimité, il s’exposerait à toute la violence possible. En fait, la violence individuelle ne prend-elle pas toujours racine dans une vexation et la vexation ne trahit-elle pas toujours une posture plus ou moins sublime de celui – ou celle – que l’on offusque ?

Reprenons notre fil. Option 1 : je me sens insécurisé dans une situation nouvelle alors, dans ma vision de moi-même, je fuis et je m’assimile à une version de moi plus sublime, donc plus intouchable, en vertu d’une légalité imaginaire qui laisserait tranquilles les gens comme mon moi sublime. On parlera clairement d’aliénation dans ce cas : j’agis en me conformant à un modèle… qui est irréel.

Je me dois d’évoquer ici une variante moins toxique de cette option de fuite : dans une situation où je me sens insécurisé, je vais faire un pas de côté et imaginer ce que ferait un héros… à ma place. Il n’y aura pas d’action de ma part si ce n’est que je vais peut-être m’apaiser au travers de l’exercice de pensée “Comment mon héros aurait-il réagi dans cette situation ?

En matière de ‘héros’, c’est Daniel Boorstin qui remet les pendules à l’heure, aussitôt qu’en 1962 ! Dans son livre intitulé L’image : un guide des pseudo-événements en Amérique, il explique la différence entre les héros et les célébrités. Il y a cette formule magnifique : “les célébrités sont célèbres parce qu’elles sont connues.” Autre chose est de parler d’héroisme : pour Boorstin, un héros pose des actes libres et courageux, par une espèce de surcroît d’humanité, et peut nous servir d’exemple. On pense à Charlier-Jambe-de-bois, à Saint-Exupéry, à Rosa Parks, à Edward Snowden, etc.

…ou à mon collègue de travail. Loin de moi de vouloir flatter un collègue, mais il est des héroismes discrets qui méritent le souvenir. “Je me souviens” dirait Perec : nous devions voter collectivement sur une proposition fort discutée, j’avais des doutes réels sur l’attitude à adopter et, fraîchement débarqué dans l’équipe, j’étais tétanisé. J’ai voté “pour” alors que je pensais “relativement contre.” J’ai suivi le troupeau, je n’étais pas sûr de moi mais la quantité de bras levés a eu raison de mes doutes. Je n’en suis pas fier. C’est alors qu’à l’annonce “Les votes contre ?” du responsable, un seul bras s’est levé, le sien. Il y a eu de la beauté dans cet instant et j’ai appris de ce discret courage, de cette main levée seule contre tous, de ce moment que j’ai toujours vécu comme un acte de pensée libre.

Face à l’adversité, on peut donc fuir et se conformer à un modèle imaginaire et sublime. Option 1, c’est l’aliénation qui ne fait pas du bien. On peut aussi faire un tour de passe-passe avec un modèle exemplaire pour apprendre de ce qu’il ou elle aurait fait à notre place. Dira-t-on que c’est une aliénation qui fait du bien à retardement ?

Identifier et puis réduire l’aliénation : voilà donc un premier chantier balisé depuis de longues années tant par les spiritualités de l’intime que par les psychologues et psychanalystes de tous poils et, bien entendu, par les apôtres du développement personnel. Tous proposent des recettes plus ou moins onéreuses (posez la question à Woody Allen…), des trucs ou des méthodes exigeantes pour réduire cet écart toxique qui, ramené à notre travail intime, nous verrait intervenir… dans le vide, à côté de notre “moi”. Car il n’est pas question ici d’appel à l’humilité ou à la discrétion : lutter contre cette aliénation qui nous fait boîter l’âme, c’est faire preuve, à chaque petite victoire, de plus d’attention, de plus de présence effective à notre activité effective. Souvenez-vous : Montaigne parlait de “vivre à propos.”

Alors, amie lectrice, lecteur, retrouve ton coeur réel, ajuste ton regard et corrige l’angle d’attaque de ta délibération !

La conscience a-noétique

La conscience auto-noétique était le gros morceau, passons plus rapidement sur les deux autres manières de vivre l’expérience d’être soi. Le deuxième chantier voudrait nous voir explorer l’aliénation et son option opposée, l’attention, dans le giron de la conscience a-noétique. Ce deuxième moi, ce moi atavique et sauvage qui, s’il n’est pas le plus primitif, reste peut-être le plus difficile à concevoir, car il ne se paie pas mots ! D’où le terme de ‘sauvage.’

De quoi parle-t-on ici ? Je cite Tulving : “la mémoire procédurale est dite anoétique car elle s’exprime directement dans les comportements et l’action, sans conscience.” Pour mémoire, citons aussi notre anthropologue national, Paul Jorion : “La conscience anoétique, peut-être la plus insaisissable de toutes, est une expérience qui n’implique ni conscience de soi ni connaissance sémantique. Elle comprend, par exemple, des sentiments de justesse ou d’injustice, de confort ou d’inconfort, de familiarité, de malaise, de présence ou d’absence, de fatigue, de confiance, d’incertitude et de propriété. Il s’agit par exemple du sentiment que l’objet que l’on voit du coin de l’œil est bien un oiseau, du sentiment, en rentrant chez soi, que les choses sont telles qu’on les a laissées (ou pas), du sentiment que l’on est en train de contracter une maladie. Chez l’homme, ces sensations anoétiques se situent en marge de la conscience et ne sont que rarement au centre de l’attention. Chez d’autres animaux, il est possible que l’anoétique soit tout ce qu’il y a.”

Pour ramener notre propos dans le giron de la philosophie, on peut également citer Alan Watts, un grand apôtre britannique de la pensée zen dans les années 60-70 du siècle dernier. Je le cite : “Le Zen ne confond pas la spiritualité avec le fait de penser à Dieu pendant qu’on épluche des pommes de terre. La spiritualité zen consiste seulement à éplucher les pommes de terre.” Quel magnifique rappel à l’ordre : arrête ton bla-bla et regarde tes mains !

Regarde tes mains” ! Nous avons tous déjà dit cela à un ado (ou un partenaire) qui pose négligemment un objet sur le bord de la table, avec le regard déjà ailleurs. Au bord du vide, l’objet en question est en position instable, c’est un flacon en verre et il devient la seule raison pour que le chat se réveille, quitte son coussin et donne le petit coup de patte qui manquait pour que le flacon tombe sur le carrelage de la cuisine et provoque catastrophes, réprimandes et nettoyages énervés. “Comme tu es distrait“, “Comme tu es distraite“, entendra-t-on tonner dans la maison, “c’est insupportable, fais attention ! Regarde donc tes mains quand tu fais quelque chose !” Et le paternel de donner un coup de pied fâché dans le coussin du chat, avant de se rasseoir en ruminant contre la distraction coupable.

Mais est-ce toujours la distraction qui est coupable de cette aliénation envers la matière ? Ce défaut d’attention (puisque nous avons opposé les deux termes) ne peut-il procéder d’autre chose ?

Les neurosciences, encore elles, n’expliquent pas encore tout mais, aujourd’hui, elles concluent que le cerveau est avant tout une machine à anticiper et, comme nous l’avons vu, idéalement dans un contexte de confiance, ce qui est loin d’être toujours le cas. Pour faire court, lorsqu’il s’active suite à la perception d’un phénomène, quel qu’il soit, le cerveau conçoit notre fonctionnement à venir (la fuite, la sidération ou l’attaque) selon les attentes de comportement qu’il a envers l’environnement où le phénomène a été perçu. Or, ces attentes ne sont pas toujours fondées sur la confiance. Que l’on pense aux traumatismes, par exemple : allez savoir pourquoi Indiana Jones a tellement peur des serpents, pourquoi les limaces effraient tant ma dernière ado et pourquoi, quand je reçois un recommandé, je fais de la tachycardie. D’où le terme ‘atavique’ : il y a là un héritage qui persiste à nous brouiller l’écoute.

C’est un des phénomènes identifiés par les neurosciences : face aux phénomènes que nous percevons, notre cerveau peut se lancer sur deux pistes différentes, activant une zone active ou une autre, les deux étant distinctes.

Souvenez-vous du conseil de sagesse : “Changez le changeable, acceptez l’inchangeable.Viktor Frankl lui ajoute d’ailleurs l’option : “pour réduire la souffrance, changez votre attitude à l’égard du problème.” Il revenait alors des camps de concentration ! Et bien, au niveau cognitif, notre cerveau peut faire tout cela, tant qu’il garde raison… Il peut être proactif et raisonner en termes de résolution de problèmes, en utilisant la logique, en identifiant des modèles et en pensant de manière plus réfléchie. Il peut, par contre, s’avérer hyper-réactif, plus impulsif, et croire qu’il lui faut répondre rapidement aux stimuli environnementaux. Il le fait ainsi parce que, souvent, il part du sentiment d’insécurité dont nous avons parlé et qu’il active l’amygdale qui nous invite à réagir avant de penser.

C’est très pratique quand on est attaqué par un lion mais, au quotidien, c’est également inconfortable et peut générer une angoisse ou un inconfort continu. C’est, par ce fait, également une Invitation au voyage, un appel à l’aliénation dont nous parlons, car la conscience a-noétique peut également s’enfuir, s’aliéner dans un ensemble de perceptions hypnotisantes : l’ado ou le joggeur qui garde les écouteurs sur les oreilles diminue son lien avec l’environnement qu’il traverse ; le gamin ou la fille en bonnet qui arrête sa voiture ‘tunée’ au feu rouge et qui fait vibrer le tarmac en poussant les basses de sa sono n’est pas dérangé par le chant des oiseaux. Ce sont ici des caricatures (bien réelles, par contre) mais elles traduisent une posture cognitive bien précise : pour rester dans un environnement connu (entendez : sécurisé), je le transporte avec moi, là où je vais, transformant les autres environnements en toile de fond, en décor en deux dimensions.

Pour vous représenter la chose, asseyez-vous dans une pièce fermée et pensez à la différence entre le poster grandeur nature du lion de tout à l’heure, là, sur le mur (en deux dimensions, donc) et un lion réel, devant vous, en trois dimensions, avec l’odeur. L’expérience cognitive est différente, non ? Pour le lion aussi, d’ailleurs.

Être distrait reviendrait-il à ne pas participer physiquement de son environnement, à le traiter comme une image en deux dimensions, plus inoffensive que le monde réel, lui en trois dimensions, avec tambours et trompettes ? Après une expérience violente, quelle qu’elle soit, l’individu traumatisé aurait-il tendance à marquer son rejet du réel enduré, en ne jouant pas le jeu avec la matière qui l’entoure ou qu’il faut ingérer, dans certains cas ?

Je ne peux pas prétendre au statut de victime traumatisée, je n’ai pas été victime d’une violence que j’aurais ressentie comme plus grande que moi, qui m’aurait submergée, mais, après une journée difficile au boulot, un pneu crevé sur l’autoroute ou un Avertissement-Extrait de rôle trop gourmand, je sais que j’ai le même réflexe de fuite. Merci aux Suites pour violoncelle de Bach de me permettre, dans mon salon, de réduire le monde à un décor éloigné en deux dimensions, bien distinct des sensations sonores qui m’aliènent, certes, mais dans une réalité virtuelle faite d’harmonie, où règne une légalité rassurante.

Ce que Kant préconisait comme base d’un comportement moral authentique semble bien être l’enjeu dans ce cas également. Selon lui, il importe de reconnaître l’Autre comme une fin en soi (“an Sich“), ‘dans ses trois dimensions’ dirions-nous, et non comme un moyen d’atteindre une autre finalité. Je pense que chacun d’entre vous peut parfaitement entendre ce discours. Emmanuel Levinas insistait dans ce contexte sur le visage de l’autre, qui, une fois son existence reconnue, permet un comportement moral envers lui.

Dame Raison, voilà donc la mission qui t’incombe dans le périmètre a-noétique : identifie les postures de fuite qui réduisent l’environnement ressenti à une image (cognitive) en deux dimensions et, pour que survive paisiblement ton sujet, amène-le à plus d’attention envers les choses qui constituent son périmètre de Vie.

Ce qui était vendu dans les années septante (du siècle dernier) comme la quintessence de l’Esprit du Zen est, aujourd’hui toujours, au centre de notre quête de satisfaction : regarde tes mains, quand tu pèles les pommes de terre !

Pour illustrer ceci, quoi de mieux qu’un poème, en l’espèce un poème de Mary Oliver que je vous traduis ici :

Le matin, je descends sur la plage
où, selon l’heure, les vagues
montent ou descendent,
et je leur dis, oh, comme je suis triste,
que vais-je–
que dois-je faire ? Et la mer me dit,
de sa jolie voix :
Excuse-moi, j’ai à faire.

Alors, lecteur, fais silence, enlace ce que tu prends en mains, renifle-le, soupèse-le, mire ses trois dimensions et palpe toutes ses aspérités avant de passer à l’acte !

On le voit, des trois manières de se sentir en vie, l’expérience a-noétique est peut-être la plus directe, voire la plus pure : rien d’étonnant à ce qu’elle fasse office de Graal dans l’Esprit du Zen. Ceci, probablement parce qu’elle n’est pas systématiquement dévoyée par la logique des mots : par nos fictions ou par la logique des discours explicatifs…

La conscience noétique

Il nous reste enfin à rapidement régler nos comptes avec ces derniers, qui sont la monnaie courante de notre troisième et dernière conscience, la noétique, celle qui s’occupe de nos représentations du monde sans nous impliquer dedans !

Autant la conscience a-noétique parle le langage des sensations et des réflexes, dans l’aquarium de notre conscience noétique, ne nagent que mots, concepts et rapports logiques.

La conscience noétique, c’est la vielle gloire, la Gloria Swanson des consciences sauf que… historiquement, on l’a appelée Raison alors qu’elle n’était qu’amas d’explications. Or, pour la Raison éveillée, expliquer n’est pas justifier. Si on prend les dossiers Strauss-Kahn, Depardieu ou Weinstein : une libido soi-disant démesurée, le stress des responsabilités et une absence systématique au ‘cours de philosophie et de citoyenneté’ peuvent constituer pour les susdits et leurs avocats des explications aux actes d’agression sexuelle et aux harcèlements qui ont été commis mais, en aucun cas, ils ne peuvent en constituer une justification.

Et c’est bien le problème que nous avons avec notre conscience noétique. Pour faire court : elle est toujours prête à nous expliquer le pourquoi de certaines de nos actions mais, quand il s’agit d’évaluer si ces dernières sont justifiées ou satisfaisantes, Madame-je-sais-tout n’a que des dogmes, des modèles et des savoirs pré-établis à nous proposer. C’est en ceci qu’on peut la dire ‘dogmatique‘ et, fondée sur la logique comme elle est, on n’hésitera pas à la dire ‘technique‘ également.

Ainsi, mon moi dogmatique et technique a une longue histoire, qu’à force nous trouvons naturelle, à tort selon moi. Dans la droite ligne de la théorie des Idées de Platon, toute une tradition philosophique s’est construite en Occident, fondée sur la recherche de la Vérité (ou des cinquante nuances de vérité, plus récemment). Vérité il devait y avoir, qu’elle soit transcendantale ou matérielle, car la connaissance devait être basée sur la certitude, fondement impératif pour pouvoir déduire par spéculation les règles de la morale. Dans cette vision du monde, la morale était donc une question de conformité !

Et c’est là qu’est l’os… Il n’est de vérité (et donc de conformité rassurante) que dans les limites convenues d’un domaine technique : nous sommes en classe de physique et on nous apprend que ceci entraîne cela. OK. Dans un domaine qui touche au vital, l’absence de vérité disponible pour fonder une décision oblige chacun au jugement : cela implique une intervention personnelle du sujet.

Si l’on revient à notre besoin de ressentir une légalité autour de nous, dans ce qui nous arrive, la conscience noétique nous proposera des explications techniquement exactes dans un discours donné : ma religion, mon histoire familiale, la physique quantique, le comportement du voisin ou le côté prédateur qui dort en tout individu mâle.

C’est précisément ce qui agace notre grand-breton Stephen Fry chez les humains d’aujourd’hui : cette manie de vouloir être, avant toute chose, juste et de se justifier par des explications qui prouvent qu’on est conforme à un dogme, quel qu’il soit, à la logique ou à la tradition. Fry préfère manifestement viser l’efficacité et assume le vertige de, chaque fois, devoir juger de quel comportement on fera le meilleur usage. Montaigne appelait cela : vivre à propos !

Et voilà l’aliénation débusquée : par sentiment d’insécurité devant l’obligation de choisir et la possibilité de se tromper, on fuit vers une représentation du monde sécurisée puisque constituée d’explications, de causes et de leurs conséquences logiques, de règles auxquelles il suffira de se conformer.

Ici aussi, l’attention exigera un travail de déconstruction des biais cognitifs pour expérimenter une réalité moins construite, limitée à un périmètre utile à la prise de décision. Il s’agira de se méfier des explications qui font plaisir, de tester un regard plus vierge  d’histoire devant les phénomènes perçus et de renvoyer tous les savoirs du monde à ce qu’ils sont : l’occasion d’un exercice de pensée.

Alors, lecteur, lectrice, étudie et lis tout ce que tu veux sur tous les savoirs du monde mais n’oublie pas qu’ils occultent un peu la fulgurance des parfums.

Troisième série, la Raison en action

Nous arrivons au bout de la promenade. Nous avons épluché une série de termes (confiance, puissance, légalité, aliénation, attention et conscience.s) que nous avons mis en relation. Pour ne pas vous assommer avec plus de spéculations, je vous propose de travailler les trois derniers termes (raison, âme et valorisation) au travers d’un exercice de pensée bien concret.

Nous sommes à Cockerill, dans les ateliers de maintenance (je peux vous les dessiner : j’ai travaillé à CMI, aujourd’hui John Cockerill). Tous les bancs de travail sont occupés par des cols-bleus qui usinent, ébarbent, polissent, ajustent, montent, démontent, alignent ou rejettent des pièces métalliques ou des assemblages qui rentrent par un côté et en ressortent par l’autre. La vie, quoi, le corps réel de l’atelier.

Tout au fond, au sommet d’un escalier métallique (à Cockerill, what else ?), une porte vitrée qui ouvre sur le bureau des ingénieurs. Leur local est vaste et surplombe l’atelier. C’est un grand plateau de bureaux paysagers. Du côté des fenêtres du fond, trois grandes tables, une par équipe d’ingénieurs : il y a l’équipe des ingénieurs d’auto-noétique, celle des ingénieurs de noétique et, sur la droite, la table des ingénieurs noétique, les “ingénieux ingénieurs” comme disent les autres. Chacune des tables est présidée par un chef d’équipe. A proximité de l’entrée, il y a le bureau de l’ingénieur-chef, le seul à avoir un téléphone… qui sonne souvent.

Chaque fois que le téléphone apporte une nouvelle demande, un incident ou ressort un problème qui doit être résolu, l’ingénieur-chef qui, vous l’avez compris, joue pour nous le rôle de la Raison, l’ingénieur-chef convoque les représentants des trois tables à une réunion technique, dans son bureau. Selon le sujet, il demande à un des trois délégués de présenter le cas, son interprétation, la solution qu’il préconise et de la commenter, ceci, avant de donner la parole aux deux autres délégués qui réagissent à la proposition.

Notre ingénieur-chef, la Raison, n’est pas nécessairement logique ou scientifique : il doit composer avec des paramètres qui ne sont pas toujours techniques ! Qui plus est, lui (tout comme ses ingénieurs, d’ailleurs) doit respecter les seuls objectifs qui lui sont imposés : assurer la continuité de l’atelier.

Tout serait parfait s’il n’y avait un problème : les trois tables d’ingénieurs reflètent pour nous trois manières de percevoir les phénomènes et, si chaque équipe vise sincèrement la survie de l’atelier, elle le fait selon sa propre interprétation ! Et nous avons vu combien celle-ci peut être faussée par des aliénations diverses et variées.

Vous l’avez compris, chacun des délégués va partir de son point de vue et poursuivre un objectif unique : assurer la pérennité du moi, je, ego, myself, dans des représentations propres à son équipe, à savoir…

      • comment je survis dans le monde où je pense vivre (pour l’équipe noétique), quitte à fabuler des explications fumeuses ou des visions du monde partisanes ;
      • comment je survis dans le monde que je ressens (pour l’équipe a-noétique), quitte à devenir hypersensible ou à pratiquer les sensations extrêmes pour me sentir bien en vie (il y aurait-il des motards parmi vous ?) ;
      • comment je survis vu la manière dont je me conçois (pour l’équipe autonoétique), quitte à me prendre pour Brad Pitt ou CatWoman.

Les trois approches de la « réalité » ne sont pas toujours compatibles et les discussions sont parfois houleuses, voire confuses. Les propositions sont quelquefois difficiles à départager et, pire encore, il arrive qu’au moment de la réunion, un des cols blancs soit déjà descendu à l’atelier pour discuter en direct avec les ouvriers. Il s’agit constamment de comprendre, de comparer, de donner sa juste valeur à chacune des positions puis, dans la limite des infos disponibles, de décider de la marche à suivre. Ca s’appelle délibérer.

Voilà probablement pourquoi il est plus impératif de venir entraîner notre Raison sur wallonica.org, plutôt que d’aller transpirer chez MultiGym (même si l’un n’empêche pas l’autre) : chaque fin de journée, notre ingénieur-chef doit avoir concilié des points de vue divergents (ce qui ne veut pas dire mal intentionnés), faire rapport des décisions prises et soumettre les indicateurs de pertinence (satisfaisant ou pas satisfaisant ?).

Mais à qui rapporte donc notre Raison ? Dans notre scénario, elle a une position de cadre mais elle ne siège pas au Comité de direction ? Elle coordonne et donne sa juste valeur vitale aux propositions qui lui sont faites par chacune des trois équipes : elle les valorise. C’est une fonction d’encadrement. Mais qui est son interlocuteur hiérarchique ? Qui est garant de la stratégie qui réunirait nos trois modes de conscience ?

Spinoza disait “…car nous avons une idée vraie.” Il parlait de cette petite fenêtre au creux de nous, qui est ouverte sur la légalité de la Vie, par laquelle nous voyons ce qui est juste ou injuste en nous, avant tout commentaire, malgré toutes nos aliénations (celles-ci faisaient d’ailleurs l’objet de son petit ouvrage posthume, en 1677, Le traité de la réforme de l’entendement). Peut-être serait-ce le moment de restaurer la notion d’âme, que l’on définirait, à la suite de Spinoza, comme le siège de l’idée vraie en nous. L’idée vraie, l’âme dans ce cas, ne serait rien de plus que ce nombril permanent qui nous relie avec le seul sens de la Vie, à savoir : continuer à vivre. Pour l’âme définie ainsi, tout le reste est littérature…

Voilà, c’est fini. Comment résumer ce que vous venez d’endurer ? Simplement : “raison garder” c’est considérer les propositions faites par chacune des trois consciences comme des exercices de pensée. Notre Raison garde comme seule mission d’identifier et de réduire nos aliénations, nos artifices, pour nous amener à une plus grande attention envers la Vie qui se présente à nous. C’est seulement à cette condition que nous pouvons juger de la conduite à adopter au jour le jour et… vivre à propos, comme disait l’autre.

Il vous manque encore notre exercice de pensée du jour. Je propose que chacun d’entre vous se transporte dans l’atelier de maintenance de notre exemple et teste la question : que se passerait-il dans mon atelier si ma Raison était restée chez elle pour cause de grippe ? On en parle ?

Patrick Thonart


[INFOS QUALITE] statut : mis à jour | mode d’édition : rédaction, édition et iconographie | sources : contribution privée | contributeur : Patrick Thonart | crédits illustrations : en-tête, © DP ; © Unwin & Allen.


Plus de parole libre en Wallonie ?

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Temps de lecture : 5 minutes >

[THECONVERSATION.COM, 8 juillet 2024] Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les ‘deepfakes’, ou hypertrucages, ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu. Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio.

Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean Phillips.

En Slovaquie, en mars 2024, une fausse conversation générée par IA mettait en scène la journaliste Monika Tódová et le dirigeant du parti progressiste slovaque Michal Semecka fomentant une fraude électorale. Les enregistrements diffusés sur les réseaux sociaux pourraient avoir influencé le résultat de l’élection.

Le même mois, en Angleterre, une soi-disant fuite sur X fait entendre Keir Starmer, le leader de l’opposition travailliste, insultant des membres de son équipe. Et ce, le jour même de l’ouverture de la conférence de son parti. Un hypertrucage vu plus d’un million de fois en ligne en quelques jours.

Un seul deepfake peut causer de multiples dégâts, en toute impunité. Les implications de l’utilisation de cette technologie affectent l’intégrité de l’information et du processus électoral. Analyser comment les hypertrucages sont générés, interpréter pourquoi ils sont insérés dans les campagnes de déstabilisation et réagir pour s’en prémunir relève de l’Éducation aux médias et à l’information.

Analyser : un phénomène lié à la nouvelle ère des médias synthétiques

Le deepfake audio est une composante des médias synthétiques, à savoir des médias synthétisés par l’intelligence artificielle, de plus en plus éloignés de sources réelles et authentiques. La manipulation audio synthétisée par l’IA est un type d’imitation profonde qui peut cloner la voix d’une personne et lui faire dire des propos qu’elle n’a jamais tenus.

C’est possible grâce aux progrès des algorithmes de synthèse vocale et de clonage de voix qui permettent de produire une fausse voix, difficile à distinguer de la parole authentique d’une personne, sur la base de bribes d’énoncés pour lesquels quelques minutes, voire secondes, suffisent.

L’évolution rapide des méthodes d’apprentissage profond (Deep Learning), en particulier les réseaux antagonistes génératifs (GAN) a contribué à son perfectionnement. La mise à disposition publique de ces technologies à bas coût, accessibles et performantes, ont permis, soit de convertir du texte en son, soit de procéder à une conversion vocale profonde. Les vocodeurs neuronaux actuels sont capables de produire des voix synthétiques qui imitent la voix humaine, tant par le timbre (phonation) que la prosodie (accentuation, amplitude…)

Comment repérer les « deepfakes » ? (France 24, mars 2023).

Les deepfakes sonores sont redoutablement efficaces et piégeants parce qu’ils s’appuient également sur les avancées révolutionnaires de la psycho-acoustique – l’étude de la perception des sons par l’être humain, notamment en matière de cognition. Du signal auditif au sens, en passant par la transformation de ce stimulus en influx nerveux, l’audition est une activité d’attention volontaire et sélective. S’y rajoutent des opérations sociocognitives et interprétatives comme l’écoute et la compréhension de la parole de l’autre, pour nous faire extraire de l’information de notre environnement.

Sans compter le rôle de l’oralité dans nos cultures numériques, appuyée sur des usages en ligne et en mobilité, comme en témoigne la vogue des podcasts. Les médias sociaux se sont emparés de cette réalité humaine pour construire des outils artificiels qui instrumentent la voix comme outil narratif, avec des applications comme FakeYou. La voix et la parole relèvent du registre de l’intime, du privé, de la confidence… et la dernière frontière de la confiance en l’autre. Par exemple, la radio est le média en qui les gens ont le plus confiance, selon le dernier baromètre de confiance Kantar publié par La Croix !

Interpréter : des opérations d’influence facilitées par l’intelligence artificielle

Le clonage vocal présente un énorme potentiel pour détruire la confiance du public et permettre à des acteurs mal intentionnés de manipuler les appels téléphoniques privés. Les deepfakes audio peuvent être utilisés pour générer des falsifications sonores et diffuser de la désinformation et du discours de haine, afin de perturber le bon fonctionnement de divers secteurs de la société, des finances à la politique. Ils peuvent aussi porter atteinte à la réputation des personnes pour les diffamer et les faire chuter dans les sondages.

Le déploiement de deepfakes audio présente de multiples risques, notamment la propagation de fausses informations et de « fake news », l’usurpation d’identité, l’atteinte à la vie privée et l’altération malveillante de contenus. Les risques ne sont pas particulièrement nouveaux mais néanmoins réels, contribuant à dégrader le climat politique, selon le Alan Turing Institute au Royaume-Uni.

Le deepfake, expliqué (Brut, 2021)

Il ne faut donc pas sous-estimer cette amplification à échelle industrielle. Les deepfakes audio sont plus difficiles à détecter que les deepfakes vidéo tout en étant moins chers et plus rapides à produire : ils se greffent facilement sur une actualité récente et sur les peurs de certains secteurs de la population, bien identifiés. En outre, ils s’insèrent avantageusement dans l’arsenal des extrémistes, lors de campagnes d’ingérence en temps de paix comme les élections.

Réagir : de la détection des fraudes à la régulation et à l’éducation

Il existe plusieurs approches pour identifier les différents types d’usurpation audio. Certaines mesurent les segments silencieux de chaque signal de parole et relèvent les fréquences plus ou moins élevées, pour filtrer et localiser les manipulations. D’autres entraînent des IA pour qu’elles distinguent des échantillons authentiques naturels d’échantillons synthétiques. Toutefois, les solutions techniques existantes ne parviennent pas à résoudre complètement la question de la détection de la parole synthétique.

Cette détection reste un défi car les manipulateurs tentent de supprimer leurs traces de contrefaçon (par des filtres, des bruits…), avec des générateurs de deepfake audio qui sont de plus en plus sophistiqués. Face à ces vulnérabilités démocratiques restent donc des solutions humaines diverses, qui vont de l’autorégulation à la régulation et impliquent divers types d’acteurs.

Les journalistes et les fact-checkeurs ont augmenté leurs techniques de recherche contradictoire, pour tenir compte de cette nouvelle donne. Ils s’en remettent à leurs stratégies de vérification des sources et de validation du contexte d’émission. Mais ils font aussi appel, via Reporters sans Frontières, au corps juridique, pour la protection des journalistes, afin qu’ils créent un ‘délit de deepfake‘ capable de dissuader les manipulateurs.

Les plates-formes de médias sociaux (Google, Meta, Twitter et TikTok) qui les véhiculent et les amplifient par leurs algorithmes de recommandation sont soumises au nouveau Code de pratique de l’UE en matière de désinformation. Renforcé en juin 2022, il interdit les deepfakes et enjoint les plates-formes à utiliser leurs outils (modération, déplatformisation…) pour s’en assurer.

Les enseignants et les formateurs en Éducation aux Médias et à l’Information se doivent à leur tour d’être informés, voire formés, pour pouvoir alerter leurs étudiants sur ce type de risque. Ce sont les plus jeunes qui sont les plus visés. A leurs compétences en littératie visuelle, ils doivent désormais ajouter des compétences en littératie sonore.

Les ressources manquent à cet égard et réclament de la préparation. C’est possible en choisissant de bons exemples comme ceux liés à des personnalités politiques et en faisant attention aux 5D de la désinformation (discréditer, déformer, distraire, dévier, dissuader). S’appuyer sur le contexte et le timing de ces cyberattaques est aussi fructueux.

Aux personnalités politiques, somme toute concernées mais très peu formées, le Alan Turing Institute propose une stratégie partageable par tous, les 3I : informer, intercepter, insulariser. En phase de pré-élection, cela consiste à informer sur les risques des deepfakes audio ; en phase de campagne, cela implique d’intercepter les deepfakes et de démonter les scénarios de menace sous-jacents ; en phase post-électorale, cela oblige à renforcer les stratégies d’atténuation des incidents relevés et à les faire connaître auprès du public.

Toutes ces approches doivent se cumuler pour pouvoir assurer l’intégrité de l’information et des élections. Dans tous les cas, soignez votre écoute et prenez de l’AIR : analysez, interprétez, réagissez !

Divina Frau-Meigs


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © DP ; © France 24 ; © Brut.


Plus de presse en Wallonie…

EDL : L’intelligence artificielle à l’épreuve de la laïcité

Temps de lecture : 5 minutes >

[EDL.LAICITE.BE, 14 mai 2024] L’IA révolutionne nos vies mais soulève des questions éthiques. Des chatbots religieux aux risques de discrimination, la régulation devient essentielle. Le Centre d’Action Laïque propose la création d’un comité indépendant pour assurer une IA éthique dans une société laïque.

Depuis l’apparition de ChatGPT, l’intelligence artificielle n’a cessé de faire parler d’elle. Rapidement, les médias se sont emparés du sujet, tantôt en saluant une nouvelle technologie révolutionnaire, tantôt en alertant sur les risques d’un remplacement de l’humain par la machine. Et aujourd’hui, on ne compte plus le nombre de dispositifs d’IA développés avec des agents conversationnels plus farfelus les uns que les autres. Parmi les plus surprenants : AI Jesus, un chatbot donnant vie au Christ pour qu’il prêche la bonne parole sur Twitch, tout en partageant son opinion sur la géopolitique, les relations amoureuses et même les voitures. Plus récemment, le MR a carrément accompagné son programme aux élections 2024 du robot Victor, accessible auprès de tous les électeurs cherchant à obtenir rapidement des informations sur les propositions du parti.

C’est quoi, une intelligence artificielle laïque ?

Face à ce foisonnement technologique, comment le Centre d’Action Laïque peut-il se positionner ? En créant sa propre intelligence artificielle laïque ? L’idée est amusante mais faut-il encore y trouver un réel intérêt. En revanche, avant de définir une position, nous pouvons nous demander si l’IA est en elle-même laïque. Et qui de mieux que ChatGPT pour nous éclairer sur cette question ? Voici sa réponse : “L’intelligence artificielle elle-même n’a pas de croyances religieuses ou spirituelles, donc elle est intrinsèquement laïque. Cependant, les personnes qui créent et utilisent l’intelligence artificielle peuvent avoir des croyances religieuses diverses, et cela peut influencer la manière dont elles conçoivent et appliquent l’IA. En fin de compte, la laïcité ou le caractère religieux d’un système d’IA dépendra des valeurs et des intentions de ses créateurs et utilisateurs.

La réponse a ceci d’intéressant qu’elle nous rappelle que l’IA n’est pas une entité autonome qui se serait auto-engendrée, mais bien un outil conçu par et pour des êtres humains. Et comme le démontre l’exemple d’AI Jesus, elle est le résultat des idées et croyances de ses créateurs. Or cela pose des difficultés, notamment en matière de discriminations. En effet, les recherches en sciences sociales nous prouvent l’existence de biais dans le raisonnement humain. Dès lors, de tels biais se retrouvent inévitablement dans le mode de pensée des intelligences artificielles puisqu’ils coïncident avec celui de leurs concepteurs.

De nombreux exemples illustrent ce phénomène, comme celui du logiciel américain COMPAS consacré à la justice prédictive qui attribuait à des prévenus noirs une probabilité plus élevée de récidive qu’aux prévenus blancs. Autre exemple, celui des algorithmes utilisés par les entreprises lors des processus de recrutement. En fonction du poste à pourvoir et des stéréotypes de genre associés, l’IA privilégie la candidature soit d’une femme, soit d’un homme. De cette façon, les femmes se retrouveront plus systématiquement exclues des postes à haute responsabilité, puisque ceux-ci sont toujours majoritairement occupés par des hommes.

Ces exemples démontrent l’ampleur des nouveaux défis soulevés par l’intelligence artificielle en matière de lutte contre les discriminations. Alors que les laïques aspirent à une société réellement égalitaire, voilà que les algorithmes risquent d’accentuer davantage les inégalités. Mais gardons néanmoins à l’esprit que cela est loin d’être une fatalité. Il est tout à fait possible de supprimer la présence de ces biais par la mise en place d’un cadre éthique qui oblige les concepteurs à respecter un certain nombre de principes humanistes dans la configuration des algorithmes. Par ailleurs, l’investissement dans la recherche peut aider à prévenir les éventuels problèmes éthiques et sociaux liés à l’usage de l’intelligence artificielle. De cette façon, si les laïques doivent rester attentifs aux soucis de discriminations engendrés par l’IA, ils peuvent en même temps soutenir sa régulation éthique afin d’en faire un instrument de lutte contre ces mêmes discriminations. Si nous revenons à notre exemple d’égalité à l’embauche, un algorithme entraîné aux enjeux féministes pourrait tout à fait garantir une chance égale à une femme d’accéder à un poste à haute responsabilité ; là où les ressources humaines continueraient d’employer des raisonnements sexistes. Une IA éthique qui applique les valeurs associées à la laïcité pourrait donc être vectrice d’émancipation à l’égard de tous les individus.

L’aliénation de l’humain par la machine

Mais cette question de l’émancipation ne se pose pas uniquement pour des enjeux liés aux discriminations. La multiplication des outils d’intelligence artificielle offre aux individus des avantages considérables en matière de rigueur et d’efficacité. Citons l’exemple des algorithmes d’aide au diagnostic. Leur précision en fait des alliés de choix dans la détection et la prévention de certaines maladies graves et qui nécessitent une prise en charge rapide. Mais qu’en est-il lorsqu’ils se substituent carrément à l’expertise du prestataire de soins ? Le Wall Street Journal a récemment publié un fait divers sur l’issue dramatique à laquelle peut mener une utilisation aveugle de l’usage des algorithmes. Il évoque le cas d’une infirmière californienne, Cynthia Girtz, qui a répondu à un patient se plaignant de toux, de douleurs thoraciques et de fièvre en suivant les directives du logiciel d’IA de son institution. Le logiciel n’autorisant une consultation urgente qu’en cas de crachement de sang, elle a fixé un simple rendez-vous téléphonique entre un médecin et le patient. Or celui-ci est décédé d’une pneumonie quelques jours plus tard, et l’infirmière a été tenue responsable pour n’avoir pas utilisé son jugement clinique. Cet exemple malheureux démontre bien les risques d’aliénation du jugement des utilisateurs de l’IA. L’opacité des algorithmes et la complexité de leur fonctionnement rendent difficile la gestion totale de ceux-ci. Si l’utilisateur cesse de s’interroger sur la méthode qui a permis à l’algorithme de produire des résultats, il risque alors de se voir doublement déposséder de son jugement. D’abord, au regard des outils qu’ils ne maîtrisent pas, mais aussi par rapport à des conclusions auxquelles il ne serait désormais plus capable d’aboutir par lui-même. Un tel impact de l’IA sur l’autonomie humaine attire nécessairement l’attention des laïques qui militent pour l’émancipation des citoyens par la diffusion des savoirs et l’exercice du libre examen. La transparence des algorithmes et la connaissance de leur fonctionnement par tous les usagers deviennent donc des enjeux laïques à part entière.

Face aux enjeux et risques précités mais aussi à tous ceux liés encore à la désinformation, le cyber-contrôle, la cybersécurité, aux coûts environnementaux, etc., le Centre d’Action Laïque a décidé de reprendre un contrôle humaniste sur la technologie. Les enjeux étant de taille pour parvenir à une IA laïque, le CAL propose de doter la Belgique d’un comité consultatif indépendant relatif à l’éthique en matière d’intelligence artificielle et d’usages du numérique dans tous les domaines de la société.

Ce comité serait chargé, par saisine ou autosaisine, de rendre des avis indépendants sur les questions éthiques liées à l’utilisation de l’intelligence artificielle, de la robotique et des technologies apparentées dans la société, en prenant en compte les dimensions juridiques, sociales et environnementales. Il serait aussi chargé de sensibiliser et d’informer le public, notamment grâce à un centre de documentation et d’information tenu à jour. Mieux qu’un chatbot laïque, non ?

Lucie Barridez, Déléguée Étude & Stratégie


[INFOS QUALITE] statut : validé | mode d’édition : compilation, édition et iconographie | sources : edl.laicite.be | contributeur : Patrick Thonart | crédits illustrations : en-tête, © Anne-Gaëlle Amiot – Le Parisien.


Plus d’engagement en Wallonie…

KLEIN : Les IA organisent le plus grand pillage de l’histoire de l’humanité

Temps de lecture : 8 minutes >

[THEGUARDIAN.COM, traduit par COURRIERINTERNATIONALCOM et publié intégralement par PRESSEGAUCHE.ORG, 30 mai 2023] Quand elles se fourvoient, les intelligences artificielles “hallucinent”, disent leurs concepteurs. Cet emprunt au vocabulaire de la psychologie leur permet de renforcer le mythe de machines douées de raison et capables de sauver l’humanité. Alors qu’elles sont de “terrifiants instruments de spoliation”, affirme l’essayiste Naomi Klein, dans cette tribune traduite en exclusivité par Courrier international.

“Au milieu du déluge de polémiques inspirées par le lancement précipité des technologies dites “d’intelligence artificielle” (IA), une obscure querelle fait rage autour du verbe “halluciner”. C’est le terme qu’emploient les concepteurs et défenseurs des IA génératives pour caractériser certaines des réponses totalement inventées, ou objectivement fausses, formulées par les robots conversationnels, ou chatbots.

En récupérant un terme plus communément utilisé dans les domaines de la psychologie, du psychédélisme ou dans diverses formes de mysticisme, les apôtres de l’IA reconnaissent certes le caractère faillible de leurs machines, mais, surtout, ils renforcent le mythe favori de cette industrie : l’idée qu’en élaborant ces grands modèles de langue [LLM] et en les entraînant grâce à tout ce que l’humanité a pu écrire, dire ou représenter visuellement, ils sont en train de donner naissance à une forme d’intelligence douée d’une existence propre et sur le point de marquer un bond majeur pour l’évolution de notre espèce.

Si les hallucinations sont effectivement légion dans le monde de l’IA, elles ne sont toutefois pas le produit des chatbots, mais des esprits fiévreux de certains grands pontes de la tech. Les IA génératives mettront fin à la pauvreté dans le monde, nous disent-ils. Elles vont résoudre le problème du dérèglement climatique. Et elles vont redonner du sens à nos métiers et les rendre plus intéressants.

Il existe bien un monde où les IA génératives pourraient effectivement être au service de l’humanité, des autres espèces et de notre maison commune. Encore faudrait-il pour cela qu’elles soient déployées dans un environnement économique et social radicalement différent de celui que nous connaissons.

Nous vivons dans un système conçu pour extraire le maximum de richesses et de profits – à la fois des êtres humains et de la nature. Et dans cette réalité où le pouvoir et l’argent sont hyper-concentrés, il est nettement plus probable que les IA se transforment en terrifiants instruments de vol et de spoliation.

Je reviendrai sur ce point, mais, dans un premier temps, il est utile de réfléchir au but que servent les charmantes hallucinations des utopistes de l’IA. Voici une hypothèse : sous leur vernis brillant, ces jolies histoires permettent de dissimuler ce qui pourrait se révéler le plus vaste pillage, et le plus conséquent, de l’histoire de l’humanité. Car ce que l’on observe, c’est que les entreprises les plus riches de l’histoire sont en train de faire main basse sur l’entièreté des connaissances humaines consignées sous forme numérique et de les enfermer dans des produits propriétaires, parmi lesquels bon nombre porteront préjudice à des hommes et femmes dont le travail aura été utilisé – sans leur consentement – pour fabriquer ces machines.

C’est ce que la Silicon Valley appelle couramment “disruption” – un tour de passe-passe qui a trop souvent fonctionné. On connaît le principe : foncez dans le Far West réglementaire ; clamez haut et fort que les vieilles règles ne peuvent pas s’appliquer à vos nouvelles technologies. Le temps de dépasser l’effet de nouveauté et de commencer à mesurer les dégâts sociaux, politiques et économiques de ces nouveaux jouets, la technologie est déjà si omniprésente que les législateurs et les tribunaux jettent l’éponge.

Voilà pourquoi les hallucinations sur tous les bienfaits qu’apporteront les IA à l’humanité prennent tant d’importance. Non seulement ces belles promesses tentent de faire passer un pillage à grande échelle comme un cadeau, mais en plus elles contribuent à nier les incontestables menaces que constituent ces technologies.

Comment justifie-t-on le développement d’instruments qui présentent des risques aussi catastrophiques ? Généralement, en affirmant que ces outils recèlent d’immenses bénéfices potentiels. Sauf que la plupart de ces bénéfices relèvent de l’hallucination, du mirage. Examinons-en quelques-uns.

Hallucination n° 1 : les IA résoudront la crise climatique

Le géant de fer (1999) © Warner

Parmi les qualités des IA, l’idée qu’elles pourront d’une manière ou d’une autre trouver une solution à la crise climatique figure presque invariablement en tête de liste. L’ancien PDG de Google Eric Schmidt résume cette conception dans un entretien paru dans The Atlantic, où il affirme qu’en matière d’IA, le jeu en vaut la chandelle : “Quand on pense aux principaux problèmes dans le monde, ils sont tous très compliqués – le changement climatique, les organisations humaines, etc. Et donc, je milite toujours pour que les gens soient plus intelligents.

Selon cette logique, l’absence de solution aux grands défis de notre époque – tels que la crise climatique – serait donc liée à un déficit d’intelligence. Sauf que cela fait des décennies que des gens très intelligents, bardés de doctorats et de prix Nobel, pressent les gouvernements de prendre des mesures impératives. Si leurs très judicieux conseils n’ont pas été écoutés, ce n’est pas parce qu’on ne les comprend pas. C’est parce qu’en suivant leurs recommandations, les gouvernements risqueraient de perdre des milliards et des milliards de dollars dans l’industrie des énergies fossiles et que cela ferait vaciller le modèle de croissance fondé sur la consommation, qui est la clé de voûte de nos économies interconnectées. L’idée qu’il vaut mieux attendre que des machines formulent des solutions plus acceptables et/ou profitables n’est pas un remède au mal, mais un symptôme de plus.

Balayez ces hallucinations et il apparaît nettement plus probable que le déploiement des IA contribuera au contraire à activement aggraver la crise climatique. D’abord parce que les immenses serveurs qui permettent à ces chatbots de produire des textes et des créations artistiques instantanés sont une source énorme et croissante d’émissions de CO2. Ensuite, parce qu’à l’heure où des entreprises comme Coca-Cola investissent massivement dans les IA génératives pour doper leurs ventes, il devient parfaitement évident que l’objectif n’est pas de sauver le monde, mais d’inciter les gens à acheter toujours plus de produits émetteurs de carbone.

Enfin, cette évolution aura une autre conséquence, plus difficile à anticiper. Plus nos médias seront envahis de deepfakes et de clones, plus les informations se transformeront en zone de sables mouvants. Lorsque nous nous méfions de tout ce que nous lisons et voyons dans un environnement médiatique de plus en plus troublant, nous sommes encore moins bien équipés pour résoudre les problèmes les plus pressants de l’humanité.

Hallucination n° 2 : les IA assureront une bonne gouvernance

Le géant de fer (1999) © Warner

Il s’agit ici d’évoquer un avenir proche dans lequel politiciens et bureaucrates, s’appuyant sur l’immense intelligence cumulée des IA, seront capables de “détecter des besoins récurrents et d’élaborer des programmes fondés sur des éléments concrets” pour le plus grand bénéfice de leurs administrés.

Comme pour le climat, la question mérite d’être posée : est-ce par manque d’éléments concrets que les responsables politiques imposent des décisions aussi cruelles qu’inefficaces ? Est-ce qu’ils ne comprennent vraiment pas le coût humain qu’impliquent les réductions budgétaires du système de santé en pleine pandémie ? Ne voient-ils pas le bénéfice pour leurs administrés de créer des logements non soumis aux règles du marché quand le nombre de sans domicile ne cesse d’augmenter ? Ont-ils vraiment besoin des IA pour devenir “plus intelligents” ou bien sont-ils juste assez intelligents pour savoir qui financera leur prochaine campagne ?

Ce serait merveilleux si les IA pouvaient effectivement contribuer à rompre les liens entre l’argent des entreprises et la prise de décision de politiques irresponsables. Le problème est que ces liens sont précisément la raison pour laquelle des entreprises comme Google et Microsoft ont été autorisées à déployer leurs chatbots sur le marché en dépit d’une avalanche de mises en garde. L’an dernier, les grandes entreprises de la tech ont dépensé la somme record de 70 millions de dollars [65 millions d’euros] pour défendre leurs intérêts à Washington.

Alors qu’il connaît pertinemment le pouvoir de l’argent sur les politiques du gouvernement, Sam Altman, le PDG d’OpenAI – concepteur de ChatGPT –, semble halluciner un monde complètement différent du nôtre, un monde dans lequel les dirigeants politiques et les industriels prendraient leurs décisions sur la base des données les plus pertinentes. Ce qui nous amène à une troisième hallucination.

Hallucination n° 3 : les IA nous libéreront des travaux pénibles

Le géant de fer (1999) © Warner

Si les séduisantes hallucinations de la Silicon Valley semblent plausibles, la raison en est simple. Les IA génératives en sont pour l’heure à un stade de développement qu’on pourrait qualifier de “simili-socialisme”. C’est une étape incontournable dans la méthode désormais bien connue des entreprises de la Silicon Valley. D’abord, créez un produit attractif et mettez-le à disposition gratuitement ou presque pendant quelques années, sans apparent modèle commercial viable. Faites de nobles déclarations sur votre objectif de créer une “place publique” [Elon Musk à propos de Twitter] ou de “relier les gens”, tout en propageant la liberté et la démocratie. Puis, voyez les gens devenir accros à votre outil gratuit et vos concurrents faire faillite. Une fois le champ libre, faites de la place pour la publicité, la surveillance, les contrats avec l’armée et la police, la boîte noire des reventes de données utilisateurs et les frais d’abonnement croissants.

Des chauffeurs de taxi en passant par les locations saisonnières et les journaux locaux, combien de vies et de secteurs ont-ils été décimés par cette méthode ? Avec la révolution de l’IA, ces préjudices pourraient paraître marginaux par rapport au nombre d’enseignants, de programmeurs, de graphistes, de journalistes, de traducteurs, de musiciens, de soignants et tant d’autres professionnels menacés de voir leur gagne-pain remplacé par du mauvais code.

Mais n’ayez crainte, prophétisent les apôtres de l’IA – ce sera merveilleux. Qui a envie de travailler de toute manière ? Les IA génératives ne signeront pas la fin du travail, nous dit-on, seulement du travail “ennuyeux”. Pour sa part, Sam Altman imagineun avenir où le travail “recouvre une notion plus large ; [où] ce n’est pas quelque chose que l’on fait pour manger, mais pour laisser parler sa créativité, comme une source de joie et d’épanouissement.

Il se trouve que cette vision de l’existence qui fait la part belle aux loisirs est partagée par de nombreux militants de gauche. Sauf que nous, gauchistes, pensons également que si gagner de l’argent n’est plus le but de l’existence, il faut d’autres moyens pour satisfaire à nos besoins essentiels, tels que la nourriture et le logis. Dans un monde débarrassé des métiers aliénants, l’accès au logement doit donc être gratuit, de même que l’accès aux soins, et chaque individu doit se voir garantir des droits économiques inaliénables. Et soudainement, le débat ne tourne plus du tout autour des IA, mais du socialisme.

Or nous ne vivons pas dans le monde rationnel et humaniste que Sam Altman semble voir dans ses hallucinations. Nous vivons dans un système capitaliste où les gens ne sont pas libres de devenir philosophes ou artistes, mais où ils contemplent l’abîme – les artistes étant les premiers à y plonger.

Naomi Klein © Diario Sur

Alors que les géants de la tech voudraient nous faire croire qu’il est déjà trop tard pour revenir en arrière et renoncer aux machines qui supplantent les humains, il est bon de rappeler qu’il existe des précédents légaux démontrant le contraire. Aux États-Unis, la Commission fédérale du commerce (FTC) [l’autorité américaine de la concurrence] a contraint Cambridge Analytica, ainsi qu’Everalbum, propriétaire d’une application photographique, à détruire la totalité de plusieurs algorithmes entraînés avec des données et des photos acquises de manière illégitime.

Un monde de deepfakes et d’inégalités croissantes n’est pas une fatalité. Il est le résultat de choix politiques. Nous avons les moyens de réglementer les chatbots qui vampirisent aujourd’hui nos existences et de commencer à bâtir un monde où les promesses les plus fantastiques des IA ne seront pas que des hallucinations de la Silicon Valley.”

Naomi Klein


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | source : pressegauche.org (CA) | contributeur : Patrick Thonart | crédits illustrations : ALLEN Jason M., Théâtre d’opéra spatial (tableau réalisé via IA, avec le logiciel MIDJOURNEY, qui a gagné un premier prix contesté dans la catégorie “Arts numériques/Photographie manipulée numériquement” au Colorado State Fair : le débat porte sur le concept de “création”) © Warner ; © Diario Sur.


Plus de parole libre en Wallonie-Bruxelles…

I.A. : ChatGPT, tu peux écrire mon mémoire ? (quand les profs mènent l’enquête…)

Temps de lecture : 4 minutes >

[RTBF.BE, 7 juin 2023] C’est une nouvelle réalité dans le monde de l’enseignement : les applications capables de générer du contenu, comme ChatGPT, aident certains étudiants à finaliser leurs travaux. Ces “coups de pouce” de l’intelligence artificielle passent-ils inaperçus ? Comment font les profs pour les débusquer ? Et avec quelles conséquences, à la clé ? Nous avons, nous aussi, mené notre petite enquête…

Pour ceux qui auraient loupé l’info, ChatGPT, c’est ce robot qui vous rédige une lettre de motivation, un poème, un discours de mariage en moins de temps qu’il ne faut pour l’écrire. L’application compte déjà plus de 100.000 utilisateurs dans le monde. Et parmi ses fans, beaucoup d’étudiants.

C’est très tentant, manifestement

Caroline est prof dans le supérieur. Cette habitante de Wallonie picarde parcourt à longueur de journée des travaux d’étudiants, des rapports de stage ou des mémoires. De façon très claire, certains ont eu recours à l’IA (Intelligence Artificielle) pour composer leurs textes. “On s’y attendait. Mais c’est un peu plus rapide que ce qu’on imaginait. On pensait avoir encore un peu le temps… Je pense d’ailleurs que les logiciels de détection de plagiat sont eux aussi un peu pris de court ! C’est tentant, je pense, pour un étudiant d’utiliser l’intelligence artificielle pour se rassurer, avoir des idées, ou peut-être être malhonnête, ça arrive aussi !

Habituée à corriger les productions écrites de ses étudiants, Caroline pense pouvoir détecter, assez rapidement, les passages “made in ChatGPT“. “Cela ne complique pas le métier de correctrice, cela complique l’enquête. Quelqu’un qui tombe sur un texte généré par l’IA et qui ne connaît pas l’étudiant peut tomber dans le panneau. Il peut trouver ça bien écrit, ça tient la route… Mais quand on connaît bien ses étudiants, leur style, leur qualité d’orthographe, etc., on se réveille. On se dit ‘tiens, c’est bizarre’, et ça met la puce à l’oreille !

Je leur ai permis d’utiliser ChatGPT

Avoir recours à l’intelligence artificielle, est-ce du plagiat ? De la fraude ? Y a-t-il une base légale sur laquelle les enseignants peuvent se reposer ? Ces questions sont particulièrement “touchy”, vu le vide juridique qui entoure ces outils. “C’est une question très intéressante, mais à laquelle il n’y a pas de réponse absolue, nous explique Yves Deville, professeur à l’UCLouvain et conseiller du recteur pour le numérique. ChatGPT est un outil extrêmement nouveau. Il n’y a pas aujourd’hui de règles communes. Qu’est-il admis ? Interdit ? En quoi ChatGPT peut-il aider ? Ce n’est pas très clair ! Pour l’instant, c’est un peu à l’enseignant de déterminer par rapport à ses étudiants quelles sont les limites qu’il veut mettre en place.

Par rapport à mes étudiants, j’ai autorisé le recours à ChatGPT pour autant que les étudiants expliquent comment ils utilisent ChatGPT et à quel endroit de leur mémoire de fin d’étude il est utilisé. Ça n’a pas beaucoup de sens d’interdire ce type d’outil, car cela va se déployer de plus en plus dans la vie citoyenne. Il faut surtout apprendre à utiliser ces outils de manière intelligente.” Il faut, pour lui, distinguer les extraits “sourcés” et les extraits “pirates”, qui seraient de simples “copiés-collés”, assimilables à du plagiat. “Le plagiat, c’est reprendre une idée d’un autre sans le citer. Si on dit qu’on a utilisé ChatGPT et qu’on indique à quel endroit, ce n’est pas du plagiat : on prévient le lecteur.

ChatGPT ? Un excellent baratineur !

Pour Yves Deville, ChatGPT peut se révéler d’une grande efficacité pour une série de tâches : “corriger l’orthographe, améliorer la syntaxe, la forme d’un texte dans une langue étrangère. On peut utiliser ChatGPT pour déblayer aussi une thématique.

Mais gare à l’excès de confiance ! “Il faut surtout, surtout vé-ri-fier que ce que ChatGPT dit est bien une réalité scientifique ! ChatGPT est un excellent baratineur. Il ne faut pas utiliser ce type d’outil comme une encyclopédie.” L’Intelligence Artificielle peut jouer de vilains tours à ceux qui lui font trop confiance. En témoignent certaines anecdotes, récits de mésaventures relayés sur internet. “Il y a par exemple cet avocat américain qui a sollicité ChatGPT pour bâtir un argumentaire, dans un procès, raconte Yves Deville. Oups : ChatGPT a inventé des cas de jurisprudence. L’avocat n’a pas vérifié et transmis cette jurisprudence fantaisiste au juge. L’avocat a passé pour un idiot ! ChatGPT doit être considéré comme une aide, un premier jet, un générateur d’idées premières. Ensuite, on vérifie, on s’informe ailleurs, on travaille son sujet… Ne surtout pas tout prendre pour argent comptant.”

Yves Deville et Caroline se rejoignent sur ce point : l’importance de conserver (et d’activer) son esprit critique. Il doit agir comme un véritable bouclier, capable de débusquer les erreurs et fausses pistes sur lesquelles ChatGPT peut emmener ceux qui lui font confiance aveuglément.

Charlotte Legrand, rtbf.be


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | sources : rtbf.be | contributeur : Patrick Thonart | crédits illustrations : en-tête, l’œil du robot HAL (= IBM moins une lettre) dans 2001, l’odyssée de l’espace de Stanley Kubrick (1968) © MGM.

Pour bien faire la différence entre des références validées (comme dans wallonica.org, par exemple) et des textes fabriqués au départ des données statistiquement les plus probables (comme via ChatGPT), lisez sur le même sujet :

L’intelligence artificielle génère aussi des images et nous ne résistons pas à l’envie de partager une info (ou un délicieux canular) : un utilisateur aurait demandé à Dall-E [programme d’intelligence artificielle générative, capable de créer des images à partir de descriptions textuelles] une photographie de “Montaigne inscrivant son dernier Essai”… Si non e vero, e bene trovato !

Source : Jean-Philippe de Tonnac

Plus de dispositifs en Wallonie-Bruxelles…

STAS, André (1949-2023)

Temps de lecture : 5 minutes >

Ultime farce de mauvais goût, André STAS nous a quittés ce 26 avril 2023. Ce ne sera pas dit dans les nécrologies qui vont fleurir sur sa tombe mais l’homme était avant tout bienveillant et, s’il grommelait beaucoup, il grommelait gentil : le fait est assez rare chez les trublions de la contre-culture liégeoise des années 70 pour être relevé. L’homme aimait le pastiche (51 ?), aussi allons-nous jouer sans vergogne la compil d’hommages. Ne cherchez pas le contrepet…

“Chattes, j’ai pété !”

Pour l’instant, les manchettes de nos journaux explosent d’images générées par intelligence artificielle (“IA, mijnheer”). De beaux visages de femmes aux poitrines d’oiseaux sont mariés, avec une élégance toute commerciale, avec des câbles et des connecteurs informatiques : une impression de contre-nature s’en dégage de manière indicible. Voilà bien un phénomène qui se situe aux antipattes (dixit Alice au pays des merveilles) de la contre-culture que pratiquait André Stas : manifestement, pour le pataphysicien (si peu, si différemment), l’oeuvre doit provoquer par son contenu autant que par sa facture. Stas partageait son propos au travers du fait-main, comme en témoigne son montage ci-dessous (Ensor, le timbré ?).

© Fonds Thonart

On le voit : si la culture, c’est penser à la culture, la contre-culture, c’est aussi faire penser à la culture. J’ai l’intuition qu’André Stas aurait joué sa détestation du contre-nature au travers d’un objet de contre-culture. Nous ne le verrons pas, André Stas est mort. Mais, cette détestation, dans sa bêtise aveugle, la contre-nature la lui rend bien : nous avons demandé à ChatGPT (“Chattes, j’ai pété !” aurait grommelé André) qui était André Stas :

André Stas était un chimiste belge du XIXe siècle, né le 30 décembre 1813 à Leuven en Belgique et décédé le 13 décembre 1864 à Schaerbeek. Il est surtout connu pour sa découverte de la loi de Stas, qui a permis d’établir avec précision les masses atomiques des éléments chimiques. En utilisant des techniques de mesure très précises, Stas a réussi à déterminer la masse atomique de nombreux éléments avec une précision de l’ordre de 0,01%. Cette méthode a été essentielle pour la compréhension de la composition chimique de la matière, et a jeté les bases de la chimie moderne. Stas a également joué un rôle important dans le développement de la chimie analytique, et a travaillé sur de nombreux autres sujets en chimie, notamment la synthèse organique et la chimie des gaz. Sa contribution à la science lui a valu de nombreux honneurs, notamment l’élection à l’Académie royale des sciences, des lettres et des beaux-arts de Belgique en 1850.

La réponse du robot est identique si la question devient : “Qui était le liégeois André Stas ?” et lorsque ChatGPT est a nouveau sollicité avec la question “Qui était l’artiste liégeois André Stas ?“, la réponse ne se fait pas attendre :

Je suis désolé, mais il n’y a pas d’artiste liégeois connu sous le nom d’André Stas. Le nom André Stas est généralement associé à un chimiste belge du XXe siècle, comme je l’ai expliqué dans ma réponse précédente.

On notera que ChapGPT travaille sur un corpus de données postérieures à 2021 et compose intégralement la réponse… la plus probable : la véracité n’est pas un critère pour un robot ! Et notre ami contre-cultureux de se réjouir dans la tombe, des inepties de la contre-nature, qui sont également des contre-vérités :

      • Le chimiste belge évoqué s’appelait en fait Jean Servais Stas ;
      • La datation (1813-1864) devait alors être (1813-1891) et, personnellement, j’avais l’habitude de les situer au XIXe siècle, et non au XXe ;
      • notre André Stas n’était pas un inconnu !

La messe est dite (et André piaffe).

Patrick Thonart


[LE-CARNET-ET-LES-INSTANTS.NET] Nous apprenons le décès du collagiste et écrivain André Stas. Il avait 73 ans. André Stas est né à Rocourt le 19 novembre 1949. Diplôme de philologie romane de l’Université de Liège, il a présenté un mémoire consacré à l’aphorisme, un genre auquel il s’adonnera lui-même par la suite.

Subversif, affectionnant l’humour, il était lié à l’univers des pataphysiciens et des surréalistes. Il était également l’un des incontournables du Cirque Divers. Plasticien autodidacte, il a particulièrement excellé dans l’art du collage, qui lui a valu une reconnaissance internationale.

Il a aussi pratiqué le collage dans le domaine littéraire. Cent nouvelles pas neuves, paru aux éditions Galopin en 2005, est un recueil de textes composés exclusivement d’extraits d’œuvres d’autres auteurs. Il avait d’ailleurs poursuivi l’exercice en 2021 avec Un second cent de nouvelles pas neuves, paru au Cactus inébranlable.

Bibliographie partielle d’André Stas

André Stas
ou le spadassin passe-murailles

[LE-CARNET-ET-LES-INSTANTS.NET, 28 août 2022] On peut rire aux larmes, et de tout, et de rien… mais pour rédiger un traité de savoir-rire, il faut dénicher l’arme et l’avoir bien en main. L’entretenir. Depuis plus de quatre décennies, André Stas, “ce chiffonnier muni de son crochet” – comme le décrivait en 1981 Scutenaire dans sa préface à une exposition de collages au Salon d’Art, chez Jean Marchetti – a toujours trouvé matière à confectionner ses flèches et couteaux, aiguisés, effilés, enduits d’un secret mélange de curare, de houblon et d’eau de Spa, pour atteindre ses cibles. Les collages de Stas, nés dans la parfaite connaissance de ses prédécesseurs surréalistes, ont acquis très vite une autonomie personnelle, que Jacques Lizène définissait comme “des enluminures libres.” À la fois absurdes, drolatiques, parfois féériques et souvent sensuelles voire sexuelles, mais sans illusions : Stas est impitoyable à l’égard de lui-même et de ses semblables. Cet homme ne s’épargne pas, pas plus que ses collages au scalpel n’épargnent le monde qui l’environne. On cite à nouveau Scutenaire : un collage de Stas, c’est “comme si une éponge morte et saturée d’une eau sale redevenait une créature marine, vivante et fraîche, encore que parfois effrayante.

Stas passe à travers tout, en véritable passe-muraille des situations désespérées et de l’effroi : “Mon humour est noir, certes. Au moins, j’arrive encore à rire“, écrit-il dans son nouveau recueil d’aphorismes, Bref caetera, que publie Marchetti, juste continuité d’une longue complicité avec La pierre d’alun. La filiation se prolonge d’ailleurs avec les dessins de Benjamin Monti, qui accompagnent d’un même esprit, passé au savon noir, les “grenailles errantes” de Stas. Car tirant javelot de tout bois, ce spadassin de l’image et des mots pratique de longue date, on le sait, l’écriture brève, incisive, lapidaire, laissant jaillir “un aphorisme propice, comme un moment peut l’être.” Avec lui, les mots s’entraînent, s’entraident, se déchaînent, se détournent les uns des autres et se rattrapent, pour mieux contrer l’adversité. Qu’elle soit météorologique (“Le réchauffement climatique serait inéluctable. Le chaud must go on“), métaphysique (“Je pense donc j’y suis, j’y reste“), littéraire (“Quand j’entends le mot surréalisme, je rêve d’une pipe“), ou situation personnelle autant qu’universelle : “Désapprendre, se déposséder, se déliter, décliner, délirer, décéder.

L’humour, l’humeur, la gaieté désabusée, le drame derrière le nez du clown. Mais l’intime ou la gravité peuvent surgir également derrière une plaisanterie d’allure potache, un calembour, une grivoiserie (“Il n’y a pas que les écureuils invertis qui aiment les glands“) – et cela même si de nos jours “la liberté d’expression est forcément mâtinée d’autocensure, écrémage du pire.” Sans cependant ériger telle ou telle maxime délictueuse en sentence définitive, car pour Stas “les aphorismes sont les amuse-gueules de la philosophie.” Au mieux, l’aphorisme n’est qu’ “un trublion, un rastaquouère“, tel le Jésus-Christ du dadaïste Francis Picabia. […]

Alain Delaunois


[INFOS QUALITE] statut : validé | mode d’édition : rédaction, partage, compilation et iconographie | sources : e.a. Le carnet et les instants | commanditaire : wallonica.org | contributeur : Patrick Thonart  | crédits illustrations : l’entête de l’article montre André Stas sur le ring de l’exposition consacrée au Cirque Divers en 2018 © rtbf.be ; © Fonds Thonart.


Plus d’artistes en Wallonie-Bruxelles…

FN Meka, le robot-rappeur, abandonné par son label accusé de racisme

Temps de lecture : 3 minutes >

FN Meka, un robot rappeur noir star de TikTok, créé grâce à l’intelligence artificielle, a été remercié par Capitol Records après avoir été accusé de colporter des stéréotypes racistes sur les personnes noires.

Il avait “signé” un contrat il y a dix jours avec le label Capitol Records. Mais le robot rappeur noir FN Meka, star de TikTok créée grâce à l’intelligence artificielle, a été “congédié”, mercredi 24 août, après avoir été accusé de véhiculer des stéréotypes racistes sur les personnes noires. Selon le communiqué de sa maison de disques, le groupe Capitol Music a rompu ses liens avec le projet FN Meka, avec effet immédiat.” C’est le groupe d’activistes américains Industry Blackout qui, après une campagne sur les réseaux sociaux, a écrit mardi à Capitol Music, filiale d’Universal Music, pour dénoncer FN Meka, “une insulte directe à la communauté noire et à [sa] culture.” Industry Blackout avait dénoncé un amalgame de stéréotypes grossiers, d’appropriations [culturelles] d’artistes noirs et d’insultes contenues dans les paroles”. FN Meka est notamment accusé d’avoir utilisé le fameux “N-word”, expression devenue imprononçable aux Etats-Unis en raison du caractère jugé raciste, insultant et injurieux à l’égard des personnes noires.

Dix millions d’abonnés, plus d’un milliard de vues

“Nous présentons nos plus profondes excuses à la communauté noire pour notre absence de sensibilité en ayant signé pour ce projet sans nous être interrogés suffisamment sur son équité et sa créativité”, a reconnu la maison de disques. Sur les réseaux sociaux, une image numérique montre également le robot – sorte de cyborg noir au visage tatoué et au crâne à moitié rasé – se faire matraquer au sol par l’avatar d’un policier américain blanc.

Techniquement, le robot rappeur ne chante pas – c’est un vrai artiste noir anonyme qui le fait – mais la musique est, elle, générée par l’intelligence artificielle. FN Meka conserve toutefois son compte TikTok avec plus de dix millions d’abonnés et plus d’un milliard de vues pour ses vidéos.

d’après LEMONDE.FR


Peu de temps après avoir été qualifié de “premier artiste virtuel au monde à signer avec un gros label”, FN Meka a été abandonné par Capitol Records qui a annoncé le 23 août avoir “rompu les liens” avec le robot-rappeur suite aux accusations portées par Industry Blackout, un groupe d’artistes activistes. Lesdites accusations soulignent la perpétuation de stéréotypes et l’appropriation de la culture noire.

Dans un communiqué, via Billboard, Capitol Music Group a annoncé avoir rompu les accords récemment signés et a présenté ses excuses. “Nous présentons nos plus sincères excuses à la communauté noire pour notre insensibilité à signer ce projet sans poser suffisamment de questions sur l’équité et le processus créatif qui le sous-tend. Nous remercions ceux qui nous ont fait part de leurs commentaires constructifs au cours des deux derniers jours – votre contribution a été inestimable lorsque nous avons pris la décision de mettre fin à notre collaboration avec le projet.”, pouvons-nous lire d’après MusicTech.

Il est vrai que FN Meka, initié par Anthony Martini et Brandon Le, utilise le N-Word de manière décomplexée et est même victime de violences policières. Le rappeur virtuel, qui ne subit en aucun cas les oppressions qui poussent les Noirs à lever le poing et à scander des slogans pour rappeler que leurs vies comptent, semble s’en amuser dans ses clips. Dans une lettre ouverte publiée sur Twitter, le groupe Industry Blackout affirme que “Cette effigie numérique est une abomination négligente et irrespectueuse envers de vraies personnes qui font face à de vraies conséquences dans la vraie vie.”

Le groupe d’activistes décrit également le personnage “de caricature qui est une insulte à la culture noire” et “d’amalgame de stéréotypes grossiers, d’appropriation de manières qui dérivent des artistes noirs, avec des insultes infusées dans les paroles.”

La lettre se conclut par une demande d’excuses publiques et de retrait de FN Meka et ce, de toutes les plateformes. Capitol Records et le label virtuel d’Anthony Martini et Brandon Le, Factory New, sont également appelés à reverser tous les bénéfices générés par FN Meka à des œuvres caritatives soutenant la jeunesse noire dans les arts ainsi qu’à des musiciens noirs signés par Capitol.

lire la suite sur RTBF.BE


[INFOS QUALITÉ] statut : validé | mode d’édition : partage, décommercalisation et correction par wallonica | commanditaire : wallonica.org | contributeur : Philippe Vienne | crédits illustrations : © damrea.com ; © Capitol Record.


Plus de presse en Wallonie-Bruxelles…

META, la déclaration d’intention idéologique de Zuckerberg

Temps de lecture : 7 minutes >

Le relookage de Facebook n’est pas une affaire d’image : c’est une question de vision

En 2011, le joueur de basket professionnel Ron Artest a changé de nom pour se faire appeler Metta World Peace. «À mesure que je me suis mis à évoluer en tant que personne et que les choses ont commencé à influencer ma vie, je suis tombé amoureux de la méditation, du zen et de la culture indienne», a déclaré Metta Sandiford-Artest (son nouveau nom) en 2019. Le monde du basketball a plongé dans la perplexité. À l’époque, Artest sortait d’une longue période au cours de laquelle il s’était acquis une réputation d’agressivité (et d’excellence dans la défense). Il avait un jour frappé un fan des Detroit Pistons venu le défier sur le terrain. Pendant des années, quel que soit le match, le plus susceptible de commettre une faute technique, c’était toujours lui.

Aujourd’hui, c’est la planète entière qui tombe dans des abîmes de perplexité devant le changement de nom de l’entreprise Facebook rebaptisée META, préfixe dérivé du mot grec signifiant après ou au-delà. Son PDG, Mark Zuckerberg, qui a étudié l’antiquité grecque et romaine lorsqu’il était dans un collège privé, a écarté l’équivalent latin post, probablement pour éviter d’associer une entreprise de surveillance et de publicité mondiale notoire pour saper la démocratie et les droits humains avec une marque de céréales de petits déjeuner ou un journal basé dans la capitale américaine.

Si le nom de Metta World Peace détonnait avec la réputation du joueur sur le terrain, même s’il correspondait mieux à son état d’esprit zen du moment, META a exactement l’effet inverse. C’est l’accomplissement de la vision à long terme de l’entreprise et le prolongement de sa personnalité. En changeant de nom, World Peace tournait le dos à son passé et à sa réputation. En se baptisant META, Facebook persiste et signe dans tout ce qu’il est et tout ce qu’il est devenu.

Jusqu’au bout du rêve

META est la proclamation explicite d’un projet. Cela fait presque dix ans que Zuckerberg décrit sa vision et emmène son entreprise dans cette direction avec divers moyens et sous diverses formes. Son rêve –sa folie des grandeurs– n’a jamais été censé s’arrêter à la frontière de nos téléphones. Comme la gestion de nos vies sociales, culturelles et politiques à grands renforts d’algorithmes ne lui suffisait pas, Zuckerberg a acheté et développé des technologies qui introduisent le style Facebook dans les cryptomonnaies, la réalité virtuelle et les interactions commerciales. En gros, avec META et les plus vastes projets qu’il a exposés fin octobre, Zuckerberg a annoncé qu’il voulait dominer la vie elle-même. Il veut le faire totalement, partout, constamment et commercialement.

Si vous aimez la manière dont Facebook et Instagram semblent lire dans vos pensées ou écouter votre voix grâce à leur surveillance généralisée, leur collecte de données comportementales, l’apprentissage automatique prédictif et un design addictif, alors vous allez adorer vivre dans un métavers. Celui-ci ajoutera en effet des données biométriques, l’analyse des mouvements de vos yeux et un ensemble d’indices comportementaux bien plus riches au mélange qui guide déjà les algorithmes qui nous guident, nous.

Si l’influence toujours plus grande qu’exerce l’entreprise de Zuckerberg sur les opinions politiques et la vision du monde de votre tonton vous plaît, vous comme lui allez vraiment apprécier la manière dont les valeurs intrinsèques de META vont diriger sa vie sociale, commerciale et intellectuelle.

Si vous appréciez à quel point votre ado de fils est accro aux jeux vidéo, imaginez les profondeurs dans lesquelles il va plonger lorsqu’il découvrira la pornographie en réalité virtuelle grâce à un puissant système de recommandations guidé par l’intérêt manifesté par d’autres jeunes gens comme lui.

Et si l’influence excessive qu’exerce Instagram sur l’image que votre fille a d’elle-même vous enchante, alors vous adorerez constater à quel point la stimulation constante de messages immersifs d’un métavers va l’affecter.

Dystopie et utopie
Mark Zuckerberg en 2019 © Nicholas Kamm – AFP

Zuckerberg rêve depuis longtemps de construire ce que je décris dans mon livre, Antisocial Media, comme «le système d’exploitation de nos vies». Depuis plus de dix ans, il achète des entreprises et des technologies qu’il assimile à Facebook, auquel il ajoute la capacité d’exécuter des transactions financières et des recherches, d’abriter des vidéos et de lancer des mondes en réalité virtuelle. Il convoite depuis longtemps le statut dont jouit WeChat en Chine: celui des yeux omniscients du pouvoir à travers lesquels tout le monde doit effectuer ses tâches quotidiennes, de l’appel d’un taxi à son paiement en passant par l’utilisation d’un distributeur de nourriture, sans oublier la prise de rendez-vous chez le médecin.

Aujourd’hui, Zuckerberg a mis un nom sur sa vision, un nom bien plus évocateur que celui que j’avais choisi. Au lieu d’emprunter une analogie informatique du XXe siècle, il a sorti une vision dystopique de la science-fiction et lui a donné un petit aspect utopique –en tout cas, c’est ce qu’il croit.

META est supposé évoquer le métavers, un concept décrit par l’auteur de science-fiction Neal Stephenson dans son roman de 1992, Le samouraï virtuel. Pensez au métavers comme à un grand mélange de plateformes de réalité virtuelle d’une part, avec lesquelles les utilisateurs peuvent vivre des expériences au-delà de leurs environnements dits réels, et de réalité augmentée d’autre part, à travers laquelle la vision du monde réel inclut des stimulations et des informations supplémentaires, peut-être au moyen de lunettes, peut-être par le biais d’une autre interface qui n’a pas encore été inventée.

Le meilleur cas d’usage pour cette conscience à plusieurs niveaux, cette possibilité d’avoir le corps à un endroit tout en ayant l’attention divisée entre plusieurs interfaces et stimuli différents (avec une décomposition totale du contexte) semble être, à en croire Zuckerberg lui-même, que «vous allez pouvoir participer à un fil de messagerie pendant que vous serez au milieu d’une réunion ou en train de faire tout à fait autre chose et personne ne s’en rendra compte».

Je ne suis pas entrepreneur dans les nouvelles technologies, mais il me semble qu’investir des milliards de dollars par le biais de milliers d’experts extrêmement bien formés pour trouver la solution à un problème que personne ne semble avoir envie de résoudre est un mauvais emploi de ressources. Or il se trouve que les ressources comme l’argent, la formation et la main-d’œuvre sont extrêmement concentrées chez une poignée d’entreprises internationales, dont Facebook. Donc elles peuvent faire ce genre de choix ineptes et nous, nous devons vivre avec.

Une confiance inébranlable

Il importe de clarifier qu’il ne s’agit pas d’un changement de nom ou d’un rebranding autant que d’une déclaration d’intention idéologique. Imaginez, à l’aube de l’expansion de la Compagnie britannique des Indes orientales dans le sous-continent indien en 1757, que quelqu’un ait renommé l’entreprise «l’Empire britannique». Voilà qui aurait été osé. Eh bien ça, ça l’est aussi.

Il ne s’agit donc pas d’une démarche de relations publiques, d’une réaction à tous les puissants écrits critiques tant intellectuels que journalistiques qui ont révélé au cours des dix dernières années la nature toxique de Facebook. Malgré les occasionnelles réactions aux observations dont il fait l’objet, la confiance avec laquelle Zuckerberg façonne et dirige nos vies à notre place reste inébranlable. Malgré la foule d’enquêtes, de fuites, de plaintes, d’articles, de livres et d’indignation généralisée, l’usage de Facebook continue de croître à un rythme constant et l’argent continue de couler à flot.

Zuckerberg n’a jamais reçu de signal du marché lui intimant d’être plus modeste ou de changer sa façon de faire. Soyons clairs sur cette vision : elle a beau se construire sur les rails du vieil internet, il ne s’agit pas d’un internet nouveau ou remis au goût du jour. Les nœuds du nouveau réseau, ce sont des corps humains. Et la plus grande partie de l’architecture essentielle sera entièrement propriétaire.

Le changement vers META n’est pas non plus un rejet du nom Facebook. La principale application et le site, ce que les initiés de l’entreprise appellent Blue, resteront Facebook. Au bout d’un moment, nous pouvons nous attendre à ce qu’Instagram et WhatsApp fusionnent totalement avec Blue, ne laissant qu’une seule grande appli, totalement unifiée, avec des éléments distribuant des images et des vidéos grâce à une interface de style Instagram (ou TikTok) et un service de messagerie cryptée proposant des fonctionnalités de style WhatsApp.

Donc, ne vous attendez pas à de l’immobilisme. Mais n’espérez pas non plus que “Facebook” ne soit plus prononcé à brève échéance. Cela n’arrivera pas davantage que nous n’avons cessé d’utiliser et de dire “Google” malgré le changement de nom de la société rebaptisée Alphabet.

Des petits garçons et leurs jouets

Si META est peut-être l’annonce la plus affichée de cette intention de construire un métavers qui lui permettra de surveiller, monétiser et gérer tout ce qui concerne nos vies, il n’est pas le seul à le tenter, ni nécessairement le mieux placé. Alphabet introduit sa technologie de surveillance et d’orientation prédictive dans les véhicules, les thermostats et les produits à porter (comme des lunettes) depuis plus de dix ans. Il continue à imposer la manière de Google de collecter des données et de structurer notre relation à la géographie et au savoir dans un nombre croissant d’éléments de nos vies quotidiennes.

Apple vend la montre qui surveille le rythme cardiaque et l’activité sportive que je porte au poignet à ce moment même, et promet de protéger toutes mes données personnelles de la convoitise d’autres grandes méchantes entreprises accros aux données comme Alphabet et META. Son objectif à long terme est le même, mais sa stratégie est différente : construire un métavers de confiance avec des consommateurs riches des pays industrialisés soucieux du respect de leur vie privée. Il construit le métavers gentrifié.

Amazon investit directement dans la science des données et les projets de réalité virtuelle que d’autres entreprises pourraient développer mais qu’Amazon serait capable d’introduire sur le marché. En attendant, il pousse les systèmes de surveillance Echo et Echo Dot sur nos paillasses de cuisine et nous convainc que commander de la musique et des produits avec nos voix est un confort dont nous ne pouvons plus nous passer.

Et pendant ce temps, le milliardaire farfelu Elon Musk comble ses propres illusions de grandeur en finançant des projets d’intelligence artificielle et de réalité virtuelle qu’il espère contrôler.

En gros, nous avons au moins quatre des entreprises les plus riches et les plus puissantes de l’histoire du monde rivalisant pour construire un énorme système de surveillance et comportemental commercial dont ils sont sûrs et certains que nous ne voudrons pas nous passer ni dépasser. Ce sont des petits garçons qui vendent des jouets, mais ils ne rigolent pas. Et nous sommes tout à fait susceptibles de craquer, comme nous avons craqué pour tout ce qu’ils nous ont déjà vendu.

Les chances sont fort minces que nous trouvions la volonté politique de prévoir et de limiter les conséquences indésirables et la concentration des pouvoirs qui ne manqueront pas d’accompagner cette course à l’érection et à la domination d’un métavers. Il nous faudrait pour cela différer collectivement et mondialement une gratification immédiate pour privilégier notre sécurité sur le long terme. Or nous n’avons pas voulu le faire pour sauver la banquise arctique et les récifs coralliens. Nous ferions bien de ne pas faire trop confiance à notre volonté ou à nos capacités lorsqu’il s’agit de faire ralentir Mark Zuckerberg et consorts. On dirait bien qu’à la fin, ce sont toujours les petits garçons et leurs jouets qui gagnent.

Siva Vaidhyanathan

  • L’article original (avec pubs) est de Siva Vaidhyanathan. Traduit par Bérengère Viennot, il est paru sur SLATE.FR le 23 novembre 2021.
  • L’illustration de l’article est © slate.fr

S’informer encore…

Ada Lovelace, la première codeuse de l’histoire

Temps de lecture : 2 minutes >

“Comtesse de Lovelace, elle naît Ada Byron, d’une relation scandaleuse entre le poète Lord Byron et une aristocrate érudite. À 12 ans, elle écrit déjà un traité dédié aux ailes des volatiles. Sa mère, férue de mathématiques, surnommée “princesse des parallélogrammes” par Byron, veut contrecarrer la fascination d’Ada pour son père absent et son inclination pour la passion amoureuse en focalisant son attention sur les sciences dures. Ses tuteurs, parmi les plus brillants scientifiques, l’éduquent dans la rigueur et l’exigence. À 16 ans, Ada rencontre Mary Somerville, éminente astronome du XIXe siècle, qui l’encourage et l’aide à progresser en mathématiques. Ada veut déjà développer une “science poétique“, germe d’une future intelligence artificielle.

“Mon travail mathématique implique une imagination  considérable.” Ada Lovelace

À 17 ans, Ada rencontre dans un salon mondain le mathématicien Charles Babbage, inventeur de la calculatrice mécanique. Il écrira à son propos : “Cette enchanteresse des nombres a jeté son sort magique autour de la plus abstraite des sciences et l’a saisie avec une force que peu d’intellects masculins – dans notre pays au moins – auraient pu exercer.”

Pendant 20 ans, ils amélioreront constamment ensemble “la machine analytique“, l’ancêtre de l’ordinateur moderne, avec 100 ans d’avance.

“Son rôle est de nous aider à effectuer ce que nous savons déjà dominer” écrira-t-elle. Ada pressent tout l’impact que pourra avoir l’informatique sur la société. Elle veut faire des calculateurs des “partenaires de l’imagination” en programmant musique, poésie ou peinture.

Selon Nicolas Witkowski, physicien et auteur de l’essai d’histoire des sciences au féminin Trop belles pour le Nobel (Le Seuil), interviewé dans l’émission “La Marche des sciences”, consacrée à Ada Lovelace en 2016 : “Ce qu’elle cherche, c’est plus une métaphysique qu’une science ou une technique. Une façon de vivre. À un moment, elle propose d’utiliser son propre corps comme laboratoire moléculaire. Non seulement elle anticipe l’informatique et l’ordinateur, mais elle anticipe les neurosciences”. 

Le 1er programme informatique

À 27 ans, Ada traduit l’article d’un ingénieur italien consacré aux machines à calculer. Dans ses longues notes de traduction, elle esquisse ce qui permettrait à une machine d’agir seule. Elle décrit l’enchaînement d’instructions qu’il faut donner pour réaliser une suite mathématique, jusqu’à la position des rouages.

Selon elle, la machine pourrait manipuler des nombres mais aussi des lettres et des symboles, au-delà du calcul numérique. La machine “tisse des motifs algébriques comme le métier de Jacquard tisse des fleurs et des feuilles”. La première programmation informatique est née. Comme les autres femmes scientifique de son temps, elle signe son article de ses seules initiales.

Alternant phases d’exaltation et de dépression, Ada s’adonne aux paris hippiques pour financer ses recherches et celles de Babbage. Malgré ses efforts pour concevoir un algorithme servant ses paris, elle dilapide son argent. À 36 ans, elle meurt d’un cancer de l’utérus. Son ami Charles Dickens lit un texte à son enterrement.

Négligences et postérité

Il faudra attendre 1930 pour qu’Alan Turing formalise à son tour un calculateur universel manipulant des symboles. Ada est restée longtemps oubliée, négligée, malgré une reconnaissance progressive et inattendue. En 1979, le département de la Défense américain appelle de son nom un langage de programmation “Ada”, de même, le CNRS nomme en son hommage un de ses supercalculateurs.” [d’après FRANCECULTURE.FR]

  • image en tête de l’article : Ada Lovelace © sciencesetavenir.fr

[INFOS QUALITE] statut : actualisé | mode d’édition : compilation par wallonica.org  | contributeur : Philippe Vienne | crédits illustrations : © sciencesetavenir.fr


D’autres dispositifs ?

VIROUL : Alan Turing, un génie sacrifié (CHiCC, 2020)

Temps de lecture : 5 minutes >
Alan Turing © k-actus.net

Alan TURING est de ces génies tardivement reconnus. Son travail scientifique, aujourd’hui considéré comme majeur, s’est développé sur une quinzaine d’années, de 1936 à 1952 environ.

Alan Mathison Turing est né le 23 juin 1912 à Londres. En 1931, il a 19 ans, il intègre le King’s College de l’Université de Cambridge où il trouve un milieu favorable pour étudier les mathématiques. Il va s’y épanouir, car personne là-bas ne raille son homosexualité, son apparence décalée. Chacun, dit-on là-bas, doit être ce qu’il est.

Seules les mathématiques pures et appliquées procurent à Alan un sentiment d’épanouissement. Il pénètre avec passion dans le monde solitaire et virtuel qui va devenir le sien. Il sera diplômé en 1933.

En 1936, Alan Turing débarque à New York à l’Université de Princeton où se côtoient John von Neumann et Albert Einstein, tous les grands noms de la science et notamment ceux qui ont fui le nazisme.

Turing démontre que certains problèmes mathématiques ne peuvent être résolus. Pour cela, il postule l’existence théorique d’une machine programmable, capable d’effectuer vite toutes sortes de calculs.

Cette machine est composée d’un “ruban” supposé infini, chaque case contenant un symbole parmi un “alphabet fini”, d’une “tête de lecture/écriture” ; d’un “registre d’états” ; d’une “liste d’instructions”.

L’ordinateur – théorique – est né ! Même si elle reste purement abstraite, cette “machine de Turing”, passée sous ce nom à la postérité, est un saut crucial vers les fondements de l’informatique.

Enigma M4 at The Alan Turing Institute © Clare Kendall.

En 1939, Alan Turing, revenu enseigner à Cambridge, s’engage dans l’armée britannique où il travaille à Bletchley Park au déchiffrement des messages de la marine allemande. Pour ses communications radio, le IIIe Reich utilise un engin cryptographique sophistiqué baptisé Enigma.

Poursuivant les travaux des Polonais qui avaient déjà découvert le mécanisme de la machine infernale, Alan Turing et les autres mathématiciens construisent donc un appareil destiné à passer en revue extrêmement rapidement les différents paramètres possibles d’Enigma.

Tous les renseignements issus des codebreakers étaient frappés du sceau “ultra”, plus confidentiel encore que “top secret”, un niveau de protection créé spécialement pour Bletchley. Tous ceux qui y travaillaient étaient soumis à l’Official Secret Act, un texte drastique qui leur interdisait toute allusion à leur activité, et ce, en théorie, jusqu’à leur mort.

En janvier 1943, Turing quitte l’Angleterre et rejoint les laboratoires de télécommunication Bell dans le New Jersey où le savant Claude Shannon travaille au codage de la parole. Turing propose quelques mois plus tard un prototype de machine à voix artificielle, ayant pour nom de code Delilah.

Après la guerre, Alan Turing travaille au National Physical Laboratory et conçoit un prototype de calculateur électronique, l’ACE (Automatic Computing Engine), qui prend du retard dans sa réalisation.

Aussi il rejoint l’Université de Manchester qui avait construit en 1948 le premier ordinateur programmable opérationnel, le Mark 1. Turing participe à la programmation et se passionne pour l’intelligence artificielle.

En 1950, Alan Turing publie, dans Mind, son article “Computing Machinery and Intelligence”. Dans cet article, il défend des positions “révolutionnaires”. Il se propose d’examiner la question : Les machines peuvent-elles penser ? Il élabore un test qui valide l’intelligence d’une machine, le “test de Turing”. Selon lui, si une machine dialogue avec un interrogateur (qui ne la voit pas) et arrive à lui faire croire qu’elle est un être humain, nous devrions dire d’elle qu’elle pense. Dans cette mesure, à la question a priori “Les machines peuvent-elles penser ?”, Turing substitue la question empirique : “Une machine peut-elle gagner au jeu de l’imitation ?”. Le prix Loebner, créé en 1990, est une compétition annuelle récompensant le programme considéré comme le plus proche de réussir le test de Turing.

En 1952, il propose un modèle mathématique de morphogenèse. Il fait paraître un article, “The Chemical Basis of Morphogenesis” (Philosophical Transactions of the Royal Society, août 1952), où il propose trois modèles de formes (Turing patterns). Les structures spatiales formées par le mécanisme physico-chimique très simple qu’il a suggéré s’appellent depuis des  “structures de Turing”.

Il faudra attendre quarante ans après Turing pour obtenir la première mise en évidence expérimentale d’une structure de Turing. Ce mécanisme, très simple, de formation de motifs est devenu un modèle emblématique, invoqué pour expliquer de nombreuses structures naturelles, en particulier vivantes.

Il est conscient du manque de preuves expérimentales. Son but est davantage de proposer un mécanisme plausible, et de montrer tout ce qu’il permet déjà d’expliquer, malgré sa simplicité. Les exemples donnés par Turing sont les motifs tachetés comme la robe du guépard, l’hydre et la phyllotaxie des feuilles en rosette.

Élu membre de la Royal Society, Turing éprouve de graves difficultés quand la révélation de son homosexualité provoque un scandale en 1952. C’est un crime pour la justice britannique. Le procès est médiatisé. Hugh Alexander fait de son confrère un brillant portrait, mais il est empêché de citer ses titres de guerre par le Secret Act”.

Alan Turing © diacritik.com

Alan Turing, qui n’a jamais réellement caché son homosexualité, a longtemps couru à un niveau olympique, pratiquant très régulièrement la course à pied pour calmer ses pulsions sexuelles. Pour éviter l’enfermement, il est contraint d’accepter la castration chimique, mais sa carrière est brisée.

Il meurt à 42 ans. L’autopsie conclut à un suicide par empoisonnement au cyanure. Il n’existe pas de certitude à cet égard, la pomme n’ayant pas été analysée.

La figure d’Alan Turing a mis du temps à émerger dans l’inconscient collectif. Le rôle de Bletchley Park et de ses employés qui décodaient plus de 3.000 messages nazis par jour n’a été rendu public que tardivement, dans les années 70, lorsque les dossiers ont été déclassifiés. Il faudra attendre 2013 pour que Turing sorte enfin des oubliettes de l’Histoire et soit réhabilité par la reine Elisabeth II.

La loi qui a brisé la carrière de Turing, après avoir envoyé Oscar Wilde en prison, ne fut abrogée en Angleterre qu’en 1967. C’est en 1972 que la loi de dépénalisation de l’homosexualité est promulguée en Belgique. L’OMS déclarera avoir retiré l’homosexualité de la Classification internationale des maladies le 17 mai 1990.

Le Britannique Alan Turing (1912-1954), père de l’informatique, co-inventeur de l’ordinateur, visionnaire de l’intelligence artificielle, a eu droit à tous ces signes posthumes, comme autant de regrets de n’avoir compris de son vivant à quel point il était important. Décerné chaque année (1966), un prix qui porte son nom est considéré comme le Nobel de l’informatique.

Des palmarès, comme celui du magazine Time en 1999, l’ont classé parmi les 100 personnages-clés du XXe siècle. Il a été choisi pour illustrer le verso des futurs billets de 50 livres à partir de la fin de l’année 2021.

Claude VIROUL


La CHICC ou Commission Historique et Culturelle de Cointe (Liège, BE) et wallonica.org sont partenaires. Ce texte de Claude VIROUL a fait l’objet d’une conférence organisée en mars 2020 par la CHiCC : le voici diffusé dans nos pages. Pour les dates des autres conférences, voyez notre agenda en ligne

Plus de CHiCC ?

La société algorithmique serait un cauchemar

Temps de lecture : < 1 minute >

“Le premier est suédois, professeur de philosophie à Oxford et l’un des leaders du courant transhumaniste, depuis qu’il a fondé en 1998 la World Transhumanist Association (devenue depuis Humanity+). En 2014, il prédisait dans son livre Superintelligence : chemins, dangers, stratégies, recommandé par Elon Musk et Bill Gates, l’arrivée prochaine d’une superintelligence qui surpassera l’intelligence humaine. Le second, médecin, co-fondateur de Doctissimo et entrepreneur, est devenu le porte-parole français le plus virulent du débat sur l’avenir de l’intelligence artificielle, et se défend d’être transhumaniste. Nick Bostrom et Laurent Alexandre se sont succédés à Paris sur la scène de l’USI, conférence dédiée aux professionnels et à l’avenir du numérique et du monde. Usbek & Rica s’est glissé dans le public pour tenter de résoudre l’équation suivante : deux gourous + une IA = zéro chance de s’en sortir ?

“Je vous demande maintenant d’accrocher vos ceintures de sécurité car nous allons traverser une petite zone de turbulences : merci d’accueillir Laurent Alexandre”. L’introduction réservée au médecin / entrepreneur / expert en nouvelles technologies qui prend place sur scène ce mardi 20 juin, au Carrousel du Louvre (Paris, FR), est flatteuse : Laurent Alexandre n’a en effet pas l’habitude d’endormir son public, même quand il fait 35°C. Transformer ses conférences en zones de turbulence est, en quelque sorte, sa marque de fabrique…”

Lire tout l’article d’Annabelle LAURENT sur USBEKETRICA.COM…

Plus d’enjeux techniques…