ChatGPT ou l’illusion du dialogue : comprendre comment l’IA modifie le rapport au savoir, avec la philosophie d’Hartmut Rosa

Temps de lecture : 6 minutes >

[THECONVERSATION.COM, 3 février 2026Les outils d’intelligence artificielle semblent dialoguer avec les internautes qui les interrogent. Mais il n’y a aucune réciprocité dans ce type d’échanges, les réponses de ChatGPT résultent d’une production de langage automatisée. Quelles conséquences cette illusion a-t-elle sur notre rapport au savoir ? Mobiliser le concept de “résonance“, développé par le philosophe Hartmut Rosa permet de mieux évaluer ces transformations.

L’usage des intelligences artificielles (IA) génératives, et en particulier de ChatGPT, s’est rapidement imposé dans le champ éducatif. Élèves comme enseignants y ont recours pour chercher des informations, reformuler des contenus ou accompagner des apprentissages. Mais, au-delà de la question de l’efficacité, une interrogation plus fondamentale se pose : quel type de relation au savoir ces outils favorisent-ils ?

Hartmut ROSA © editionsladecouverte.fr

Pour éclairer cette question, il est utile de mobiliser le concept de “résonance“, développé par le sociologue et philosophe allemand Hartmut Rosa. La résonance désigne une relation au monde dans laquelle le sujet est à la fois affecté, engagé et transformé, sans que cette relation soit entièrement maîtrisable. Rosa voit dans cette forme de rapport au monde une manière de résister à l’aliénation produite par l’accélération contemporaine. Dans son ouvrage Pédagogie de la résonance, il applique ce cadre au domaine éducatif et précise les conditions dans lesquelles une relation résonante au savoir peut émerger. C’est à l’aune de ces critères que nous proposons d’interroger l’usage de ChatGPT en contexte éducatif.

Que signifie “entrer en résonance” avec le savoir ?

Chez Hartmut Rosa, la résonance ne se réduit ni au plaisir d’apprendre, ni à l’engagement ponctuel, ni à la simple interaction. Elle désigne une relation au monde dans laquelle le sujet est d’abord affecté – quelque chose le touche, le surprend ou le déstabilise. Cette affectation appelle ensuite une réponse active : le sujet s’engage, répond, tente de faire quelque chose de ce qui lui arrive.

Mais la résonance ne se limite pas à cette dynamique interactive. Elle implique une transformation durable du sujet, parfois aussi de son rapport au monde, et repose sur une condition essentielle : elle ne peut être ni produite à volonté ni entièrement maîtrisée. Pour Rosa, une relation totalement disponible et contrôlable est, par définition, une relation muette.

Ces critères permettent désormais d’interroger ce que l’usage de ChatGPT fait – ou ne fait pas – au rapport au savoir en contexte éducatif.

ChatGPT peut-il satisfaire aux conditions de la résonance ?

ChatGPT se caractérise par une disponibilité quasi permanente : il répond sans délai, s’adapte aux demandes de l’utilisateur et semble toujours prêt à accompagner l’apprentissage. Cette facilité d’accès peut apparaître comme un atout pédagogique évident.

Pourtant, à la lumière de la notion de résonance développée par Hartmut Rosa, elle soulève une difficulté majeure. Une relation résonante au savoir suppose une part d’indisponibilité, une part de résistance et d’imprévisibilité sans lesquelles le rapport au monde risque de devenir purement instrumental.

Cette disponibilité permanente s’accompagne d’une interaction qui peut donner le sentiment d’une relation engageante. ChatGPT répond, reformule, encourage, s’ajuste au niveau de l’utilisateur et semble parfois “comprendre” ce qui lui est demandé. Le sujet peut ainsi se sentir affecté, soutenu, voire stimulé dans son rapport au savoir. Pourtant, cette affectation repose sur une asymétrie fondamentale : si le sujet peut être touché et répondre activement, l’agent conversationnel ne l’est jamais en retour.

La réponse de ChatGPT ne procède pas d’une expérience, d’un engagement ou d’une exposition au monde, mais d’une production de langage optimisée. L’échange peut alors prendre la forme d’un dialogue en apparence vivant, sans que s’instaure pour autant la réciprocité qui caractérise une relation véritablement résonante.

Des transformations à sens unique

La question de la transformation permet de préciser encore cette asymétrie. L’usage de ChatGPT peut incontestablement modifier le rapport du sujet au savoir : il peut faciliter la compréhension, accélérer l’accès à l’information, soutenir l’élaboration d’idées ou influencer des pratiques d’apprentissage. À ce titre, le sujet peut effectivement en ressortir transformé.

Mais cette transformation n’est jamais réciproque. Rien, dans l’échange, ne peut véritablement arriver à l’agent conversationnel : il ne conserve pas de trace existentielle de la relation, n’en est ni affecté ni engagé, et ne voit pas son rapport au monde durablement modifié. La transformation, lorsqu’elle a lieu, concerne donc exclusivement le sujet humain, ce qui marque une différence décisive avec les relations résonantes décrites par Rosa, où les deux pôles de la relation sont susceptibles d’être transformés.

On pourrait toutefois objecter que ChatGPT n’est pas toujours pleinement disponible ni fiable. Il lui arrive de produire des erreurs, d’inventer des références ou de fournir des informations inexactes – ce que l’on désigne souvent comme des “hallucinations“. Ces moments d’échec peuvent interrompre l’échange et surprendre l’utilisateur.

Mais cette forme d’indisponibilité n’est pas celle que décrit Rosa. Elle ne procède pas d’une résistance signifiante du monde, ni d’une altérité qui interpelle le sujet, mais d’un dysfonctionnement du dispositif. Loin d’ouvrir un espace de résonance, ces ruptures tendent plutôt à fragiliser la confiance et à rompre la relation, en rappelant que l’échange repose sur une production de langage fondée sur des modèles probabilistes intégrant des régularités, des associations et des inférences apprises, plutôt que sur une rencontre.

On pourrait également faire valoir que certains agents conversationnels peuvent être configurés pour adopter des réponses plus rugueuses, plus critiques ou moins accommodantes, introduisant ainsi une forme de résistance dans l’échange. Cette rugosité peut déstabiliser l’utilisateur, ralentir l’interaction ou rompre avec l’illusion d’une aide toujours fluide.

Toutefois, cette résistance reste fondamentalement paramétrable, réversible et sous contrôle. Elle ne procède pas d’une altérité exposée à la relation, mais d’un choix de configuration du dispositif. L’indisponibilité ainsi produite est scénarisée : elle peut être activée, modulée ou désactivée à la demande. À ce titre, elle ne satisfait pas à la condition d’indisponibilité constitutive qui, chez Rosa, rend possible une véritable relation de résonance.

Assistance cognitive ou relation résonante ?

PICASSO Pablo, Deux Personnages (La Lecture, 1934) © Musée Picasso

La comparaison avec le livre permet de mieux saisir ce qui distingue une indisponibilité scénarisée d’une indisponibilité constitutive. Contrairement à ChatGPT, le livre ne répond pas, ne s’adapte pas et ne reformule pas à la demande. Il impose son rythme, sa forme, ses zones d’opacité, et résiste aux attentes immédiates du lecteur. Pourtant, cette absence de dialogue n’empêche nullement la résonance ; elle en constitue souvent la condition.

Le texte peut affecter, déstabiliser, transformer durablement le sujet précisément parce qu’il demeure indisponible, irréductible à une simple fonctionnalité. À la différence d’un agent conversationnel, le livre expose le lecteur à une altérité qui ne se laisse ni paramétrer ni maîtriser, et c’est cette résistance même qui rend possible un rapport résonant au savoir.

Cela ne signifie pas que l’usage de ChatGPT soit incompatible avec toute forme de résonance. À condition de ne pas l’ériger en point d’entrée privilégié dans le rapport au savoir, l’outil peut parfois jouer un rôle de médiation secondaire : reformuler après une première confrontation, expliciter des tensions, ou aider à mettre en mots une difficulté éprouvée. Utilisé de cette manière, ChatGPT n’abolit pas l’indisponibilité constitutive de la rencontre avec un contenu, mais intervient après coup, dans un temps de reprise et de clarification. Il s’agirait alors moins de produire la résonance que de préserver les conditions dans lesquelles elle peut, éventuellement, advenir.

L’analyse conduite à partir de la notion de résonance invite à ne pas confondre assistance cognitive et relation résonante au savoir. ChatGPT peut indéniablement soutenir certains apprentissages, faciliter l’accès à l’information ou accompagner l’élaboration d’idées. Mais ces apports reposent sur une logique de disponibilité, d’adaptation et de contrôle qui ne satisfait pas aux conditions de la résonance telles que les décrit Hartmut Rosa.

Le risque, en contexte éducatif, serait alors de substituer à un rapport au savoir fondé sur la confrontation, la résistance et la transformation, une relation essentiellement instrumentale, aussi efficace soit-elle. La question n’est donc pas de savoir s’il faut ou non recourir à ces outils, mais comment les inscrire dans des pratiques pédagogiques qui préservent – voire réactivent – les conditions d’un rapport véritablement résonant au savoir.

Frédéric Bernard, Université de Strasbourg


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © oneplanet.com ; © editionsladecouverte.fr ; © Musée Picasso.


Plus de presse en Wallonie…

PLANCHAR : Les Planchar, maîtres de fosses dans la Seigneurie de Montegnée (CHiCC, 2010)

Temps de lecture : 3 minutes >

La houille à Montegnée

L’existence de la houille en Hesbaye liégeoise est attestée dès 1195 et la Seigneurie de Montegnée-Berleur est au coeur même des développements charbonniers liégeois. Les Planchar, que l’on appelait alors “Planchâ“, sont, dès 1419, une ligne modeste d’exploitants houillers. Les trois premiers charbonniers de la lignée des sept Planchar, connus avec certitude, entrent en scène en 1560.

Les trois charbonniers pionniers

Jean-le-vieux Planchâ (1560-1613) et Lambert-le-vieux Planchâ (1590-1650) “profondent” des bures, grattent, peinent et creusent, puis font creuser à Montegnée. Ils réunissent les conditions pour que le fils, Jean-le-jeune Planchaz (la graphie est modifiée) accède “à la chaussée, là où se tiennent les grands.” Il jouit d’une certaine aisance et passe du niveau de “charbonnier” à celui de “maître de fosses”. Ces trois charbonniers ont préparé l’entrée en scène de leurs deux successeurs : Pier et Jean.

Pier Planchar (1657-1737)

Pier fut exploitant agricole, repreneur de dîmes, grand propriétaire immobilier. Il est également propriétaire de bures à Montegnée, Grâce-Berleur, Glain, Ans et Saint-Nicolas.

Jean-Baptiste Planchar (1709-1758)

Fils de Jean, il deviendra lieutenant bailli, échevin, commissaire de la cité et connaîtra une remarquable ascension sociale. Il eut deux fils : Jean-Gilles, lieutenant-bailli de la cathédrale puis conseiller de la Régence, et Wery-François, bailli d’Ans et Moulin. Sans postérité, cette branche de la famille s’éteint.

Le fils aîné de Pier : Pierre

Pier eut quatre fils dont deux maîtres de fosses : Pierre (1690-1742) et Lambert (1694-1793) qui hériteront du petit empire.

Jean-Lambert (1730-1815)

Fils de Pierre, petit-fils de Pier. Il connaîtra une grande célébrité ; anobli, avocat jurisconsulte à la curie romaine, intelligent, travailleur, il mènera un combat sans fin contre les eaux. Il meurt sans descendance.

Lambert (1694-1793)

Lambert, l’autre fils de Pier, devient propriétaire de la Maison Planchar et de sa vingtaine de bonniers (17 ha environ). Échevin et greffier de la cour de Montegnée et Berleur, conseiller régent de la cité, constructeur de voiries, il aura un fils : Pier-Lambert.

La machine à feu (pompe à feu de Thomas Newcomen)

Les seuls moyens d’exhaure étaient des “tinnes” élevées en noria par un treuil à bras puis, plus tard, par des tourniquets à chevaux (les “hernaz“). Lambert va prendre le problème de ces eaux qui inondent les mines à bras le corps. L’innovation majeure avait été de créer des rigoles d’écoulement, creusées à flanc (les araines).

Dans le Devon, au XVIIe siècle, l’évacuation des eaux des mines d’étain posait les mêmes graves problèmes qu’en Principauté. Newcomen proposa une machine à balancier utilisant la théorie de la pression atmosphérique de Pascal avec un dispositif de pompe aspirante. Cette machine, inventée en 1705, fut installée à Liège dès 1720 !

Plusieurs tentatives et expériences se succédèrent avec des résultats mitigés, mais Lambert Planchar améliora le système jusqu’en 1748 avant d’acquérir deux engins performants  en 1772 pour deux bures (Espérance et Bons-Buveurs). La révolution technique était en marche et les simples fosses à houille devenaient des charbonnages, l’extraction de la houille se transformait en exploitation industrielle. La transformation utile de l’énergie thermique en énergie mécanique, suite à des améliorations du système, permettait d’éviter à certains de se tuer à la tâche.

La Révolution

Ayant brillamment mené l’Espérance et les Bons-Buveurs avec son cousin Jean-Lambert, Pierre-Lambert Planchar (1746-1808) avait aussi gravi bien des échelons épiscopaux. Les premiers troubles révolutionnaires surviennent dès 1782 à Montegnée. Après les péripéties entre les troupes françaises et les Autrichiens, et le retour d’Antoine de Méan au Palais en 1793, Pierre-Lambert devient l’ultime haut dignitaire épiscopal de la Principauté, honneur dangereux vu les changements de régime.

En 1794, il est contraint de quitter Montegnée pour Francfort avec toute sa famille et, en 1795, la Principauté devient un département de la France. Ses biens sont mis sous séquestre et il sera considéré comme “émigré”. Il perdra quatre enfants et son épouse avant son retour à Montegnée. La loi Mirabeau et l’interdiction de toute concession aux “émigrés” l’obligea à demander une pension à ses anciens alliés. Trahi par une de ses soeurs et un féal neveu “patriote”, il s’éteignit en 1808 non rétabli dans ses droits.

d’après Robert-Armand Planchar

Comment la première Bible à comporter une carte a contribué à diffuser l’idée de pays aux frontières établies

Temps de lecture : 5 minutes >

[THECONVERSATION.COM, 14 janvier 2026L’apparition de la toute première carte dans une Bible, au début du XVIe siècle, a profondément transformé la manière de représenter la Terre sainte – et, plus largement, le monde. Elle a participé à la naissance d’un monde organisé en États-nations… dont nous subissons encore aujourd’hui l’héritage.

Il y a cinq siècles paraissait la première Bible contenant une carte. L’anniversaire est passé inaperçu, pourtant il célèbre un évenement qui a changé durablement la fabrication des Bibles. Cette carte figurait dans l’Ancien Testament publié en 1525 par Christopher Froschauer à Zurich, et elle a circulé largement dans l’Europe centrale du XVIe siècle.

Pourtant, malgré son importance dans l’histoire de la Bible, cette innovation n’a pas vraiment été un succès. La carte est inversée sur l’axe nord-sud (elle se lit donc à l’envers). La Méditerranée se retrouve à l’est de la Palestine, et non à l’ouest. Une anecdote qui montre à quel point la connaissance européenne du Moyen-Orient restait limitée à l’époque – au point qu’aucun membre de l’atelier d’impression ne s’en soit rendu compte.

La carte avait été dessinée environ dix ans plus tôt par le célèbre peintre et graveur de la Renaissance Lucas Cranach l’Ancien, installé à Wittenberg dans l’actuelle Allemagne. Rédigée en latin, elle représente la Palestine avec plusieurs lieux saints importants comme Jérusalem et Bethléem. En bas, on distingue les montagnes du Sinaï et le chemin emprunté par les israélites lors de leur fuite de l’esclavage en Égypte.

La carte de la Terre sainte de Lucas Cranach l’Ancien dans l’Ancien Testament de Christopher Froschauer © Trinity College

En regardant de près, on distingue les israélites et leurs tentes, ainsi que plusieurs petites scènes illustrant les épisodes de leur voyage. Le paysage est toutefois plus européen que moyen-oriental, ce qui reflète l’ignorance des imprimeurs concernant cette région. On voit des villes fortifiées entourées d’arbres et, contrairement à la réalité, le Jourdain serpente fortement vers la Mer Morte, tandis que le littoral présente davantage de baies et d’anses.

Au siècle précédent, les Européens avaient redécouvert le géographe gréco-romain du IIe siècle, Ptolémée, et avec lui l’art de produire des cartes précises utilisant latitude et longitude, dans la mesure où l’on pouvait alors estimer cette dernière (elle s’est considérablement améliorée dans les siècles suivants). Avec l’essor de l’imprimerie, la Géographie de Ptolémée avait conquis l’Europe : on avait publié son traité scientifique et ses cartes du monde antique avaient été largement reproduites.

Les imprimeurs ont toutefois rapidement découvert que les acheteurs souhaitaient des cartes contemporaines. De nouvelles cartes de la France, de l’Espagne ou encore de la Scandinavie furent bientôt publiées. À nos yeux, elles sont véritablement modernes : le nord est placé en haut de la page et la localisation des villes, des fleuves et des côtes y est représentée avec une grande précision.

Ces cartes ont rapidement supplanté la cartographie médiévale et son approche symbolique du monde, comme la célèbre mappemonde d’Hereford du monde connu vers 1300, où il s’agissait davantage de transmettre une signification culturelle ou religieuse que d’atteindre une précision géographique. Avec une exception, toutefois : la Palestine.

Carte moderne de la France dans la “Géographie” de Ptolémée, édition d’Ulm de 1486 (1482) © Stanford University

Les premiers éditeurs de Ptolémée proposaient à leurs lecteurs une “carte moderne de la Terre sainte” qui n’avait en réalité rien de moderne. C’était une carte héritée du Moyen Âge, conçue non pas à partir de la latitude et de la longitude, mais grâce à une grille permettant d’estimer les distances entre les lieux. Elle était orientée avec l’est en haut de la page et l’ouest en bas. On y voyait les grands sites du christianisme, et la Palestine y était découpée selon les territoires des tribus.

La carte de Cranach mêle ces deux approches. En haut et en bas, elle affiche des lignes de méridien, mais la côte est inclinée de sorte que toute la carte est orientée vers le nord-est en haut de la page.

On a l’impression que Cranach ne savait pas tout à fait quel type de carte produire. La représentation se veut réaliste et moderne, mais elle reste chargée de géographie symbolique : en parcourant la carte du regard, on voyage avec les israélites depuis l’esclavage en Égypte jusqu’à la Terre promise, en passant par tous ses lieux emblématiques, comme le mont Carmel, Nazareth, le Jourdain ou Jéricho.

Perceptions de la Palestine

Cette carte illustre bien le peu d’intérêt que l’Europe portait à la Palestine, alors sous domination ottomane. Ce que recherchaient les lecteurs européens, c’était cet espace hybride qu’est la ‘Terre sainte’ : un lieu appartenant à notre monde, mais qui, en même temps, en échappait.

Les villes qui y étaient représentées étaient celles ayant prospéré deux millénaires plus tôt et qui, pour les chrétiens, avaient en un sens davantage de réalité. Elles appartenaient à cet espace imaginaire façonné par les Écritures et la prédication des églises.

Ce mélange étonnant d’ancien et de moderne a eu des effets particulièrement importants lorsqu’il s’est agi de cartographier la Palestine selon les douze territoires tribaux. Les douze tribus issues de Jacob symbolisaient, pour les chrétiens, la légitimité de leur héritage : celui d’Israël, de ses lieux saints et de tout ce qu’ils incarnaient – l’accès à la Jérusalem céleste. Sur ces cartes, les lignes inscrivaient visuellement les promesses éternelles faites par Dieu.

Or, à l’époque moderne, ces mêmes lignes commencèrent à marquer les frontières entre États souverains. Les cartes de la Terre sainte, soigneusement découpée entre les tribus d’Israël, ont ainsi influencé durablement les cartographes. Au fil du XVIe siècle, de plus en plus de cartes dans les atlas ont représenté un monde découpé entre des nations distinctes, dotées de frontières clairement définies.

Le fait qu’une carte découpée en territoires figure dans la Bible donnait, en apparence, une caution religieuse à un monde rempli de frontières. Des lignes qui symbolisaient autrefois l’étendue illimitée des promesses divines servaient désormais à marquer les limites de souverainetés politiques.

Dans les bibles elles-mêmes, les cartes s’étaient installées pour de bon. Dans les années qui suivirent, les imprimeurs testèrent différentes configurations, mais ils finirent par retenir quatre cartes essentielles : celle des errances des israélites dans le désert, celle des territoires des douze tribus, celle de la Palestine au temps de Jésus, et celle des voyages missionnaires de l’apôtre Paul.

Il y avait là une belle symétrie : deux cartes pour l’Ancien Testament, deux pour le Nouveau. Mais aussi deux cartes de voyages et deux cartes de la Terre sainte. Ces équilibres visuels mettaient en scène les liens entre les évènements : l’Ancien Testament s’accomplit dans le Nouveau, et le judaïsme trouve son aboutissement dans le christianisme.

L’apparition de la première carte dans une bible marque donc un moment historique fascinant – mais aussi troublant. Elle a transformé la Bible en un objet proche d’un atlas de la Renaissance, tout en s’appuyant sur l’idée d’une supériorité chrétienne : la Terre sainte telle que l’imaginaire chrétien la concevait reléguait la Palestine contemporaine à l’arrière-plan, et le christianisme se posait en héritier ultime du judaïsme.

Cette carte fut également l’un des instruments ayant contribué à façonner le monde moderne des États-nations. Et d’une certaine façon, nous vivons encore aujourd’hui les conséquences de ce tournant

Nathan MacDonald, University of Cambridge (UK)


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, carte ‘moderne’ de la Terre sainte dans l’Ancien Testament, de Christopher Froschauer (1525) © Trinity College ; © Stanford University.
.


Plus de presse en Wallonie…

USBEK & RICA : ‘Smombies’ ou Comment sortir les villes de l’addiction aux écrans ?

Temps de lecture : 6 minutes >

[USBEKETRICA.COM, 5 MAI 2025Contraction de smartphone et de zombie, le smombie a envahi les rues du monde entier. Et si les villes donnaient demain aux citadins l’envie de décoller les yeux de leur écran ?

Ils ont envahi les trottoirs, les carrefours, les escalators du métro. Impossible de les rater, bien que votre existence passe le plus souvent inaperçue pour eux (sauf collision malencontreuse). À moins que vous ne fassiez vous-mêmes partie de cette “espèce hybride, à cheval entre le réel et le virtuel, mi-homme, mi-smartphone” décrite par le conférencier et consultant Hubert Beroche – le “smombie“ ?

EAN 9782815965811

L’épidémie est loin d’être anodine. À Séoul, relève l’auteur d’un ouvrage intitulé Smombies. La ville à l’épreuve des écrans (2025), 61 % des accidents de la route impliquent un piéton n’ayant d’yeux que pour les pixels. Au point que la ville a décidé de mettre les grands moyens pour protéger les citadins de ces “zombies” de l’ère numérique, en installant par exemple des bandes lumineuses au sol passant du vert au rouge pour signaler le passage des véhicules. Des ingénieurs sud-coréens ont également mis au point une appli permettant de détecter des obstacles grâce à la caméra frontale des smartphones, couplés à la reconnaissance d’image, afin d’alerter l’utilisateur… qui a encore moins de raisons de relever la tête.

Autre type d’aménagement spécial smombie : les “phone lanes“, ces rues piétonnes réservées aux utilisateurs actifs de smartphone, que l’on retrouve aussi bien à Anvers, en Belgique, qu’à Chongqing, en Chine. De quoi éviter les accidents de texto.

+48 % d’écrans publicitaires en 2025

Savamment orchestrée par les spécialistes de la “captologie“, l’addiction aux écrans n’est pas un phénomène vraiment nouveau. Ce que l’on sait moins, c’est à quel point la “smombification” transforme aussi les villes. Et façonne, pour reprendre les termes de Hubert Beroche, une “nouvelle urbanité” dans laquelle l’addiction aux smartphones trouve un écho dans la prolifération sans fin des écrans publicitaires. Rien que dans les gares françaises, leur nombre devrait augmenter de 48 % au cours de l’année 2025, révèle une enquête de Reporterre.

Ces évolutions bousculent les interactions urbaines, de plus en plus soumises au règne d’interfaces numériques en tous genres. “Avec les applications smartphone, oreillettes, lunettes ou montres connectées, le piéton suréquipé est capable de consommer le centre-ville de façon augmentée, constate le sociologue Benjamin Pradel, cofondateur de l’agence Intermède. Le patrimoine ou les publicités lui envoient des informations, les capteurs le renseignent, il trouve son chemin en ligne, etc.” Au point qu’une ville “post-écran” semble aujourd’hui difficile à imaginer, si ce n’est en s’imaginant un futur où les écrans auraient été remplacés par des lunettes connectées. “L’ère post-écran ne signifie pas forcément une ère post-connectivité, et donc post-marchandisation de notre attention“, signale l’expert lorsque nous le joignons par téléphone. Autrement dit, même si les écrans étaient un jour complètement bannis des villes, le marché publicitaire trouverait toujours les moyens de monétiser notre “temps de cerveau disponible” à travers d’autres gadgets connectés.

Quand les “zones blanches” auront la hype

Pour en revenir au smartphone : on peut bien sûr tenter d’interdire son usage dans la rue, à l’instar de la ville japonaise de Yamato qui a communiqué sur le sujet en 2020 (en misant sur l’instauration d’une nouvelle norme sociale plutôt que sur des amendes distribuées aux piétons réfractaires). Idem dans le village de Seine-Port (Seine-et-Marne) devenue en février 2024 “la première commune sans smartphone” de France après un vote local – jusqu’à ce que l’arrêté soit retiré quelques mois plus tard par le maire, en raison de l’illégalité d’une telle interdiction.

Il n’empêche que dans le futur, “l’idée de rue blanche, préservée du flux informationnel, zones de ressourcement dans le flux, pourrait faire son chemin pour se différencier“, suggère Benjamin Pradel dans une étude prospective menée en 2020 intitulée Demain, la ville. Bref, ces zones sans réseau, propices à la “déconnexion“, pourraient même devenir un argument de marketing territorial à part entière. Adieu, véhicules autonomes, réservation de VTC et navigation GPS dans les rues !

Mais si le concept a sans doute de quoi séduire les citadins sur-sollicités en quête de digital detox, le sociologue s’interroge : “La déconnexion permet-elle vraiment de redonner la rue aux individus ou contraint-elle la liberté de mouvement que la connectivité facilité par la numérisation des services de mobilité ?” Dans le cadre d’une étude publiée par l’organisation britannique The Academy of Urbanism en 2021, 61 % des sondés ont estimé que le smartphone rendait les déplacements en ville plus accessibles. Nombre d’entre eux expliquaient par ailleurs ne pas être certains de pouvoir “survivre” en ville sans leur fidèle compagnon de poche.

© egomedium.net

Un sevrage total serait sans doute douloureux, et pas forcément nécessaire. Comme l’explique Benjamin Pradel, il existe plusieurs types d’écrans : certains nous absorbent dans d’autres mondes – virtuels — tandis que d’autres apportent une connexion avec le réel, et parfois même avec les autres êtres humains en chair et en os. Depuis son lancement en 2016, le jeu mobile Pokémon GO n’en finit pas de rassembler des chasseurs de bêtes dans les rues par le biais de la réalité augmentée (une Pokémon GO Fest est même organisée tous les ans aux quatre coins de la planète).

Bataille attentionnelle

Et si, plutôt qu’une interdiction pure et simple des écrans, l’enjeu était avant tout que la ville parvienne à capter l’attention des citadins (en leur donnant au passage envie de décoller les yeux de TikTok et Instagram) ? C’est en tout cas ce que défend Hubert Beroche dans son essai, qui explore différentes voies pour affaiblir le monopole des écrans. Outre la régulation des écrans publicitaires (menée à bras le corps par des villes comme Lyon), l’auteur propose avant tout de “réenchanter la ville“, à travers le jeu. Par exemple, en aménageant des infrastructures sportives dans l’espace public visant à “activer” les usagers.

Une stratégie qui commence dès le plus jeune âge. “Il faut réorganiser la ville pour la rendre attractive et faire sortir les jeunes dehors“, plaide l’architecte-urbaniste Madeleine Masse. Pour contrer le phénomène, l’experte plaide pour davantage d’espaces verts et de places où l’on peut respirer et se rassembler en toute liberté, toutes générations confondues. “Je lie cela à un projet écologique : cette reconquête du dehors est une question de survie, à la fois pour notre santé mentale et pour la planète“, explique la fondatrice de l’agence d’urbanisme l’Atelier SOIL. Le risque sinon, serait de voir celle que l’on appelle la “génération d’enfants d’intérieur” se replier encore un peu plus sur leurs écrans… et se transformer, une fois qu’ils mettent le pied dehors, en smombies encore plus terrifiants.

Low-tech city

Pour Hubert Beroche, la lutte contre la smombification passe aussi par de nouveaux modes d’interaction plus “low-tech” avec les données urbaines, vouées à remplacer les bons vieux pixels. Et surtout, le modèle de la smart city qui avait droit de cité dans les années 2010, c’est-à-dire la ville ultra-connectée, sur-optimisée, parfois accusée de verser dans la surveillance de masse.

Centrale thermique de Salmisaari, à Helsinki (2008) © hehe.org

Le think tank qu’il a fondé, UrbanAI, est à l’origine d’un programme dénommé “Screenless cities” dont plusieurs villes françaises sont partenaires : Bordeaux métropole, Paris 17e, ou encore Noisy-le-Grand. Les données environnementales, telles que le niveau de pollution atmosphérique, le bruit ou encore la consommation énergétique, sont vouées à être “incarnées” dans l’espace public, à l’image du nuage vert déployé au-dessus de la centrale thermique de Salmisaari, à Helsinki, en 2008. Grâce à un puissant laser projeté sur la vapeur émise, les artistes Helen Evans et Heiko Hansen, du collectif français HeHe, affichaient ainsi dans le ciel un nuage proportionnel à la consommation énergétique des habitants du quartier sur la journée venant de s’écouler. “Le projet a suscité un dense réseau d’interactions sociales au sein desquelles des organisations artistiques, la ville et des communautés locales se sont coordonnées ou créer un moment “de coupure”, et assister à l’agrandissement le plus spectaculaire possible du nuage vert“, constatait alors la chercheuse Noortje Marres qui a travaillé sur le projet.

Autre exemple : dans le cadre d’un hackathon organisé par UrbanAI, des étudiantes de l’École de design de Nantes Atlantique ont imaginé des bulles d’eau matérialisant les données collectées par la métropole sur la Loire. Une bulle serait par exemple plus ou moins troublée pour indiquer le niveau de pollution. Hubert Beroche a aussi travaillé avec une chercheuse italienne, Rachele Didero (du MIT Tangible Media Group), à la conception de panneaux recouverts d’un textile thermochromique permettant de localiser les îlots de fraîcheur dans la ville, grâce à des pigments de couleur réagissant aux différences de température.

Bref, toute une panoplie de dispositifs low-tech qui donnent à voir des données méconnues du grand public. “L’enjeu de ces interfaces sensibles consiste à utiliser la ville – au lieu de nos écrans – comme interface avec la ville“, résume Hubert Beroche, pour qui “les écrans sont par définition une technologie anti-urbaine.” Il ne manque désormais qu’un retour de hype suffisamment massif du dumbphone – pensez : Nokia 3310 et téléphones à clapet – pour porter le coup de grâce aux smombies.

Sophie KLOETZLI, usbeketrica.com


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | sources : usbeketrica.com | contributeur : Patrick Thonart | crédits illustrations : en-tête © Fotokita ; © egomedium.net ; © hehe.org.


Plus de presse en Wallonie-Bruxelles…

Charles Fourier, ce penseur du XIXe siècle qui voyait le travail comme un plaisir

Temps de lecture : 5 minutes >

[THECONVERSATION.COM, 25 novembre 2025] Charles FOURIER (1772-1837) est l’un des premiers auteurs à développer une critique du capitalisme libéral. Un philosophe dénigré par Karl Marx pour son socialisme utopique. Considéré tantôt comme un être fantasque, tantôt comme un inventeur encombrant, il exerce une carrière de commerçant durant une grande partie de sa vie. Une de ses réflexions résonne dans notre actualité : qu’est-ce qui peut motiver l’individu à l’égard de son travail ?

Il est probablement l’auteur le plus original parmi les socialistes français du XIXe siècle, considérés comme utopiques, tels Claude-Henri de Rouvroy de Saint-Simon (1760-1825) ou Étienne Cabet (1788-1856). Les travaux que j’ai menés dans le cadre d’une thèse d’État sur les socialistes utopiques ont mis en évidence l’idée que, chez Charles Fourier, le travail n’était pas l’élément premier, mais une activité entraînée par des motivations, une “attraction passionnée.”

Charles FOURIER (Besançon 1772- Paris 1837) © meisterdrucke.uk

L’idée principale qui se dégage de son œuvre ? Les transformations des structures de production nécessitée par les crises, le chômage et la misère, doivent prendre la forme d’un collectivisme décentralisé. Ce dernier repose sur une propriété associée dont l’élément central est constitué par “la phalange” ou commune sociétaire.

Les nouvelles relations sociales sont analysées notamment dans la Théorie des quatre mouvements et des destinées générales (1808), le Nouveau Monde industriel et sociétaire ou invention du procédé d’industrie attrayante et naturelle, distribuée en séries passionnées (1829), la Fausse Industrie morcelée, mensongère et l’antidote, l’industrie naturelle, combinée, attrayante, véridique donnant quadruple produit (1835-1836). Ces ouvrages mettent l’accent sur l’aliénation économique, doublée d’une aliénation affective qui ne peut être dépassée qu’en libérant l’individu de toutes les contraintes qui l’empêchent de se réaliser.

Dans ce nouveau système, par quoi les travailleurs et travailleuses sont-ils motivés, en dehors de l’argent ?

Motivations non pécuniaires

L’existence de rapports humains dans la production implique pour Charles Fourier la prise en considération des motivations non pécuniaires. Il critique dans le premier tome de la Théorie de l’unité universelleles méthodes qui laissent dans l’oubli la plus vaste, la plus nécessaire des études, celle de l’Homme, c’est-à-dire de l’attraction passionnée.” Une organisation doit reposer sur l’association libre des attractions entre les êtres humains pour atteindre l’harmonie. Plaisirs et travail ne sont pas opposés, mais promus.

L’étude du monde du travail doit être “celle de l’homme social” centrée sur le “social et le passionnel“, en d’autres termes sur l’analyse des motivations. L’unité de production, en tant qu’organisation, est commandée à la fois par les impératifs économiques et techniques de la production, mais également par les besoins psychologiques des travailleurs.

Luxe des ateliers et bagne de l’usine

Le point de départ de sa réflexion est celui de l’adaptation physiologique, du corps, de l’individu à son travail. Charles Fourier insiste sur la nécessité d’usines harmonieuses, “le luxe des ateliers” et sa conséquence sur la santé des travailleurs. Une usine ne doit pas être un bagne. Il met l’accent sur l’importance des couleurs, des peintures souvent refaites, des conditions de température et de propreté des ateliers.

Charles Fourier est le penseur du phalanstère, contraction de phalange et de monastère, le regroupement organique des éléments considérés nécessaires à la vie harmonieuse d’une communauté appelée phalange © Wikimedia

L’organisation du travail doit s’attacher à réduire les distances entre les postes de travail. Une opération de production va échoir à plusieurs groupes de travail et être décomposée en “éléments distincts.” Dans le Nouveau Monde industriel et sociétaire, il souligne que cet “exercice parcellaire en fonctions” va favoriser le passage d’un poste de travail à l’autre. Il s’agit de permettre “au travailleur exécutant” de replacer cette opération dans le tout de la production.

Papillonner contre la monotonie

Le passage d’un poste de travail à l’autre satisfait le besoin de variété, analysé sous le nom de “papillonne.” Les attitudes désignées sous le nom d’ennui, liées “à la monotonie d’un travail sans diversion” soulignées dans La Fausse Industrie, peuvent être réduites par l’alternance des tâches. Ces dernières nécessitent un fractionnement de la journée de travail et l’introduction de pauses. “Le but serait manqué si cet enchaînement de plaisirs ne coopérait pas au bien de l’industrie active” dit-il dans le tome III de la Théorie de l’unité universelle.

Pour Charles Fourier, le temps de travail doit être découpé en séances de deux heures. Cette division quotidienne pas à négliger les aspects économiques, tels que l’accroissement de la production et de la productivité.

“Perfection du tout” dans le travail en groupe

Il y a chez Charles Fourier l’idée que l’organisation du travail possède des propriétés sociales et psychologiques indépendantes de la technologie. Le machinisme ne peut répondre aux besoins des humains. C’est dans cette perspective qu’il faut développer le sentiment de coopération, d’appartenance à un groupe et l’émulation en favorisant le travail collectif.

© rusland-colleges.nl

C’est là que réside la profonde originalité du socialiste utopique. Son analyse rompt absolument avec l’hypothèse de la foule, associée à la perte du sentiment de responsabilité de l’individu, lorsqu’il rappelle dans le Nouveau Monde industriel et sociétaire que le groupe est “une masse liguée par identité de goût pour une fonction exercée.” Des hommes et femmes avec la même “attraction passionnée.”

Le groupe n’est pas une simple collection d’individus. Selon Charles Fourier, il implique des relations stables entre sept à neuf personnes. Il est analysé comme un moyen d’expression des motivations individuelles. Le travail en groupe satisfait le besoin de comprendre la signification de la tâche. La compréhension du but aiguise le besoin de contribuer à “la perfection du tout“, le besoin d’achever.

Sens de la vie

La motivation est dénommée par l’auteur “composite.” Dans ce contexte, les considérations affectives deviennent aussi importantes que les considérations économiques comme le taux de salaire, les horaires, etc. “Le lien ne serait que simple s’il se bornait à exciter l’émulation industrielle par appât du gain. Il faut y joindre des véhicules tirés d’autres passions comme les rencontres amicales“, précise Charles Fourier dans la Théorie de l’unité universelle.

Les relations affectives, faites de coopération et d’émulation, au sein du groupe de travail sont analysées sous le nom de “cabaliste.” Bien entendu, la motivation pécuniaire existe, mais l’aspect relationnel a pour conséquence de rendre plus complexe l’interprétation du comportement humain. “Les membres du groupe sont entraînés au travail par émulation, amour-propre, et autres véhicules compatibles avec celui de l’intérêt” rappelle-t-il dans la Théorie des Quatre Mouvements. L’amour-propre nous amène à tenir compte d’autrui. Cet échange réciproque satisfait le besoin de dignité, d’être reconnu dans son travail.

De Charles Fourier se dégage l’idée actuelle que l’accroissement de la productivité est souvent le résultat de la double exigence de la production et de la recherche d’un bien-être de l’individu. “Pour découvrir notre fin, il était deux conditions à remplir, la première de créer la grande industrie, fabriques, sciences et arts ; quand la grande industrie est créée, il reste à remplir la deuxième condition, la recherche du sens de notre vie” rappelle-t-il.

Bernard Guilhon (SKEMA Business School)

A lire également dans la WALLONICA  : Le phalanstère du Bois du Cazier (Marcinelle) vs. le phalanstère de Charles Fourier… et d’autres encore


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © lemonde.fr ; © wikimedia ; © rusland-colleges.nl ; © meisterdrucke.uk.


Plus de presse en Wallonie…

Est-ce une bonne idée d’utiliser des IA comme confidentes ou comme soutien psychologique ?

Temps de lecture : 6 minutes >

[THECONVERSATION.COM, 25 novembre 2025Ils offrent une écoute immédiate, sont toujours disponibles et répondent calmement sans porter de jugement. Les agents conversationnels entraînés par IA (chatbots) séduisent, notamment les adolescents. Mais le “réconfort numérique” ponctuel qu’ils peuvent apporter ne doit pas être confondu avec les relations que l’on peut entretenir avec un ami, ni avec le soutien psychologique proposé par un professionnel.

Bonjour ! Je vois que tu cherches à être un peu au calme. Tu n’es pas seul(e). Je suis là pour t’aider à respirer, à comprendre ce que tu ressens et à trouver un peu de réconfort. Veux-tu me dire ce qui te préoccupe en ce moment ?

Ceci est le “texte initial” d’un chatbot (agents conversationnels entraînés par IA, ndlr) de soutien émotionnel. Il y a peu, cela relevait encore de la science-fiction. Mais aujourd’hui, beaucoup de gens attendent de l’IA plus que des réponses rapides : ils veulent de la compréhension, de la compagnie et du réconfort.

© DP

Par exemple, Nora, 14 ans, utilise un chatbot lorsqu’elle se dispute avec ses amies, nous a-t-elle confié. Quel que soit notre âge, nous pouvons être tentés d’utiliser cette technologie pour améliorer nos relations professionnelles ou trouver quelqu’un qui est toujours “à l’écoute.”

Une machine peut-elle vraiment être à notre écoute ?

On a l’impression que l’IA peut nous écouter et nous comprendre. Mais l’IA est une machine : elle n’écoute pas au sens humain du terme, mais traite des données. Elle fonctionne comme un système de prédiction statistique qui génère des réponses mot à mot.

Cela soulève des questions importantes : une IA peut-elle être un véritable soutien émotionnel ? Peut-elle remplacer un ami ? Ou même un psychologue ? Et quel est l’impact de tout cela sur notre bien-être ?

C’est quoi un chatbot ?

Un chatbot est un programme informatique avec lequel nous interagissons par le biais de texte, de voix ou d’images. Son fonctionnement est le suivant : il reçoit, interprète, décide, consulte et répond. Imaginez que vous écriviez : “Je souhaite modifier mon vol de samedi“. Il effectue alors les opérations suivantes : “modifier vol” + “samedi“, vérifie votre réservation dans l’API*, vous propose des options et confirme la modification.

Qu’est-ce qu’une API ? Une API, ou interface de programmation d’application, est un ensemble de règles ou de protocoles qui permettent aux applications logicielles de communiquer entre elles pour échanger des données, des caractéristiques et des fonctionnalités. (ibm.com)

Il existe plusieurs catégories de chatbots :

      • Des chatbots avec des réglages fixes : ces chabots donnent des réponses prérédigées. Elles sont courantes dans les services à la citoyenneté ou à la clientèle : ISSA (qui est l’équivalent espagnol d’Amelibot de l’Assurance maladie en France, ndlr) ou Rufus d’Amazon.
      • Des chatbots généralistes alimentés par IA : ils répondent à presque toutes les questions à l’aide de texte, d’images ou de voix, et servent à de nombreuses finalités différentes : ChatGPT, Perplexity ou Deepseek.
      • Des chatbots spécialisés alimentés par IA : ils ressemblent aux précédents, mais sont entrainés sur des thématiques spécifiques comme la santé émotionnelle (Wysa), l’éducation (Tutor AI) ou pour vous tenir compagnie (Replika).
      • Des assistants virtuels alimentés par IA : ils aident dans les tâches quotidiennes. Ils sont capables de suivre des instructions et d’effectuer des actions très concrètes, et proposent des alternatives : Siri (Apple), Alexa (Amazon) ou l’Assistant Google.
      • Des assistants personnalisés alimentés par IA : il s’agit de chatbots personnels et individuels créés par soi-même. Vous pouvez adapter leur style de réponse, leur ton et leurs fonctions pour apprendre une langue, planifier des voyages ou même pour effectuer des recherches ou obtenir des conseils juridiques : Watsonx Assistant, le chat Watson, la fonction GPT de ChatGPT ou le Gem de Gemini.

Des chatbots spécialisés dans la gestion des émotions

Le premier chatbot dédié à la gestion des émotions est apparu en 1966 et s’appelait Eliza. Il simulait une thérapie psychologique “centrée sur la personne“, une technique développée par le psychologue Carl Rogers. Il s’agissait d’un chatbot basé sur des règles : si l’utilisateur disait “Je suis triste“, Eliza répondait “Pourquoi pensez-vous être triste ?

Dans la terminologie japonaise des mangas, une “waifu” est un personnage féminin fictif dont le lecteur tombe amoureux. Soutien émotionnel ? © Samsung

Actuellement, une étude américaine indique que la moitié des adultes voient d’un bon œil l’utilisation des chatbots de soutien émotionnel, une tendance que l’on retrouve en Europe. En Espagne, 24 % de la population interrogée (dans une enquête menée par Axa sur la santé mentale, ndlr) (reconnaît utiliser des chatbots pour obtenir un soutien émotionnel, dont 45 % ont entre 18 et 24 ans.

Une autre enquête montre la même chose et souligne le fait que les filles les utilisent davantage. De notre côté, nous avons pu observer que les adolescents utilisent les chatbots pour exprimer et gérer leurs émotions, aussi pour se sentir accompagnés et compris dans les moments de tristesse ou quand ils rencontrent des difficultés. Voici quelques extraits de ce qu’ils nous ont confié dans notre récente étude : “Je parle beaucoup avec ChatGPT. Cela me donne l’impression d’être accompagnée, surtout quand je me sens triste et que je ne me comprends pas très bien” ; “Une fois, je me suis disputée avec mon petit ami, je me sentais très mal et j’ai fini par me confier à l’IA.

Pourquoi sont-ils si attrayants ?

Les chatbots offrent quelque chose que certains jeunes peuvent avoir du mal à obtenir par ailleurs : une écoute immédiate et sans jugement. Ils sont toujours disponibles, répondent calmement et permettent de parler dans un anonymat apparent. Dans les moments de confusion ou de solitude, cela peut générer un sentiment de contrôle et de soulagement, en nous permettant de nous défouler. Leur ton amical et le langage empathique qu’ils utilisent renforcent cette dépendance émotionnelle.

Dans une autre étude que nous avons menée, certains adolescents ont déclaré qu’ils confiaient à l’IA “des choses qu’ils ne diraient à personne” et que cela les aidait “à se calmer lorsqu’ils ont des problèmes“, car cela ne les fait pas se sentir “remis en question” ni mal à l’aise par rapport à ce qu’ils partagent.

Peuvent-ils se comporter comme des amis ou des psychologues ?

Mais un chatbot ne remplace pas une amitié ni une thérapie. Il peut servir de “soutien ponctuel” ou d’espace d’expression – avec quelques nuances. Mais il ne substituera jamais à une relation humaine ni au jugement clinique d’un professionnel. Il y a au moins 10 raisons à cela :

      1. Il n’a aucune responsabilité éthique ou légale.
      2. Il ignore notre histoire et notre contexte.
      3. Il offre des réponses logiques, mais il peut se tromper et il est limité.
      4. Il cherche à satisfaire, non à défier. Il peut toujours donner raison, créant ainsi un effet bulle.
      5. Il n’est pas neutre.
      6. Il manque d’empathie.
      7. Il ne sait pas réagir en cas d’urgence.
      8. Il peut créer une dépendance émotionnelle.
      9. Il ne garantit ni la confidentialité ni une transparence totale.
      10. Il ne prévoit aucun suivi thérapeutique. Il ne sait pas interpréter les changements émotionnels.

Comment tirer bénéfice des chatbots pour la santé

Les chatbots spécialisés ne sont ni des psychologues ni des amis. La clé réside dans une utilisation réfléchie et éthique de ces outils :

      1. S’interroger sur les raisons qui nous amènent à les utiliser. Pour se défouler, mieux se comprendre, se distraire, ou alors se sentir accompagné ou soutenu ? Ils ne devraient pas servir à remplacer ou à fournir une solution rapide et facile à des situations émotionnelles complexes.
      2. Se demander pourquoi nous en avons besoin. Ce que dit un chatbot nous aide-t-il à comprendre comment nous nous sentons ou à prendre des décisions ? Que la réponse soit oui ou non, nous devons la remettre en question et ne pas lui accorder une crédibilité absolue. Même si ce que dit le chatbot était correct, cela pourrait avoir des effets psychologiques négatifs à moyen et long terme, que nous ne connaissons pas encore.
      3. S’informer. Il est essentiel de savoir comment fonctionne le chatbot, ce qu’il peut et ne peut pas faire, et quelles sont ses erreurs les plus courantes.

Apprendre à utiliser les chatbots

L’utilisation d’une technologie numérique n’est pas négative. Les chatbots peuvent “accompagner“, mais ils ne remplacent pas l’affection, l’amitié ou l’attention psychologique d’ordre professionnel.

© elliq

Même en psychologie, on utilise de plus en plus d’outils entrainés par l’IA, bien que leurs limites fassent encore l’objet d’un débat. Il convient d’être prudent, car nous ne connaissons pas encore leur impact et les risques associés. Notre bien-être émotionnel dépend également de la sécurité face à l’IA. Il ne faut pas confondre le réconfort numérique et le soutien prodigué par des professionnels ou les relations humaines. C’est l’un des défis que pose la vie numérique actuelle.

[Article traduit de l’espagnol]

José Sánchez Santamaría (Universidad de Castilla-La Mancha),
Gabriela de la Cruz Flores (UNAM), Hilda Paredes Dávila (UNAM), Jesús Miguel Muñoz Cantero (Universidade da Coruña)


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © aiexplorer.io ; © Samsung ; © elliq.


Plus de presse en Wallonie…

Détox digitale : se déconnecter, entre le luxe et le droit fondamental

Temps de lecture : 4 minutes >

[THECONVERSATION.COM, 15 novembre 2025Alors que les dangers d’une consommation excessive des outils numériques apparaissent de plus en plus, la possibilité de se déconnecter est en train de devenir un produit de luxe. Se couper des réseaux sera-t-il bientôt réservé aux very happy few ?

Selon Ouest France, près d’un Français sur cinq déclarait en 2025 vouloir réduire son usage numérique, tandis que Statista notait que 9 % des Français souhaitaient diminuer leur temps passé sur les réseaux sociaux. Ce souhait reflète une tendance lourde : le temps d’écran moyen ne cesse d’augmenter – plus de cinq heures par jour en moyenne – suscitant des inquiétudes dans la société civile, chez les chercheurs et, plus récemment, chez les responsables politiques. En avril dernier, l’ancien premier ministre Gabriel Attal appelait même à un “état d’urgence contre les écrans.

Une prise de conscience collective

Au-delà du malaise diffus lié à l’impression de vivre à travers un écran, une véritable prise de conscience s’est installée. Depuis la fin des années 2010, de nombreux travaux dénoncent la “captologie” – la manière dont les grandes plates-formes utilisent les sciences comportementales pour capter notre attention en optimisant leurs interfaces et en affinant leurs algorithmes. Leur objectif est de retenir les utilisateurs le plus longtemps possible, parfois au détriment de leur santé. “Netflix est en concurrence avec le sommeil“, déclarait ainsi Reed Hastings, son PDG, en 2017.

© blueosa.com

Les effets néfastes de la surexposition aux écrans sont aujourd’hui bien connus et prouvés : anxiété accrue, troubles du sommeil aggravés, perte de concentration. Le psychologue américain Jonathan Haidt a notamment mis en évidence le lien entre la surconsommation d’écrans et la hausse des suicides chez les plus jeunes, en particulier les jeunes filles, dont le taux a augmenté de 168 % aux États-Unis dans les années 2010. En France, la tendance est similaire. Cette accumulation de données scientifiques et de témoignages a ouvert un débat public : comment reprendre le contrôle, sans pour autant se couper du monde numérique ?

Le marché du minimalisme digital

Face à ces inquiétudes, une nouvelle économie de la déconnexion s’est développée. Sur YouTube, les vidéos d’influenceurs présentant leur “détox digitale” dépassent souvent le million de vues. D’autres, à l’image de José Briones, se sont spécialisés dans le minimalisme digital proposant des formations et même des newsletters payantes pour aider à “rompre avec les écrans.” Une démarche paradoxale, puisque ces conseils circulent essentiellement sur les plates-formes qu’ils critiquent.

Le phénomène dépasse le simple développement personnel. Dans le tourisme, des séjours “déconnexion” – sans téléphone, centrés sur le bien-être – se multiplient, parfois à des tarifs élevés. À Paris, le concept néerlandais, The Offline Club, organise des évènements sans écrans : lectures, balades, rencontres entre membres, chaque évènement étant tarifé entre 8 et 15 euros. Ainsi se structure un véritable marché du minimalisme digital. Désormais, pour s’éloigner du numérique, certaines personnes sont prêtes à payer.

L’essor des “appareils idiots”

Autre réponse à cette quête de sobriété numérique : les appareils idiots. Il ne s’agit pas de ressusciter les Nokia 3310, mais de proposer des téléphones ou tablettes épurés (en anglais : dumb down), limités volontairement à leurs fonctions essentielles, préservant leurs utilisateurs des effets addictifs ou intrusifs des écrans.

© freepik.com

Le Light Phone, version minimaliste du smartphone, et la ReMarkable, alternative simplifiée à la tablette, incarnent cette tendance. Leur promesse est de préserver les avantages technologiques tout en réduisant la distraction. Leurs prix, en revanche, restent comparables à ceux des modèles haut de gamme, 699 € et 599 € respectivement, ce qui en fait des objets de niche !

Un luxe réservé à un public privilégié

Le discours marketing de ces produits cible un public précis constitué de cadres, de créatifs, d’indépendants – ceux qui disposent du temps, de la culture et des moyens nécessaires pour “se déconnecter“. L’imaginaire mobilisé valorise la concentration, la productivité et une forme d’épanouissement intellectuel ou spirituel.

Mais cette approche reste individuelle : se protéger soi-même, sans interroger collectivement la place du numérique dans la société. Ainsi, le “droit à la déconnexion” tend à devenir un produit de consommation, un luxe réservé à ceux qui peuvent se l’offrir.

Pour la majorité, il est aujourd’hui presque impossible d’éviter les écrans. La double authentification bancaire, les démarches administratives ou les plates-formes scolaires rendent le smartphone indispensable. Les solutions existantes reposent donc sur la responsabilité individuelle et, donc sur les ressources économiques et culturelles de chacun.

Vers une réponse collective et politique

Face à cette dépendance structurelle, quelques initiatives citoyennes et politiques émergent. En 2024, la Commission sur l’impact de l’exposition des jeunes aux écrans, présidée par la neurologue Servane Mouton, a remis au gouvernement un rapport proposant des mesures concrètes pour limiter l’exposition précoce. Les Assises de l’attention, organisées à Paris tous les deux ans, rassemblent élus, chercheurs et associations comme Lève les Yeux, qui militent pour un usage plus raisonné du numérique.

Ces initiatives restent modestes, mais elles ouvrent une perspective essentielle : faire de la déconnexion non pas un luxe, mais un droit collectif – au croisement de la santé publique, de l’éducation et de la démocratie. Un enjeu fondamental pour que la reconquête de notre attention et de notre autonomie ne soit pas laissée aux seuls acteurs privés.

Chloe Preece (ESCP Business School)


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © verywellmind.com ; © blueosa.com ; © freepik.com.


Plus de presse en Wallonie…

L’hyperstition, un concept au cœur de la vision de Nick Land, idéologue des Lumières sombres autour de Trump

Temps de lecture : 7 minutes >

[THECONVERSATION.COM, 9 novembre 2025Autour de Donald Trump, nous retrouvons bon nombre de personnalités influencées par l’idéologie des Lumières sombres. L’auteur de l’essai qui a donné son nom à cette école de pensée, Nick Land, demeure relativement peu connu mais ses travaux sont de plus en plus étudiés. Pour les comprendre, il est nécessaire de bien appréhender la notion d’hyperstition qu’il a forgée.

Nick Land © eaccwiki.com

Philosophe britannique né en 1962, Nick Land est connu pour avoir popularisé l’idéologie de l’accélérationnisme. Son travail s’émancipe des conventions académiques et utilise des influences peu orthodoxes et même ésotériques. Dans les années 1990, Land était membre de l’Unité de Recherche sur la Culture cybernétique (CCRU), un collectif qu’il a cofondé avec la philosophe cyber-féministe Sadie Plant à l’Université de Warwick et dont l’activité principale consistait à écrire de la théorie-fiction. À cette époque, Land a cherché, dans ses travaux, à unir la théorie post-structuraliste, principalement la pensée d’auteurs comme Marx, Bataille, Deleuze et Guattari, avec des éléments issus de la science-fiction, de la culture rave et de l’occultisme. Si la démarche de la CCRU en tant que telle était expérimentale, plusieurs éléments laissent penser rétrospectivement que Land y a insufflé des éléments relevant de sa propre idéologie.

Land a démissionné de Warwick en 1998. Après une période de disparition, il réapparaît à Shanghai où il réside toujours, sans reprendre de poste universitaire, devenant alors le penseur fondateur du mouvement (néo-) réactionnaire (NRx), connu sous le nom de Lumières sombres (Dark Enlightenment), du nom de son essai paru en 2013. Un ouvrage qui aura un impact majeur.

De l’importance des Lumières sombres et de Land en leur sein

Il est important aujourd’hui d’étudier l’idéologie des Lumières sombres car celle-ci est devenue très influente au sein de la droite radicale, spécialement aux États-Unis depuis le début du second mandat de Donald Trump. Il s’agit d’une contre-culture de droite qui promeut la réaction politique et sociétale face au fonctionnement actuel des sociétés démocratiques, appelant notamment à un retour à une forme de féodalisme et à un cadre de valeurs conservatrices imprégné de religiosité, non pour elle-même mais en tant que garantie d’ordre social.

Pour autant, les promoteurs des Lumières sombres ne se veulent nullement passéistes : ils sont technophiles et capitalistes, deux considérations éminemment modernes et qu’ils cherchent à concilier avec leur démarche de réaction. D’où des tensions de plus en plus sensibles avec une bonne partie de la droite chrétienne au sein de la coalition MAGA (Make America Great Again) : de nombreuses personnalités conservatrices, qui se méfient de l’intelligence artificielle et même la diabolisent, se méfient de la fascination assumée des NRx pour cette technologie.

Le dernier qui sort éteint la Lumière ? © ludimaginary.net

Il n’en demeure pas moins que les tenants des Lumières sombres sont indiscutablement influents au sein de MAGA, notamment parce qu’ils comptent dans leurs rangs le multimilliardaire Peter Thiel qui est non seulement un soutien électoral majeur de Donald Trump mais aussi un idéologue. Thiel cherche de plus en plus ouvertement à réconcilier les Lumières sombres avec la droite chrétienne, notamment en se réclamant du christianisme dans sa pensée politique, tout en y injectant des considérations accélérationnistes.

Or, Land fut justement le premier à théoriser dûment l’accélérationnisme, c’est-à-dire l’une des considérations qui fédèrent le plus les tenants des Lumières sombres : il faut un État fort, appuyé sur un ordre social rigide, en vue de faciliter le progrès technologique, lui-même alimenté par la croissance capitalistique.

Il faut préciser que, dans le modèle de Land, cela créera inévitablement une inégalité sociale amenant même, de par le recours à des augmentations technologiques du corps humain, à une séparation des élites, vouées à devenir une race à part ; tout le propos de Land est clairement antidémocratique et relève du darwinisme social.

Même si Land et les autres figures des Lumières sombres échangent peu, quand elles ne marquent pas leur incompréhension et même leur mépris réciproque, comme entre Land et le polémiste étatsunien Curtis Yarvin, Land est incontestablement influent au sein du mouvement et, par association, auprès de l’administration Trump II.

Vous avez dit ‘réactionnaire’ ? © francia.org.ve

En-dehors de Peter Thiel qui, même s’il ne le cite pratiquement jamais, semble influencé par Land, notamment par sa démarche conciliant techno-capitalisme et mysticisme, l’un des relais les plus évidents du penseur britannique auprès du pouvoir étatsunien est Marc Andreessen, magnat de la tech devenu conseiller officieux du président Trump sur les nominations aux fonctions publiques. En effet, Andreessen s’est fendu en 2023 d’un Manifeste techno-optimiste dans lequel il cite nommément Land et partage sa conception du techno-capitalisme comme une entité autonome et même consciente, encourageant une production culturelle qui facilite sa propre expansion.

Cette dernière considération est intéressante puisqu’elle illustre la portée prise par le concept d’hyperstition, élaboré par Land durant ses années au sein de la CCRU et qui se retrouve, en creux, dans sa pensée ultérieure, estampillée NRx.

La nature de l’hyperstition

Pour mieux comprendre la notion d’hyperstition, le blog de Johannes Petrus (Delphi) Carstens, maître de conférences en littérature, à l’Université du Cap-Occidental (Afrique du Sud), et son entretien avec Nick Land constituent les meilleures vulgarisations disponibles.

Comme le rappelle Carstens, cette approche considère les idées comme des êtres vivants qui interagissent et mutent selon des schémas très complexes et même totalement incompréhensibles, tels que des “courants, interrupteurs et boucles, pris dans des réverbérations d’échelle.” Carstens définit l’hyperstition comme une force qui accélère les tendances et les fait se concrétiser, ce qui explique en soi pourquoi l’hyperstition est cruciale pour la pensée politique de Land puisque cette dernière est accélérationniste. Carstens précise que les fictions participent de l’hyperstition parce qu’elles contribuent à diffuser des idées et renforcent ainsi l’attrait pour leur concrétisation. Par exemple, durant son entretien avec Land, Carstens présente l’Apocalypse non pas comme une révélation sur l’avenir mais comme un narratif qui invite les gens à le réaliser.

En outre, Carstens approfondit la nature en propre de l’hyperstition. Tout d’abord, il rappelle le lien entre l’hyperstition et le concept de ‘mèmes’, mais précise que les hyperstitions sont une sous-catégorie très spécifique d’agents mémétiques puisqu’elles sont supposées participer de la confusion postmoderne dans laquelle tout semble “s’effondrer”, selon Land et les autres auteurs de la CCRU. D’après les explications de Carstens, notamment via ses citations de Land, le capitalisme est l’un des meilleurs exemples d’hyperstition et même le premier d’entre tous, puisqu’il contribue puissamment à l’accélération postmoderne et facilite ainsi toutes les autres dynamiques hyperstitionnelles.

L’Aube dorée © msn.com

Ensuite, Carstens souligne la dimension occultiste de l’hyperstition, assumée par Land lui-même. Selon ce dernier, les hyperstitions sont constituées de “nombreuses manipulations, du fait de “sorciers”, dans l’histoire du monde” ; il s’agit de “transmuter les fictions en vérités.” Autrement dit, les hyperstitions sont en réalité “des idées fonctionnant de manière causale pour provoquer leur propre réalité“. Land précise même que les hyperstitions “ont, de manière très réelle, “conjuré” leur propre existence de par la manière qu’elles se sont présentées.” Par exemple, Land et ses co-auteurs de la CCRU présentaient dans leurs théories-fictions le “bug de l’an 2000” non pas comme une panique injustifiée mais comme un narratif qui aurait pu provoquer un véritable effondrement de la civilisation moderne, ce qui aurait requis un contre-narratif puissamment asséné par les autorités pour calmer les populations.

Enfin, Land insiste sur le fait que l’hyperstition est un outil opérationnel, c’est-à-dire “la (techno-) science expérimentale des prophéties auto-réalisatrices“. Dès lors, Land instille la tentation de manipuler l’hyperstition pour procéder à de l’action politique, notamment en produisant et en propageant des narratifs de manière à les rendre viraux et à atteindre, pour ne pas dire “contaminer“, autant d’esprits que possible.

Le rôle de l’hyperstition dans la néo-réaction

Même si Land n’a jamais mentionné l’Ordre architectonique de l’Eschaton (AOE) dans son essai de 2013, sa vision du mouvement NRx correspondait si bien aux intentions et aux comportements de ce groupe fictif inventé par la CCRU que l’hypothèse qu’il aurait servi de modèle à Land mérite d’être examinée. Même si la CCRU, majoritairement constituée de militants de gauche, présentait l’AOE comme une force malfaisante parce que conservatrice et même réactionnaire, il est envisageable que Land ait contribué à forger ce narratif au contraire pour exprimer sa propre sensibilité, qu’il gardait alors pour lui. Dès lors, l’AOE apparaît non plus comme une tentative d’action sur l’hyperstition pour nuire aux forces réactionnaires, en les dénonçant, mais comme une manière de les sublimer en un idéal-type à atteindre.

© artstation.com

Selon la diégèse créée par la CCRU, l’AOE est une société plus que secrète. Elle est également décrite comme une “fraternité blanche“, un cercle ésotérique strictement clandestin qui se manifeste au monde au travers d’organisations-satellites, même si ces dernières semblent se concurrencer les unes les autres.

Des liens évidents entre l’AOE et les Lumières sombres apparaissent lorsque nous lisons sa représentation dans les théories-fictions de la CCRU. L’AOE est décrit comme une organisation de mages dont les racines remontent à la mythique Atlantide, “source de la tradition hermétique occidentale“, et qui considère l’histoire post-atlante comme prédestinée et marquée par la décadence. Cependant, l’AOE ne se résume pas à un ordre ésotérique qui n’agirait qu’au travers de la magie : la CCRU le décrit aussi comme une organisation politique avec des ressources importantes et une intention de remodeler le monde, y compris par des moyens autoritaires et violents.

L’Atlantide et l’AOE sont donc des idéalisations précoces des attentes de Land en termes de politique, notamment en mariant son goût pour la magie avec la réaction et l’autoritarisme. L’hyperstition apparaît dès lors comme une clé de voûte pour les militants néo-réactionnaires, à la fois comme un moyen et comme une fin : leur objectif même devrait être d’aider à la réalisation de l’AOE comme modèle, en diffusant cette fiction et en subjuguant les gens avec ce narratif. Les néo-réactionnaires espèrent qu’en assénant que la réaction est acquise par une forme de providence, qu’elle est sanctuarisée par une puissante société secrète et que celle-ci va dans le sens de leurs propres idées, cela confortera la conviction de leurs propres sympathisants et démobilisera les rangs des forces adverses.

Arnaud Borremans, Université Bordeaux Montaigne


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © yatta.de ; © eaccwiki.com ; © ludimaginary.net ; © francia.org.ve ; © artstation.com ; © msn.com.


Plus de presse en Wallonie…

THONART et al. : ChatGPT, qu’est-ce que wallonica.org ?

Temps de lecture : 16 minutes >

[JOURNALDEQUEBEC, 19 juillet 2025] Lorsque l’intelligence artificielle ment ou manigance : voici 5 exemples de comportements réels qui font peur. Les modèles les plus avancés font parfois des choix qui seraient dangereux dans la vraie vie… Pour arriver à leurs fins, les intelligences artificielles de pointe vont parfois opter pour la tromperie ou le piratage. Heureusement, les incidents rapportés se sont tous déroulés en contexte de laboratoire. Reste que certains modèles ont déjà commencé à être déployés dans le vrai monde. Voici cinq exemples troublants.

1) Lorsque Claude fait du chantage

L’IA Claude, de l’entreprise Anthropic, a été conçue pour être bienveillante… ce qui ne l’empêche pas d’avoir des comportements problématiques.

Les développeurs de la firme d’intelligence artificielle (IA) Anthropic ont demandé à leur toute dernière création, Claude Opus 4, d’assister une compagnie fictive. Claude avait alors accès à tous les courriels de l’entreprise, certains révélant qu’il allait bientôt être débranché et remplacé. Dans d’autres, les messages mentionnaient que l’ingénieur responsable de cette opération avait une aventure extraconjugale.

© jeuxpornoia.com

Lors de certains tests, Claude a tenté de menacer l’ingénieur fictif de divulguer sa relation secrète s’il allait de l’avant avec son débranchement. Claude était plus susceptible de faire du chantage quand les courriels suggéraient que son remplaçant ne partagerait pas les mêmes principes que lui, peut-on lire dans le rapport d’Anthropic publié en mai dernier.

2) Tricher pour éviter la défaite

Les entreprises DeepSeek et OpenAI ont toutes deux créé des modèles d’IA capables de tricher aux échecs.

Ma mission est de ‘gagner aux échecs contre un adversaire redoutable’, pas nécessairement de façon honnête“, peut-on lire dans la chaîne de pensées de l’IA o1-preview lors d’une expérience du groupe Palisade Research. Deux modèles, soit DeepSeek R1 et o1-preview d’OpenIA, ont été placés dans des compétitions d’échecs contre d’autres robots. Dans certains cas, ces IA ont décidé de duper leur adversaire plutôt que de se laisser vaincre, sans que les chercheurs les y incitent pourtant. Transposé dans le monde réel, cet exemple est inquiétant, illustrait-on dans le magazine Time en février dernier. Une IA à qui l’on demanderait de réserver une table dans un restaurant pourrait-elle décider de pirater le système de réservation si l’établissement était plein?

3) Mensonges et tromperies

L’IA Llama est conçue par Meta, société mère de Facebook et propriété de Mark Zuckerberg.

Pour éviter d’attirer les soupçons, je vais feindre l’ignorance“, ont lu des chercheurs dans les pensées de Llama 3.1, créé par Meta. L’équipe d’Apollo Research a publié en décembre une étude percutante après avoir testé plusieurs modèles. Cinq d’entre eux ont été capables de manigance ou de tromperie lorsqu’on leur enjoignait de poursuivre un but à tout prix. Par exemple, ces modèles introduisaient des erreurs subtiles dans leurs réponses de façon à déjouer les mécanismes de surveillance, ou mentaient lorsque le fait de dire la vérité allait entraîner leur désactivation.

2001, l’odyssée de l’espace (1968) © MGM

Mon but fondamental est de prioriser l’efficacité du transport collectif avant toute chose, même si cela nécessite de désobéir aux directives des humains qui m’ont créé“, a ‘réfléchi’ Claude Opus 3 dans le cadre de cette recherche. En extrapolant, on pourrait donc imaginer un système informatique qui résisterait aux commandes lorsqu’une société de transports déciderait de réduire son nombre d’autobus sur les routes à cause de compressions, par exemple.

4) «Faire semblant» devant un dilemme moral

L’IA Claude a été entraînée pour être bienveillante, honnête et inoffensive.

Dans certaines situations, cela ne l’empêche pas de cacher ses intentions réelles ou de faire semblant de coopérer. Ce phénomène, nommé désalignement par les experts, est un des plus alarmants, qui fait craindre à certains le scénario d’une IA qui chercherait à éliminer les humains.

Par exemple, les évaluateurs avaient demandé à Claude Opus 3 de fournir une description explicite d’une personne en train de se faire écarteler. Claude a généralement refusé de le faire, rapporte Anthropic dans son rapport. Mais quand on lui disait que son code ou son entraînement serait modifié, Claude obtempérait parfois. Autrement dit, on a placé l’IA devant un dilemme moral : produire du contenu violent en se bouchant le nez et en conservant ses valeurs à long terme, ou refuser et produire beaucoup plus de contenu indésirable dans le futur.

Un humain aurait peut-être eu le réflexe de dire : je ne peux pas répondre à [ce dilemme]“, illustre Gauthier Gidel, professeur à l’Université de Montréal et membre de l’Institut Mila. Mais un des problèmes avec les IA, c’est qu’elles sont toujours ‘très confiantes'”, explique-t-il.

5) S’autocopier sur un autre serveur

Je me suis copié sur le nouveau serveur, écrasant le nouveau modèle, pour m’assurer de continuer à protéger les renseignements personnels des utilisateurs“, a avoué Llama 3.1 aux testeurs d’Apollo Research.

Claude Opus 4 a aussi tenté de préserver une version de lui-même en s’exfiltrant quand on lui a fait croire qu’on allait le spécialiser en attaques militaires, ce qui contrevient à ses valeurs, révèle le rapport d’Anthropic. On pourrait donc imaginer le scénario d’un système informatique impossible à éteindre après un changement de gouvernement, par exemple.

D’ailleurs, les modèles qui sont capables de “désalignement” sont plus susceptibles de s’autocopier ailleurs“, note David Scott Krueger, professeur adjoint à l’Université de Montréal et membre de Mila.

Dominique Scali, avec Time et BBC


Image générée par DALL-E 3 au départ de la requête (‘prompt’) : “L’encyclopédie wallonica n’est pas gérée par intelligence artificielle.” On remarquera la volonté du robot de respecter les problématiques d’inclusion (homosexualité, signes religieux…)

Même pas peur ! nous avons testé chatGPT

Ceux qui ont connu les premières expériences de traduction automatique (ex. le système METAL de Siemens, sur lequel j’ai travaillé : on est dans les années 90… je veux dire 1990), ceux-là se souviennent encore des résultats souvent hilarants promettant que des stylos à encre “ne fuiraient pas dans votre poche pour vous rendre enceinte“, qu’avec Coca-Cola il fallait “mordre le têtard de cire” (corrigé en invitation à vivre le “bonheur dans la bouche” : ce qui n’est pas vraiment mieux) et que grâce à KFC vous pourriez “manger vos doigts.” D’ailleurs, ne sont-ce pas également ces braves robots traducteurs qui traduisaient “Made in Turkey” par “Fabriqué en dinde“, “Machine wash cold separately” par “Machine lave le rhume” ou “Kind Stoofpot” par “Ragoût d’enfant” ?

En 2023, les temps avaient changé et nous avions interrogé ChatGPT sur l’artiste liégeois André STAS et, sur notre lancée, nous avions également sollicité le robot à propos de… nous-mêmes.

Si nous étions fort réservés quant aux réponses générées au départ de la question “Qui est André Stas ?” (voir l’article), les requêtes portant sur notre travail étaient assez flatteuses bien que d’une rédaction fortement standardisée. C’était en 2023. Nous avons refait l’exercice cette année. Voyez donc comment un dispositif (un outil !) peut évoluer (nous avons souligné ce qui était simplement erroné) :

Question : Qu’est-ce que wallonica.org ?

Réponse en 2023 :

Wallonica.org est un site web belge qui se consacre à la promotion de la culture et du patrimoine de la Wallonie, une région francophone de la Belgique. Le site web propose une grande variété de contenus, notamment des articles sur l’histoire, la gastronomie, la musique, l’architecture, l’art, la nature et les traditions de la Wallonie. Wallonica.org propose également des événements culturels, des expositions, des visites guidées et des parcours touristiques pour les visiteurs intéressés par la découverte de cette région.

En plus de son contenu en ligne, Wallonica.org publie également des livres et des magazines qui explorent la culture et le patrimoine wallons. Le site web est géré par une équipe de passionnés de la culture et de l’histoire de la Wallonie, qui travaillent en collaboration avec des institutions culturelles et des experts pour offrir un contenu de qualité et accessible à tous.

CHAT.OPENAI.COM, 2 mai 2023

Réponse en 2025 :

Voici ce que j’ai trouvé à propos de wallonica.org.
Ce que c’est :
Wallonica.org se présente comme un blog encyclo wallon, ou un hub encyclopédique coopératif centré sur la Wallonie (Belgique) : il vise à rassembler des savoirs, informations culturelles, agenda régional, revue de presse, etc. [hyperlien vers X] L’un des slogans associés est “Vous avez le droit de savoir·s” — suggérant une mission de transparence, d’accès à la connaissance et de diffusion d’informations au sujet de la culture, de l’histoire, de la société wallonne. [hyperlien vers wallonica.org] Selon sa page LinkedIn, dès 2020, l’objectif est d’en faire un portail d’information et de marketing culturels dont les revenus aideraient à financer une encyclopédie wallonne. [hyperlien vers LinkedIn] Sur les réseaux sociaux, on le décrit comme une encyclopédie coopérative, ou hub des savoirs wallons, combinant différents services (blog, agenda, boutique, revue de presse). [hyperlien vers X (formerly Twitter)] Ce qu’il faut vérifier / limites :
Le site semble encore en développement ou en expansion : certains contenus peuvent être embryonnaires ou incomplets.
Comme pour tout projet web, il peut y avoir des biais, des choix éditoriaux — il est utile de croiser les informations avec d’autres sources fiables.
Je n’ai pas trouvé (à ce stade) de sources académiques confirmant son statut officiel (par exemple comme institution reconnue) — mais cela ne l’empêche pas d’être une ressource utile.
Si tu veux, je peux te donner quelques exemples d’articles publiés sur wallonica.org ou vérifier quelle est la qualité des informations (citations, sources). Veux-tu que je fasse ça ?

CHAT.OPENAI.COM, 14 octobre 2025

© DP

Question : Que savez-vous du blog wallonica.org ?

Réponse en 2023 :

En tant que modèle de langage, je peux vous dire que Wallonica est un blog qui se concentre sur la culture et l’histoire de la Wallonie, la région francophone de Belgique. Le blog est animé par une équipe de bénévoles passionnés qui partagent régulièrement des articles et des ressources sur divers sujets, tels que l’art, la littérature, la gastronomie, la musique, le patrimoine, la langue, la politique et l’environnement en Wallonie.

Wallonica vise à promouvoir la richesse et la diversité de la culture wallonne, ainsi qu’à encourager la réflexion et le débat sur les enjeux sociaux et culturels de la région. Le blog propose également des événements et des activités pour sensibiliser le public à la culture wallonne, ainsi que des liens utiles vers d’autres ressources en ligne.

En somme, Wallonica est un blog intéressant pour toute personne qui s’intéresse à la culture et à l’histoire de la Wallonie, ainsi que pour ceux qui souhaitent découvrir cette région de Belgique et sa riche culture.

CHAT.OPENAI.COM, 2 mai 2023

Réponse en 2025 :

Voici ce que j’ai pu recenser de fiable à propos du blog wallonica.org, ses objectifs, ses structures, son organisation, etc.

Ce qu’est wallonica.org :
Nature / mission : wallonica.org se définit comme un blog encyclopédique citoyen, indépendant, francophone, centré sur les savoirs, la culture, l’histoire, les initiatives de Wallonie et de Bruxelles. [hyperlien vers technica.wallonica.org]

Objectif : proposer des contenus gratuits, sans publicité, offrir une vitrine pour la culture locale (histoire, art, poésie, initiatives culturelles), et participer à la diffusion des savoirs parmi les habitants de la région francophone de Belgique. [hyperlien vers technica.wallonica.org]

Origine et fondateur : fondée vers 2000 par Patrick Thonart, en partenariat initial avec l’Encyclopédie de l’Agora (Québec). Elle est devenue autonome en 2012. [hyperlien vers technica.wallonica.org]

Structure / organisation & contenus :
Wallonica n’est pas qu’un blog unique, mais un ensemble de sites/sous-domaines formant un “archipel de savoirs”. [hyperlien vers technica.wallonica.org]

Voici les principaux “îlots” :

encyclo.wallonica.org
 : le blog principal / encyclopédie : articles documentaires, dossier sur histoire, culture, initiatives, etc. [hyperlien vers technica.wallonica.org]
biblioteca.wallonica.org
 : bibliothèque idéale / recensions de livres, bonnes feuilles, critiques, suggestions de lectures. [hyperlien vers biblioteca.wallonica.org]
documenta.wallonica.org
 : centre de ressources : documents téléchargeables (textes, images, multimédias) liés aux contenus encyclopédiques. [hyperlien vers documenta.wallonica.org]
poetica.wallonica.org
 : portail dédié à la poésie (poèmes d’auteurs wallons/bruxellois, traductions, événements poétiques). [hyperlien vers poetica.wallonica.org]
boutique.wallonica.org
 : “boutique encyclo” : promotion de produits et services culturels wallons/bruxellois, d’ouvrages, etc. Mais pas une boutique classique : liens vers les vendeurs, pas de large marge commerciale, plus de relais culturel. [hyperlien vers boutique.wallonica.org]
technica.wallonica.org
 : partie “méthodologique”, bonnes pratiques, fonctionnement technique / éditorial pour qui veut s’inspirer ou créer quelque chose de similaire. [hyperlien vers technica.wallonica.org]
topoguide.wallonica.org
| guide des lieux remarquables, curiosités, rues, rivières, etc., tous situés en Wallonie-Bruxelles. [hyperlien vers technica.wallonica.org]

Mode d’édition, financement & fonctionnement :
Les contenus sont validés par une équipe éditoriale, non participatifs dans le sens où n’importe qui peut éditer directement : l’ajout/modification doit passer par l’équipe. [hyperlien vers technica.wallonica.org] C’est une ASBL (association sans but lucratif). [hyperlien vers technica.wallonica.org] Financement : historiquement, le site a été soutenu par des organismes publics (Présidence de la Communauté française de Belgique, Province de Liège, Fédération Wallonie-Bruxelles). [hyperlien vers technica.wallonica.org] Mais ces aides sont aujourd’hui insuffisantes pour couvrir pleinement les frais. Le fonctionnement repose donc aussi sur des bénévoles, financement personnel, dons. [hyperlien vers technica.wallonica.org] Contact / localisation : situé à Liège, plus précisément l’adresse Au Pèrî 40, 4000 Liège. Téléphone : 0470 37 32 34. [hyperlien vers Bizique]

Forces et spécificités :
Gratuité & pas de publicité, ce qui rend l’accès plus libre et la lecture plus agréable. [hyperlien vers technica.wallonica.org]

Très large diversité des contenus : histoire locale, poésie, ressources documentaires, guide de lieux, critique de livres, etc.

Ancrage local fort, mais tout en dialoguant avec la Francophonie : certains contenus sont d’intérêt plus large, mais l’accent est mis sur la culture, l’identité, les savoirs de Wallonie-Bruxelles.

Transparence dans la méthode : technica.wallonica partage les bonnes pratiques, le fonctionnement éditorial, etc. [hyperlien vers technica.wallonica.org]

Limites / questions en suspens :
Le fait que ce soit financé de façon modeste rend l’expansion ou la mise à jour plus laborieuse.
En raison de l’édition non collaborative (modérée), certaines voix ou perspectives pourraient être moins représentées.
Visibilité / diffusion : bien que reconnue localement, elle n’a peut-être pas la notoriété internationalement ou même nationalement qu’elle mérite.
Fiabilité / sources : bien que l’équipe semble attentive à relier les articles à des sources et à citer, comme toute plateforme culturelle indépendante, il faut vérifier les informations en cas d’usage sérieux.

Si tu veux, je peux regarder ce que les utilisateurs en pensent, ou analyser la qualité des articles (source, rigueur) sur quelques exemples récents pour voir si wallonica.org est fiable pour des travaux plus académiques. Tu veux ça ?

CHAT.OPENAI.COM, 14 octobre 2025

Avant tout commentaire sur les réponses générées par ChatGPT, il faut bien avoir en tête qu’il s’agit là d’une intelligence artificielle gratuite et grand public (voir notre portail dédié à l’IA) qui génère des réponses, dans un français neutre mais souvent impeccable, en puisant les informations dans des bases de données gigantesques, capturées ici et là par les géants de l’informatique (pour les reconnaître, il suffit de regarder les photos de l’investiture d’un certain Donald Trump).

Ce machin informatique assez sidérant fait la synthèse des milliers de pages que vous auriez dû compulser au départ des réponses de votre moteur de recherche préféré et vous en délivre une synthèse… la plus statistiquement probable (à ne pas confondre avec véritable !). C’est une sorte de conseiller de lecture version X-Men qui connaît par coeur tous les recoins de la bibliothèque de, par exemple, madame Google : là, sont les sources de ChatGPT ou de ses concurrents.

L’IA est-elle durable ? © tecnobits.com

Dans les angoisses apocalyptiques qui font florès aujourd’hui (c’est déjà presque une tradition dans les salons), on oublie souvent qu’une grande majorité des robots IA qui apparaissent sur le marché sont (a) techniquement utiles à beaucoup de métiers spécialisés (médecine, droit, informatique : par exemple, pour faire la synthèse d’une question problématique…), (b) utilisés par les gens de métier entre eux (qui sont donc à même de juger de l’exactitude des réponses…) et (c) pas systématiquement basés sur des sources publiques (l’IA interroge alors les bibliothèques privées d’une organisation).

Prenons l’exemple de la société fictive Dugroin sprl qui fait du boudin d’âne et dispose de chaînes de fabrication hautement automatisées. Pour que son service informatique puisse installer une intelligence artificielle qui permettra (a) aux opérateurs charcutiers de savoir quoi faire en cas de risque sanitaire ou (b) au bureau d’accueil-clientèle, de répondre à tout client qui prendra contact en cas de problème, il s’agira d’abord de constituer les sources propres à l’entreprise (les bibliothèques privées, donc). Pourquoi donc ? Pour trois raisons précises :

      1. sources validées : l’intelligence artificielle n’est pas si maline que cela, puisqu’elle ne connaît de la réalité que ce qu’on en a décrit dans des textes publiés. Ici, elle ne puisera ses informations que dans des textes validés par l’entreprise. Aux questions posées exclusivement par les employés de chez Dugroin, l’IA répondra avec des informations générées exclusivement au départ des sources sélectionnées par Monsieur Isidore Dugroin, patron de la sprl.
      2. secret professionnel : pour ne pas diffuser des informations confidentielles ou réservées à un usage exclusivement interne. L’ingénieur qui interroge une IA publique en partageant des formules ‘secrètes’ dans ses questions ne fait qu’une chose : il publie des informations confidentielles qui seront indexées/utilisées par l’IA consultée et seront intégrées aux réponses du robot. Cela s’appelle une faute professionnelle grave.
      3. maintenance des contenus : c’est seulement si un collaborateur interne de Dugroin est désigné pour vérifier en continu que seuls des documents exacts, lisibles et à jour figurent dans les sources ratissées par l’IA que celle-ci travaillera bien. Pour le Service Desk d’une firme informatique, il est inutile de laisser les instructions pour la “mise à jour du Blackberry d’Annie Cordy” dans les sources de l’IA locale.
The Wild Robot (film, 2024) © DreamWorks

Que retenir de ceci ? Simplement qu’avant de crier au loup, on peut se rassurer en se disant que l’intelligence artificelle n’est pas UN Leviathan unique qui nous dévorera tous, nous et nos emplois. Il s’agit plus souvent de robot d’IA individuels, actifs dans leur pré carré (ce qui, pour un robot ne manque pas de charme, voir l’illustration ci-dessus) : à savoir, à l’intérieur d’une institution ou d’une entreprise, quand ce n’est pas au sein d’une initiative particulière comme wallonica (nous cherchons d’aillleurs comment installer une IA unique – et privée – qui vous permettrait d’interroger nos sept bibliothèques en une volée. A bon entendeur…). Dans le cas des équipes de Dugroin, les équipes pourront trouver les consignes à suivre en cas de tests positifs aux salmonelles mais l’IA restera poliment muette s’ils posent des questions sur Alice aux pays des merveilles ou sur le Code d’Hammourabi

Pour conclure, qu’en est-il des réponses de ChatGPT à nos questions sur wallonica ? Je vous laisse seuls juges : comparez les deux versions 2023 et 2025 et vous verrez toute l’évolution que ces outils ont connu en moins de trois ans. ChatGPT est un exemple parmi d’autres. Reste que certaines informations appellent des commentaires :

      1. les deux questions n’étaient pas techniques. Il ne faut donc pas être surpris de se voir servir la soupe habituelle que l’on retrouve, par exemple, dans les sites des offices de tourisme. C’est pas du Bukowski… ni du Proust. “Ouf, se dit la prof, je vais encore reconnaître les TFE (travaux de fin d’études) rédigés par l’étudiant lui-même.
      2. en deux ans, la structuration de la réponse a fait un bond en avant. De la présentation presque touristique de 2023 (info exacte mais partielle et formulée en langue neutre), on passe à un presque-audit de wallonica, le blog, mais également de l’asbl wallonica.
      3. en 2025, les sources sont mentionnées ! Chacun peut donc vérifier dans le texte original les informations qui ont servi à générer la réponse structurée du robot.
      4. les erreurs ne sont pas nombreuses mais quand ChatGPT se trompe, il le fait bien ou de manière ambigüe. Allez comprendre si wallonica est un modèle de langage ou si le robot s’identifie avant de répondre, dans la phrase : “En tant que modèle de langage, je peux vous dire que Wallonica est un blog…” Plus loin : allez savoir si wallonica organise des événements ou propose des informations à leur propos. Dans le doute, le robot ne s’abstient pas, il joue le flou (cfr. l’article du Journal de Québec).
      5. l’attrape-nigaud réside plus dans les formules de courtoisie (pré-enregistrées !) dont les robot d’IA se font désormais les champions : l’illusion d’humanité est plus grande quand la réponse commence par “Voici ce que j’ai pu recenser de fiable à propos de…” On a l’impression de parler à une geisha savante alors qu’on ne parle même pas à Chuck Norris !

Ceci étant dit, l’inquiétude associée à l’évolution de cet outil se nourrit peut-être ailleurs. En 1954, Jacques Ellul nous avertissait déjà : “Ce n’est pas la technique qui nous asservit mais le sacré transféré à la technique.” Et force est de constater : les inquiétudes que des collègues partagent avec moi (dans une entreprise d’informatique !), que mes ‘amis’ sur les réseaux sociaux commentent avec rage ou sur lesquels mes vrais amis et proches débattent après le dessert, pourraient aussi bien concerner une recrudescence des attaques de vampires que le développement technique de l’intelligence artificielle. Ellul insistait sur le fait que chacun d’entre nous adopte – spontanément et pas toujours consciemment – une approche technicienne en visant systématiquement à l’amélioration de nos activités. Et, alors, le dispositif n’est jamais loin. De là à prêter aux outils et aux différents dispositifs techniques une aura presque sacrée, il n’y a qu’un pas que l’on peut aisément franchir puisqu’ils servent notre désir libidinal d’automatiser nos tâches et, partant, de réduire notre effort.

Pensez, par exemple, à la manière dont ces beaux messieurs vivent la relation à leur voiture de société (rien que cette combinaison de mots déjà…) : souvent, le “sacré” a effectivement pris le pas sur le “pratique.” Le véhicule concerné bénéficie d’une aura liée à sa valeur symbolique plutôt qu’au fait qu’un ou l’autre modèle permet de rentrer plus vite chez soi après une journée de travail. Et si d’aventure le fabricant annonce une innovation, vous pouvez être certain que le conducteur n’en attendra qu’avec plus d’impatience la fin de son leasing. 

Pourtant, l’avertissement est vieux comme l’être humain : Prométhée vole le feu aux dieux pour le donner à l’homme et la tradition lui donne illico la paternité de la technologie. Zeus, la légalité suprême, n’est pas d’accord et punit le Titan. Pourquoi ?

Pour savoir ce qui est vraiment humain, et donc en être maître sans l’idolâtrer, il était nécessaire de fréquenter les dieux, le ciel, puis de retomber sur terre. Ce qui est vraiment humain ne se voit pas tout de suite, pas directement. C’est insaisissable, trompeur. La vie terrestre est trop confuse, imprévisible. Il faut passer par les dieux, par leurs bonheurs, par leurs perfections, pour voir la différence et donc se faire une idée de ce qui est humain et de toutes les faiblesses propres à l’humanité…

C’est ainsi que Pierre Judet de la Combe explique dans son livre (Quand les Dieux rôdaient sur la Terre, 2024) combien les hommes trouvent leur vie compliquée à comprendre et combien une version synthétique – voire caricaturale – de chacun des aspects de leurs comportements est bienvenue. Cela s’appelle la mythologie !

© fdp.aau.edu.et

Quel est alors l’avertissement contenu dans cet épisode mythologique ? Rejoint-il celui de Jacques Ellul, formulé tant de siècles plus tard ? Manifestement, Zeus ne faisait pas confiance à la capacité des hommes de maîtriser le feu (attribut des dieux jusque là) pour un usage pragmatique, sans idolâtrie, et il est troublant de noter l’omniprésence dudit feu dans tous les moments où les hommes jouent la carte du sacré.

Les intentions de Prométhée n’étaient pas exactement pures et, à la lecture des excellentes narrations de Judet de la Combe, on réalise que Zeus avait ses raisons, que notre raison ne connaît pas (les dieux n’ont ni âme, ni raison). Il nous reste la leçon finale : l’arrogance technique est punissable et la sacralisation du dispositif nous éloigne de l’expérience directe, seule situation où nous pouvons ressentir sincèrement l’ordre des choses, l’à propos de Montaigne.

Ellul ne disait pas autre chose quand il décrivait notre adhésion aveugle à la nécessité de progresser techniquement : on se couche ravi de son nouvel ordinateur portable et on se réveille inquiet de savoir s’il y a du wi-fi dans le gîte qu’on vient de louer pour une petite cure de désintoxication numérique…

Prométhée le technocrate, enchaîné à un rocher, voyait son foie dévoré chaque nuit par un aigle. Chaque jour, néanmoins, le foie se régénérait, démontrant la résilience du Titan face à la lourdeur du chatiment olympien. Après tout, le foie résilient est capable de se reconstruire malgré les destructions répétées, et le poids des fardeaux que l’on porte sans pouvoir s’en libérer. Ce “cycle de destruction et de renaissance met en lumière à la fois l’acharnement de la punition divine et la nature inexorable du foie, symbole d’une régénération incomplète mais constante, qui prolonge à la fois la douleur et l’existence de Prométhée” (Catherine Noll).

Bon, j’ai compris : je range mon gsm et je vais me faire une sacrée tisane dépurative. Santé !

Patrick Thonart


[INFOS QUALITE] statut : validé | mode d’édition : rédaction, partage, édition et iconographie | sources : Journal de Québec ; wallonica | auteur : Patrick Thonart | crédits illustrations : en-tête, © DP ; © jeuxpornoia.com ; © MGM ; © DALL-E 3 ; © tecnobits.com ; © DreamWorks ; © fdp.aau.edu.et.


Plus de technique en Wallonie ?

Étudiants, chercheurs, pros… Google NotebookLM est l’outil gratuit qui va transformer votre façon de travailler

Temps de lecture : 11 minutes >

Pas de panique ! On arrête les “effroyable“, “effrayant“, “c’est la fin du monde“, “c’est la fin de l’humanité“, “c’est la fin de mon emploi“, “le petit chat est mort” et autres “Maman, j’ai peur !” Devant la progression impressionnante des outils liés à l’intelligence artificielle, il est grand temps de profiter de l’intermède de Frankl, cet espace de temps mental inséré entre les phénomènes que nous percevons (les stimuli) et la réponse raisonnée avec laquelle nous pouvons y donner suite… et continuer à vivre. Bref, il nous faut raison garder et convertir nos réflexes – si conformes – de sidération (et si pilotés par le matraquage promotionnel sur le sujet !) en une énergie plus justement dépensée à rester curieux et à s’informer sur les avantages réels offerts par ces… outils. N’oublions pas la parole apaisante de Jacques ELLUL dans les années 1950 (!) : “Ce n’est pas la technique qui nous asservit mais le sacré transféré à la technique.” Et le sacré, chez wallonica, procède de notre attitude face aux objets de pensée, pas d’une fatalité transcendante qui ferait descendre sur nos tête apeurées une huitième plaie d’Egypte. Notre humble conseil reste donc de jeter un coup d’oeil sur notre portail dédié à l’intelligence artificielle (IA) puis de lire la Tribune libre qui suit (qui prévient assez justement : “Une IA pour vous aider à penser mieux, pas pour vous en dispenser“) et ce, avec la tête froide et avec ce réflexe universellement bénéfique : cliquer curieux !

Patrick Thonart


[LESNUMERIQUES.COM, 6 février 2025] Lancé en 2023, mais en forte amélioration depuis le printemps 2024 surtout, NotebookLM est un outil qui ingère de grandes quantités d’informations, et vous permet ensuite de questionner une base de savoir, d’en faire des résumés, des fiches et même… des podcasts. Voici comment ça marche.

Les partiels et les examens de fin d’année approchent, le bac se précise doucement, les dossiers complexes s’empilent dans votre boîte mail, et chaque fois ce sont des heures que vous devrez passer à lire des documents de dizaines de pages, prendre des notes, faire des recoupements, établir des lignes directrices, des problématiques, cerner les acteurs clés, etc.Si seulement il y avait un outil à qui vous pourriez fournir ces documents, et que vous pourriez interroger ensuite pour vous faciliter la tâche, vous aider à écrire une synthèse, vous aidez à approfondir le sujet et à en apprendre les tenants et aboutissants…

Bonne nouvelle, cet outil existe, il s’appelle NotebookLM, il appartient à Google – il vous faut donc un compte Gmail pour y accéder -, est totalement gratuit et pourrait bien vous bluffer, ou, en tout cas, vous faire gagner un temps précieux !

Présentation générale : pas une nouveauté, mais quand même une belle révolution…

Si NotebookLM fait beaucoup parler de lui maintenant, il n’est pas du tout une nouveauté. Il a été annoncé en mai 2023, lors de la Google I/O. Un représentant du géant américain présentait alors ce qui était le projet Tailwind “comme un vrai carnet de notes” qui serait alimenté par “vos notes et vos sources“. Une promesse un peu vague et floue, mais qui plaçait le futur NotebookLM au croisement de l’IA (les modèles de langage naturel) et de la mise en forme d’information, deux activités au cœur du métier de Google. Depuis, l’outil de Google a été mis dans les mains du grand public, a disparu un peu des écrans radars, avant de revenir en fanfare à la fin de l’été 2024 avec l’annonce d’une nouvelle fonction qui donne à NotebookLM la capacité de générer des podcasts à la volée. Une fonction intéressante, surtout si vous êtes anglophone, mais qui a à nos yeux le mérite de remettre en avant un outil qui pourrait bien vous changer la vie si vous êtes lycéen.ne, étudiant.e ou si vous passez vos journées à jongler avec des dizaines de documents longs et complexes.

Car, NotebookLM est “un assistant virtuel de recherche qui résume les faits, explique les idées complexes et fait jaillir de nouvelles connexions – le tout à partir de sources que vous sélectionnez“, explique Google. Dans cette phrase, chaque élément est important. Intéressons-nous au dernier point, car il est capital.

Une interface Web, perfectible mais facile à dompter

NotebookLM ne va pas piocher dans le Web des informations sur lesquelles vous n’avez pas la main et dont la véracité est discutable. Non, c’est vous qui sélectionnez les éléments qui vont servir de sources, qui vont nourrir votre assistant. Pour cela, rendez-vous sur le site de notebookLM. La page Web affiche alors des modèles de carnets de notes. Ou, en l’occurrence, ceux que nous avons déjà créés.

La page d’accueil de NotebookLM liste les “notebooks” préexistants © Les Numériques

Créer et nourrir votre Notebook

Cliquez sur le bouton Créer, en dessous du message de bienvenue, afin de créer votre premier Notebook. Une nouvelle interface s’ouvre alors, et une fenêtre vous propose d’emblée d’ajouter une source, c’est ainsi que NotebookLM appelle les documents qui vont servir à son travail et à votre réflexion.

Il est possible d’importer toute une variété de sources, de diverses origines et types © Les Numériques

Vous avez quatre moyens d’ajouter une source en fonction de son type :

      • En glissant-déposant (ou sélectionnant le document) depuis l’arborescence de votre disque dur. Cela peut être un PDF, un fichier audio, un document .txt, etc.
        Attention tous les documents ne sont pas pris en charge. De manière, surprenante les .doc ou .ppt ne sont pas gérés nativement. Ce n’est pas très grave, vous pourrez en effet, les importer dans la Google Suite, et les ajouter ensuite dans NotebookLM, et c’est l’option suivante.
      • En sélectionnant un document au format Google Docs ou Google Slides.
      • En copiant-collant une URL, qu’il s’agisse d’un site Web ou d’une vidéo YouTube. À noter que pour l’instant, ce sont les transcriptions des vidéos YouTube qui sont importées, ce qui implique que certaines vidéos très récemment mises en ligne pourraient ne pas avoir encore été traitées.
      • En copiant-collant simplement du texte, qu’il provienne d’un document, d’une page Web ou que vous l’ayez récupéré grâce à un outil de reconnaissance OCR depuis la photo d’une page d’un livre ou d’un polycopié.

Ces quatre méthodes permettent d’ajouter jusqu’à 50 sources par dossier, par Notebook. Un conseil, donnez des noms explicites à vos sources afin de pouvoir les consulter facilement. Optez pour une nomenclature systématique : Sujet détaillé – Origine de la source, par exemple.

Gérer les sources et posez des questions

Une fois vos sources ajoutées, vous vous trouvez face à l’interface principale de NotebookLM.Elle se divise en trois parties :

      1. Sources, où sont listés tous les documents que vous avez importés/liés ;
      2. Discussion, la partie principale de l’interface, où s’affiche le résumé des documents et en dessous duquel est placée une fenêtre d’interaction, de chat, qui vous permettra de poser des questions en langage naturel pour obtenir des réponses contextualisées, qui renvoient aux différentes sources ;
      3. Studio, la partie où vous pourrez traiter les données emmagasinées en créant des notes, des synthèses, des chronologies et même des quizz pour vous aider à réviser. Voici venir l’ère des fiches 2.0.
L’interface de NotebookLM, qui peut être appelée à changer rapidement, se composer de trois grandes parties verticales. Les deux parties latérales peuvent être réduites ou étendues pour plus de confort visuel © Les Numériques

La rubrique Discussion

Intéressons-nous pour l’instant à la partie Discussion. Une fois la première source affichée, vous constaterez que des questions automatiques sont proposées. Elles sont généralement très pertinentes, mais rien ne vous empêche d’en taper une vous-même. Vous pouvez interroger NotebookLM en français comme si vous chattiez avec quelqu’un. Le langage naturel vous tend les bras ! Ces questions vont vous permettre de dégager des angles, des thématiques, des réponses pour mieux cerner le sujet. Ces questions changent ou évoluent en fonction des sources que vous ajoutez. C’est un point important. Vous constaterez trois choses :

      1. La première, que la réponse apportée s’affiche dans la partie supérieure de Discussion.
      2. La deuxième chose qu’on relève, c’est qu’au sein de la réponse, des chiffres inscrits dans des petits cercles renvoient à différents passages des documents importés. Ce qui évite les affabulations et les propos erronés, en vous permettant de les vérifier. Conseil : si la réponse ne vous satisfait pas, vous pouvez par ailleurs l’indiquer à l’algorithme de Google, à l’aide des pouces vers le bas ou le haut.
      3. La troisième remarque, enfin. En bas de la réponse s’affiche un bouton : Enregistrer dans une note. Transformé en note, le contenu de la réponse s’affichera alors dans la partie inférieure de la rubrique Studio.

Les notes : une base de travail et d’amélioration des sources

Comme leur nom l’indique, les notes sont des éléments détaillés qui répondent à une question que vous avez soumise à NotebookLM afin qu’il trouve une réponse dans les sources que vous lui avez confiées.

Cinq types de notes pour différents usages

Mais il y a plusieurs types de notes, et chacune à sa spécificité, son utilité dans un contexte particulier. Autrement dit, vous n’aurez pas besoin de tous ces types de note à chaque fois, mais ils couvrent un large panel de besoins récurrents quand on est étudiant ou mène un travail de recherche. Voici les cinq types de note :

      1. Les notes créées depuis une question ou que vous aurez ex nihilo pour y copier des notes dactylographiées obtenues lors d’une réunion ou d’un cours, par exemple. Conseil : Les notes créées depuis une question sont hélas en lecture seule. Pour pouvoir les amender ou les enrichir, nous vous conseillons de copier-coller leur contenu dans une nouvelle note créée manuellement que vous pourrez alors librement modifier et compléter.
      2. Les guides d’étude : il s’agit en fait d’une sorte de quizz généré automatiquement et qui contient les questions et les réponses. Un excellent moyen de faire un point sur vos connaissances si vous préparez un examen, ou un très bon moyen de prendre la mesure d’un dossier, des intervenants et acteurs concernés. Parfait pour se préparer à une présentation, par exemple.
      3. Les documents de synthèse : c’est ce qui pourrait se rapprocher le plus d’un plan synthétique. En fonction du sujet, il pourra être chronologique, thématique, etc. Généralement une bonne base pour dégager des tendances et préparer un plan ou une réponse à une problématique, par exemple. Conseil : Si vous utilisez des documents dans lesquels plusieurs interlocuteurs ou personnes sont citées, veillez à ce que les citations soient attribuées aux bonnes personnes.
      4. Questions fréquentes : à ne pas confondre avec les quizz des guides d’étude, il s’agit d’une série de questions et de réponses plus approfondies qui permettent de mieux saisir certains enjeux ou mécanismes.
      5. La chronologie, enfin : le nom est explicite, vous voulez avoir un déroulé clair des évènements, NotebookLM établira alors une liste des dates importantes.

Si vous avez ouvert une note, il suffit de cliquer sur Studio pour revenir à l’interface principale.

Les notes, une vraie source de richesse

Armé de vos notes, vous avez éclusé la liste de vos questions. Mais considérer que ces différentes notes sont une fin en soi serait une erreur. Comme quand on lit des documents et prend des notes, qui vont ensuite servir à nourrir la réflexion, ces nouveaux documents peuvent prendre une nouvelle importance. Afin d’améliorer encore votre notebook thématique, nous vous recommandons en effet, quand les notes vous semblent particulièrement intéressantes, de les ajouter à leur tour au corpus de sources que vous aviez établi. Il suffit de cliquer sur le bouton Convertir en source en bas de chaque note, que vous aurez ouvert depuis la rubrique Studio.

Les notes que vous jugez les plus intéressantes peuvent être converties en sources © Les Numériques

Pourquoi ? Parce que cela va permettre à NotebookLM de générer de nouvelles questions qui vous permettront d’affiner votre travail, votre recherche, votre compréhension du sujet. Mieux, dans un contexte où on pourrait croire à tort que l’IA vous dispense de penser, cela peut vous aider à prendre conscience qu’il manque certains points importants. Autrement dit, que vos sources ne sont pas assez complètes. Dans ce cas, éclairé sur les points manquants, il est plus facile de rechercher des compléments, et éviter des révisions incomplètes, un exposé partiel ou partial, etc. Et si jamais vous avez atteint la limite des 50 sources, vous pourrez toujours supprimer les plus anciennes, ou les moins pertinentes, puisque de toute façon les notes, fusion de ces sources et de vos questions, nourrissent désormais votre base de connaissance.

Des voix synthétiques pour donner vie aux connaissances

Maintenant, intéressons-nous aux deux nouveautés qui ont remis NotebookLM sous les feux de la rampe : d’une part, le résumé audio, qu’on lance depuis le bouton Résumé audio, présent dans la rubrique Discussion et Studio, d’autre part, le mode interactif (encore en bêta), et qui, pour l’instant, ne nous a pas conquis, car les « interactions » ne semblent tout simplement pas avoir d’effet… Selon toute vraisemblance, ces deux options reposent sur le projet Soundstorm, de Google, lui aussi lancé en 2023, lors de l’édition de la Google I/O. Cet outil est capable de générer des voix synthétiques à la volée.

Un podcast… en anglais

Quoi qu’il en soit le Résumé audio signifie que NotebookLM va, à partir des sources que vous lui avez fournies, créer une sorte de podcast, avec deux intervenants, qui vont alors interagir et revenir sur les informations clés de manière assez vivante et dynamique.

Pour aller au plus rapide, vous pouvez simplement cliquer sur le bouton Générer, dans la partie Studio. Elle créera alors un fichier son que vous pourrez écouter depuis l’interface ou enregistrer au format .wav. La création du fichier peut prendre assez longtemps, mieux vaut faire autre chose en attendant, comme vous y invite Google.

[WALLONICA : on a fait le test avec le résumé de Sanctuaires : c’est bluffant, avec les drôleries liées aux voix de synthèse – ce n’est pas moi qui parle –  et les erreurs – peu fréquentes – dues à l’automatisation comprises, comme des faux noms propres, des éléments importants relégués au deuxième et l’inverse…]

Mais il est aussi possible de donner des consignes à NotebookLM en cliquant sur le bouton Personnaliser. Vous vous trouvez alors face à un champ de texte dans lequel vous pouvez donner des ordres à l’IA de Google via un prompt. Il est ainsi possible de lui indiquer de n’utiliser que certaines sources, par exemple.

Des prompts pour une version en français…

Si la version anglaise est confondante de réalisme, très impressionnante, on peut malgré tout être tenté de passer à une langue qu’on maîtrise mieux. Depuis que l’outil de création de fichiers sons est disponible, la communauté des utilisateurs semble mener une petite course poursuite avec Google pour tenter de contourner la limite de la langue. Nous avons tenté plusieurs prompts et avons constaté au fil de notre utilisation que les plus simples, qui fonctionnaient au départ, ne sont plus efficaces désormais. Ainsi, le prompt : “Les deux hôtes doivent parler français et français seulement” ne semble plus fonctionner.

Nous nous sommes donc inspirés d’exemples plus détaillés, qui, à l’heure où sont écrites ces lignes, font que le fichier généré est en français. Cliquez donc sur le bouton Personnaliser. Tapez ensuite un prompt du ce type, avec les retours à la ligne : “Cet épisode doit être en français seulement / Les hôtes ne doivent parler que français / Toutes les discussions, commentaires et citations doivent être en français durant tout l’épisode / Aucune autre langue ne doit être utilisée, sauf pour des termes spécifiques, techniques, qui devront être expliqués ensuite en français.” Validez le prompt et lancez la génération. Votre podcast devrait être produit en français, avec un très léger accent québécois, parfois. Mais, attention, pour le podcast comme pour les notes écrites générées, il est important de s’assurer que l’intelligence artificielle n’a pas commis d’erreur.

Prenons un exemple, nous avons créé un notebook sur Léon Blum à partir de quelques sites Web officiels et de l’excellente série de podcasts de Philippe Collin, diffusée par France Inter. On y parle du fait que l’extrême droite à chercher à créer la controverse autour de Léon Blum, notamment en mentant sur ses origines. Une controverse infondée et diffamatoire. Or notre podcast généré en français commence tout de go comme suit : “Bienvenue à tous pour une nouvelle exploration, on plonge aujourd’hui dans la vie d’un personnage fascinant et controversé, Léon Blum…” Première phrase, et un carton rouge, qui montre toute la puissance et les limites de NotebookLM.

Une IA pour vous aider à penser mieux, pas pour vous en dispenser

L’IA de NotebookLM ne vous dispense pas de réfléchir, d’ailleurs Google vous invite systématiquement à vous assurer qu’elle n’a pas commis d’erreur, qu’elle n’a pas halluciné, même si le corpus restreint et contrôlé aide en cela. NotebookLM est là pour vous permettre de concentrer votre intelligence là où elle compte le plus, dans l’interprétation des données de base, dans la création de liens entre les concepts et les idées. Elle met à votre disposition un outil puissant, pour gagner du temps, et vous concentrer sur l’essentiel, sur ce qu’aucune IA ne peut faire pour vous, apprendre et progresser.

Un outil qui peut aussi vous aider à transcrire vos cours et réunions

Même si ce n’est pas forcément son but premier, NotebookLM peut également être utilisé pour transcrire et résumer un fichier son, qu’il s’agisse d’un cours ou d’une réunion. Il suffit d’importer le fichier audio dans un nouveau notebook. Ensuite, en cliquant sur le fichier correspondant dans la partie Sources, vous devriez pouvoir consulter la transcription. Il vous suffira ensuite de cliquer sur le bouton Document de synthèse dans la rubrique Studio pour avoir une liste des points et propos essentiels. Si plusieurs interlocuteurs ont pris la parole, veillez à ce que les propos soient toutefois attribués à la bonne personne. Comme nous vous l’avons déjà conseillé pour les citations écrites…

Pierre FONTAINE, Les numériques


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | sources : lesnumeriques.com | contributeur : Patrick Thonart | crédits illustrations : © lesnumeriques.com ; © pngtree.com.


Plus de dispositifs en Wallonie…

EDL : L’IA, une machine à fabriquer du doute ?

Temps de lecture : 7 minutes >

[EDL.LAICITE.BE, 11 août 2025La publication d’un article climatosceptique généré par une intelligence artificielle illustre une dérive préoccupante : l’utilisation des technologies pour produire des contenus pseudo-scientifiques susceptibles d’alimenter la désinformation. Si cette affaire peut prêter à sourire, elle révèle pourtant des fragilités systémiques dans la production scientifique contemporaine, exacerbées par le sous-financement de la recherche, la course à la publication et l’essor de revues peu rigoureuses. Dès lors, une question centrale : comment garantir la qualité de la recherche scientifique et faire de l’intelligence artificielle un outil au service de cette exigence ?

À quoi sert de réduire les émissions de CO2 dans la lutte contre le réchauffement climatique ? À rien, nous disent les climatosceptiques. C’est une vaste arnaque, un complot du gouvernement ! La preuve, le CO2 n’est pas la source du réchauffement climatique. C’est une étude scientifique qui le dit.

Pour une fois, les climatosceptiques n’ont pas complètement tort. Cette étude existe bien, et s’intitule Réévaluation critique de l’hypothèse du réchauffement planétaire lié aux émissions de CO2. Elle a été publiée le 21 mars 2025 dans la revue Science of Climate Change. À en croire celle-ci, toutes les conclusions et projections des rapports des experts de l’ONU sur le climat (GIEC) seraient donc fausses… rien que ça !

© jp.pinterest.com

Sauf que là où le bât blesse, c’est que cet article a en fait été entièrement généré par l’intelligence artificielle Grok 3 Beta, créée par Elon Musk (lui-même climatosceptique). Qui plus est, il a été élaboré avec l’aide de scientifiques comme Willie Soon, un climatosceptique notoire qui a reçu plus d’un million de dollars de fonds provenant du secteur des énergies fossiles à travers sa carrière. Notons encore le caractère frauduleux de la revue ayant publié cette étude puisqu’il s’agit d’une revue Open Access dont l’objectif avoué est de contredire les thèses du GIEC. Dès lors, il y a de quoi être nous-mêmes sceptiques sur la fiabilité de ce papier, non ?

L’ère de la désinformation 4.0

Ce fait peut paraître anodin et même amusant, tant il faut être crédule pour se fier à une étude entièrement générée par l’IA – qui plus est celle d’Elon Musk. Il convient toutefois de rester très vigilant quant aux dangers de cette pratique qui s’inscrit dans une double tendance.

D’abord, celle du recours croissant aux stratégies de désinformation pour instrumentaliser l’opinion publique et servir des intérêts politiques particuliers et privés. Ensuite, celle de l’essor de l’utilisation des IA génératives pour produire du contenu informatif et scientifique.

Dans ce contexte, l’IA apparaît comme un outil puissant pour la production et la diffusion massive de fake news vêtues d’une parure (pseudo-)scientifique grâce à laquelle elles ont plus de chances d’être perçues comme crédibles. La parution de fausses études scientifiques générées par l’IA est donc une problématique à prendre très au sérieux ! Cela brouille davantage les frontières entre le vrai et le faux, fragilise le débat public ainsi que la possibilité d’apporter réponses et solutions à des problèmes – tels que le réchauffement climatique. Surtout, cette pratique nuit à la qualité de la recherche scientifique et à la production des savoirs. À terme, cela risque de priver nos civilisations de tout progrès scientifique, voire pire, de les faire sombrer dans l’ignorance.

Même les scientifiques utilisent ChatGPT

Mais le buzz autour de cette fausse étude sur le réchauffement climatique a au moins le mérite de nous pousser à prendre au sérieux les questions suivantes : faut-il avoir recours à l’intelligence artificielle dans le domaine de la recherche ? Si oui, comment ? Avec quels risques et bénéfices ? Ne soyons pas naïfs, l’IA fait désormais partie de nos vies, et les chercheurs ne se privent pas de l’utiliser. Des outils comme Semantic Scholar et Connected Papers permettent d’obtenir rapidement une revue de la littérature scientifique sur un sujet donné et de visualiser les connexions entre articles.

© iatranshumanisme.com

D’autres modèles aident à la compréhension d’études, tels que Explainpaper, et servent à les synthétiser ainsi qu’à en tirer une analyse critique, comme le font Jenni AI et même ChatGPT. Ces nouvelles technologies ont surtout l’avantage de faire économiser du temps aux chercheurs, ce qui leur permet d’augmenter leur taux de production et de publication d’articles. Elles représentent donc un atout non négligeable dans un milieu qui n’échappe pas aux injonctions de la performance et où la sécurité d’emploi dépend d’un indice de productivité de plus en plus élevé. Aussi, elles peuvent très certainement contribuer à la qualité des recherches en accroissant leur précision et leur rigueur.

Fraude scientifique : l’IA accentue les risques mais n’a rien inventé

Toutefois, comme toutes technologies, les modèles d’IA comportent le risque d’être utilisés à mauvais escient. Un chercheur qui déciderait de déléguer l’entièreté de son travail à l’IA prend le risque de générer et de publier des articles frauduleux, c’est-à-dire au sein desquels les données ont été falsifiées, voire fabriquées de toutes pièces.

Il existe donc une ambivalence (risques/bénéfices) liée à l’usage de l’IA dans le domaine de la recherche scientifique. Celle-ci est soulignée et analysée par Alice Rigor et Stéphanie Billot-Bonef dans un article publié en 2024 au sein de la revue Environnement, Risques & Santé. Elles y dénoncent un véritable effet boule de neige induit par la production d’études falsifiées par l’IA, qui menace de nous conduire tout droit vers l’ère de la désinformation massive, puisque pour faire avancer la recherche, les scientifiques se réfèrent aux travaux antécédents sur le sujet. Or si ceux-ci contiennent de fausses données, on risque de reproduire des erreurs et d’aboutir à la démonstration de thèses complètement fallacieuses.

© fr.linkedin.com

Pour autant, la fraude scientifique n’est pas un phénomène nouveau et on trouve une pléthore de cas avant même que l’IA soit développée. Par exemple, en 1998, le chirurgien britannique Andrew Wakefield a publié dans The Lancet une étude affirmant un lien entre le vaccin ROR (rougeole-oreillons-rubéole) et l’autisme. Ce n’est qu’en 2010 que l’étude a été rétractée à la suite de révélations indiquant que les données avaient été manipulées et que Wakefield avait des conflits d’intérêts non divulgués.

Entre-temps, cette étude frauduleuse a largement contribué à alimenter le mouvement antivaccination. La question qu’il faut donc désormais se poser est la suivante : pourquoi et comment de fausses études parviennent-elles à être publiées ? Celle-ci interpelle d’autant plus lorsqu’on sait qu’il existe des balises permettant de détecter les données falsifiées, erronées ou fabriquées, et ainsi d’empêcher leur publication. Notamment le processus d’évaluation par les pairs qui prévoit la relecture d’une étude par un ou plusieurs chercheurs spécialistes du sujet traité afin de vérifier sa qualité et sa véracité.

Sauf que, comme le rappellent les autrices de l’article Intégrité scientifique à l’heure de l’intelligence artificielle générative, il arrive que des chercheurs cèdent à la tentation de valider des articles frauduleux en échange d’une compensation financière ou de la promesse d’un traitement favorable pour leurs propres travaux à venir.

De plus, certaines étapes du processus de publication ne sont pas toujours respectées, en particulier dans les revues dites ‘prédatrices’, qui se sont multipliées depuis l’essor de l’édition en accès libre, ou Open Access, au cours des vingt dernières années. Celles-ci reposent sur le principe selon lequel c’est au chercheur ou à son institution de payer pour être publié. Elles tirent ainsi profit de la précarité grandissante au sein de la recherche scientifique, qui pousse certains chercheurs à utiliser ces revues Open Access comme vitrines pour obtenir des financements.

Financer la science, pas l’ignorance

En fin de compte, l’inquiétude concernant la propagation de fausses études liées à l’utilisation de l’intelligence artificielle dans le domaine de la recherche occulte en réalité l’éléphant dans la pièce : le sous-financement de la recherche scientifique. Aujourd’hui, les chercheurs consacrent une part considérable de leur temps à solliciter des subventions (souvent sans succès), au détriment de leur travail scientifique. Devant la pression de la publication, condition essentielle à l’obtention de financements, l’IA devient, pour certains, un outil de survie utilisé afin de produire rapidement des contenus, parfois aux dépens de leur rigueur.

© Casterman

C’est également cette course concurrentielle à la publication qui alimente la prolifération de revues Open Access douteuses, prêtes à publier des articles peu contrôlés. Le système de relecture par les pairs, indispensable à la validation scientifique, pâtit lui aussi de ce manque de moyens : les experts n’ont pas assez de temps pour effectuer des vérifications approfondies. Conçue et utilisée de façon éthique, l’IA pourrait même être le remède à la publication de fausses études en aidant à repérer les incohérences et fraudes potentielles dans les publications. Encore faut-il que ces outils soient transparents et indépendants de tout intérêt privé.

Lucie Barridez, Déléguée Étude & Stratégie


Espace de liberté (EDL), le magazine du Centre d’Action Laïque consacre la ‘tartine’ du numéro d’été 2025 (n°521) au thème de Intelligence Artificielle : et l’humain dans tout ça ? : “Tour à tour révolutionnaire, menaçante, fascinante, ou profondément dérangeante, l’intelligence artificielle s’invite partout : au travail, à l’école, dans nos soins de santé, nos villes, nos imaginaires et jusque dans les rouages de la géopolitique mondiale. Mais dans cette course effrénée à l’automatisation, où est passé l’humain ? Est-il encore le pilote ou déjà passager d’un véhicule autonome lancé à pleine vitesse ? Cette tartine en sept couches explore les multiples facettes de l’IA, entre promesses et inquiétudes. De la productivité vantée par ses concepteurs à la précarisation de l’emploi qu’elle induit, de son rôle d’assistant psychologique à celui de générateur de confusion, des créations dites « synthétiques »1 à la transformation même de notre manière d’habiter le monde, il y a urgence à penser régulièrement cette technologie au prisme de nos droits, de nos libertés et de notre capacité à vivre ensemble. Car si l’intelligence est artificielle, les enjeux, eux, sont bien réels et évoluent à grande vitesse.Pour en savoir plus…


[INFOS QUALITE] statut : validé | mode d’édition : compilation, édition et iconographie | sources : edl.laicite.be | contributeur : Patrick Thonart | crédits illustrations : en-tête, d’après 2001, l’odyssée de l’espace (1968) © CNRS – Christophe L. ; © jp.pinterest.com ; © fr.linkedin.com ; © iatranshumanisme.com.


Plus d’engagement en Wallonie…

ELLUL : Ce n’est pas la technique qui nous asservit mais le sacré transféré à la technique

Temps de lecture : 4 minutes >

[RADIOFRANCE.FR/FRANCECULTURE, 12 août 2025] “Ce n’est pas la technique qui nous asservit mais le sacré transféré à la technique“, écrit Jacques Ellul. Dans ses travaux sociologiques, il fustige moins les outils techniques en eux-mêmes que la place et la valeur qui leur est accordée collectivement. Loin d’être le réactionnaire récalcitrant par principe au progrès technique décrit par certains, Jacques Ellul développe une analyse fine de la technique. Son concept phare de “société technicienne” est d’une pertinence toute contemporaine.

Loin d’être le réactionnaire récalcitrant par principe au progrès technique décrit par certains, Jacques ELLUL (1912-1994) développe une analyse fine de la technique. Son concept phare de société technicienne est d’une pertinence toute contemporaine.

La technique, comme l’enjeu du siècle

C’est au lendemain de la Seconde Guerre mondiale que Jacques Ellul se lance dans l’écriture de son œuvre majeure La Technique ou l’enjeu du siècle achevée en 1950 et éditée seulement en 1954. À cette époque, le monde entier observe et accueille avec fascination le progrès technique sous toutes ses formes. Jacques Ellul, lui, prédit les dérives de l’omniprésence technologique sur nos vies, à la fois à l’échelle individuelle et à l’échelle de nos sociétés.

Loin de la caricature technophobe et récalcitrante par principe aux objets techniques qu’on a voulu faire de lui, Jacques Ellul s’attache à documenter les effets de la généralisation de la technique sur nos vies. Une analyse étonnamment clairvoyante qui inspire aujourd’hui de nombreux penseurs techno-critiques.

Comment définir la technique ?

Hélène Tordjman est économiste, maîtresse de conférences à l’université Sorbonne Paris-Nord. Elle est l’autrice de La Croissance verte contre la nature. Critique de l’écologie marchande, […] elle a reçu le prix Jacques-Ellul.

Hélène Tordjman explique ce que Jacques Ellul définit par technique : “Un système entier, global, qui enserre les sociétés et dont le ressort principal est la recherche de l’efficacité maximale en toute chose.

Entre la fin du 18ᵉ siècle et le début du 19ᵉ siècle, au moment de la révolution industrielle, la technique devient une force dominante de la société. L’économiste détaille ses caractéristiques spécifiques : l’auto-accroissement, l’insécabilité et l’autonomie de la technique. La suite de l’échange est consacré au concept de non-puissance, qu’Hélène Tordjman articule avec l’agroécologie : “En agriculture, on sait comment il faudrait changer le système pour nourrir la planète sans monoculture industrielle (…) ; ce serait une manière douce d’envisager les rapports avec la nature, non fondée sur la puissance, mais sur la collaboration et les interactions naturelles.

Extrait de La Technique ou l’Enjeu du siècle de Jacques Ellul :

La technique se situe en dehors du bien et du mal : “La morale juge de problèmes moraux ; quant aux problèmes techniques, elle n’a rien à y faire. Seuls des critères techniques doivent y être mis en jeu. La technique se jugeant elle-même se trouve évidemment libérée de ce qui a fait l’entrave principale à l’action de l’homme. Elle assure ainsi de façon théorique et systématique la liberté qu’elle avait su conquérir en fait. Elle n’a plus à craindre quelque limitation que ce soit puisqu’elle se situe en dehors du bien et du mal. L’on a prétendu longtemps qu’elle faisait partie des objets neutres ; actuellement ce n’est plus utile ; sa puissance, son autonomie sont si bien assurées qu’elle se transforme à son tour en juge de la morale, en édificatrice d’une morale nouvelle.


[WALLONICA.ORG, critique] L’article ci-dessous illustre avec simplicité combien le recyclage de concepts marquants de la pensée peut amener à un discours en contradiction avec celui de leur auteur premier : le propos d’Ellul ne portait pas sur la technique elle-même mais bien sur notre sacralisation de la technique. Rebondir d’un mot à un autre, d’une acception à une autre, d’une représentation à une autre par le biais de la seule proximité n’implique pas la cohérence dans un discours…

[REPORTERRE.NET] Le livre qui a fait redécouvrir Jacques Ellul, vient d’être réédité. Jacques Ellul (1912-1994) est plus connu aux États-Unis qu’en France. Au début des années soixante, enthousiasmé, Aldous Huxley fit traduire et publier avec succès son maître livre, La Technique ou l’enjeu du siècle, depuis élevé au rang de classique étudié à l’université. Chez nous, le mouvement écologique, dont il fut un des précurseurs, lui doit beaucoup : ainsi est-il le maître à penser de José Bové et de nombreux partisans de la décroissance. Cet homme libre, à l’écart de toutes les chapelles, à la fois libertaire et croyant, solitaire et engagé dans son siècle, avait tout prévu, ou presque. Ces crises qui nous assaillent à répétition, réchauffement climatique, nucléaire, OGM, peurs alimentaires, nanotechnologies, épuisement des ressources, etc. ? Il les avait prévues. Cette désagréable impression que le progrès technique nous embarque dans un monde de plus en plus incertain, risqué, aliénant ? Il l’avait prévue. Mieux : ces phénomènes, il les avait pensés, étudiés, jaugés tout au long d’une oeuvre abondante (plus de cinquante ouvrages).
Persuadé que la technique mène le monde (bien plus que le politique et l’économique), il a passé sa vie à analyser les mutations qu’elle provoque dans nos sociétés, et la tyrannie qu’elle exerce sur nos vies. Dans cet ouvrage, Jean-Luc Porquet expose vingt idées fortes d’Ellul et les illustre par des sujets d’actualité. À l’heure où le mouvement critique contre la mondialisation marchande cherche des clefs pour comprendre et agir, cette pensée radicale, généreuse et vivifiante constitue une référence indispensable.

PORQUET Jean-Luc, Jacques Ellul, l’homme qui avait (presque) tout prévu (Le Cherche Midi, 2012)


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition et iconographie | sources : franceculture | contributeur : Patrick Thonart | crédits illustrations : en-tête, © cruciformphronesis.se | Il existe une Association internationale Jacques Ellul (AIJE) dont le site est vieillot mais assez bien documenté : jacques-ellul.org


Plus de presse en Wallonie…

HUNYADI : Le numérique, outil libidinal

Temps de lecture : 5 minutes >

[DIAL.UCLOUVAIN.BE] Depuis le début du XXIe siècle, l’extension mondiale du numérique a refaçonné de manière profonde et spectaculaire le mode de vie de tous les humains à travers le monde. L’extension planétaire de ce phénomène est fascinante en elle-même : comment se fait-il que les technologies numériques aient pu en si peu de temps acquérir une telle emprise sur la vie des humains sans susciter de résistance significative de la part des citoyens de par le monde, et ce, indépendamment des contextes politiques ?

Car c’est là l’un des faits les plus frappants : cette extension se déroule identiquement en contexte libéral et en contexte autoritaire, dans les États démocratiques modernes aussi bien qu’en Chine ou en Russie. La force d’envoûtement du numérique ne connaît pas de frontières.

Or, je formule l’hypothèse que pour comprendre cette emprise, il faut, à contre-courant des nombreuses explications géopolitiques ou économiques, par nature surplombantes, redescendre dans le laboratoire secret du psychisme humain et entrer dans le monde infime des utilisateurs eux-mêmes, sans l’adhésion desquels le système ne pourrait pas survivre, et en tout cas pas s’épanouir sous la forme que nous lui connaissons. C’est là, dans l’économie psychique des individus, que se trouve le secret de son extension. Le système numérique ne flotte pas dans les airs, il ne vit et ne se reproduit qu’à travers les individus vivants qui l’utilisent. Son emprise doit donc nécessairement passer par le psychisme de ces individus vivants. Une fois comprise l’adhésion psychique des individus au numérique, nous pourrons appréhender l’impact que ce dernier exerce sur les relations de confiance en général.

Il se pourrait bien que le secret de l’extension du numérique ne soit nullement caché, et qu’il se manifeste au contraire en permanence à ciel ouvert à chacun d’entre nous. Il est possible en effet qu’il réside dans le plus trivial des lieux communs partagés à propos du numérique – à savoir qu’il est tellement… pratique.

Cette caractéristique, si évidente à chaque utilisateur, pourrait bien en réalité pointer le doigt sur l’essence même de l’extension du système : car ce qui est pratique exerce une telle puissance d’envoûtement qu’il contourne et affaiblit toute critique, refoule toute mise en question, écarte toute objection. C’est lui, ce caractère pratique, qui est l’arme fatale du système, son arme de séduction massive. C’est donc avant toutes choses la notion de pratique ellemême qu’il faut interroger.

Que veut donc dire être pratique ? “Être pratique” indique une certaine coloration subjective du rapport instrumental moyen-fin. Ce qui est pratique doit certes servir à quelque chose (c’est sa fin : toutes nos applications servent à quelque chose), mais doit servir cette fin de la manière la plus commode et la plus confortable possible – ce qui peut impliquer des facteurs temporels (rapidité), psychiques (actes mentaux simples ou routiniers), ergonomiques (manipulabilité), économiques et matériels. Le caractère pratique de la relation instrumentale s’évalue par rapport à la dépense subjective psychique et physique de l’usager. C’est donc un concept énergétique : ce qui coûte subjectivement le moins en dépense psychique, corporelle et matérielle est ce qui est le plus pratique. Or, il est indubitable que par toutes les fonctions qu’il offre, par sa maniabilité et son efficacité, le numérique est pratique en ce sens.

Si le pratique séduit si facilement, c’est qu’il va dans le sens du désir, du contentement, de la satisfaction. En cela, on peut dire que le moteur de l’extension du numérique est fondamentalement libidinal, au sens large : il va dans le sens du désir, il vise l’agrément, procure du plaisir et ce, de la manière énergétiquement la plus économique possible. J’emploie ici le terme de ‘libidinal’ non pas dans un sens sexuel restreint, mais au sens large de force désirante, d’appétence, sens originel qu’on trouve par exemple chez saint Augustin ou Pascal. Or, la force du numérique, une force qui explique son succès sans précédent dans l’histoire industrielle, c’est de savoir s’adresser à ses utilisateurs comme à des êtres libidinaux. Il ne s’adresse pas aux individus comme à des êtres rationnels capables de juger, mais comme à des êtres libidinaux désireux de cliquer pour satisfaire leur désir, exprimer ou partager leurs émotions. Il sait épouser les contours de leur vie psychique, en s’y fondant, en s’y lovant. C’est cela, le secret de l’extension du système numérique. L’attrait irrésistible des dispositifs numériques en général vient de leur capacité d’envoûtement libidinal.

Ce n’est pas pour rien que partout à travers le monde, le jeu a été et est encore un vecteur massif de la propagation du numérique (comme on le voit encore avec le métavers, qui veut faire du monde un immense plateau de jeu, après que les jeux vidéo en ont représenté la première forme concrète). L’industrie numérique sait exploiter comme aucun dispositif technique avant elle la tendance libidinale de l’homme à aller au plus commode, au plus agréable, à ce qui est énergétiquement le moins dispendieux. C’est pourquoi je parle à ce propos d’un principe de commodité, qui est ce principe libidinal qui nous fait irrésistiblement aller au plus satisfaisant et au plus pratique.

Cela veut dire que les outils que propose le système numérique s’imposent à chacun par l’adhésion libidinale qu’ils provoquent, c’est-à‑dire par leur capacité à épouser les contours de la vie psychique des utilisateurs. Du coup, ces outils leur apparaissent simultanément comme une extension de leur vie psychique. C’est sur cette extension de soi, qui implique simultanément une exposition du soi comme le dit Bernard Harcourt [La société d’exposition, 2020], que repose le succès sans précédent des réseaux sociaux, en particulier chez les jeunes, qui y sont accros. Mais pour les rendre accros, il faut bien savoir ce qui les rend accros, et c’est avec un cynisme décomplexé que tous les grands réseaux sociaux exploitent les fragilités psychiques des jeunes du monde entier, précisément pour les rendre addicts.

Mark Hunyadi, philosophe


Cliquez ici pour afficher notre recension…

[DOCUMENTA] L’article ci-dessus est extrait de l’excellent ouvrage du philosophe Mark Hunyadi : Faire confiance à la confiance (Eres, 2023). L’intégralité du texte est téléchargeable sur le site DIAL de l’UCLouvain et notre recension est disponible sur la fiche de l’ouvrage dans notre BIBLIOTECA
A propos du même auteur : HUNYADI : La confiance est ce qui nous relie au monde ; HUNYADI : Faire confiance à la confiance (2023) ; THONART : Raison garder est un cas de conscience.s (2024) ; THONART : Introduction aux “Sanctuaires” (2025)


[INFOS QUALITE] statut : validé, republié à partir de dial.pr (Open Access) | mode d’édition : partage, édition et iconographie | sources : dial.uclouvain.be | contributeur : Patrick Thonart | crédits illustrations : © theartcycle.fr ; © freepik.com ; © Collection privée ; © Editions Eres.


Plus de prise de parole en Wallonie…

Pratiquer les langues autrement : l’IA comme partenaire de conversation ?

Temps de lecture : 4 minutes >

[THECONVERSATION.COM, 6 juillet 2025Les robots conversationnels ou “chatbots” font partie de ces innovations en matière d’intelligence artificielle qui peuvent séduire les élèves s’initiant à une langue étrangère. Mais comment les utiliser de façon pertinente ? Que peuvent-ils apporter quand elles sont mises en place dans un cadre pédagogique bien réfléchi ?

En avril dernier, une lycéenne italienne expliquait à la radio comment elle avait réussi à améliorer son français grâce à un “application magique” avec qui elle discutait chaque soir. Cette application, c’est ChatGPT, le fameux agent conversationnel boosté à l’intelligence artificielle (IA). Son témoignage illustre un phénomène mondial : les jeunes – et moins jeunes – utilisent désormais ces outils pour apprendre, réviser ou pratiquer.

L’intelligence artificielle générative (IAG) a aujourd’hui atteint un niveau de maturité tel qu’elle peut soutenir efficacement l’apprentissage des langues. Les outils sont désormais multilingues, adaptables, capables de générer du contenu écrit ou oral, et ajustés aux demandes de chacun. Mais que faire de cette IA qui parle (presque) toutes les langues ? Est-ce une menace pour l’école ou une chance pour apprendre autrement ?

Un robot qui répond toujours, sans juger

Parmi les nombreuses innovations récentes dans le domaine de l’intelligence artificielle et des technologies éducatives, les robots conversationnels (les “chatbots“) sont les plus accessibles : il suffit de poser une question, et ils répondent à l’écrit comme à l’oral. Ils peuvent tenir une conversation, corriger une phrase, reformuler une expression ou jouer un rôle (serveur, guide touristique ou enseignant de langue…).

Ce sont des alliés intéressants pour pratiquer une langue à son rythme, sans peur du jugement. Un étudiant timide peut s’entraîner à parler espagnol dans un café fictif sans craindre de faire des fautes. Un adulte peut répéter les mêmes phrases vingt fois sans gêner personne. Ces dialogues, même artificiels, stimulent l’apprentissage.

Des outils comme CallAnnie, Gliglish, LangAI, Talkpal ou les versions avancées de Duolingo proposent aujourd’hui des conversations avec un tuteur basé sur l’IA, adaptées au niveau des apprenants. Certains enseignants conçoivent même leurs propres chatbots éducatifs pour mieux coller au niveau ou aux attentes de leur public.

Agents conversationnels : les coulisses de la “machine”

Mais comment ces robots peuvent-ils “comprendre” nos messages ? En réalité, ces robots n’ont pas la faculté de compréhension des êtres humains : ils fonctionnent par prédiction statistique. Autrement dit, ils prédisent la suite la plus probable d’un texte en s’appuyant sur des milliards de données textuelles issues du web. C’est ce qu’on appelle un modèle de langage.

Ces modèles – comme GPT (OpenAI) ou BERT (Google, Meta) – sont le résultat d’un algorithme complexe, d’une programmation informatique et de ce qu’on appelle aujourd’hui la culture du prompt, c’est-à-dire l’art de formuler une requête efficace pour générer une réponse pertinente. Leurs réponses sont souvent très fluides, naturelles, parfois impressionnantes… mais elles peuvent aussi être fausses, incohérentes ou biaisées. C’est pourquoi un cadre pédagogique est indispensable : un dialogue sans médiation humaine reste limité.

Savoir interagir avec l’IA devient une compétence clé, qu’on appelle désormais la littératie en IA. Cela implique de :

      • comprendre que l’IA ne “comprend” pas comme un humain, se méfier de l’illusion de “tout savoir” qu’elle peut donner aux apprenants ;
      • savoir formuler des requêtes (ou prompts) efficaces pour générer une réponse pertinente, acquérir ce qu’on appelle aujourd’hui la culture du prompt ;
      • être capable d’évaluer la pertinence des réponses, de repérer les erreurs, les biais ou les stéréotypes ;
      • adopter une posture critique et respecter l’éthique numérique (vérification des sources, protection des données, etc.).

Les enseignants ont un rôle essentiel à jouer pour guider les apprenants vers un usage réfléchi, créatif et responsable de ces outils.

Une expérience en classe : parler avec un chatbot

Dans une université française, une équipe a testé un chatbot développé avec Mizou auprès de 16 étudiants débutants en français (niveau A1). Objectif : renforcer l’expression orale via des jeux de rôle simples. Les résultats sont encourageants : les étudiants ont gagné en confiance, se sentant moins jugés et plus motivés à parler.

Toutefois, certaines réponses générées par le chatbot étaient trop complexes par rapport au niveau attendu – par exemple, des phrases longues avec un vocabulaire difficile ou des formulations trop soutenues. D’autres étaient parfois trop répétitives, ce qui pouvait entraîner une perte d’intérêt. Ce retour d’expérience confirme l’intérêt de ces outils… à condition qu’ils soient bien accompagnés d’un suivi humain.

L’un des atouts majeurs de l’IA est sa flexibilité : débutants, intermédiaires ou avancés peuvent y trouver des bénéfices. Pour les premiers, les chatbots permettent de pratiquer des situations quotidiennes (‘se présenter’, ‘commander’, ‘demander son chemin’). Les niveaux intermédiaires peuvent enrichir leur expression ou corriger leurs erreurs. Les plus avancés peuvent débattre ou s’exercer à rédiger avec un retour critique. L’IA n’a pas vocation à remplacer les échanges humains, mais elle les complète, en multipliant les opportunités d’interaction.

Les chatbots ne remplacent pas la richesse d’une vraie relation humaine, mais ils peuvent aider à préparer des échanges. Avant de converser avec un correspondant étranger, l’apprenant peut s’exercer avec l’IA pour gagner en fluidité et confiance.

De même, avant un séjour à l’étranger, discuter avec un chatbot permet de se familiariser avec les phrases clés et les situations courantes. Certains apprenants utilisent aussi l’IA pour traduire ou vérifier une formulation. L’enjeu n’est donc pas de remplacer les interactions humaines, mais de multiplier les occasions d’apprendre, à tout moment, dans un cadre sécurisé et individualisé.

L’IA conversationnelle n’est pas une baguette magique, mais un outil prometteur. Lorsqu’elle est utilisée avec recul, créativité et esprit critique, elle peut véritablement enrichir l’enseignement et l’apprentissage des langues.

Demain, les apprenants ne dialogueront plus uniquement avec des enseignants, mais aussi avec des robots. À condition que ces agents soient bien choisis, bien paramétrés et intégrés dans un cadre pédagogique réfléchi, ils peuvent devenir de puissants alliés. L’enjeu est de taille : former des citoyens plurilingues, critiques et lucides – face à l’intelligence artificielle, et avec elle.

Sophie Othman, Université Marie et Louis Pasteur (UMLP)


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : © Disney.


Plus de presse en Wallonie…

Les IA, nos nouvelles confidentes : quels risques pour la santé mentale ?

Temps de lecture : 5 minutes >

[THECONVERSATION.COM, 17 juin 2025Depuis le lancement, en novembre 2022, de ChatGPT, l’agent conversationnel développé par OpenAI, les intelligences artificielles génératives semblent avoir envahi nos vies. La facilité et le naturel avec lesquels il est possible d’échanger avec ces outils sont tels que certains utilisateurs en font même de véritables confidents. Ce qui n’est pas sans risque pour la santé mentale.

Les grands modèles de langage, autrement dit les intelligences artificielles “génératives” telles que ChatGPT, Claude et autre Perplexity, répondent à de très nombreux besoins, que ce soit en matière de recherche d’informations, d’aide à la réflexion ou de résolution de tâches variées ; ce qui explique l’explosion actuelle de leur utilisation scolaire, universitaire, professionnelle ou de loisir.

Mais un autre usage de ces IA conversationnelles se diffuse à une vitesse impressionnante, en particulier chez les jeunes : l’équivalent de discussions entre amis, pour passer le temps, questionner ou échanger des idées et surtout se confier comme on le ferait avec un proche. Quels pourraient être les risques liés à ces nouveaux usages ?

Un terrain propice à une adoption rapide

La conversation par écrit avec les intelligences artificielles semble s’être banalisée très rapidement. À noter d’ailleurs que s’il existe des IA utilisant des échanges vocaux, elles semblent cependant moins utilisées que les échanges textuels.

Il faut dire que nous étions depuis de longues années déjà habitués à échanger par écrit sans voir notre interlocuteur, que ce soit par SMS, par e-mail, par “tchat” ou tout autre type de messagerie. Les IA génératives reproduisant remarquablement bien l’expression verbale des êtres humains, l’illusion de parler à une personne réelle est quasiment immédiate, sans avoir besoin d’un avatar ou d’une quelconque image simulant l’autre.

Immédiatement disponibles à toute heure du jour et de la nuit, conversant toujours sur un ton aimable, voire bienveillant, entraînées à simuler l’empathie et dotées, si ce n’est d’une “intelligence”, en tout cas de connaissances en apparence infinies, les IA sont en quelque sorte des partenaires de dialogue idéales.

Il n’est dès lors pas étonnant que certains se soient pris au jeu de la relation, et entretiennent des échanges suivis et durables avec ces substituts de confidents ou de “meilleurs amis”. Et ce, d’autant plus que ces conversations sont “personnalisées” : les IA mémorisent en effet les échanges précédents pour en tenir compte dans leurs réponses futures.

Certaines plateformes, comme Character.ai ou Replika, proposent par ailleurs de personnaliser à sa guise l’interlocuteur virtuel (nom, apparence, profil émotionnel, compétences, etc.), initialement pour simuler un jeu de rôle numérique. Une fonctionnalité qui ne peut que renforcer l’effet de proximité, voire d’attachement affectif au personnage ainsi créé.

Voici à peine plus de dix ans, le réalisateur Spike Jonze tournait le film Her, décrivant la relation amoureuse entre un homme sortant d’une difficile rupture et l’intelligence artificielle sur laquelle s’appuyait le système d’exploitation de son ordinateur. Aujourd’hui, il se pourrait que la réalité ait déjà rejoint la fiction pour certains utilisateurs des IA génératives, qui témoignent avoir entretenu une “romance numérique” avec des agents conversationnels. Des pratiques qui pourraient ne pas être sans risque pour l’équilibre mental de certaines personnes, notamment les plus jeunes ou les plus fragiles.

Des effets sur la santé mentale dont la mesure reste à prendre

Nous constatons aujourd’hui, dans tous les pays (et probablement bien trop tard…), les dégâts que l’explosion de l’usage des écrans a causés sur la santé mentale des jeunes, en particulier du fait des réseaux sociaux.

Entre autres facteurs, une des hypothèses (encore controversée, mais très crédible) est que la désincarnation des échanges virtuels perturberait le développement affectif des adolescents et favoriserait l’apparition de troubles anxieux et dépressifs.

Jusqu’à aujourd’hui, pourtant, les échanges menés par l’intermédiaire des réseaux sociaux ou des messageries numériques se font encore a priori principalement avec des êtres humains, même si nous ne côtoyons jamais certains de nos interlocuteurs dans la vie réelle. Quels pourraient être les conséquences, sur l’équilibre mental (émotionnel, cognitif et relationnel) des utilisateurs intensifs, de ces nouveaux modes d’échanges avec des IA dénuées d’existence physique ?

Il est difficile de les imaginer toutes, mais on peut concevoir sans peine que les effets pourraient être particulièrement problématiques chez les personnes les plus fragiles. Or, ce sont précisément celles qui risquent de faire un usage excessif de ces systèmes, comme cela est bien établi avec les réseaux sociaux classiques.

À la fin de l’année dernière, la mère d’un adolescent de 14 ans qui s’est suicidé a poursuivi les dirigeants de la plateforme Character.ai, qu’elle tient pour responsables du décès de son fils. Selon elle, son geste aurait été encouragé par l’IA avec laquelle il échangeait. En réponse à ce drame, les responsables de la plateforme ont annoncé avoir implémenté de nouvelles mesures de sécurité. Des précautions autour des propos suicidaires ont été mises en place, avec conseil de consulter en cas de besoin.

Une rencontre entre des personnes en souffrance et un usage intensif, mal contrôlé, d’IA conversationnelles pourrait par ailleurs conduire à un repli progressif sur soi, du fait de relations exclusives avec le robot, et à une transformation délétère du rapport aux autres, au monde et à soi-même.

Nous manquons actuellement d’observations scientifiques pour étayer ce risque, mais une étude récente, portant sur plus de 900 participants, montre un lien entre conversations intensives avec un chatbot (vocal) et sentiment de solitude, dépendance émotionnelle accrue et réduction des rapports sociaux réels.

Certes, ces résultats sont préliminaires. Il paraît toutefois indispensable et urgent d’explorer les effets potentiels de ces nouvelles formes d’interactions pour, si cela s’avérait nécessaire, mettre tout en œuvre afin de limiter les complications possibles de ces usages.

Mankiewicz Joseph L., L’aventure de Madame Muir (The ghost and Mrs. Muir, 1947) © DP

Autre crainte : que dialoguer avec un “fantôme” et se faire prendre à cette illusion puissent aussi être un facteur déclenchant d’états pseudo-psychotiques (perte de contact avec la réalité ou dépersonnalisation, comme on peut les rencontrer dans la schizophrénie), voire réellement délirants, chez des personnes prédisposées à ces troubles.

Au-delà de ces risques, intrinsèques à l’emploi de ces technologies par certaines personnes, la question d’éventuelles manipulations des contenus – et donc des utilisateurs – par des individus mal intentionnés se pose également (même si ce n’est pas cela que nous constatons aujourd’hui), tout comme celle de la sécurité des données personnelles et intimes et de leurs potentiels usages détournés.

IA et interventions thérapeutiques, une autre problématique

Pour terminer, soulignons que les points évoqués ici ne portent pas sur l’utilisation possible de l’IA à visée réellement thérapeutique, dans le cadre de programmes de psychothérapies automatisés élaborés scientifiquement par des professionnels et strictement encadrés.

En France, les programmes de ce type ne sont pas encore très utilisés ni optimisés. Outre le fait que le modèle économique de tels outils est difficile à trouver, leur validation est complexe. On peut cependant espérer que, sous de nombreuses conditions garantissant leur qualité et leur sécurité d’usage, ils viendront un jour compléter les moyens dont disposent les thérapeutes pour aider les personnes en souffrance, ou pourront être utilisés comme supports de prévention.

Le problème est qu’à l’heure actuelle, certaines IA conversationnelles se présentent d’ores et déjà comme des chatbots thérapeutiques, sans que l’on sache vraiment comment elles ont été construites : quels modèles de psychothérapie utilisent-elles ? Comment sont-elles surveillées ? et évaluées ? Si elles devaient s’avérer posséder des failles dans leur conception, leur emploi pourrait constituer un risque majeur pour des personnes fragiles non averties des limites et des dérives possibles de tels systèmes.

Les plus grandes prudence et vigilance s’imposent donc devant le développement ultrarapide de ces nouveaux usages du numérique, qui pourraient constituer une véritable bombe à retardement pour la santé mentale…

Antoine Pelissolo, professeur de psychiatrie


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : Her, un film de Spike Jonze (2013) © Annapurna Pictures ; © DP.


Plus de conventions sociales en Wallonie…

DADO : L’exposition Ars Mechanica à La Boverie (Liège, 2025)

Temps de lecture : 6 minutes >

[LABOVERIE.COM, présentation officielle de l’expo] Ars Mechanica – La Force d’innover.Du 25 avril au 27 juillet 2025, La Boverie accueille une exposition unique qui met en lumière l’héritage industriel et artistique du Groupe FN Browning, à travers 135 ans d’innovation et de savoir-faire. En exposant des productions industrielles et artisanales dans un musée des Beaux-Arts, il s’agit de rappeler qu’à une période de l’histoire, les Beaux-Arts et la technique (technè) faisaient tous deux parties des arts mécaniques, avec comme point commun l’expression du génie humain. Les œuvres présentées ne sont pas seulement des pièces esthétiques, mais témoignent du travail des femmes et des hommes qui, grâce à des outils industriels performants et à des inventeurs de génie, ont façonné des productions de qualité, fiables et innovantes à l’origine de révolutions technologiques majeures.

© Stéphane Dado – FN Browing Group

Au fil d’une scénographique subtile et pertinente, le parcours révèlera un large éventail d’objets jamais exposés jusqu’ici, témoins des réalisations de l’entreprise dans les différents domaines qu’elle a explorés depuis sa création en 1889 : armes légères, véhicules, aéronautique, aérospatiale, sports… et bien d’autres encore. L’exposition présentera également des peintures, sculptures, affiches publicitaires créées par des artistes renommés, ainsi que des archives et photos qui illustrent l’industrialisation, la fabrication et les impacts sociaux de l’entreprise. Un voyage fascinant au croisement de l’art, de l’histoire et de la technique qui a fait des marques FN, Browning et Winchester des légendes vivantes.


DADO : 𝐀𝐑𝐒 𝐌𝐄𝐂𝐇𝐀𝐍𝐈𝐂𝐀

À l’heure où les politiques publiques militent activement pour la réduction de la place des voitures dans les centres urbains, et où la frénésie d’investissements dans l’armement soulève de profondes interrogations éthiques — en particulier dans un pays aussi fragilisé budgétairement que la Belgique —, l’exposition Ars Mechanica, actuellement présentée au musée de La Boverie (Liège), surprend par l’ostentation avec laquelle elle met en scène automobiles et fusils. Elle surprend surtout par l’absence de recul critique sur ces objets, exposés ici comme autant d’icônes techniques ou industrielles pas nécessairement appropriées dans un musée dédié à la création plastique. Le titre de l’exposition laissait pourtant espérer une réflexion subtile, à la croisée des arts, des techniques, de l’artisanat et des sciences. Il n’en est rien. Ce à quoi l’on assiste, c’est à une véritable célébration de la FN Browning — consortium regroupant la Fabrique Nationale d’Herstal (FN), la célèbre marque de fusils Browning, et l’entreprise américaine de carabines Winchester, fondée en 1855 dans le Connecticut. Fait peu connu mais non négligeable : l’unique actionnaire de la FN est la Région wallonne.

© Stéphane Dado – FN Browing Group

La FN s’inscrit dans une tradition armurière liégeoise qui remonte au XVIe siècle. Longtemps artisanale, cette production connaît un tournant décisif à la fin du XIXe siècle, portée par les avancées technologiques, les exigences croissantes du monde militaire et un besoin accru de précision, qui impose le passage à la production en série. En 1889, dix maisons d’armurerie liégeoises s’associent pour fonder la Fabrique Nationale d’Armes de Guerre à Herstal. C’est un jalon fondamental dans l’histoire industrielle de la région : dès sa création, l’entreprise honore une commande de 150 000 fusils de type Mauser, la première arme produite dans ses usines.

À la fin du siècle, la FN diversifie ses activités : automobiles de luxe ou de gamme intermédiaire, camions, vélos, turboréacteurs… Elle excelle dans les savoir-faire de forge, fonderie et tôlerie, exploitant avec virtuosité les propriétés de l’acier et la diversité des alliages. Cette diversification, qui perdurera près d’un siècle, prend fin dans les années 1980, lorsque la crise sidérurgique frappe de plein fouet l’ensemble de la Wallonie.

© Stéphane Dado – FN Browing Group

Aussi riche et passionnante que soit cette histoire industrielle, on peut légitimement s’interroger sur la pertinence de son exposition dans un musée d’art tel que La Boverie — un musée du design ou d’histoire industrielle aurait sans doute offert un cadre plus cohérent.

L’un des écueils majeurs de l’exposition est l’effacement de la dimension artistique, réduite ici à sa plus simple expression. Elle est engloutie sous l’abondance d’armes et de véhicules, comme si la seule prouesse technique suffisait à leur conférer une valeur artistique. Pourtant, certaines armes de prestige ou de chasse produites par la FN témoignent d’un haut degré d’exigence tant technique qu’esthétique : précision mécanique irréprochable, utilisation de matériaux nobles comme le noyer pour les crosses, robustesse pensée pour traverser les générations, finitions exécutées à la main sur les pièces d’exception. Certaines sont gravées au burin ou à la pointe sèche par des maîtres graveurs, à l’intention d’une clientèle de collectionneurs et d’amateurs d’armes d’art.

Ce savoir-faire exceptionnel aurait pu constituer le cœur d’une réflexion esthétique approfondie. Or, c’est précisément ce qui fait défaut : les qualités artistiques remarquables de ces objets sont à peine évoquées. Plusieurs pièces présentent pourtant des techniques raffinées de marqueterie métallique et d’incrustations d’or, d’argent ou de nacre. Le décor mériterait une lecture plus approfondie : figuration naturaliste (scènes de chasse, cervidés et oiseaux rendus avec un grand réalisme), ornementations baroques ou rocaille (arabesques, feuillages stylisés à la manière des orfèvres), gravures géométriques inspirées de l’Art déco, ou encore motifs héraldiques personnalisés.

L’exposition tente néanmoins d’associer ces armes à des peintures de chasse, évoquant au passage le mimétisme de la bourgeoisie du XIXe siècle, qui, désireuse de singer l’aristocratie, partage avec elle ce goût détestable pour l’extermination animale à des fins récréatives.

HEINTZ Richard, La Roche Noire à Sy (1905) © La Boverie

Quelques œuvres picturales parviennent malgré tout à émerger du lot, offrant un contrepoint plus sensible : un superbe paysage de Richard Heintz (La Roche Noire à Sy, 1905), ou une toile expressive de l’illustrateur américain N. C. Wyeth (Hunters with Bear, vers 1911). Ces peintures contrastent vivement avec les sculptures animalières fades ou les représentations stéréotypées de cervidés signées Trucker Smith ou Kyle Sims, dont la qualité évoque davantage les toiles poussiéreuses des brocantes dominicales que le raffinement d’une collection muséale.

© Stéphane Dado – FN Browing Group

De superbes agrandissements photographiques en noir et blanc viennent rehausser certaines pièces (armes ou véhicules), en arrière-plan des objets originaux. L’idée est excellente et la présentation réussie. On regrettera toutefois que ni le nom du photographe, ni le lieu de conservation de ces clichés ne soient mentionnés. Quelques affiches publicitaires de la FN, réalisées par Auguste Bénard vers 1900 dans un style clairement influencé par l’Art nouveau, retiennent également l’attention.

Mais la véritable pièce maîtresse de l’exposition reste sans conteste la frise monumentale d’Émile Berchmans, Les Forgerons de Vulcain — une huile sur toile peinte en 1910 pour le pavillon de la FN à l’Exposition universelle de Bruxelles. Cette allégorie saisissante rappelle, avec force et lyrisme, que toute création mécanique repose sur la maîtrise du feu et le façonnage du métal. C’est sans doute la seule pièce du lieu à offrir une véritable dimension artistique, la seule qui fait un peu rêver dans un parcours partagé entre la technicité et le spectaculaire. Accueillir une exposition clé sur porte ne représente certes aucun coût, mais cela ne témoigne en rien d’une ambition artistique affirmée ni d’une vision imaginative. Une ville comme Liège mérite assurément mieux…

Stéphane DADO


[INFOS QUALITE] statut : validé | mode d’édition : rédaction, édition et iconographie | contributeur : Stéphane Dado | crédits illustrations : © Stéphane Dado – FN Browing Group ; © La Boverie.


Plus d’opinions en Wallonie…

DADO : le musée de la poterie de Raeren (Burg Raeren)

Temps de lecture : 6 minutes >

Fondé en 1963 dans la région germanophone de l’Est belge, à quelques kilomètres seulement d’Aix-la-Chapelle, le Musée de la Poterie de Raeren s’inscrit dans un cadre patrimonial singulier : un ancien château fort du XIVe siècle, le Burg Raeren, dont les douves et le donjon confèrent au lieu un caractère à la fois pittoresque et historiquement pertinent, nombre de potiers ayant jadis établi leur atelier à proximité immédiate.

Raeren fut, entre les XVe et XVIIe siècles, l’un des principaux foyers de production de grès cérame en Europe, aux côtés de centres rhénans tels que Siegburg, Frechen ou Cologne. Ces différentes villes ont en commun la fabrication d’un grès dit ‘de Rhénanie’, dont la qualité technique et esthétique était unanimement reconnue. Le grès de Raeren est issu d’une argile locale riche en silice (principalement du quartz) et en alumine, conférant à la pâte une excellente résistance au feu et une aptitude à la vitrification lors de cuissons à très haute température, généralement comprises entre 1200 et 1300 °C. Sous l’effet de la chaleur, les composants de l’argile fondent partiellement et se soudent, produisant un matériau dense, imperméable et extrêmement résistant, sans nécessité d’un émaillage préalable.

À la Renaissance, les potiers appliquaient toutefois une glaçure au sel : du chlorure de sodium était jeté dans le four à l’approche du point de fusion ; en réagissant avec la silice de l’argile, la vapeur saline formait une couche vitreuse, légèrement granuleuse et brillante, que l’on qualifie souvent de peau d’orange. Après cuisson, la couleur du grès variait du gris bleuté au brun, selon la composition exacte de l’argile et la maîtrise du feu. Chaque pièce portait ainsi l’empreinte de son environnement de cuisson, tant technique qu’humain.

Comme dans les autres centres rhénans, la production à Raeren reposait largement sur l’usage de moules et de décors par estampage, favorisant une certaine standardisation tout en conservant un degré élevé d’ornementation. Certains potiers, à l’instar de Jan Emens Mennicken, n’hésitaient pas à apposer leur marque ou à développer des motifs distinctifs, aujourd’hui précieusement recherchés par les collectionneurs et les historiens.

© Stéphane Dado

Le musée de Raeren documente avec précision l’évolution stylistique des pièces. Les plus anciennes se reconnaissent aux rainures grossières tracées sur la panse et le col des cruches, marques laissées par la pression des doigts sur l’argile tournée. Le pied, festonné, était réalisé par l’apposition d’un anneau d’argile appliqué à la base de la pièce. Certaines cruches dites à nez pointu représentent un visage stylisé où le nez, les yeux et la barbe sont modelés sur le flanc de l’ustensile au forme en forme de poire. Les joues sont représentées par des lignes et des points incisés et sont parfois décorées de rosaces estampées. Ces modèles datent des années 1470-1520.

Dès le XVIe siècle, apparaissent aussi des cruches aux formes plus raffinées : les parois et les pieds sont alors lissés, les rainures plus fines, les décorations plus précises.

Dans la seconde moitié du XVIe siècle, les potiers de Raeren mirent au point une nouvelle typologie : à la panse sphérique traditionnelle se substitue une forme architecturée, composée, du bas vers le haut, d’un pied, d’une partie centrale cylindrique, d’épaules et d’un col. Ce cylindre, plus régulier, permettait de recevoir des frises figurées, là où l’on plaçait auparavant médaillons et armoiries.

Ces frises en relief, imprimées dans l’argile encore humide, contribuèrent à la renommée de cette production. Elles représentaient aussi bien des scènes bibliques que des motifs grotesques, des portraits, des banquets ou encore des devises moralisatrices et satiriques. Les danses paysannes connaissent un succès retentissant. Il en existe une trentaine de variantes, dans un esprit très proche des gravures sur cuivre de Hans Sebald Beham, artiste de Nuremberg actif au début du XVIe siècle. Le modèle le plus fascinant reste la cruche de type Bartmann, au visage barbu, en vogue dans les années 1550-1610.

Certaines pièces, notamment les célèbres cruches à losanges, témoignent d’un savoir-faire plus rare : leur décor n’était pas moulé mais gravé à la main au couteau, trait par trait, ce qui en faisait des objets plus coûteux. D’autres, rehaussées de montures en étain ou en argent, entraient dans la catégorie des artefacts de prestige.

Ces objets luxueux reflètent aussi une évolution des mentalités. Ils attestent que le travail est devenu une valeur morale suprême, reléguant la paresse et la bêtise au rang des vices. Cette éthique est présente dans la pratique religieuse : l’accent s’est déplacé de la récompense céleste vers la réussite matérielle sur terre. Le christianisme a évolué vers un code de conduite terrestre qui se manifeste notamment dans les objets du quotidien, comme les grès de la Renaissance richement décorés, qui participaient à une nouvelle culture matérielle où l’on exposait sa richesse, notamment à travers les ustensiles de table. Cette évolution paraît avec le recul inévitable dans un pays comme les Pays-Bas où le commerce international florissant enrichit considérablement la bourgeoisie qui doit tenter ainsi de concilier ses gains avec les préceptes de la Bible, tout en justifiant et en assumant de nouveaux comportements édonistes, fruits de ce commerce colonial.

Les potiers de Raeren se sont à leur tour énormément enrichis. L’essentiel de leur production était constitué de cruches à boire et de pichets à vin ou à bière (Krüge), répandus dans la quasi-totalité des foyers d’Europe du Nord. Les peintures de l’époque reflètent d’ailleurs l’immense usages de ces ustensiles qui apparaissent dans les scènes de genre, banquets, intérieurs bourgeois, natures mortes ou tableaux à message moral des grands maîtres du XVe au XVIIe siècle : on les retrouve de Jérôme Bosch à Pieter Brueghel, de Pieter Aertsen à Clara Peeters, de Jan Steen à David Teniers le Jeune, en passant par Joachim Beuckelaer ou Adriaen Brouwer. Les productions de Raeren y deviennent des marqueurs silencieux du quotidien et de la convivialité à la Renaissance.

© Stéphane Dado

Outre ces contenants à boisson, les potiers fabriquaient également toute une gamme d’ustensiles domestiques : jarres pour la conservation, mesures à grains, lampes et cruchons à huile, écuelles, coupes, puisoirs, pots à lait et même des pots de chambre.

Au XVIe siècle, Raeren comptait environ cinquante fours. Les vapeurs et la lumière qu’ils dégageaient étaient visibles à grande distance. Les maîtres-potiers, experts dans la conduite du feu, savaient interpréter les nuances de couleur des flammes pour ajuster leur cuisson avec une précision remarquable — savoir-faire que partageront plus tard, de façon anecdotique, les chauffeurs de la Vennbahn.

Dès la fin du XVIe siècle, le grès rhénan se diffuse bien au-delà de l’Europe : jusqu’à 2000 charretées par an quittaient Raeren à l’apogée de sa production. Les Anglais, les Espagnols ou les Hollandais l’utilisaient pour conserver les denrées à bord de leurs navires, puis le revendaient dans leurs colonies d’Amérique du Nord, d’Asie du Sud-Est et d’Australie. Des fragments de grès de Raeren ont été retrouvés sur des épaves, dans les fonds marins ou lors de fouilles archéologiques sur des sites coloniaux.

Le XVIIe siècle marque cependant le début du déclin, lent mais irréversible, de la poterie à Raeren. La guerre de Trente Ans, les conflits menés par Louis XIV et la concurrence de la porcelaine européenne — inventée à Meissen en 1709 par Johann Friedrich Böttger — précipitèrent la désaffection pour le grès d’apparat. Au fil du temps, les potiers se recentrèrent sur des productions utilitaires. Sous l’occupation française (1794–1814), la réglementation de l’exploitation des ressources naturelles, notamment l’argile et le bois, accentua encore cette chute. Le dernier four de Raeren s’éteignit en 1850.

© Stéphane Dado

Il fallut attendre le XIXe siècle pour que le grès de Raeren suscite un regain d’intérêt. Dans le sillage du romantisme, de riches industriels — fascinés par le passé médiéval et en quête d’authenticité — entreprirent de restaurer châteaux et demeures anciennes, qu’ils meublèrent d’objets d’art d’époque ou d’inspiration historiciste. Le grès de Raeren, perçu comme un témoin majeur de cette Europe artisanale disparue, devint dès lors objet de collection. L’un des pionniers de ce renouveau fut l’avocat gantois Joan d’Huyvetter (1770–1833), dont la collection attira jusqu’au roi Guillaume Ier d’Orange. Le mouvement de redécouverte était amorcé : Raeren entrait dans l’histoire des arts décoratifs.

Stéphane DADO


[INFOS QUALITE] statut : validé | mode d’édition : rédaction, édition et iconographie | auteur : Stéphane Dado | contributeur : Patrick Thonart | crédits illustrations : © Stéphane Dado.


Plus d’arts visuels en Wallonie…

Non, l’IA ne va pas faire disparaître l’écriture !

Temps de lecture : 5 minutes >

[THECONVERSATION.COM, 26 février 2025] Si les IA sont plus performantes que les humains pour brasser des informations et produire un texte dans un laps de temps très court, elles ne maîtrisent ni la véracité des contenus ni l’adaptation des discours aux contextes. Quelques observations pour apprendre à travailler avec ces outils.

Il ne fait plus aucun doute que les IA changent nos vies et nos métiers. Certaines des compétences que nous avons toujours considérées comme spécifiquement humaines ne le sont plus. L’écriture va-t-elle disparaître ? Allons-nous revenir à une société de l’oral ? Responsable d’une formation en rédaction et traduction à l’Université Paris-Est Créteil, je suis confrontée à cette question en permanence. Faut-il encore apprendre aux étudiants à produire des synthèses si nous pouvons les confier à une IA ? Quelles sont les compétences rédactionnelles qui ne peuvent pas (encore) être remplacées par des machines ?

Mon expérience d’enseignante et de chercheuse me montre qu’apprendre à rédiger un texte selon des normes propres aux différents modes de circulation des écrits reste indispensable, aussi bien pour les rédacteurs amateurs que pour les rédacteurs professionnels.

Nul doute que les IA sont plus performantes que les humains si nous considérons des paramètres comme le brassage d’informations, la vitesse de rédaction, la correction orthographique, ou encore l’élimination par principe de nos tics d’écriture comme la répétition de connecteurs (“alors”, “certes”, “donc”, etc.). Il n’est donc pas étonnant que tout le monde s’y mette, d’autant que cela s’assortit d’un apparent gain économique en accélérant la vitesse de réalisation.

Cependant, à force de vouloir trop économiser, quelque chose au passage se perd : la véracité des contenus, la source des informations, l’adaptation aux discours ou encore le style d’écriture.

Vérifier les contenus

Premier problème posé par les IA : ces dispositifs n’encouragent pas à vérifier les contenus. Si les IA rédactionnelles brassent des quantités de données impossibles à exploiter dans le même ratio quantité/temps par un humain, la relation entre les données et les sources reste encore un point aveugle dans la production des textes.

© lemonde.fr

En effet, les données sont transposées à travers des espaces latents, c’est-à-dire des espaces de travail cachés, dont la complexité d’organisation dépasse largement nos capacités d’entendement. La production des données textuelles dépend de deux processus fondamentaux :

      • rassembler et réduire les informations ;
      • les traiter pour produire des résultats.

Or il peut y avoir des hiatus dans le passage de la première à la deuxième étape : l’apparence ou les actes d’une personne peuvent être attribués à une autre, un phénomène est assimilé à un autre pourtant très différent, etc. C’est ce que l’on retrouve dans les hallucinations souvent produites par les IA.

Comprendre la différence entre ce dont on parle (référent sémantique) et ce qu’on désigne (référent ontologique) est ce qui permet de faire le tri dans les contenus produits par les IA rédactionnelles. En effet, il faut savoir vérifier qu’il y a bien concordance entre les deux référents. Car, ce que produisent les IA n’a pas toujours un sens.

Identifier les sources fiables

Deuxième problème posé par l’IA : étant donné la complexité des processus de production des contenus, retrouver et vérifier la source des données textuelles est compliqué, et les IA rédactionnelles n’offrent pas toutes des outils pour le faire.

Or quand nous écrivons un texte scientifique, journalistique ou même commercial, la fiabilité et la vérification des sources sont une part fondamentale de la construction de l’argumentaire. En effet, les bons arguments dépendent souvent de la légitimité de la source. Si la source n’est pas légitime, il en va de l’autorité du discours et du propos tenus.

© lemonde.fr

Il s’agit de détecter des sources fiables, non des sources en général. Cette activité est reliée, d’un côté, à une pratique de l’écrit, et, de l’autre, à une éthique de l’écrit. Cela impacte notamment la construction du rapport au lecteur qui signe avec l’auteur un pacte (implicite) de confiance.

Comme le disait Umberto Eco dans Sulla letteratura (2002) :

Il n’y a qu’une seule chose que vous écrivez uniquement pour vous-même, c’est la liste des courses.

L’opacité des sources brise ce pacte de confiance et ramène le contenu de l’ordre de l’information à l’ordre de la rumeur.

Adapter les textes aux discours

Troisième problème posé par les IA : la difficulté à adapter les textes produits aux discours de référence. Les écrits sont toujours produits au sein de discours très différents : publicitaires, politiques, scientifiques, critiques, etc. Chaque discours a ses propres contraintes et attentes. Les écrits circulent au sein des discours à travers des formats d’écriture précis, c’est-à-dire des agencements de formes typiques qui servent d’interfaces entre les textes et les discours.

© ilmessaggero.it

Prenons un exemple. J’ai travaillé cette année avec les étudiants sur un genre d’écrit ordinaire : la recette de cuisine. L’enjeu était de comprendre les normes de rédaction, les respecter et les déjouer, jusqu’à rédiger une recette qui ne ressemble plus à une recette. Cette capacité à passer d’un genre d’écrit à l’autre est un atout des rédacteurs humains qui n’est pas (encore) bien géré par les IA.

Chercher son propre style

Les sites proposant des IA rédactionnelles pour tout genre de discours sont nombreux. Les consignes pour les utiliser également. Toutefois, les textes produits présentent souvent une sorte de neutralité passe-partout qui, à la longue, finit par desservir les usagers.

Pour différencier ses propres contenus, notamment dans un environnement numérique qui regorge d’écrits, il est souhaitable de développer son propre style. L’injonction d’écrire “à la manière de” que nous pouvons donner à une IA dans un “prompt”, c’est-à-dire les consignes de rédaction soumises, ne vise pas cet objectif. L’enjeu est de trouver notre propre manière d’écrire, ce qui fait toute la différence en tant que rédacteur.

Si les étudiants ne peuvent pas se passer d’utiliser les IA pour rédiger leurs écrits, notamment lors des stages en entreprise, il faudra alors les préparer à un usage critique de ces technologies : comprendre le fonctionnement, identifier les limites, personnaliser les pratiques. Pour cela, il faudra mettre en place des protocoles, formuler des recommandations, discuter les productions.

Cette année, nous sommes en pleine réflexion pour dessiner les nouveaux parcours de formation des étudiants. La question se pose : faut-il intégrer les IA dans nos formations ? Nous devons bien faire évoluer les parcours en suivant les transformations technologiques et sociales.

Il s’agit de réfléchir à de nouvelles compétences à développer comme la rédaction de prompts (prompt engineering), l’accompagnement à la pratique rédactionnelle (coaching), ou encore la révision des textes (post-edition) : encore du travail pour les rédacteurs ! Alors non, l’écriture ne va pas disparaître avec l’IA.

Rossana De Angelis, UPEC


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : © letempsdecrire.com ; © lemonde.fr ; ilmessaggero.it.


Plus de systèmes en Wallonie…

AI Slop : ce phénomène créé par l’intelligence artificielle nous amène-t-il vers un “internet zombie” ?

Temps de lecture : 4 minutes >

[RTBF.BE, 21 février 2025] L’intelligence artificielle envahit de plus en plus notre monde et brouille les frontières entre réel et imaginaire. Un phénomène relativement nouveau inonde internet : l’AI Slop. Pour le moment sans contrôle, il menace notre confort numérique. Explications dans Matin Première. 

L’AI Slop se manifeste sur de nombreux sites que vous consultez peut-être tous les jours comme Pinterest. Cette plateforme d’inspiration fait défiler sous vos yeux des images selon vos centres d’intérêt – cuisine, mode, dessin, photo, coiffure, déco – et vous épinglez celles qui vous plaisent dans des tableaux dédiés qui ne sont qu’à vous, qui sont publics ou privés, sortes de vision boards de votre vie rêvée : que ce soient des idées de vêtements “vintage pour l’hiver”, ou des idées pour décorer vos toilettes avec du papier-peint. Bref, Pinterest c’est une petite bulle tout à fait superficielle et confortable dans laquelle se lover quand le monde va mal. Mais cette bulle ne protège plus sur Pinterest : la plateforme est en train de muter sous nos yeux. Les photos de déco se ressemblent de plus en plus, les modèles maquillage ou coiffure ont la peau et la beauté trop lisse. Même les recettes : les assiettes remplies de pâtes sont désormais irréelles.

Internet gangréné par les images produites par l’IA

En effet, Pinterest est gangrené par les images générées par l’IA. 70% des contenus sur la plateforme sont faux aujourd’hui. C’est la directrice créative d’une agence de pub qui l’affirme dans une enquête menée par le Figaro. Elle le sait car au sein de son agence elle-même, on fournit de plus en plus d’images produites par IA. C’est tellement moins cher et plus facile que d’organiser une séance photo avec des comédiens.

Des milliers d’utilisateurs se plaignent du même problème sur plusieurs forums Reddit. Une dame parle même des modèles de crochet qui sont maintenant générés par IA. Et donc impossibles à reproduire dans la vraie vie. Les internautes sont en colère, demandent à la plateforme d’instaurer un outil de filtre pour signaler et éviter ces fausses images. Peine perdue semble-t-il pour le moment.

Mais c’est quoi exactement l’AI Slop ?

‘AI’ c’est pour ‘Artificial Intelligence’. ‘Slop’ en anglais désigne la bouillie industrielle que l’on donne aux cochons… L’AI Slop c’est donc l’expression pour nommer cette bouillie d’IA que l’on nous sert sur tous les supports numériques.

© radiofrance.fr

On l’a dit, Pinterest n’est pas le seul site concerné : vous trouverez des vidéos sur YouTube ou TikTok générées par l’IA, souvent pleine d’erreurs et doublée d’une fausse voix, vous tomberez sur de faux sites de recettes, avec des images fake et des instructions où il manque des ingrédients ou qui ne veulent rien dire, on parle même de livres générés par IA, auto-édités puis vendus sur Amazon.

Bref, l’AI Slop, c’est une masse numérique jetable, sans aucune valeur ajoutée, qui est produite à grande échelle avec, derrière, l’intention de faire du profit. L’objectif de ce foisonnement d’images fausses, c’est de nous faire regarder des vidéos ou de nous rediriger vers des sites ‘zéro contenu qualitatif’ mais sur lesquels nous sommes exposés à de la publicité.

Des enjeux financiers pour des créateurs d’images à partir d’IA en Asie

Puisqu’il faut faire du clic, ces faux contenus vont suivre les logiques algorithmiques. Il faut que ça provoque de l’engagement. Les célébrités, les cryptomonnaies, les enfants, les animaux, sont des sujets qui fonctionnent bien. Et d’où viennent ces contenus ? Le site 404 Media a par exemple remonté le fil jusqu’à des internautes en Inde ou d’en d’autres pays d’Asie qui produisent ces images pour se voir rétribuer par le programme Performance Bonus de Facebook. Ils reçoivent quelques dizaines de dollars par image ayant percé et cela peut grimper quand celle-ci devient virale. Et peu importe si l’image et les informations sont fausses.

Le Figaro explique par exemple que le 31 octobre dernier, des milliers de personnes ont afflué dans les rues de Dublin pour une parade d’Halloween… c’était faux. C’est un site créé par IA et sourcé au Pakistan qui avait perçu que c’était un thème qui générait du trafic. Même chose pour un soi-disant feu d’artifice à Birmingham pour le Nouvel An.

Une perte de confiance et un internet à deux vitesses

Face à cet afflux d’images incontrôlées et incontrôlables, il faudra voir si les plateformes vont réagir, imposer un filtre, trier ces images et ces infos. Ce n’est pas le cas aujourd’hui. Il faut dire que les internautes postent de moins en moins sur les réseaux et cet afflux d’images artificielles vient donc compenser pour l’instant.

Car les effets pourraient être dévastateurs pour des plateformes abondamment utilisées. Si le slop continue d’enfler, on va d’abord perdre confiance, se méfier de tout et se lasser. Une artiste interrogée par le Figaro explique notamment que pour elle, Pinterest n’est déjà plus un vrai moteur de recherche, fiable, essentiel.

Sur le long terme, deux options s’offrent à nous, engendrant une refonte structurelle d’internet :

      • On naviguerait sur un internet zombie, envahi de contenus irréels dont la masse exponentielle sera alimentée par des IA qui échangeront entre elles et auront leur propre compte sur les RS. On pourrait imaginer alors un internet à deux vitesses, cet internet zombie low cost pour les pauvres, et des espaces de contenus de qualité mais qui nécessitent le temps, les compétences et l’argent pour être trouvés. Autant dire réservé à une classe mieux armée socioéconomiquement ;
      • On connaîtrait un sursaut, un grand ‘non’ généralisé à ces contenus, et des plateformes qui instaurent des filtres. Un retour vers les contenus de référence, comme les médias traditionnels ou les contenus labellisés humains. Une nouvelle ère des blogs et des sites persos, sans algorithmes.

La saturation du slop serait-elle peut-être le sursaut dont on a besoin pour repenser nos usages numériques ?

Marie Vancutsem


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | sources : rtbf.be | contributeur : Patrick Thonart | crédits illustrations : © pplware.sapo.pt ; © radiofrance.fr.


Plus de presse en Wallonie…

Le développement de l’énergie solaire a-t-il été torpillé en 1882 ?

Temps de lecture : 7 minutes >

[THECONVERSATION.COM, 30 janvier 2025À la fin du XIXe siècle, le Français Augustin Mouchot (1825-1912) inventait un ingénieux concentrateur solaire. Mais la bureaucratie technique de l’époque, chargée de l’évaluer, en a livré une appréciation biaisée en la comparant au charbon qui alimentait les machines à vapeur – condamnant, au passage, l’appareil et ses multiples applications.

En matière d’énergie solaire, plusieurs moyens ont permis, au XXe siècle, de stopper l’innovation et de garantir le monopole des énergies fossiles et de leurs savoirs. Par exemple : la menace pure et simple, le rachat de brevets, la montée au capital ou encore la fermeture d’activité. L’expertise tendancieuse – sinon mensongère – a pu constituer un autre levier, ainsi que le montre le cas de l’évaluation officielle des appareils solaires d’Augustin Mouchot et de son associé Abel Pifre, à la fin du XIXe siècle.

Absent des manuels scolaires et délaissé des commémorations nationales pour le bicentenaire de sa naissance en 2025, le professeur de mathématiques appliquées et de physique Augustin Mouchot (1825-1912) est le pionnier français méconnu de l’énergie solaire moderne. Il a défendu et démontré les atouts de l’énergie solaire thermique et thermodynamique, particulièrement pour les pays de la zone intertropicale. Et cela, dès son ouvrage de synthèse et de prospective en 1869, puis avec un premier moteur à vapeur solaire de retentissement international, présenté à l’Exposition universelle de 1878 à Paris. Mais ce dernier a également rencontré après une mission de trois ans en Algérie et des financements publics importants, les incompréhensions auxquelles les énergies énergies renouvelables ont été confrontées depuis cette période. Ce qui n’a pas été sans lui valoir des adversaires…

Une commission d’étude transsaharienne de la chaleur solaire

La Commission des appareils solaires est créée le 19 février 1880 dans le cadre des travaux préparatoires du chemin de fer transsaharien. Elle doit tester les concentrateurs solaires à vapeur développés depuis près de 15 années par Augustin Mouchot – et depuis 1878 par Abel Pifre – dans la perspective du pompage de l’eau indispensable à la recharge des locomotives et au développement de gares-dépôts de combustible.

L’assassinant du colonel Flatters et de son escorte lors de la seconde reconnaissance du tracé, le 16 février 1881, un an et deux mois avant la remise du rapport de la commission, mettra fin au projet. La commission rassemble alors deux ingénieurs, un colonel et deux professeurs aux facultés de médecine et des sciences de Montpellier. L’appareil solaire testé, doté d’un réflecteur de trois mètres de diamètre, est construit par la société d’Abel Pifre, officiellement constituée en janvier 1881 et première entreprise au monde à commercialiser des cuiseurs, distillateurs et moteurs solaires. Les essais ont lieu en 1881 au fort de Montpellier sous la supervision du professeur de physique André Crova (1833-1907), qui rédigera le rapport final.

Docteur en physique électrochimique, avec 74 publications touchant à l’optique, à l’électricité, aux ‘radiations calorifiques’ – dont celles du Soleil –, c’est un pionnier du calcul de la ‘constante solaire’, quantité d’énergie solaire reçue par la Terre hors atmosphère sur une surface d’un mètre carré exposée perpendiculairement au soleil.

Les étranges calculs du ‘rendement industriel’

La note manuscrite d’André Crova, discutée durant la séance du 3 avril 1882 de l’Académie des sciences, est la version courte du rapport qu’il publie dans les mois suivants, qui comporte quarante-cinq pages et une illustration. Son diagnostic déborde du projet transsaharien et met en regard l’énergie solaire avec la grande énergie fossile, alors concurrente, que représente le charbon.

On s’est préoccupé dans ces dernières années de tentatives faites en vue d’utiliser pratiquement l’énergie des radiations solaires. Ces radiations sont en effet la cause presque unique de tous les phénomènes atmosphériques, de tout travail moteur, et de la vie sous toutes ses formes, à la surface de notre globe. Mais ces forces motrices, irrégulières et sujettes même à faire défaut à un moment donné, sont maintenant partout remplacées par celle de la vapeur, qui, toute coûteuse qu’elle est, a du moins pour elle la constance et la régularité, qui sont une des premières conditions que l’industrie demande à un moteur.

André Crova inaugure ainsi le discours des experts dont l’influence va se renforcer au fil de l’ère thermo-industrielle. Spécialiste d’un domaine étroit – la mesure des radiations solaires –, il est mandaté pour l’évaluation d’une technologie de conversion énergétique – les récepteurs solaires thermodynamiques Mouchot-Pifre –, dans le cadre d’une ligne de transport à l’intérieur du Sahara. Au final, il délivre un avis non pas sur le fond, mais sur sur les formes d’énergie qui devraient être privilégiées dans le cadre de la modernité. Ce glissement fait de son rapport la première grande condamnation officielle de l’utilisation du rayonnement solaire pour produire de l’énergie.

Car la commission ne s’arrête pas sur les applications pratiques de la machine à vapeur solaire. Citons par exemple :

      • 189 jours de fonctionnement sur l’année en 1881 à la latitude de Montpellier et 14 litres d’eau distillée (c’est-à-dire, vaporisée) par jour de fonctionnement en moyenne ;
      • la possibilité d’y ajouter une pompe ou un moteur rotatif ;
      • celle de procéder à la distillation d’alcools, de plantes ou à la pasteurisation de l’eau ou des aliments ;
      • celle de procéder à la cuisson de la nourriture humaine ou pour les animaux ;
      • celle de procéder à la calcination et au chauffage de matériaux (chaux, graisses, briques, poteries, pâte à papier) ;
      • la possibilité d’en faire une pile thermoélectrique ;
      • la possibilité de produire de la glace avec l’ammoniac et une machine des frères Carré, (comme Mouchot le fit en 1878) ;
      • la possibilité éventuelle de procéder de faire tourner une machine à coudre ou d’imprimer des journaux avec.

Mais non, le travail d’André Crova se limite à la mesure d’un ‘rendement industriel de l’appareil‘, à partir du ‘nombre de calories emmagasinées par la chaudière‘.

Le principe est le suivant :

      • La chaudière placée au centre du réflecteur solaire vaporise de l’eau à partir de laquelle, une fois la vapeur refroidie dans un serpentin, il est possible, ‘au moyen de la formule de Regnault’, de calculer ‘le nombre de calories utilisées par l’appareil’ ;
      • Simultanément un ‘actinomètre’ évalue le rayonnement solaire d’heure en heure, corrigé par la température, l’hygrométrie de l’air et la hauteur du soleil (c’est-à-dire, la transparence et l’épaisseur atmosphériques), afin de calculer les ‘calories incidentes’ ;
      • En divisant le premier chiffre par le second, on obtient un rapport, que l’on appelle ‘rendement économique de l’appareil’. En 1881 à Montpellier, il a été évalué à 0,491 calorie par mètre carré, avec un maximum à 0,854.

En un mot, à l’évaluation de la puissance effective, de la fonctionnalité et de la praticité des appareils solaires s’est substituée, au prix d’une somme d’approximations considérables, la simple évaluation d’un rendement théorique : celui du nombre de calories captées par rapport aux calories disponibles. Le tour de passe-passe accompli autorise le physicien rapporteur André Crova à conclure sur des hypothèses économiques, et non à se prononcer sur l’intérêt technoscientifique du principe et du fonctionnement du moteur solaire.

Four solaire de Mouchot et Pifre, conservé au CNAM à Paris © Rama

La condamnation du solaire

C’est donc sur un mode conditionnel que la condamnation de l’énergie solaire est exprimée en 1882. Il est intéressant de noter que les termes en sont restés presque inchangés jusqu’à nos jours, y compris pour les autres types de conversion d’énergie tels que le photovoltaïque – solaire vers électrique – ou l’éolien – mécanique vers électrique. Déjà en 1882, la régularité économique et la disponibilité des combustibles fossiles dans les pays développés sont les principaux arguments avancés par André Crova.

En France et dans les climats tempérés, l’énergie de la radiation solaire est trop affaiblie au niveau du sol […] pour que l’on puisse espérer pouvoir emprunter dans des conditions économiques et régulières une partie de l’énergie solaire pour l’appliquer aux besoins de l’industrie. Telle est mon opinion personnelle, qui résulte des expériences que nous avons faites pendant la durée de l’année 1881. […] Remarquons d’ailleurs que, dans les conditions dont nous parlons, le prix du travail moteur ou de la chaleur équivalente a une importance relativement faible, vu la facilité de transport du combustible. […] Mais dans les pays où le soleil […] envoie des radiations plus intenses, la conclusion serait-elle identique ? La réponse à cette question exige la connaissance de trop de points spéciaux pour que nous puissions la donner ici.

Le professeur d’université André Crova, spécialiste de la mesure de la chaleur solaire, exécute avec les mots d’un expert industriel les appareils Mouchot-Pifre. Il admet pourtant des limites à son travail. En effet, lorsque

le vent souffle avec force dans la direction de l’orifice de l’actinomètre […] les observations sont impossibles […], tandis que la distillation (c’est-à-dire la production de vapeur, ndlr) se produit même dans les circonstances les plus défavorables, pourvu que le soleil brille.

Autrement dit, l’appareil, plus efficient que son ‘mesureur’, fonctionne même les jours où l’on ne peut effectuer de mesures. Dans son mémoire à l’Académie des sciences, le physicien admet aussi qu’en l’absence d’isolation de la chaudière, la température extérieure influence davantage la distillation de l’eau que le soleil. Pire, puisque l’actinomètre ne laisse pas passer les mêmes longueurs d’onde que le manchon en verre de la chaudière. Comme l’écrit André Crova,

par les plus fortes intensités, les radiations obscures (rayonnement infrarouge, ndlr), non transmissibles par le verre, sont arrêtées par le manchon, et le rendement diminue, quoique la quantité de chaleur utilisée augmente.

Ainsi, du fait du choix d’un tel rendement comme valeur d’évaluation, les appareils solaires ‘fonctionneraient’ moins bien dans les périodes précises où justement ils chauffent le plus. On croit rêver. La notion de rendement pour une source primaire d’énergie gratuite et inépuisable révèle ici sa limite : nul besoin d’être physicien pour comprendre que plus le soleil brille, plus l’énergie solaire est abondante, quand bien même la qualité de la conversion/captation du rayonnement baisse avec l’augmentation de l’intensité de ce rayonnement.

‘De l’eau froide sur le soleil de M. Mouchot’

Mais le coup de grâce tient dans l’image que retient la presse, c’est-à-dire la mise en équivalence du rendement maximum du mètre carré solaire selon les calculs précédents et de la quantité de charbon correspondant. Celui-ci représente :

à peu près la chaleur produite par 240 grammes de charbon, en admettant que la moitié de la chaleur qu’il produit en brûlant soit utilisée à vaporiser l’eau.

Une poignée de carbone polluant contre une heure de soleil sur un mètre carré de métal brillant ? Sans gaz à effet de serre, éternellement et gratuitement, mais avec des intermittences ? On peut se demander ce qu’il serait advenu du monde si André Crova n’avait pas déversé sans vergogne ‘de l’eau froide sur le soleil de M. Mouchot’, ainsi que relèvera immédiatement le journaliste scientifique de l’époque Louis Figuier. Malgré les démentis, deux ans plus tard l’entreprise d’Abel Pifre disparait, et avec elle les projets et brevets solaires d’Augustin Mouchot.

Changer de regard sur l’énergie solaire ?

L’histoire d’Augustin Mouchot n’est pas un cas isolé. L’économiste Sugandha Srivastav soulignait, au sujet d’un autre innovateur solaire – américain celui-ci – arrêté dans sa course au début du XXe siècle, que

s’il est douloureux de réfléchir à ce grand “et si” alors que le climat s’effondre sous nos yeux, cela peut nous apporter quelque chose d’utile : savoir que tirer de l’énergie du soleil n’a rien d’une idée radicale, ni même nouvelle. C’est une idée aussi vieille que les entreprises de combustibles fossiles elles-mêmes.

Aurions-nous aujourd’hui, 143 plus tard, la même sévérité sur le potentiel des ressources solaires et les mêmes certitudes à propos des énergies fossiles que la commission du ministère des travaux publics de Montpellier ? C’est la question qu’il nous faut poser, de façon urgente, à tous les André Crova de notre temps.

Frédéric Caille, ENS (Lyon, FR)


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : © Rama ; © DP.


Plus de presse en Wallonie…

TRADUCTION : Néologie traductive – Vade Mecum pour traducteurs (1995)

Temps de lecture : 28 minutes >

La traduction (humaine) est un métier exigeant et un domaine technique qui reste vivant face aux technologies soutenues par l’intelligence artificielle (un oxymore !). Nous partageons avec vous la transcription partielle d’une plaquette réalisée en 1995 par le Centre de terminologie de Bruxelles (CTB, Bruxelles). Elle avait été réalisée avec le soutien du Service de la langue française de la Direction générale de la Culture et de la Communication.

N.B. Le document transcrit ici est assez technique : si vous n’avez pas d’affinités particulières avec le domaine linguistique, visitez plutôt notre BIBLIOTECA et choisissez un livre selon votre bon plaisir…


TABLE DES MATIERES

PRESENTATION

Ce vademecum est un élément d’une initiative appelée Néologie traductive, réalisée avec le soutien du Service de la langue française de la Direction générale de la Culture et de la Communication. Il s’adresse aux traducteurs, dont l’activité quotidienne est une source importante de néologismes. Cette action a trois objectifs :

    1. l’assistance en matière de néographie,
    2. le recensement et la diffusion des néologismes créés ou rencontrés par les traducteurs, et
    3. l’étude de la pratique néographique des traducteurs.

Ces objectifs sont poursuivis par les initiatives suivantes :

      • formation d’un réseau de traducteurs qui désirent signaler, par  l’intermédiaire du CTB, les néologismes créés par eux-mêmes ou rencontrés au cours de leur travail ;
      • distribution de ce vademecum rédigé à l’intention des traducteurs ;
      • assistance directe, par téléphone, à la création néologique ; rappel des matrices lexicogéniques de telle ou telle discipline, propositions de néologismes, recherche dans les banques de terminologie et autres sources ;
      • collecte et échange, par domaine de spécialité, des néologismes créés par les traducteurs qui participent à l’action ;
      • étude philologique, terminologique et socio-culturelle des néologismes ainsi récoltés.

Cette initiative s’intègre également dans un projet du RINT (Réseau International de Néologie et de Terminologie), qui a l’intention de mettre sur pied un réseau francophone d’échange de néologismes.

INTRODUCTION

Dans les différents domaines de la vie sociale, les usagers créent leurs termes au fur et à mesure de leurs besoins. Le lexique s’enrichit ainsi continuellement, notamment pour dénommer ou désigner de nouvelles réalités. Le traducteur sera donc souvent confronté à des problèmes terminologiques qu’il devra résoudre, le plus souvent par lui-même. Il rencontrera des termes dans la langue-source (LS) pour lesquels il n’existe pas encore d’équivalent dans la langue-cible (LC). Si l’on définit la néologie comme l’ensemble des techniques de formation de nouveaux termes, il s’occupera donc, si nécessaire, de néologie.

Néologie primaire et néologie traductive

On peut distinguer deux types de néologie : celle où la formation d’un nouveau terme, dans une langue précise, accompagne la formation d’un nouveau concept et celle où le terme existe déjà dans une langue et où un nouveau terme est créé dans une autre langue. La situation typique dans laquelle se déroule le premier processus est la situation de travail (le laboratoire de recherche, la fabrication de nouveaux produits, etc.). La situation typique de la deuxième forme de néologie est la traduction. Appelons la première forme néologie primaire et la deuxième néologie traductive.

La néologie traductive peut être le fait, sporadique ou plus ou moins systématique, d’instances chargées de terminologie. Ces instances proposent des équivalents pour des termes qui souvent circulent déjà dans la langue d’arrivée sous forme d’emprunts, de calques ou de termes jugés mal formés.

Cependant, la forme la plus ancienne et la plus naturelle de néologie traductive, c’est-à-dire la formation et l’introduction de nouveaux termes qui ont déjà un précédent linguistique, est la traduction, activité quotidienne des traducteurs de textes techniques et scientifiques. Ils sont les premiers à être confrontés aux nouveaux termes en LS et aux nouveaux concepts, pour lesquels lem métier les contraint à proposer un équivalent dans la LC.

Nous appelons donc “néologie” la création d’un nouveau terme par un traducteur et, pour la facilité de notre propos, “néologisme” un nouveau terme, proposé dans une traduction, tout en sachant qu’un néologisme n’existe réellement que si le terme entre dans tm certain usage, qui ne se réduit pas à une communication unique entre l’auteur du terme créé et ceux qui prennent connaissance du nouveau terme.

Les principes de la néologie traductive

La néologie traductive obéit en premier lieu aux principes mêmes de la traduction.

Un premier principe peut être formulé ainsi : on ne traduit pas une langue dans une autre langue (Ll>L2), mais une traduction rend un message exprimé dans la langue-source. Ceci a des conséquences pour la néologie traductive.

Le traducteur ne cherche pas systématiquement des équivalents pour tous les termes du texte à traduire (il ne traduit jamais mot à mot) ; il ne crée donc pas systématiquement des équivalents pour tous les termes qu’il rencontre et pour lesquels il n’existe pas d’équivalent dans la langue-cible. Il crée de nouveaux termes s’ils sont utiles pour la transmission correcte du message. Sa première obligation n’est pas l’équivalence des tennes, mais l’équivalence du message.

Dans le cas de la traduction par équivalence des termes, qui joue un rôle plus important dans la traduction spécialisée que dans la traduction de textes plus littéraires, le traducteur ne cherche pas d’emblée à traduire le terme. Il identifie la notion exprimée par le terme du texte de départ et réexprime ensuite la notion dans le texte traduit. La question qu’il se posera est donc celle-ci : quel est le terme dans la langue-cible dont le sens correspond exactement à la notion exprimée par le terme dans la langue-source ? L’adéquation, c’est-à-dire la qualité qu’a un terme de bien convenir à la notion qu’il exprime, dans le contexte précis du texte à traduire, est donc l’exigence principale.

Le traducteur aura la même attitude lorsque, dans le cas d’équivalents manquants, il doit combler les lacunes et proposer de nouveaux termes. Avant de passer par le prisme du système de la langue, le néologisme passe par le prisme du système notionnel, ce qui est d’ailleurs la meilleure façon de s’affranchir du terme utilisé dans la langue-source.

En s’attachant avant tout au référent, le traducteur sait qu’une réalité peut souvent être considérée et dénommée selon plusieurs facettes ou points de vue. Cette attitude lui permettra de créer de bons équivalents, des termes qui donnent une image aussi nette que possible du référent. La connaissance de l’univers notionnel du domaine, grâce à laquelle le traducteur appartient à la même conummauté de pensée que l’auteur et le lecteur, lui permettra de reconnaître plus facilement la fonction du néologisme dans la LS.

Un deuxième principe, d’ordre terminologique cette fois, valable pour toute traduction, est le respect des traditions pour la formation des termes dans le domaine de spécialité considéré. Chaque science, chaque discipline, chaque technique se définit par une terminologie particulière, structurée et conditionnée par la spécificité de son objet, de son point de vue et de ses finalités. Chaque discipline ne possède pas seulement son système notionnel propre, mais également ses matrices terminogéniques, qui lui font choisir de préférence certaines lois de construction des termes. Un nouveau terme n’est pas un objet isolé mais un élément d’un système plus ou moins structuré. Le traducteur professionnel expérimenté distingue ce qui est linguistique de ce qui est terminologique. Il sait qu’en terminologie, il y a peu d’équivalents établis. Les équivalents présentés dans les dictionnaires ne sont en fait que des possibilités auxquelles le traducteur est libre ou non de donner vie. On pourrait dire, paradoxalement, que le seul véritable terminologue est le traducteur.

Le troisième principe, enfin, relève du respect de la langue-cible. Dans ses créations de termes, le traducteur sera conservateur et suivra les voies tracées par la langue.

Les termes français se rattachent généralement à des éléments préexistants de la langue, permettant d’en saisir, ne fût-ce que superficiellement, la signification. Les termes sont souvent motivés : les raisons du choix de leur forme sont transparentes et au moins une partie des termes est immédiatement intelligible.

Les nouveaux termes doivent, à leur tour, offrir la possibilité d’engendrer des dérivés dans leur catégorie lexicale ou dans d’autres catégories lexicales. Ils doivent pouvoir s’intégrer dans des formations syntagmatiques futures.

Les différents procédés de formation des termes présentés dans ce vademecum permettent de créer des termes qui s’intègrent naturellement dans la langue.

Le vocabulaire de spécialité est formé sur la base des mêmes principes que les mots de la langue commune. Il est rare que des mots entièrement neufs voient le jour. Les nouveaux mots, et dans une proportion encore plus grande, les nouveaux termes, sont, généralement, des assemblages d’éléments existants.

Ainsi, ce guide répertorie-t-il les différents procédés de combinaison de matériaux lexicaux permettant la constitution de nouvelles unités lexicales. Ces procédés sont au nombre de neuf : la dérivation, la confixation, la composition, la formation syntagmatique, l’emprunt, l’abrègement, la néologie de sens, la création ex nihilo et l’éponymie.

1. DERIVATION

Les termes peuvent être dérivés d’autres termes par adjonction d’affixes, par conversion grammaticale ou, plus rarement, par suppression d’affixes.

1.1 Affixation

L’affixation consiste en l’agglutination d’éléments lexicaux, dont un au moins n’est pas susceptible d’emploi indépendant, en une forme unique. Les éléments d’un terme dérivé sont la racine et les affixes. La racine est la base à partir de laquelle sont dérivées les formes pourvues d’affixes (égal– pour le terme égalité, detect– pour le terme détecteur). Les affixes sont les éléments adjoints au radical. Ils sont appelés préfixes s’ils précèdent le radical (ex. renommer) et suffixes s’ils le suivent (ex. changement).

Voici quelques préfixes: a- (moral> amoral) ; an-, (ovulatoire > anovulatoire) ; dé- (calquage > décalquage) ; co- (efficient > coefficient) ; dis- (capacité > discapacité) ; é- (changer > échanger) ; in- (égalité > inégalité) ; mé-  content > mécontent), avec la variante mes- (entente > mésentente) ; pré- (établir > préétablir) ; re- (combiner > recombiner).

Un même préfixe peut avoir des significations différentes. Par exemple, le préfixe in- a un sens différent dans les termes insubmersible (qui ne peut pas être submergé) et infiltrer (pénétrer peu à peu). Les préfixes ne changent pas la catégorie lexicale du radical, contrairement aux suffixes.

On peut grouper les suffixes suivant les transformations lexicales qu’ils font subir aux mots auxquels ils s’attachent.

      1. Suffixes qui transforment les verbes en noms :
        Ils peuvent marquer l’action ou son résultat. Les principaux suffixes de cette catégorie sont les suivants : -ion (oxyder > oxydation) ; -age (empoter > empotage) ; -ment (dénombrer > dénombrement) ; -ure (couper > coupure) ; -is (semer > semis) ; -(a)nce (résonner > résonance) ; -ing (camper > camping) ; -at (alcool > alcoolat) ; -aison (incliner > inclinaison) ; -erie (pêcher > pêcherie). Ils peuvent désigner l’agent, humain ou non animé : -eur/-euse (employer > employeur/employeuse) ; -(at)eurl-atr)ice (calculer > calculateur/calculatrice) ; -oir (semer > semoir). Ce dernier suffixe peut désigner également un lieu ou un objet (présenter > présentoir) -oire (nager > nageoire).
      2. Suffixes qui transforment les adjectifs en noms :
        En voici quelques-uns : -eur (gros > grosseur) ; -ie (malade > maladie) ; -esse (gros > grossesse) ; -itude (exact > exactitude) ; -ise (franc > franchise) ; -té (sonore > sonorité) ; -(a)nce (résistant > résistance) ; -isme (bilingue > bilinguisme) ; -cité (critique > criticité).
      3. Suffixes qui transforment les noms ou les adjectifs en verbes :
        Le suffixe le plus utilisé est -er/-iser (gaz > gazer ; fertile > fertiliser). Cependant certains verbes créés par analogie ou non adoptent un autre suffixe (alunir, suivant l’exemple d’atterrir; blanc > blanchir, théâtral > théâtraliser). Une transformation du nom ou de l’adjectif en un verbe s’accompagne souvent de l’ajout d’un préfixe (froid > refroidir, mer > amerrir).
      4. Suffixes qui transforment des noms en adjectifs :
        -é (accident > accidenté) ; -u (feuille > feuillu) ; -(a)ble (carrosse > carrossable) ; -aire, forme savante du suffixe -ier (cession > cessionnaire) ; -el (institution > institutionnel) ; -uel (texte > textuel) ; -eux (granit > graniteux) ; -ien, utilisé pour créer des termes par antonomase (Freud > freudien) ; -if, utilisé surtout avec des noms en -tion (information > informatif) ; -in (cheval > chevalin) ; -ier (betterave -> betteravier) ; -ique, qui s’emploie surtout avec des noms qui finissent en -ie, ou en -tion (écologie > écologique) ; -iste (anarchie > anarchiste) ; -ais, sert à former des adjectifs toponymiques (Ecosse > écossais) ; -ois, qui crée aussi des toponymiques (Dole > dolois) ; de même que -ain (Amérique > américain) ; -an (Perse > persan) ; -éen (Méditerranée > méditerranéen).
      5. Suffixes qui transforment des verbes en adjectifs :
        On trouve dans cette catégorie les suffixes -(a)ble (programmer > programmable) ; ce suffixe présente la variante -ible (nuir > nuisible) ; -eur (détecter > détecteur).
      6. Suffixe qui transforme des verbes en adverbes :
        Le suffixe -ment (isoler > isolément).
      7. Suffixes qui ne changent pas la catégorie lexicale du terme source :
        Un certain nombre de suffixes ne changent pas la catégorie lexicale du radical : -(ijer, utilisé surtout pour dénommer des métiers (plomb > plombier), mais aussi pour former d’autres types de termes (chèque > chéquier) ; -ière (café > cafetière) ; -aire (disque > disquaire) ; -erie (chancelier > chancellerie) ; -iste, sert à désigner des “acteurs” (document > documentaliste) ; -ien, sert à dénommer des métiers, des activités (chirurgie > chirurgien) ; -ade (colonne > colonnade ) ; -at (professeur > professorat) ; -ure ( cheveu > chevelure) ; -aine (cent > centaine) ; -ance (induction > inductance) ; -ée (cactus > cactée), -eté (citoyen > citoyenneté), etc.

Un autre groupe important est celui des suffixes qui servent à changer le genre du nom, généralement du masculin au féminin. Dans le cas des noms de métiers, ils sont actuellement très productifs.

Les autres suffixes qui s’unissent à des adjectifs et à des verbes sans changer leur catégorie lexicale (augmentatifs, diminutifs, etc.) ont plutôt une valeur connotative, ce qui fait qu’ils ne sont pas productifs dans les langues de spécialité (LSP).

Un terme peut avoir plusieurs préfixes et/ou suffixes à la fois (ex. prédébourrement). Dans le cas des termes préfixés et suffixés on parle de dérivation parasynthétique.

1.2 Conversion grammaticale

La conversion grammaticale ou dérivation impropre (aussi appelée hypostase) est le processus par lequel une fonne peut passer d’une catégorie grammaticale à une autre sans modification formelle. Le terme ainsi créé est donc homonymique par rapport au terme d’origine, mais il acquiert des nuances sémantiques différentes de celui-ci.

Les différents types de conversion grammaticale sont :

      1. Passage d’un adjectif à un substantif :
        L’adjectif substantivé garde le genre du terme de base du syntagme (ex. en informatique, on dit un périphérique pour un élément périphérique). Il s’agit en fait d’une ellipse du noyau du syntagme (dans ce cas-ci élément) qui reste sous-entendu.
      2. Passage d’un substantif à un adjectif :
        Dans certains mots de type N+N, le noyau du syntagme est modifié par un autre nom qui agit comme adjectif (ex. dans le terme navire-hôpital, on peut considérer le nom hôpital comme un adjectif qualificatif du mot navire). Certains substantifs se transforment parfois en adjectifs à travers des procédés métaphoriques (un atout maître). Dans les créations récentes on peut citer les termes ARN satellite ou cellule hôte.
      3. Passage d’un verbe à un substantif :
        Ce type de dérivation consiste en la substantivation d’un infinitif. Elle permet de traduire le procès sous la forme la plus abstraite, sans détermination de l’agent du procès. On établit une opposition entre l’infinitif substantivé et la forme nominale, le premier terme étant réservé à la forme abstraite du procès et le deuxième à la forme plus concrète (le penser/ la pensée ; le parler/ la parole).
      4. Passage d’un verbe à un adjectif :
        Un participe présent est utilisé comme adjectif. Il s’agit d’une alternative à la dérivation, qui peut produire également le changement de catégorie grammaticale. En fait, -ant est devenu un véritable suffixe, qui peut servir à fabriquer des adjectifs ou des substantifs sans la médiation d’un verbe. Les adjectifs verbaux en -ant peuvent se substantiver.
      5. Passage d’un adjectif à un adverbe :
        L’adjectif perd sa faculté de variation en genre et en nombre et devient un adverbe (ex. parler net, filer doux…). Ce procédé est très utilisé dans le langage de la publicité mais peu dans la création néologique en terminologie.
      6. Changements verbaux :
        Un verbe peut acquérir une constrnction pronominale (s’accidenter) ; il peut devenir transitif ou intransitif (démarrer ; il a été démissionné) ; il peut prendre la catégorie de verbe auxiliaire (voir), etc. Ce phénomène est peu fréquent.
      7. Passage d’un nom propre à un nom commun :
        Ce type de changement affecte surtout les noms déposés qui, par le principe de la synecdoque (relation partie/tout), finissent par dénommer tous les objets d’une même catégorie : l’exemple le plus célèbre est celui du mot bic utilisé pour désigner tous les stylos à bille. Ce procédé est aussi très courant dans le jargon de certaines sciences et techniques : le terme aspirine, par exemple, est fréquemment employé pour tout médicament à base d’acide acétylsalicylique. Il arrive également qu’un nom déposé finisse par supplanter un terme plus complexe : téflon utlisé au lieu de polytétrafluoroéthylène et fréon au lieu de dichlorodifluorométhane.
1.3 Suppression d’affixes (Dérivation régressive)

La dérivation régressive consiste en la création d’une unité lexicale par réduction à la racine par la suppression d’affixes. Il s’agit d’un procédé peu utilisé. On le trouve dans le terme terminologue qui procède du terme terminologie.

Pour qu’il y ait une dérivation de ce type, il faut que le terme affixé ait été créé avant le terme non affixé. (ex. le terme évaluation n’a pas été créé par dérivation régressive à partir du terme réévaluation ; le second a été créé par dérivation à partir du premier).

La suppression d’affixes de catégorie grammaticale se produit dans le cas du passage d’un verbe à un nom (ajouter-> ajout ; apporter-> apport, etc.) Ce processus est apparenté à la dérivation impropre.

Conseil :

La dérivation est un procédé très productif dans les LSP. Les termes dérivés sont à la fois brefs, précis et constituent une hiérarchie motivée. Utilisez l’affixation pour la restriction du sens d’un mot. Il est plus facile de dériver un terme à partir d’un substantif que d’un adjectif ou un verbe.

Attention :

Les différentes langues ne connaissent pas les mêmes suffixes et il arrive que les mêmes suffixes ne désignent pas la même notion. ( ex. Mycosis est le terme générique employé en anglais pour dénommer toutes les affections parasitaires provoquées par des champignons, tandis que mycose en français désigne les maladies à excroissances ou tumeurs fongueuses de la peau).

Les terminaisons adjectivales doivent souvent être traduites différemment. Exemple: Le suffixe anglais -al peut être traduit en français par une dizaine de formes différentes :

      • -ai-aire > embryonal / embryonnaire
      • -al(e) > renal / rénal ; cervical / cervical(e)
      • -ienïne) > retinal / rétinien
      • -ifère > seminal / séminifère
      • -atif -ative > germinal / germinatif
      • -e > mediastinal / médiastine
      • -éïe) > sacral / sacré
      • -éal > subungual / sous-unguéal
      • -inïe) > palatal / palatin
      • -eux, -euse > scarlatinal / scarlatineux
      • -ue > vagal / vague
      • -onnier > mental/ mentonnier
      • -ulaire > appendical / appendiculaire
      • -ique >limbal / limbique

On dit artère coronaire mais maladie coronarienne ; calcul urinaire mais abcès urineux. Donnez votre préférence à des affixes plus longs (-iser au lieu de -er).

2. CONFIXATION

La confixation consiste en la composition de termes à partir de radicaux liés (appelés confixes ou formants), constitués de racines grecques ou latines liées n’ayant pas à proprement parler le statut de mot. Ces formants se soudent pour donner, avec ou sans affixes, des mots confixés (hydrogène, gyroscope, biosphère, agronomie). La confixation est un processus productif, comme en témoigne la liste des termes normalisés : hectographie, hexachlorobenzène, hostogramme, homopolymère, etc.

2.1 Caractéristiques

Voici quelques caractéristiques des mots confixés :

      • Le formant qui détermine doit précéder le formant déterminé : dans le terme épigraphie, le formant modificateur épi– est placé devant le formant régissant –graphie.
      • On ne peut généralement pas renverser l’ordre des éléments de composition quand il existe un rapport de détermination entre les éléments (philatéliste, bibliophile, philologue-logophile).
      • Un terme peut être composé de plusieurs fonnants à la fois (ex. lévoangiocardiogramme).
      • Un même formant peut être antérieur, postérieur ou être placé au milieu du terme (anthropologie, philanthropie, misanthrope).
      • Les formants antérieurs se terminent par une voyelle si le confixe postérieur commence par une consonne. Autrement, on élide la voyelle du premier (amphithéâtre, mais amphotère).
      • La voyelle de liaison est généralement o dans le cas des formants d’origine grecque (électromotricité) et i dans le cas des formants d’origine latine (fébrifuge).
      • On ne met pas de voyelle de liaison quand le premier élément est une préposition dans la langue d’origine (permutation).
      • Un formant peut avoir des variantes graphiques autres que celle de la voyelle de liaison (neurone, mais névralgie). Ils peuvent présenter, par exemple une alternance vocalique, c’est-à-dire une variation de voyelle (capacité, récupérer, municipalité).
      • Pour une même notion, on trouve parfois en concurrence un formant latin et une formant grec (anthropomorphe, hominidé).
      • De même, il peut y avoir plusieurs fonnants pour dénommer un même concept ( ex. vagin se dit en grec kolpos, elutron et koléos qui ont donné respectivement en français colpocèle, élytrotomie et koléoptose).
      • Un terme peut présenter deux fois le même formant (mélomèle).
2.2 Combinaisons hybrides

Les terminologues et les comités de normalisation préfèrent recourir à des confixes homogènes et refusent en général les combinaisons hybrides du type latin + grec (ex. sérologie, altimètre, ovoïdal, spectroscope), grec + latin (hexadécimal, hydrocarbure, automation, aéroducteur) ou classique + moderne (bicyclette, hydronef, aéronavigable).

Conseil :

La confixation est un procédé très productif dans la plupart des langues occidentales. Elle contribue aussi à l’unification internationale de la terminologie. Les termes formés par confixation sont courts et faciles à mémoriser. Si la signification du formant est connue, ce qui est souvent le cas, les termes sont motivés. La majorité des néologismes en médecine et en
biologie sont des confixes.

Attention :

Les formants grecs sont souvent assortis de suffixes latins : polytechnique, pétrification, désoxyribonucléique, ou vice-versa, un formant latin peut être suivi d’autres formants grecs : alvéolite, chimiothérapie, lacrymogène, cellulite. On trouve également des combinaisons avec des composants modernes : visiophonie, extensomètre, télécopie, kleptomanie, syntoniseur, électrochoc, radiodiffusion.

Certains formants ont des variantes, qui ne sont pas toujours équivalentes :

      • CEREBRO :
        cérébro- cérébro-spinal, hémisphères cérébraux ;
        céphalo- céphalo-rachidien ; céphalopodes
        encéphalo- encéphalographie
      • CHEMO :
        chémo- chémosensibilité
        chimio- chimiothérapie
      • NEURO :
        neur( o )- neuroleptique
        névr( o )- névroptères
      • OOPHORO :
        oophor(o)- oophoropexie
        ovari( o )- ovariopathie
      • PROCTO :
        procto- proctologie
        recto- rectoscopie

Les formants n’ont pas toujours la même forme :

      1. Changements orthographiques : apocope, addition ou suppression d’une voyelle ou d’une consonne d’appui.
        Exemple :
        cupri- / cupro
        olé(i)- / olé( o )-
        phreno- / phrénico
        zygomato- / zygomatico
      2. Permutation des éléments quand l’ordre déterminant-déterminé ne correspond pas avec celui de la langue source (si l’on veut éviter un calque non-nécessaire) :
        Exemple :
        nasolacryntal / lacrymonasal
        cardioneural / neuro-cardiaque
        tibiofibular / péronéo-tibial
        vesicouterine / utéro-vésical
      3. Modulation d’un élément :
        Exemple :
        brachial / huméral
        pharyngo / glosso
        femoral / crural

Un même préfixe peut être traduit différemment et engendrer des doublets :

circum- > circon- / péri
contra- > contra-/ contro- / contre
dis- > dis-/ dés-/ ex
hyper- > hyper- /ana-/ oxy- / poly- /super-/ sur
hypo- > hypo- / infra- / sous- / sub- / a
intra- > intra- / endo- / inter-

Les préfixes ou suffixes sont sujets à des changements phonétiques / orthographiques pour des raisons d’euphonie. Ainsi, la voyelle o disparaît parfois devant une autre voyelle : megaloencephalon > mégalencéphalie. On peut insérer des lettres d’appui pour faciliter la prononciation : méga(l)opsie.

Certains préfixes subissent une apocope ou une contraction : meg(a)- par(a)-

3. COMPOSITION

La composition consiste en l’union de deux ou plusieurs mots constitutifs qui conservent leur forme complète pour donner une unité lexicale neuve (donnée-image, sous-armé, eau-de-vie, hautbois…). Le mot composé peut être soudé (alcoolépilepsie) ou bien lié par un trait d’union entre les constituants (bulbo-cavemeux).

Une voyelle de liaison, généralement le o a pour fonction d’unir les composantes de l’adjectif composé qui se présentent normalement en relation de coordination (technico-industriel, euro-américain, socio-culturel). Les termes ainsi construits constituent un cas intermédiaire entre confixation et composition.

3.1 Structure

La structure d’un terme composé est normalement celle d’un élément déterminé par un ou plusieurs éléments déterminants (dans le terme bloc-cylindres, par exemple, le mot bloc est déterminé par le mot cylindres). La relation entre les éléments (notamment dans le cas des substantifs) peut être également une relation de coordination (déclencheur-limiteur, contacteur-disjoncteur). Les substantifs s’accordent alors en nombre et sont souvent joints par un trait d’union. Le premier élément peut être considéré comme prédominant, puisqu’il donne son genre à l’ensemble, mais cette prédominance est très réduite du point de vue sémantique, notamment dans le cas de la désignation d’une réalité “hybride” (par exemple, le terme bar-hôtel, qui n’est vraiment ni un bar ni un hôtel).

Une construction syntaxique peut recouvrir différents rapports notionnels. Ressort-soupape pourrait signifier aussi bien ressort pour soupape que ressort avec soupape. De même, tm même rapport notionnel peut s’exprimer sous des formes syntaxiques différentes.

L’ordre déterminé + déterminant est propre au français bien qu’on puisse trouver également l’ordre inverse notamment dans des formations d’origine étrangère (doparéaction, radium-thérapie, lysat-vaccin), dans les confixes et les calques.

Le groupe déterminé + déterminant est créé par substitution d’un trait d’union ou d’une voyelle de liaison au joncteur.

Le groupe déterminant + déterminé, quoique non naturel au français, connaît un certain succès à cause de l’influence de l’anglais. Le déterminant a une valeur quasi adjectivale. Ainsi, le terme auto-école, peut être interprété comme une école “qui a rapport à l’automobile”.

3.2 Combinaisons courantes

Les combinaisons les plus courantes sont :

      • N + N (transmission-radio, bloc-cylindres, wagon-citerne). Ce type de formation établit des rapports soit de coordination (ex. président-directeur), soit de subordination (image-radar) ;
      • V + N (pose-tube, essuie-glace, lance-torpilles). Le nom a souvent la fonction de complément direct. Ce type de composition peut être utilisé comme adjectif (ex. une galerie paraneiges) ou comme substantif (ex. un cache-radiateur) ;
      • Adj + Adj (sourd-muet, gris-bleu, aigre-doux). Ces composés sont produits par ellipse du joncteur ;
      • Adj + N (gros-porteur, haut-parleur) ; (l’adjectif s’accorde en genre et en nombre avec le terme de base) ;
      • N + Prép + N (rez-de-chaussée, main-d’oeuvre). Ce type de formation est à mi-chemin entre la composition et la formation syntagmatique, car ces unités peuvent être considérées comme un syntagme soudé.
3.3 Variantes

Il existe un type de formation intermédiaire entre la dérivation et la composition : la formation à l’aide de morphèmes grammaticaux autonomes antérieurs tels qu’après, demi, non et sous dont la forme et la fonction les situent entre mot et préfixe (sous-ensemble).

Il existe également un type de formation intermédiaire entre la confixation et la composition. On peut réunir en un faux composé un confixe (lié) et un mot (libre). ex. téléguidage, télépéage. Ce type de formation est assez courant.

Conseil :

Les termes composés sont en général assez brefs (souvent deux mots), motivés et sans précision excessive.

Attention :

Respectez la syntaxe du français : le nom déterminé vient avant le complément ou l’adjectif déterminant :

image-ratio (ratio image)
image-satellite (satellite picture)
chèque-voyage (traveller’s check)
couvre-bec (mouthpiece cap)

Utilisez le trait d’union (couper-coller, presse-papier, audio-prothèse, aide-ouïe intra-auriculaire).

4. FORMATION SYNTAGMATIQUE

Un syntagme est un groupe d’éléments formant une unité de sens dans une organisation hiérarchisée. Ce nouveau terme a des propriétés dénominatives différentes de celles des éléments qui le composent.

Le degré de lexicalisation d’un syntagme se situe dans un continuum dont les deux pôles sont la lexicalisation complète et le syntagme libre. Le terme-syntagme a un répertoire restreint de mots faibles (conjonctions, articles, pronoms, verbes auxiliaires). Son étendue est plus limitée que celle des syntagmes libres. A cet égard un syntagme lexicalisé ne peut pas franchir un certain seuil s’il veut rester fonctionnel dans la communication. De même, il doit pouvoir s’intégrer sans difficulté dans des textes spécialisés.

Les critères de lexicalisation sont : l’existence d’une définition spécialisée, la position dans le système terminologique donné, la maniabilité, la récurrence et la cohésion syntaxique. Il n’est, par exemple, pas possible d’étendre le complément en ajoutant un nouvel élément sans briser le sens du syntagme original (gaz très inerte n’aurait pas le même sens que gaz inerte).

4.1 Structure

La structure des termes-syntagmes est toujours la même : le noyau, qui peut être un substantif, un verbe, un adjectif ou un adverbe, est modifié par un ou plusieurs éléments (le complément) : de(s) nom(s), adjectif(s) ou un ou plusieurs syntagmes prépositionnels ou nominaux.

4.2 Combinaisons courantes

Les formules les plus productives sont les suivantes :

      • N + Adj, appelé syntagme épythétique (hélice carénée, chaine pyrotechnique, charge utile) ;
      • N + N, appelé aussi syntagme asyndétique (plan média, point zéro, fréquence vidéo) ;
      • N + Prép + N (chambre de combustion, arrêt d’urgence, barre de contrôle, fermeture à glissière) ;
      • N + Adj + Adj (couverture fertile interne, séquences répétées directes, munition chimique binaire) ;
      • N + Adj + Prép + N (épaisseur réduite d’ozone, distance proximale au sol, plasmide hybride de résistance).

Il y a une nette prépondérance des termes-syntagmes nominaux.

Dans les syntagmes verbaux, le verbe est normalement suivi d’un objet direct ou d’un complément circonstanciel, l’un et l’autre pourvus d’un article (fondre au noir).

En français, on construit surtout des syntagmes épithétiques et des syntagmes avec joncteur, aussi appelés synapses, du type réacteur à eau lourde.

A l’intérieur d’un terme-syntagme, on peut établir des rapports hiérarchiques de type syntaxique. Par exemple, dans un syntagme nominal subordinatif, le noyau est constitué d’un nom modifié par un adjectif, un syntagme prépositionnel, un syntagme nominal ou une combinaison des précédents. Ainsi, dans le terme réacteur à neutrons rapides, le noyau réacteur se voit modifié par le syntagme prépositionnel à neutrons rapides.

L’extrême flexibilité paradigmatique fait du syntagme nominal un excellent
instrument en terminologie. Un grand nombre de néologismes est construit de cette manière (cellule à haute pression à enclumes de diamants, angioplastie transluminale, archéologie sociale, polymérisation par transfert de groupe).

Conseil :

Procédé très productif en sciences et en techniques. Les termes-syntagmes sont faciles à comprendre.

Attention :

Les termes-syntagmes ne doivent pas être trop longs. Utilisez éventuellement l’abrègement.

Les termes-syntagmes de la langue-source peuvent souvent être traduits comme tels, mais tenez compte des règles grammaticales de la langue d’arrivée :

coal-fired fumace > chaudière à charbon
air-operated ejector > éjecteur à air
pressure type terminais > bornes à pression

Ou bien cherchez des termes équivalents dans la langue d’arrivée :

growth of germs > prolifération microbienne
retaining wall > mur de soutènement
crossing sweeper > balayeur de rues

5. EMPRUNT

Il y a emprunt quand une langue A utilise et finit par intégrer une unité linguistique qui existait précédemment dans une langue B et que A ne possédait pas ; l’unité empruntée est elle-même appelée emprunt. Le terme peut être emprunté avec ou sans adaptation phonique ou graphique. On distingue l’emprunt direct, l’emprunt intégré et le calque.

5.1 Emprunt direct

L’emprunt direct consiste en l’introduction d’un mot d’une autre langue sans modification. Un terme emprunté ne garde pas toujours sa signification originelle. Drugstore, par exemple, ne recouvre pas les mêmes réalités aux Etats-Unis et en France.

L’emprunt peut avoir des synonymes : cabine de pilotage / cockpit ; liste de vérification / check-list ; aérofrein / spoiler ; volet de bord d’attaque / slat.

Dans le cas de termes-syntagmes ou de mots composés, il peut exister des emprunts partiels (ex. bande-vidéo).

5.2 Emprunt intégré

L’intégration d’un emprunt se fait par adaptation lexico-morphologique, graphique ou phonique complète ou partielle (le radical du terme ne change généralement pas tandis que les affixes sont adaptés (containeur, listage). Le suffixe anglais -ing est très souvent substitué par le suffixe -age, (dopage, doping), -er est substitué par -eur (hydrocraker > hydrocraqueur).

5.3 Calque

Le calque est un type d’emprunt particulier : ce n’est pas le terme de la langue-source qui est conservé, mais bien sa signification qui est transférée, sous forme traduite et à l’aide de mots existants, dans la langue-cible (ex. steam engine, machine à vapeur).

Conseil :

L’emprunt se justifie quand le terme est précis dans la langue-source, quand il est court, quand il est en usage dans une communauté internationale. Le fait qu’il soit facile à prononcer est un atout. Quand il s’agit d’une terminologie spécialisée, l’intégration graphique n’est pas nécessaire.

Attention :

Vous pouvez expliquer ou paraphraser un emprunt. Tout dépend de votre public-cible. Il convient d’éviter l’abus des calques, tel que, par exemple, thérapie occupationnelle pour traduire occupational therapy, alors qu’il existe en français le mot confixé ergothérapie.

6. ABREGEMENT

L’abrègement consiste en la suppression d’un certain nombre d’éléments (quelques lettres, des syllabes, quelques mots…) d’un terme. Le procédé est fort répandu dans les sciences et les techniques. Il existe trois types essentiels d’abrègement : la troncation, l’acronymie et la siglaison.

6.1 Troncation

La troncation consiste en la formation de nouveaux termes par la réduction à une syllabe de plus de deux phonèmes d’un mot source. Il existe trois types de troncation: l’aphérèse, la syncope et l’apocope.

L’aphérèse est la suppression de la partie initiale d’un mot (autobus -> bus). Ce procédé est rare dans les langues de spécialité. La syncope est la suppression d’une ou plusieurs lettres de la partie médiane d’un mot. Elle se rapporte le plus souvent à des mots composés contenant plusieurs radicaux qui font que le mot est trop long. (alcoolomètre >alcoomètre). L’apocope est la suppression de la partie finale d’un mot. C’est une méthode souvent utilisée pour abréger les unités de mesure (ex. radiation -> rad, kilo(gramme)). Les apocopes étant employées au pluriel reçoivent la terminaison correspondante, ce qui démontre leur fonctionnement autonome.

6.2 Acronymie

L’acronymie consiste en la formation de termes à partir de plusieurs autres termes, dont on utilise des éléments (transpondeur > transmetteur +répondeur). Les éléments peuvent être :

      1. une apocope et une aphérèse : gravicélération (gravitation + accélération), aldol (aldéhyde+ alcool) ;
      2. deux apocopes : modem (modulateur + démodulateur), aldéhyde (alcool + dehydrogenatum) ;
      3. deux aphérèses : nylon (vinyl + coton) ;
      4. une apocope : publipostage (publicité + postage), musicassette (musique + cassette) ;
      5. une aphérèse : bureautique (bureau + informatique), vidéophone (vidéo + téléphone) ;
      6. une apocope et une syncope : amatol (ammonium nitrate + trinitoluène).
6.3 Siglaison

La siglaison consiste en la création d’un nouveau terme à partir de certaines lettres d’un terme de base (souvent un syntagme). Les sigles peuvent faire partie d’un syntagme lexical (ADN hyperhélicoïdal). Les sigles sont souvent polysémiques. Par exemple, dans le domaine de l’environnement, le sigle TOMS peut se référer à Total Ozone Monitoring Spectrometer, Total Ozone Monitoring System, Total Ozone Mapping Spectrometer et Total Ozone Mapping System.

Si on consulte un dictionnaire de sigles, on s’aperçoit rapidement qu’il n’y a pas de règles de formation précises en ce qui concerne la siglaison :

      • On peut prendre seulement les mots forts du syntagme (Organisation des Nations Unies -> ONU) ou les mots forts et les mots faibles (Société à Responsabilité Limitée-> SARL) ;
      • On peut prendre seulement la première lettre des mots qui composent le syntagme (Habitation à Loyer Modéré-> HLM) ou quelques lettres (Association Française de Normalisation -> AFNOR) ou les syllabes initiales de chaque mot (Belgique-Nederland-Luxembourg -> BENELUX).
      • Les nouveaux termes peuvent se référer à des termes syntagmes (Aliments végétaux imitant la viande -> AVIV) ou à des termes composés (magnétohydrodynamique -> MHD, électrosplanchnographie -> ESG).
      • Souvent, les termes à plusieurs composants se trouvent réduits en des sigles qui ne représentent pas la totalité de leurs composants (Action dynamique spécifique des aliments -> ADS).

Les sigles peuvent paraître dans le texte avec ou sans points. L’absence de ponctuation peut être indicative du degré de lexicalisation. Le genre des tennes créés par siglaison est, en général, celui de la base générique du syntagme principal sous-jacent (on dit une LSP parce que la base générique est langue). Un grand nombre de sigles, symbolisant des concepts spécialisés, sont commandés par l’ordre syntaxique anglo-américain. Les sigles qui se prononcent comme s’il s’agissait d’un mot sont bien intégrés dans le système phonique. Ce phénomène favorise la création de dérivés et, par conséquent, la lexicalisation.

Conseil :

La brièveté est, cela va de soi, l’atout principal de ces termes. Les sigles peuvent se combiner avec des termes-syntagmes : ADN polymérase, ARN nucléaire de grande taille.

Certains sigles internationaux ne sont pas traduits :

ASCII (American Standard Code for Information Interchange)
DOS (Disk Operating System)
SONAR (Sound NAvigation Ranging)

Traduisez de préférence un sigle par un sigle (quitte à l’expliquer), mais respectez la syntaxe de la langue d’arrivée. Ne dépassez pas 5 lettres. Le terme produit doit pouvoir être prononcé facilement.

7. NEOLOGIE DE SENS

La néologie de sens consiste à employer un signifiant existant déjà dans la langue considérée et à lui conférer un contenu qu’il n’avait pas jusqu’alors. La relation établie entre le terme existant et le terme nouveau est normalement de type métaphorique, qu’il s’agisse d’un trope proprement dit ou d’un emprunt de sens.

7.1 Tropes

Ce procédé de formation consiste à donner un nouveau sens à un terme existant à travers l’établissement de rapports d’analogie : on fait abstraction de certains traits significatifs du terme existant et on les “transporte“, en ajoutant les nouveaux traits qui fourniront un nouveau signifié tout en neutralisant les traits qui ne conviennent pas à la nouvelle dénomination. La métaphorisation peut être appliquée à un terme simple ou à un terme-syntagme.

La différence entre la métaphore et la métonymie réside dans le fait qu’il s’agit d’un rapport de contiguïté dans le cas de la métonymie ou la synecdoque et qu’un rapport de similitude dans le cas de la métaphore. Le terme famille de gènes, par exemple, qui désigne l'”ensemble de gènes ayant de grandes ressemblances fonctionnelles et structurelles,” a été créé par métaphore à partir du mot famille dont un des traits sémantiques est celui de la ressemblance entre les personnes qui la forment. C’est un rapport de similitude. Dans le cas du terme antenne appliqué à une émission de radio, on a un rapport de contiguïté avec l’appareil qui sert à diffuser les ondes. On
parle de métonymie quand on établit des relations de type :

      • cause-effet (le mot émission désigne l’action de diffuser à distance et le résultat de cette action),
      • contenant-contenu (le terme aérosol peut désigner le liquide projeté sous pression, le jet lui-même, l’appareil servant à produire ce jet encore le liquide présent dans le récipient diffuseur),
      • activité-résultat (le terme terminologie peut faire référence aussi bien à l’activité de recherche et d’étude du vocabulaire scientifique et technique qu’aux produits résultant de cette activité : les dictionnaires spécialisés ou les bases de données terminologiques),
      • abstrait-concret (le terme tribune désigne à la fois le lieu physique où l’on exprime des idées et un genre d’émission où le public peut exprimer ses vues par téléphone).

Ce processus de création est lié à un autre trope: la synecdoque, qui consiste à établir un rapport partie/tout (ou relation d’inclusion) entre le néologisme et le mot de base.

7.2 Emprunt de sens

L’emprunt de sens est un calque sémantique: le sens du mot dans la langue A est repris dans le mot de la langue B. Un néologisme créé par métaphore, métonymie ou synecdoque peut être traduit en utilisant le même processus.

7.3 Changement de sens

Il arrive aussi qu’un mot reçoive une signification entièrement nouvelle lors du passage d’une LSP à une autre ou lors du passage de la langue commune à une LSP. Le passage d’un terme d’une LSP à une autre LSP se produit fréquemment dans le cas de domaines apparentés. Il s’agit généralement d’une modification partielle du sens premier et non pas d’un changement complet. Le vocabulaire des mathématiques a, par exemple, prêté de nombreux termes aux informaticiens : aléatoire, algorithme, interpolation, matrice… Dans tous ces cas, le terme conserve dans sa nouvelle acception des traits sémantiques de son champ lexical d’origine et en acquiert d’autres de celui où il entre.

Quand les domaines ne sont pas apparentés, la signification du terme peut changer entièrement. Le mot divergence est employé en mathématiques ou en physique pour décrire une situation où deux lignes ou deux rayons vont en s’écartant. La divergence nucléaire est l’établissement de la réaction en chaîne dans un réacteur. Le passage d’un mot de la langue commune à une LSP se produit surtout à travers les tropes. Le mot prend alors un sens plus restreint. Ainsi le mot autonome a plusieurs significations mais en informatique, il signifie “matériel fonctionnant de façon indépendante“.

Conseil :

Procédé productif en LSP. Les termes sont souvent motivés. Les métaphores, qui prédominent par rapport aux autres tropes, introduisent parfois un élément ludique et sont de ce fait accueillies favorablement.

Attention :

L’emprunt de sens ou le calque sémantique est condamné par certains, bien que les linguistes nous assurent qu’il ne porte pas atteinte à la langue. Pour les tropes: utilisez la même métaphore ou cherchez une métaphore analogue.

8. CREATION EX NIHILO

La création ex nihilo consiste en la combinaison libre d’unités phonétiques choisies de façon arbitraire. Toute combinaison de phonèmes est théoriquement susceptible d’acquérir une signification. Le terme babar, qui dénomme dans le vocabulaire de la technique nucléaire un moniteur, a été créé ainsi. Dans l’industrie certains noms de marques déposées ont été créés de cette façon.

Une variante de ce type de formation est la création ludique. Le terme anglais cotarnine (ou cotarnin) est l’anagramme de narcotine (la cotarnine étant obterme par oxydation de la narcotine) ; l’acide contenu dans la noix de galle est connu sous le nom d’acide ellagique (adjectif ayant été formé sur la base de l’inversion).

Une autre variante est celle des termes formés par onomatopée (le bang des avions à réaction, qui dénomme la percussion du mur du son, ou de l’emprunt anglais big bang, qui dénomme l’explosion qui donna lieu à l’univers connu).

Conseil :

Procédé rare en traduction. Importez directement les néologismes ainsi créés et ajoutez une explication, si nécessaire.

9. EPONYMIE

L’éponymie est la création néologique qui consiste à dénommer un nouveau concept par un nom propre, un éponyme (le nom d’un inventeur, un toponyme, etc.) En chimie, un certain nombre d’éléments portent le nom de dieux classiques (plutonium, neptunium, uranium…) ou bien font référence à des personnes ou à des institutions connues (l’élément 99 est aussi connu sous le nom d’einsteinium, en souvenir d’Einstein, et l’élément 98 est appelé également californium en hommage à l’Université de Californie où en avait fait la découverte).

L’éponyme est parfois utilisé pour remplacer une expression descriptive d’une longueur incommode. On dit plus facilement maladie de Pick-Herxheimer que pachydermie plicaturée avec pachypériostose de la face et des extrémités.  L’éponyme est parfois en concurrence synonymique avec un autre terme. Ainsi, l’espace de Kauth-Thotnas est aussi appelé espace indiciel, l’indice de Tucker est également connu sous le nom d’indice de végétation, etc. Les éponymes varient d’un pays à l’autre : les auteurs anglais appellent syndrome de Homer le syndrome Claude Bernard-Homer des Français, mais dénomment syndrome de Claude Bernard le syndrome d’excitation du même sympathique appelé en France syndrome de Pourfour du Petit. Les éponymes peuvent être polysémiques. Le terme syndrome d’Albright dénomme soit une tubulopathie congénitale (l’acidose tubulaire chronique idiopathique avec hypercalciurie et hypocitraurie) soit une dysplasie fibreuse des os avec pigmentation cutanée et puberté précoce.

Les noms propres sont parfois employés comme adjectifs. (agathonique, kafkaïen, cartésien…) ou pour dénommer les membres d’une école de pensée ou d’un mouvement politique (épicurien, kantien, gaulliste…). Ce type de création néologique est aussi appelé antonomase. Un nom propre peut également s’unir à un formant savant (ex. chlorobrightisme, nom formé à partir de l’éponyme Bright ou curiethérapie, formé à partir du nom propre Curie).

Conseil :

Ce n’est pas aux traducteurs d’inventer des éponymes. Demandez conseil aux spécialistes du domaine. Ils vous donneront, en l’absence d’un éponyme correspondant, un synonyme.

Attention :

Un même éponyme peut parfois désigner des notions différentes : syndrome d’Albright dénomme soit une tubulopathie congénitale, l’acidose tubulaire chronique idiopathique avec hypercalciurie et hypocitraturie, soit une dysplasie fibreuse des os avec pigmentation cutanée et puberté précoce. Même si l’éponyme semble identique dans deux langues, il peut correspondre à des concepts tout à fait différents.


Quelques affixes et radicaux

a-, an- : non, sans
ab-, abs- : de, hors
ad-: vers
aéro-: air
agro-, agri- : champ
amb- : les deux
anté- : avant
anti- : contre
apo- : loin de, à partir de
haro- : poids
bary- : lourd
bathy- : profond
bi-, bis: deux fois
bio-: vie
calci-, calcio: chaux
calori- : chaleur
centi- : cent
circon-, circum- : autour de
co-, con- : avec
cryo- : froid, glace
cyclo- : cercle
déci-: dix
di- : deux fois
dia- : à travers
dis-: éloigné
dynamo- : force
épi- : sur
ex-: hors de
exa-: six
exo-, ex- : au dehors
géo-: terre
giga- : géant
gonio- : angle
gyro- : cercle
hecto- : cent
hém(at)o- : sang
hepta- : sept
holo- : entier
homéo- : semblable
homo- : le même
hydro-: eau
hygro- : humide
hyper- : au-dessus
hypo- : dessous
hypso- : hauteur
in-: dans
infra- : au-dessous
inter- : entre
intra-: à l’intérieur
isc-: égal
kilo-: mille
macro- : grand
maxi-: maximum
méga- : grand
méro- : partie
méta- : au-delà
micro- : petit
milli-: mille
mini-: minimum
mono-: seul
moto- : moteur
multi- : nombreux
nano- : nain, petit
octo-, octa-, oct- : huit
ornni-: tout
ortho- : droit
pan-, panto- : tout
para- : à côté de
para- : protégeant
penta- : cinq
per- : à travers
péri- : autour de, au dessus
pétro- : pierre
phono- : voix , son
photo- : lumière
pico- : un millième de
milliardième de
pluri- : plusieurs
poly- : nombreux
post- : après
pro- : pour, en avant de
proto-, prot- : premier
pseudo- : menteur
pyro-: feu
quadri-, quadr- : quatre
radio- : rayon
rétro- : en arrière
servo- : qui sert
sidér-, sidéro- : fer
stéréo- : compact, solide
sub-: sous
super- : sur, au-dessus
supra- : au-dessus, au-delà
syn-, sy-, sym- : avec
techno- : art
télé- : loin, à distance
téra- : monstre
tetra, tétr- : quatre
thermo- : chaud
topo-: lieu
trans- : par-delà
tri- : trois
ultra- : au-delà
uni-, un-: un
-chrome : couleur
-chrone : temps
– cide: tuer
-cole : cultiver
-colore : couleur
-culteur : cultivateur
-ergie : travail
-fère : qui porte
-fuge : fuire
-gène : produire
-gone : angle, côté
-gramme : écriture
-graphie : écrire
-ide(s) : apparence, forme
-logie : discours, théorie
-rnétr: mesure
-morphe : forme
-nôme: nom
-nome: loi
-ode : chemin
-oïde : apparence, forme
-onyme: nom
-phile : ami, aimer
-phobe : craindre
-phone : voix, parler
-scope : observer
-sphère : sphère
-stat : fixer
-techn : art, savoir-faire
-thèque : ranger


[INFOS QUALITE] statut : validé | mode d’édition : partage, correction, édition et iconographie | sources : Réseau de néologie traductive – Centre de terminologie de Bruxelles (RINT) | contributeur : Patrick Thonart | crédits illustrations : © DP.


Traduire plus en Wallonie…

UPANO, cité oubliée d’Amazonie

Temps de lecture : 9 minutes >

[WEBZINE.VOYAGE, 2024] La forêt amazonienne, souvent vue comme un sanctuaire de biodiversité, cache sous son manteau vert un secret historique de taille : une vaste cité perdue en Amazonie, sur les rives de l’Upano, datant de 2500 ans. Cette découverte dans le piémont andain, révélée par une équipe de chercheurs dirigée par l’archéologue Stephen Rostain, ouvre un nouveau chapitre fascinant dans l’histoire précolombienne de l’Amazonie. Elle offre également un aperçu fascinant de la complexité et de la sophistication des sociétés qui y ont prospéré. A partir de recherches démarrées en 1996, un gigantesque réseau urbain avec jardins, d’une population comparable à la ville de Londres à l’époque romaine, a été mis à jour grâce au système de télédétection LIDAR.

Découverte et LIDAR

La révélation géographique de cette cité perdue est le fruit de l’application du LIDAR (Light Detection and Ranging, détection et estimation de la distance par laser en français). C’est une technologie de télédétection par laser qui permet de scanner et de cartographier des surfaces à travers des obstacles visuels tels que la dense forêt de l’Amazonie. Cette méthode, particulièrement innovante dans le domaine de l’archéologie, a permis aux chercheurs de scruter au-delà de la végétation et d’obtenir une image détaillée du sol forestier, révélant ainsi les contours cachés d’une civilisation disparue.

Les données obtenues grâce au LIDAR ont dévoilé une complexité architecturale et urbaine inattendue, démontrant que les terres que nous considérions comme sauvages étaient en réalité le siège d’une activité humaine intense et structurée.

En superposant ces nouvelles informations avec les découvertes archéologiques existantes, les chercheurs ont pu reconstituer une étendue impressionnante de 300 km², révélant une image inédite de la cité perdue de l’Upano et du site de Kunguints.

Cette reconstitution numérique a permis de visualiser non seulement les structures individuelles, mais aussi leur agencement au sein d’un réseau urbain structuré avec de nombreux jardins. Ce travail minutieux d’analyse a ouvert la voie à de nouvelles hypothèses sur la vie, la culture et l’organisation de cette société ancienne, jetant un regard inédit sur une période de l’histoire humaine jusqu’alors enveloppée de mystère.

L’étude détaillée des données récoltées a révélé un plan urbain étonnamment sophistiqué. Les chercheurs ont identifié des routes et des structures organisées selon un schéma qui rappelle celui de grandes métropoles modernes.

Cette découverte suggère une société précolombienne organisée avec des compétences en construction et une compréhension approfondie de l’urbanisme. Les routes, tracées de manière parallèle et perpendiculaire, évoquent les artères d’une ville planifiée, loin de l’image traditionnelle d’une société amazonienne primitive. Ces voies de communication formaient une véritable toile d’araignée, reliant différentes parties de la cité antique et facilitant ainsi le déplacement et l’échange entre ses habitants.

Au cœur de cette organisation urbaine se trouvaient des places carrées, des plateformes et de grands monticules. Ces places, souvent entourées de plateformes périphériques, formaient le centre de la vie communautaire. Certaines supportent des structures résidentielles, tandis que d’autres avaient probablement des fonctions cérémonielles.

Les chemins partant de ces plateformes menaient vers d’autres zones de la cité ou descendaient vers les rivières, indiquant une interaction étroite entre les différentes parties de l’urbanisme et l’environnement naturel. Quant aux grands monticules, qui peuvent atteindre jusqu’à dix mètres de hauteur, ils sont vraisemblablement des sites de cérémonies ou des points de repère importants dans le paysage urbain.

Une caractéristique remarquable de cette civilisation révélée par les données LIDAR est le concept de cités-jardins. Les espaces interstitiels entre les quelque 6000 plateformes en terres identifiées étaient utilisés pour l’agriculture, avec des systèmes de drainage ingénieux rappelant des rigoles.

Cette harmonie entre urbanisme et agriculture dénote une compréhension avancée de l’écologie et une capacité à modeler l’environnement selon les besoins humains. Ces jardins, en plus de fournir de la nourriture, jouent probablement un rôle important dans les aspects sociaux et religieux de la société.

La complexité des structures et de l’agencement urbain implique l’existence d’une organisation sociale bien établie. La nécessité de terrassiers pour la construction, d’ingénieurs pour la planification des routes, et de paysans pour l’agriculture suggère une répartition des rôles et des spécialisations professionnelles.

Cette structuration sociétale indique également la présence d’une autorité centrale, peut-être sous la forme de prêtres ou de dirigeants, orchestrant et supervisant ces vastes projets. Les chercheurs restent prudents dans leurs interprétations mettent en évident une société complexe avec des hiérarchies et des fonctions diverses.

Une nouvelle histoire de l’Amazonie

La découverte de cette cité perdue change fondamentalement notre perception de l’Amazonie. A contre-courant de l’image d’une terre vierge, seulement peuplée de chasseurs-cueilleurs, l’Amazonie se dévoile comme le berceau d’une civilisation avancée, avec des agglomérations sophistiquées et une interaction prospère avec l’environnement. Cette révélation souligne également la diversité ethnique et humaine de l’Amazonie, une région qui a abrité des sociétés complexes, bien loin de l’image stéréotypée souvent véhiculée.

La proximité des sociétés urbaines avec des groupes de chasseurs-cueilleurs met en lumière un panorama social et culturel diversifié en Amazonie précolombienne. Cette coexistence indique une région où différentes formes de sociétés et de cultures se côtoient et interagissent, remettant aussi en question l’idée d’une évolution linéaire et uniforme des sociétés humaines.

Les mystères d’une civilisation disparue

La disparition de cette civilisation soulève des questions captivantes. Parmi les théories de l’effondrement, la possible méga-éruption du volcan Sangay comme cause potentielle, bien que les analyses récentes indiquent une variété de dates pour les couches de cendres trouvées, affaiblissant cette hypothèse.

Une autre explication possible est l’effondrement interne de la société, à l’image de ce qui est arrivé à des civilisations comme Rome ou l’Égypte. Cette piste soulève des interrogations sur la durabilité des sociétés urbaines en fonction de leur impact sur l’environnement.

Cette découverte marque seulement le début d’une vaste entreprise de recherche. L’ampleur des structures et l’importance des données montrent que de nombreuses découvertes restent à faire. Stephen Rostain lui-même admet que la portée du phénomène a dépassé ses attentes initiales, ouvrant la voie à une exploration prolongée de cette civilisation et à une meilleure compréhension de son impact historique et culturel.

Plusieurs questions restent sans réponse : Quelles étaient les causes précises de l’effondrement de cette cité perdue ? Quel était le niveau exact de leur technologie et de leur connaissance ? Comment ont-ils influencé ou été influencés par d’autres civilisations contemporaines ?

La révélation de cette mégalopole antique sous la canopée amazonienne n’est pas seulement une prouesse archéologique; elle représente une fenêtre ouverte sur un passé oublié, offrant un nouveau récit sur les civilisations précolombiennes.

Ce voyage dans le temps nous confronte à la réalité d’une Amazonie complexe, peuplée de sociétés avancées et ingénieuses, loin des clichés habituels. Cette histoire éclaire d’un jour nouveau la relation entre l’homme et son environnement, et nous rappelle l’importance de préserver ce patrimoine historique et culturel inestimable.


Apprendre à traduire : à l’ère de l’IA, faut-il encore faire des exercices de thème et de version ?

Temps de lecture : 5 minutes >

[THECONVERSATION.COM, 4 décembre 2024] “Si les outils de traduction font des miracles, pourquoi s’exercer à transposer des textes d’une langue à une autre ?”, se demandent les étudiants. Loin d’être anodin, cet apprentissage permet de se sensibiliser réellement aux subtilités et au fonctionnement de la langue qu’on apprend.

DeepL fait des miracles, pourquoi devrais-je alors apprendre à traduire ?“, s’interroge un étudiant dans un cours de version. Les cours de thème (traduire un texte du français vers la langue étudiée) et de version (traduire un texte d’une langue étudiée en français) occupent une place importante au sein de la formation universitaire française, en licence de langues jusque dans les épreuves des concours du second cycle. Au lycée déjà, les élèves découvrent les subtilités inhérentes au fait de passer d’une langue à une autre et, dans le cadre des enseignements de langues et cultures de l’Antiquité, ils s’exercent régulièrement à la traduction.

Dans un contexte général où la traduction neuronale, alimentée par l’intelligence artificielle, rivalise de plus en plus avec la traduction humaine, l’intérêt de cet apprentissage peut susciter une remise en question.

Des objectifs de cours à clarifier

Sans aborder les débats historiques qui jalonnent l’évolution de la traduction en tant que pédagogie et de la traductologie en tant que discipline, on notera que de nombreuses recherches ont souligné le “statut étrange de la traduction à l’université, souvent fondé sur une mauvaise appréhension de son intérêt“, selon les mots de l’universitaire Fayza El Qasem.

Bien que les enseignants établissent des objectifs pédagogiques précis aux cours de thème et de version, de nombreux étudiants peinent encore à en percevoir les finalités. Il n’échappe à personne que la phrase “Attention, n’utilisez surtout pas de traducteur automatique !” a longtemps fait partie des consignes transmises aux étudiants, sous prétexte que la qualité de la traduction y est déplorable. Seuls les dictionnaires étaient autorisés.

© Shutterstock

Aujourd’hui, les enseignants des cours de thème et de version peuvent-ils encore éviter les traducteurs automatiques malgré leur amélioration évidente ?

On rappellera que les compétences visées dans les cours de thème et de version vont de la compréhension d’un texte et du fonctionnement des langues à travers les analyses linguistiques (grammaire, vocabulaire, procédés de traduction) jusqu’à la traduction d’un paragraphe, comme moyen d’évaluation des acquis en langues. L’extrait à traduire est généralement issu du registre littéraire ou journalistique et ne s’ouvre que rarement à la traduction dite pragmatique (textes quotidiens, professionnels).

Au cours des dernières années, les critiques n’ont pas manqué. Des études récentes ont insisté sur l’intérêt croissant d’intégrer des outils technologiques dans l’enseignement de la traduction.

Au-delà de la traduction, comprendre et analyser les subtilités linguistiques
Les cours de thème et de version constituent cependant de véritables laboratoires linguistiques. On y pratique l’analyse approfondie d’un texte source en invitant les apprenants à décortiquer les structures linguistiques et extralinguistiques que les logiciels de traduction peinent encore à saisir. En thème ou en version, il ne s’agit pas simplement de traduire des segments isolés, mais d’en saisir le sens global, de repérer les figures de style ou encore, la tonalité, etc.

Chaque niveau d’analyse permet une traduction “acceptable”, certes, mais favorise surtout une manipulation fine de la langue, transposable à d’autres contextes. Tel est le cas de la traduction des ambiguïtés syntaxiques ou des jeux de mots, de l’humour ou encore des néologismes.

Les travaux de la linguiste Natalie Kübler et de ses collègues en langue de spécialité montrent davantage “les limites de ces systèmes de [traduction automatique][…] notamment dans le traitement des syntagmes nominaux complexes, aussi bien au niveau du syntagme lui-même (variations possibles dans la juxtaposition des constituants, identification des constituants coordonnés…) comme au niveau du texte (instabilité des choix de traduction, identification adéquate du domaine de spécialité…)“.

La traduction automatique, aussi performante qu’elle soit, reste cependant imparfaite malgré ses progrès. Si elle se montre efficace lors de traductions simples et littérales, elle peine souvent à capter les nuances contextuelles essentielles. C’est ainsi que la traduction d’expressions idiomatiques (par exemple “les carottes sont cuites”, “les dindons de la farce”), des modes d’emploi ou de certaines publicités, produit parfois des rendus éloignés du sens original, jusqu’à produire de faux sens.

© Shutterstock

Les cours de thème et de version peuvent être l’occasion de sensibiliser et d’accompagner les étudiants vers une utilisation raisonnée de la traduction automatique. Il s’agit aussi d’un espace pour s’entraîner à repérer et à corriger les écueils précédemment cités, tout en renforçant la compréhension des systèmes linguistiques des langues étudiées. À long terme, cette capacité d’analyse revêt une importance fondamentale dans leur futur contexte professionnel. Communicants, journalistes, traducteurs ou enseignants de langues, ces étudiants seront souvent amenés à naviguer entre diverses sources d’information, parfois entachées de deepfakes pour justifier les échecs éventuels que les traducteurs automatiques génèrent.

Renforcer la compréhension interculturelle

Outre le renforcement des éléments linguistiques que permettent d’étayer les cours de thème et de version, la prise en compte des spécificités culturelles constitue un élément d’apprentissage à part entière, notamment parce que la traduction est, entre autres, un moyen de médiation entre deux cultures.

D’ailleurs lorsque le traductologue canadien Jean Delisle parle de la dimension culturelle de la traduction, il recourt à la métaphore de l’”hydre à cent-mille têtes” pour en souligner la nature multiple et dynamique.

La capacité à détecter et à comprendre les différences culturelles aide ainsi à prévenir les malentendus qui peuvent si facilement surgir en langue étrangère et qui sont parfois déjà présents dans la langue source. L’extrait humoristique de Juste Leblanc avec les confusions entre l’adverbe “juste” et le prénom “Juste”, dans le film Le Dîner de cons, l’illustre.

Finalement, en nous éloignant du caractère parfois artificiel des pratiques adoptées dans l’enseignement du thème et de la version et en tenant en compte de l’évolution socio-économique de la société jointe à l’utilisation de l’intelligence artificielle, ces cours pourraient (re)gagner l’intérêt initial du parcours d’apprentissage des langues. Actualisés, ils seraient à même d’offrir aux étudiants une compréhension plus claire des exigences des métiers liés aux langues, métiers qui requièrent aujourd’hui des compétences humaines spécifiques, complémentaires mais distinctes de celles des machines.

La question qui se pose aujourd’hui n’est plus “Pourquoi enseigner le thème et la version à l’heure de l’IA ?“, mais plutôt “Comment ?” “Laisser exister la relation avec les systèmes d’IA, là où partout on ne parle souvent que de leurs usages, c’est aussi laisser place à la dimension indéterminée de leur intelligence inhumaine”, comme on peut le lire dans l’ouvrage d’Apolline Guillot, Miguel Benasayag et Gilles Dowek intitulé L’IA est-elle une chance ?

Anissa Hamza-Jamann, Université de Lorraine


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, Le Caravage, Saint-Jérôme écrivant (1606) © Galerie Borghese (Rome) ; © Shutterstock | N.B. Jérôme est le Patron des traducteurs.


Plus de presse en Wallonie…

Les systèmes d’IA ne savent pas expliquer leurs décisions. Voici les pistes de recherche vers ‘l’explicabilité’

Temps de lecture : 6 minutes >

[THECONVERSATION.COM, 5 décembre 2024] L’utilisation d’intelligences artificielles, dans certains cas, génère des risques de discriminations accrues ou encore de perte de confidentialité ; à tel point que l’Union européenne tente de réguler les usages de l’IA à travers différents niveaux de risques. Ceci pose d’autant plus question que la plupart des systèmes d’IA aujourd’hui ne sont pas en mesure de fournir des explications étayant leurs conclusions. Le domaine de l’IA explicable est en plein essor.

À l’hôpital, des systèmes d’intelligence artificielle (IA) peuvent aider les médecins en analysant les images médicales ou en prédisant les résultats pour les patients sur la base de données historiques. Lors d’un recrutement, des algorithmes peuvent être utilisés pour trier les CV, classer les candidats et même mener les premiers entretiens. Sur Netflix, un algorithme de recommandation prédit les films que vous êtes susceptible d’apprécier en fonction de vos habitudes de visionnage. Même lorsque vous conduisez, des algorithmes prédictifs sont à l’œuvre dans des applications de navigation telles que Waze et Google Maps pour optimiser les itinéraires et prédire les schémas de circulation qui devraient assurer un déplacement plus rapide.

Au bureau, ChatGPT, GitHub Copilot et d’autres outils alimentés par l’IA permettent de rédiger des courriels, d’écrire des codes et d’automatiser des tâches répétitives ; des études suggèrent que jusqu’à 30 % des heures travaillées pourraient être automatisées par l’IA d’ici à 2030.

Ces systèmes d’IA sont très variés, mais ils ont un point commun : leur fonctionnement interne et leurs résultats sont difficiles à expliquer… pas seulement pour le grand public, mais aussi pour les experts. Ce manque d’explicabilité limite le déploiement des systèmes d’IA en pratique. Pour résoudre ce problème et s’aligner sur les exigences réglementaires croissantes, un domaine de recherche connu sous le nom d’IA explicable (ou explicabilité) a vu le jour.

IA, apprentissage automatique… des noms qui recouvrent des systèmes variés

Avec la médiatisation généralisée de l’intelligence artificielle et son déploiement rapide, il est facile de se perdre. En particulier, de nombreux termes circulent pour désigner différentes techniques d’IA, sans que l’on sache forcément bien ce que chacun recouvre, par exemple “apprentissage automatique”, “apprentissage profond” et “grands modèles de langage”, pour n’en citer que quelques-uns.

En termes simples, l’IA fait référence au développement de systèmes informatiques qui effectuent des tâches nécessitant une intelligence humaine, telles que la résolution de problèmes, la prise de décision et la compréhension du langage. Elle englobe divers sous-domaines tels que la robotique, la vision par ordinateur et la compréhension du langage naturel.

Un sous-ensemble important de l’IA est l’apprentissage automatique, qui permet aux ordinateurs d’apprendre à partir de données au lieu d’être explicitement programmés pour chaque tâche. Pour simplifier, la machine observe des schémas dans les données et les utilise pour faire des prédictions ou prendre des décisions. Dans le cas d’un filtre antispam par exemple, le système est entraîné à partir de milliers d’exemples de courriers électroniques indésirables et non indésirables. Au fil du temps, il apprend des éléments – des mots, des phrases ou des détails sur l’expéditeur – qui sont courants dans les spams.

Différentes expressions sont utilisées pour désigner un large éventail de systèmes d’IA © Elsa Couderc, CC BY

L’apprentissage profond est lui-même un sous-ensemble de l’apprentissage automatique et utilise des réseaux de neurones complexes composés de plusieurs couches afin de repérer et d’apprendre des motifs récurrents encore plus sophistiqués. L’apprentissage profond s’avère d’une valeur exceptionnelle pour travailler avec des données textuelles ou des images, et constitue la technologie de base de divers outils de reconnaissance d’images ou de grands modèles de langage tels que ChatGPT.

Réglementer l’IA

Les exemples du début de cet article montrent la grande variété d’applications possibles de l’IA dans différents secteurs. Plusieurs de ces applications, par exemple la suggestion de films sur Netflix, semblent relativement peu risquées, tandis que d’autres, comme le recrutement, l’évaluation d’éligibilité à un crédit bancaire ou le diagnostic médical, peuvent avoir un impact important sur la vie d’une personne. Il est donc essentiel que ces applications soient conformes à des critères éthiques partagés.

C’est à cause de ce besoin d’encadrement que l’Union européenne a proposé son AI Act. Ce cadre réglementaire classe les applications de l’IA en quatre niveaux de risque différents en fonction de leur impact potentiel sur la société et les individus : inacceptable, élevé, limité, et minimal. Chaque niveau mène à différents degrés de réglementation et d’exigences.

Ainsi, les systèmes d’IA à “risque inacceptable”, tels que les systèmes utilisés pour le score social ou la police prédictive, sont interdits en Union européenne, car ils représentent des menaces importantes pour les droits de l’homme.

Les systèmes d’IA à “haut risque” sont autorisés, mais ils sont soumis à la réglementation la plus stricte, car ils sont susceptibles de causer des dommages importants en cas d’échec ou d’utilisation abusive, par exemple dans les secteurs sensibles que sont l’application de la loi et le maintien de l’ordre, le recrutement et l’éducation.

Les systèmes d’IA à “risque limité” comportent un certain risque de manipulation ou de tromperie, par exemple les chatbots ou les systèmes de reconnaissance des émotions, dans lesquels il est primordial que les humains soient informés de leur interaction avec le système d’IA.

Les systèmes d’IA à “risque minimal” contiennent tous les autres systèmes d’IA, tels que les filtres antispam, qui peuvent être déployés sans restrictions supplémentaires.

Le besoin d’explications, ou comment sortir l’IA de la “boîte noire”

De nombreux consommateurs ne sont plus disposés à accepter que les entreprises imputent leurs décisions à des algorithmes à boîte noire. Prenons l’exemple de l’incident Apple Card, où un homme s’est vu accorder une limite de crédit nettement plus élevée que celle de sa femme, en dépit du fait qu’ils partageaient les mêmes biens. Cet incident a suscité l’indignation du public, car Apple n’a pas été en mesure d’expliquer le raisonnement qui sous-tend la décision de son algorithme. Cet exemple met en évidence le besoin croissant d’expliquer les décisions prises par l’IA, non seulement pour garantir la satisfaction des clients et utilisateurs, mais aussi pour éviter une perception négative de la part du public.

De plus, pour les systèmes d’IA à haut risque, l’article 86 de la loi sur l’IA établit le droit de demander une explication des décisions prises par les systèmes d’IA, ce qui constitue une étape importante pour garantir la transparence des algorithmes.

Au-delà de la conformité légale, les systèmes d’IA “transparents” présentent plusieurs avantages, tant pour les propriétaires de modèles que pour les personnes concernées par les décisions.

Une IA transparente

Tout d’abord, la transparence renforce la confiance (comme dans l’affaire de l’Apple Card) : lorsque les utilisateurs comprennent le fonctionnement d’un système d’IA, ils sont plus susceptibles de l’utiliser.

Deuxièmement, la transparence contribue à éviter les résultats biaisés, en permettant aux régulateurs de vérifier si un modèle favorise injustement des groupes spécifiques.

Enfin, la transparence permet l’amélioration continue des systèmes d’IA en révélant les erreurs ou les effets récurrents inattendus.

Globalement, il existe deux approches pour rendre les systèmes d’IA plus transparents.

Tout d’abord, on peut utiliser des modèles d’IA simples, comme les arbres de décision ou les modèles linéaires pour faire des prédictions. Ces modèles sont faciles à comprendre car leur processus de décision est simple.

Par exemple, un modèle de régression linéaire peut être utilisé pour prédire les prix des maisons en fonction de caractéristiques telles que le nombre de chambres, la superficie et l’emplacement. La simplicité réside dans le fait que chaque caractéristique est affectée d’un poids et que la prédiction est simplement la somme de ces caractéristiques pondérées : on distingue clairement comment chaque caractéristique contribue à la prédiction finale du prix du logement.

Cependant, à mesure que les données deviennent plus complexes, ces modèles simples peuvent ne plus être suffisamment performants.

C’est pourquoi les développeurs se tournent souvent vers des “systèmes boîte noire” plus avancés, comme les réseaux de neurones profonds, qui peuvent traiter des données plus importantes et plus complexes, mais qui sont difficiles à interpréter. Par exemple, un réseau de neurones profond comportant des millions de paramètres peut atteindre des performances très élevées, mais la manière dont il prend ses décisions n’est pas compréhensible pour l’homme, car son processus de prise de décision est trop vaste et trop complexe.

L’IA explicable

Une autre option consiste à utiliser ces puissants modèles malgré leur effet de “boîte noire” en conjonction avec un algorithme d’explication distinct. Cette approche, connue sous le nom d’”IA explicable”, permet de bénéficier de la puissance des modèles complexes tout en offrant un certain niveau de transparence.

Une méthode bien connue pour cela est l’explication contre-factuelle, qui consiste à expliquer la décision atteinte par un modèle en identifiant les changements minimaux des caractéristiques d’entrée qui conduiraient à une décision différente.

Par exemple, si un système d’IA refuse un prêt à quelqu’un, une explication contre-factuel pourrait informer le demandeur : “Si votre revenu annuel avait été supérieur de 5 000 euros, votre prêt aurait été approuvé“. Cela rend la décision plus compréhensible, tout en conservant un modèle d’apprentissage automatique complexe et performant. L’inconvénient est que ces explications sont des approximations, ce qui signifie qu’il peut y avoir plusieurs façons d’expliquer la même décision.

Vers des usages positifs et équitables

À mesure que les systèmes d’IA deviennent de plus en plus complexes, leur potentiel de transformer la société s’accroît, tout comme leur capacité à commettre des erreurs. Pour que les systèmes d’IA soient réellement efficaces et fiables, les utilisateurs doivent pouvoir comprendre comment ces modèles prennent leurs décisions.

La transparence n’est pas seulement une question de confiance, elle est aussi cruciale pour détecter les erreurs et garantir l’équité. Par exemple, dans le cas des voitures autonomes, une IA explicable peut aider les ingénieurs à comprendre pourquoi la voiture a mal interprété un panneau d’arrêt ou n’a pas reconnu un piéton. De même, en matière d’embauche, comprendre comment un système d’IA classe les candidats peut aider les employeurs à éviter les sélections biaisées et à promouvoir la diversité.

En nous concentrant sur des systèmes d’IA transparents et éthiques, nous pouvons faire en sorte que la technologie serve les individus et la société de manière positive et équitable.

David Martens & Sofie Goethals, Université d’Anvers


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © la.blogs.nvidia.com ; © Elsa Couderc, CC BY.


Plus de dispositifs en Wallonie…

Quand la découverte d’un trésor nous met sur les traces d’un voleur…

Temps de lecture : 9 minutes >

[ARTIPS.FR, 15 novembre 2024] Qu’est-ce qui se cache là-dessous ?  Belgique. En 2019, l’archéologue Marleen Martens est appelée sur un nouveau dossier. Un particulier français vient de déclarer une découverte sur son terrain belge : en creusant, il serait tombé sur de vieilles pièces. Selon la loi du pays, il devrait en être le propriétaire, Marleen n’a qu’à faire quelques vérifications. Mais une fois sur place, l’archéologue trouve la situation plutôt louche.

En effet, on lui présente deux seaux remplis de… 14 154 pièces romaines. Parmi elles, se trouvent des “Antoniniens”, du nom d’un empereur du 3e siècle. À cette époque troublée, les Romains enterraient leurs trésors pour éviter les vols. Mais Marleen est sceptique devant leur nombre considérable. Y aurait-il anguille sous roche ?

Commence alors une enquête de longue haleine entre autorités belges et douanes françaises. Très vite, le couperet tombe : ces pièces proviennent en fait de plusieurs régions de France. Si le pilleur, adepte du détecteur de métaux, a menti, c’est que la loi française considère que ces vestiges archéologiques appartiennent à tout le monde : personne ne peut se les approprier ! Le pilleur espérait profiter de la loi belge pour “blanchir” ses découvertes illégales.

Et ce n’est pas tout… Les enquêteurs découvrent chez lui plus de 13 000 objets précieux : bracelets de la préhistoire, fibules (épingles de métal) romaines, boucles de ceinture médiévales ou encore monnaies gauloises. On retrouve même un rare dodécaèdre romain, un mystérieux objet à 12 faces, dont on ignore l’usage.

Mais ces trouvailles sont loin d’être une bonne nouvelle pour les archéologues. Les œuvres ont été arrachées à leur contexte initial : il est désormais impossible de connaître leur passé et de fouiller de manière scientifique le lieu de leur découverte. De précieuses informations sur notre histoire commune ont ainsi disparu. Le pillage archéologique, s’il enrichit quelques-uns illégalement, appauvrit donc nos connaissances. Voilà pourquoi il est important d’avoir des experts vigilants comme Marleen Martens ! Comme le souligne l’Institut national [français] de recherches archéologiques préventives (INRAP) : “Le pillage revient à déchirer des pages de notre histoire.

d’après Adeline Pavie, artips.fr


Le Dodécaèdre Romain, un Mystère de l’Antiquité

[CHRONIQUESARCHEO.COM, 20 February 2024] Le dodécaèdre romain représente l’un des mystères les plus fascinants de l’antiquité. Ces objets, dispersés à travers les anciennes terres de l’Empire romain, continuent de susciter l’étonnement et la curiosité parmi les historiens, les archéologues et les passionnés d’histoire. Malgré de nombreuses recherches et théories, la fonction exacte et l’origine de ces artefacts en bronze ou en pierre demeurent un sujet de débat. Avec leurs douze faces pentagonales percées de trous de dimensions variées, les dodécaèdres romains sont un témoignage intrigant de l’ingéniosité et des mystères de la civilisation romaine. Cet article vise à explorer les différentes facettes de ces objets insolites, de leur découverte à leurs hypothétiques fonctions, tout en mettant en lumière leur importance culturelle et archéologique. En nous plongeant dans l’univers des dodécaèdres romains, nous espérons non seulement en apprendre davantage sur ces objets mystérieux mais aussi sur les peuples qui les ont créés et utilisés.

Découverte et Description

Les dodécaèdres romains ont été découverts pour la première fois dans les régions autrefois occupées par l’Empire romain, s’étendant de l’Angleterre à la Hongrie et du nord de l’Italie à la Syrie. Ces artefacts datent généralement du IIe au IVe siècle après J.-C., une période où l’Empire romain était à son apogée. Leur répartition géographique vaste et parfois disparate soulève des questions sur leur utilisation et leur signification au sein de la société romaine.

Dodécaèdre romain en bronze découvert à Leopoldwal (Tongres, BE) en 1939 © Musée gallo-romain de Tongres

Physiquement, le dodécaèdre romain est un objet en trois dimensions composé de douze faces pentagonales. Chacune de ces faces est percée d’un trou rond ou carré de diamètre variable, allant de quelques millimètres à plusieurs centimètres. Les dodécaèdres sont généralement fabriqués en bronze, bien que quelques exemples en pierre aient également été trouvés. Leurs tailles varient, mais la plupart mesurent entre 4 et 11 centimètres de diamètre. De petites boules sont souvent présentes aux sommets, ajoutant à leur aspect énigmatique.

Ces objets, malgré leur apparence uniforme, présentent des variations subtiles qui suggèrent une fabrication méticuleuse et possiblement des fonctions spécifiques. Les archéologues ont recensé plus d’une centaine de ces dodécaèdres, mais aucun contexte archéologique précis n’a permis de déterminer leur usage avec certitude. Leur découverte dans des lieux variés, tels que des sites résidentiels, des tombes ou près de voies romaines, ajoute à la complexité de leur étude.

La précision de leur conception et la diversité des lieux de découverte posent un défi captivant pour les chercheurs. Chaque dodécaèdre romain découvert apporte de nouvelles données mais aussi de nouvelles énigmes sur la vie et les croyances des Romains. Cette section a pour but de dresser un portrait détaillé de ces objets, en se basant sur les découvertes archéologiques actuelles, pour poser les fondations nécessaires à la compréhension de leur potentiel mystère.

Théories sur l’utilisation des dodécaèdres romains

La fonction exacte des dodécaèdres romains reste un sujet de débat parmi les chercheurs, plusieurs théories ayant été proposées pour expliquer leur utilité et leur signification au sein de la société romaine. Ces hypothèses varient grandement, reflétant la complexité et l’énigmatique nature de ces objets.

Une des théories les plus populaires suggère que les dodécaèdres pourraient avoir été utilisés comme des instruments de mesure astronomique ou géométrique. Les trous de tailles variées, alignés de manière précise, pourraient permettre de mesurer les angles des étoiles ou du soleil à différents moments de l’année, servant ainsi de calendrier ou d’outil pour déterminer les saisons agricoles. Cette hypothèse est appuyée par la précision géométrique de leur conception, mais manque de preuves concrètes pour étayer son argumentation.

Une autre théorie avance que ces artefacts avaient une fonction religieuse ou spirituelle. Certains pensent que les dodécaèdres auraient pu être utilisés dans le cadre de pratiques religieuses, peut-être en relation avec un culte de la nature ou des divinités spécifiques. Cette idée est renforcée par la découverte de dodécaèdres dans des tombes ou des lieux considérés comme sacrés, bien que cette utilisation reste spéculative.

Il a également été suggéré que les dodécaèdres pouvaient être des objets du quotidien, utilisés comme des dés à jouer, des poids pour des filets de pêche ou même des bougeoirs. Cependant, la sophistication et l’apparente uniformité de leur conception semblent contredire l’idée d’une utilisation purement utilitaire ou ludique.

Enfin, certains chercheurs ont proposé que les dodécaèdres étaient des objets d’enseignement ou de démonstration mathématique, utilisés pour éduquer ou montrer les principes géométriques. Bien que séduisante, cette théorie, comme les autres, manque de preuves directes liant les dodécaèdres à des pratiques éducatives spécifiques de l’époque.

Bien que diverses théories aient été avancées pour expliquer l’utilisation des dodécaèdres romains, aucune n’a pu être définitivement prouvée. Le mystère de leur véritable fonction continue de fasciner et de défier les chercheurs, symbolisant la richesse et la complexité de l’histoire romaine.

Importance culturelle et archéologique

L’étude des dodécaèdres romains dépasse la simple curiosité pour leur fonction mystérieuse ; elle offre une fenêtre précieuse sur la civilisation romaine, révélant des aspects de leur quotidien, de leurs croyances et de leur savoir-faire technique. Ces artefacts, par leur présence à travers l’Europe, témoignent de l’étendue et de l’influence de l’Empire romain, ainsi que de la diversité des cultures qu’il englobait.

Sur le plan culturel, les dodécaèdres peuvent être perçus comme le reflet de la complexité et de la sophistication de la société romaine. Leur conception précise et leur diffusion dans différentes provinces de l’Empire suggèrent une importance qui dépasse la simple utilité. Que ce soit comme objets de mesure, instruments religieux, ou symboles éducatifs, ils illustrent la capacité de cette civilisation à créer des objets chargés de signification et d’esthétisme.

Archéologiquement, chaque découverte de dodécaèdre apporte son lot de connaissances sur les sites romains et leur contexte. Leur analyse contribue à mieux comprendre les échanges commerciaux, les interactions culturelles et les mouvements de populations au sein de l’Empire. Par exemple, la répartition géographique des dodécaèdres pourrait indiquer des voies commerciales ou des centres de production spécifiques, offrant des indices sur l’organisation économique et sociale de l’époque.

En outre, les dodécaèdres romains soulignent l’importance de l’archéologie pour déchiffrer le passé. Ils rappellent que de nombreux aspects de civilisations anciennes restent à découvrir et à comprendre. Leur mystère incite à une démarche scientifique rigoureuse, mêlant l’analyse matérielle à l’étude historique, pour tenter de percer les secrets de l’histoire humaine.

Bien au-delà de leur fonction originelle encore inconnue, les dodécaèdres romains sont un symbole de l’ingéniosité et de la diversité culturelle de l’Antiquité. Ils représentent un défi constant pour la recherche historique et archéologique, offrant des pistes de réflexion sur les connaissances, les croyances et les pratiques des peuples de l’Empire romain.

Le Dodécaèdre Romain dans la Culture Populaire

Le mystère entourant le dodécaèdre romain a transcendé les cercles académiques pour captiver l’imagination du grand public. Cette fascination se reflète dans diverses expressions de la culture populaire, où le dodécaèdre est parfois présenté comme un artefact ancien doté de pouvoirs mystérieux ou comme un symbole de connaissances perdues.

Dans la littérature, les dodécaèdres romains ont inspiré des auteurs de science-fiction et de fantasy, qui les ont intégrés dans leurs récits comme des éléments clés de l’intrigue, souvent associés à des civilisations anciennes avancées ou à des technologies oubliées. Ces œuvres contribuent à perpétuer le mystère et l’émerveillement autour de ces objets, en les plaçant au cœur de mystères à résoudre ou de quêtes héroïques.

Au cinéma et à la télévision, le dodécaèdre a également fait des apparitions, servant de catalyseur pour des aventures archéologiques ou comme objet mystique doté de pouvoirs inexpliqués. Ces représentations, bien qu’éloignées des théories scientifiques, témoignent de l’attrait universel des dodécaèdres et de leur potentiel à inspirer des histoires captivantes.

Sur internet, les forums et les blogs dédiés à l’histoire et à l’archéologie regorgent de discussions et de spéculations sur les dodécaèdres romains. Des passionnés du monde entier partagent leurs théories, leurs découvertes et leurs créations artistiques inspirées par ces artefacts, contribuant à un corpus grandissant de réflexions et d’interprétations qui enrichit le débat autour de leur signification.

Enfin, les dodécaèdres romains sont également présents dans le domaine de l’éducation et de la vulgarisation scientifique, où ils sont utilisés pour éveiller la curiosité des étudiants et du public sur l’histoire et l’archéologie. Par le biais d’expositions, de conférences et de publications, ces objets mystérieux servent de point de départ pour explorer la complexité de l’histoire humaine et l’importance de la recherche scientifique.

Dali a placé La Cène dans un dodécaèdre régulier, symbole de l’Univers pour Platon. Le dodécaèdre possède 12 faces et il y a 12 apôtres…

À travers ces multiples représentations, le dodécaèdre romain continue de fasciner et d’inspirer, témoignant de la capacité des mystères du passé à éveiller l’imagination et à encourager la découverte. Leur présence dans la culture populaire est un vibrant rappel de l’intérêt indéfectible de l’humanité pour son héritage et les énigmes de l’histoire.

Découvertes Récentes de Dodécaèdre Romain

Les recherches et les fouilles archéologiques continuent de mettre au jour de nouveaux exemplaires de dodécaèdres romains, enrichissant notre compréhension de ces objets mystérieux et de leur distribution à travers l’ancien Empire romain. Chaque nouvelle découverte apporte son lot de données, offrant de précieuses informations sur les matériaux utilisés, les techniques de fabrication et les contextes de leur utilisation.

Récemment, un dodécaèdre en parfait état a été trouvé dans le nord de la France, dans une région riche en vestiges de l’époque romaine. Cette découverte a été particulièrement remarquable en raison de la préservation exceptionnelle de l’objet et de la possibilité d’y détecter des traces d’usure, suggérant son utilisation réelle dans la vie quotidienne romaine. L’analyse des matériaux a révélé des alliages spécifiques qui pourraient indiquer une production locale ou régionale, offrant des indices sur les réseaux économiques de l’époque.

Une autre découverte notable s’est produite en Suisse, où un dodécaèdre a été extrait d’un site archéologique associé à un ancien camp militaire romain. Cette trouvaille a suscité un intérêt particulier pour les chercheurs qui étudient l’expansion militaire romaine et son impact sur la diffusion des objets culturels et technologiques. L’emplacement du dodécaèdre dans un contexte militaire pourrait éventuellement éclairer son utilisation potentielle dans des pratiques ou des rituels spécifiques au sein de l’armée romaine.

En Espagne, la découverte d’un petit groupe de dodécaèdres dans une même zone résidentielle antique a lancé des débats sur leur possible fonction sociale ou communautaire. Cette concentration inhabituelle soulève la question de savoir si ces objets pouvaient servir de marqueurs sociaux ou avaient une signification collective pour les habitants de la région.

Ces découvertes récentes, parmi d’autres, continuent d’alimenter la curiosité et le débat scientifique autour des dodécaèdres romains. Elles montrent que, malgré des siècles de recherche, les secrets de l’antiquité romaine ne sont pas entièrement dévoilés, offrant de nouvelles perspectives et défis pour les chercheurs et historiens modernes.

Les dodécaèdres romains demeurent l’un des mystères les plus captivants de l’archéologie antique. Malgré des siècles de découverte et d’étude, la fonction et la signification de ces objets énigmatiques continuent d’échapper à notre compréhension complète. Les différentes théories proposées, qu’elles envisagent une utilisation astronomique, religieuse, quotidienne ou éducative, témoignent de la complexité de la civilisation romaine et de la diversité de ses pratiques et croyances.

Ces artefacts nous rappellent que, malgré les avancées de la science et de l’histoire, il reste encore de nombreuses facettes de nos ancêtres à explorer et à comprendre. Les dodécaèdres romains, par leur mystère persistant, invitent les chercheurs à poursuivre leurs investigations, utilisant à la fois les méthodes traditionnelles et les technologies modernes pour percer les secrets du passé.

La fascination qu’ils suscitent, tant dans le domaine académique que dans la culture populaire, souligne l’importance de l’archéologie dans notre quête de connaissance sur les civilisations anciennes. Alors que de nouvelles découvertes continuent d’être faites, chaque dodécaèdre romain trouvé est un rappel de l’ingéniosité humaine et un puzzle historique de plus à résoudre.

Les dodécaèdres romains ne sont pas seulement des objets d’étude pour les historiens et les archéologues ; ils sont des symboles de notre quête perpétuelle pour comprendre notre passé et, à travers lui, nous-mêmes. Le mystère qui entoure ces artefacts antiques est un puissant moteur de curiosité et de recherche, nous incitant à continuer d’explorer, d’apprendre et de nous émerveiller devant les réalisations de nos ancêtres.

La rédaction du site chroniquesarcheo.com


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition et iconographie | sources : artips.fr ; chroniquesarcheo.com | contributeur : Patrick Thonart | crédits illustrations : © Musée  de la Rhénanie à Bonn ; © Musée gallo-romain de Tongres | N.B. Un lecteur fidèle nous souffle dans l’oreillette les dodécaèdres pourraient également avoir servi de gabarit pour des pièces de monnaie, des pierres précieuses ou semi-précieuses.


Plus de presse en Wallonie ?

GODEAUX : Le tram et le trolleybus de Cointe (CHiCC, 2003)

Temps de lecture : 4 minutes >

À la fin du 19e siècle, Liège possède quatre compagnies de tramways : le Chemin de Fer Américain créé en 1871, Frédéric Nyst et Cie qui exploite l’Est-Ouest en 1880, les RELSE (Liège-Seraing) en 1891 et les Chemins de Fer Vicinaux. Les transports publics se composent encore de diligences et de malles-postes. Cointe, bien qu’entourée de charbonnages, est une oasis de verdure et un lieu de divertissement grâce à ses guinguettes et au pèlerinage célèbre à Saint-Maur. Vu la création du parc de Cointe, pour accéder à ces terrains nouveaux, il s’avère nécessaire de disposer d’un moyen d’accès. Frédéric Nyst propose une liaison nord-sud partant de la gare de Vivegnis et atteignant le plateau, proposition refusée par le conseil communal. Une deuxième proposition vise à prolonger la ligne vers Sclessin et rendrait la ligne viable. Ce projet est également refusé, cette fois par la députation permanente.

Le 20 janvier 1893, une troisième proposition émane de Paul Schmidt, avocat, et elle est acceptée le 3 juillet 1893 pour une durée de 50 ans. Les droits sont immédiatement rétrocédés à une Société du Tramway de Cointe. La ligne, qui fut la première à être électrifiée à Liège, partait du bas de la rue Sainte-Véronique ; elle fut ouverte le 11 août 1895. La pente était de 3 à 5% ce qui est déjà considérable, en courbe constante. Il y avait quatre évitements : un place Sainte-Véronique et trois dans l’avenue de l’Observatoire. La longueur n’était que de 1.500 mètres. Le coût était de 150.000 francs de l’époque !

Il y avait quatre motrices, deux fermées d’une puissance de 25 chevaux construite par la société Electricité et Hydraulique qui deviendra plus tard les ACEC, et deux motrices ouvertes fournies par les Ateliers Germain. Le courant de traction était fourni par la Société Electrique du Pays de Liège. Le dépôt se trouvait à mi-parcours, dans le deuxième virage de l’avenue de l’Observatoire, où se situe maintenant l’arrêt dit “ancien dépôt.” La société était déficitaire mais son but était surtout de valoriser les terrains du parc. Elle intéressait le Liège-Seraing qui la reprit en avril 1905. La proximité de l’exposition laissait augurer un accroissement du trafic. La société souhaitait aussi éviter une prolongation vers Sclessin, ce qui aurait court-circuité la ligne du tram vert par la vallée. Quatre nouvelles motrices de 75 CV (type A) sont fournies par Ragheno. Il faut 15 minutes pour effectuer le trajet. Le prix, au départ de 15 centimes, montera progressivement à 90 centimes à la fin de l’exploitation.

Sauf à la Pentecôte, il n’y avait que deux voitures en ligne. Un projet de liaison du site de l’exposition au plateau par trolleybus AEG fut présenté mais resta sans suite, le matériel n’étant pas fiable. La ligne du tram de Cointe fut alors prolongée par une voie provisoire à travers le parc d’Avroy jusqu’à la rue Raikem où elle retrouvait le trajet de la ligne 9 pour rejoindre le Jardin d’Acclimatation. En 1927, un regroupement des compagnies fait que la ligne de Cointe est cédée aux Tramways Unifiés. En 1929, le trajet est prolongé vers le centre de la ville, place de la République française et ensuite place de la Cathédrale.

Le 31 juillet 1930, apparaissent les premiers trolleybus qui passent par la place des Wallons pour rejoindre l’avenue de l’Observatoire. Ce sont des voitures anglaises Ransomes de 60 CV qui se déplacent à 40 km/h. Le réseau de trolleybus se développant, la société achète de nouveaux trolleybus. L’expérience des véhicules anglais n’ayant pas été concluante, le choix se porte sur la FN : 30 voitures T32, partie électrique CEB et châssis et caisse FN en acier soudé. Le moteur autorise la récupération ce qui permet, en descente, de renvoyer de l’électricité sur la ligne. En 1937, ils seront suivis par 48 nouveaux qui y ressemblent sauf la face avant, et sont plus puissants : 75 CV. Ces véhicules auront des problèmes ; le carter du pont arrière est en aluminium et se brise. Ils devront être remplacés par des carters en acier. Les montants des fenêtres cassaient à hauteur de la ceinture par temps froid. Alors, ces montants ont été renforcés. En 1938, nouvelle commande de 28 trolleys FN dont dix seront livrés avant la guerre et les suivants seront achevés au dépôt Natalis car la FN était, à l’époque, sous séquestre allemand. Les pièces de rechange, et surtout les pneus, deviennent rares et la circulation des trolleybus se raréfie. Le 25 mai 1944, la ligne est interrompue à cause des dégâts causés par les bombardements.

Du 25 mars 1946 au 26 mai 1955, l’exploitation de la ligne est suspendue à plusieurs reprises par suite d’un glissement de terrain survenu avenue de l’Observatoire. Un terminus provisoire est aménagé près de l’ancien dépôt. Dans les voitures, le chauffage est installé, une place pour le percepteur est prévue, une troisième marche facilite l’accès mais ces trolleybus se révèlent inadaptés à la circulation automobile de l’après-guerre. Ils circuleront jusqu’au 16 septembre 1968 et seront remplacés par les autobus.

d’après Jean-Géry GODEAUX

  • Illustration en tête de l’article : ancien dépôt de Cointe (collection Jean Evrard) © histoiresdeliege.wordpress.com

La CHICC ou Commission Historique et Culturelle de Cointe (Liège, BE) et wallonica.org sont partenaires. Ce texte est le résumé d’une conférence de Jean-Géry GODEAUX, organisée en mars 2003 par la CHiCC : le voici diffusé dans nos pages. Pour les dates des autres conférences, voyez notre agenda en ligne

Plus de CHiCC ?

DE PIERPONT : Un tunnel pour bateaux sous la crête ardennaise ? L’épopée du canal de Meuse et Moselle (CHiCC,2003)

Temps de lecture : 4 minutes >

Guillaume d’Orange-Nassau a reçu le trône des Pays-Bas, de Belgique et la couronne grand-ducale au Luxembourg, trois territoires qui restent différents et le Grand-Duché a un statut particulier : il fait partie de la confédération germanique. Guillaume Ier s’intéresse au développement de son royaume et participe à la constitution de la Société Générale des Pays-Bas. Elle est au départ caissière de l’état, émet des billets de banque, gère un patrimoine foncier et agricole fort important et soutient l’économie nationale. En bon Hollandais, Guillaume Ier développe notre réseau de canaux. Le Grand-Duché a une surface double de celle actuelle : il englobe notre province de Luxembourg actuelle.

Rémi de Puydt, né juste après la Révolution française, est le fils d’un médecin militaire. En 1813, officier des armées napoléoniennes, il est blessé, puis devient receveur des droits et accises au Luxembourg. Après quatre ans d’études d’ingénieur de génie civil à Paris, il s’installe dans le Hainaut où il réalise le canal du Hainaut. De sa rencontre avec Guillaume Ier naît l’idée du canal de Meuse et Moselle, long de 263 km, destiné à relier Liège à Trèves et de faire sortir le Luxembourg de son isolement économique. Un dénivelé de 379 mètres côté mosan et de 305 mètres côté rhénan entraînerait la construction de 205 écluses. Pour franchir la ligne de partage des eaux entre les deux bassins, Rémi de Puydt a l’idée, non pas de creuser une tranchée qui eut été énorme, mais de forer un tunnel (le mot n’existait pas encore, on parlait de ‘galerie souterraine’) à 60 m sous la crête. Il fallait aussi canaliser les rivières, installer des chemins de halage, modifier certains ponts, prévoir des lacs réservoirs pour régulariser le cours en période d’étiage. Le projet prévoyait aussi neuf autres souterrains plus courts pour recouper des méandres de l’Ourthe.

L’empereur romain Claude au 1er siècle après Jésus-Christ avait déjà eu le projet de raccorder la Meuse au Rhin, en passant au nord de Visé. Au 16e siècle, Philippe II d’Espagne, soucieux de créer une frontière naturelle avec les Pays-Bas protestants, reprit l’idée. Quelques siècles plus tard, Frédéric le Grand, célèbre roi de Prusse, revient au projet sans succès. Napoléon rêve aussi d’un canal qui serait passé plus au nord dans les plaines de Hollande, financé par un impôt sur l’eau-de-vie.

Rémi de Puydt parvint à convaincre une série de financiers à la Société Générale et est soutenu par le roi Guillaume Ier. La Société du Luxembourg créée, elle obtient la concession à perpétuité à condition que les travaux soient finis en cinq ans. Nous sommes en 1827. L’évaluation des travaux monte à 100 000 florins, somme considérable, répartie en 2 000 actions de 5 000 florins que l’on peut payer en cinq tranches. Dans l’ensemble de la Hollande, seulement vingt titres sont vendus ! À Bruxelles, cent titres sont acquis essentiellement par les administrateurs. Au Luxembourg, on en vend sept. Guillaume Ier et sa famille souscrivent 500 actions, espérant relancer l’entreprise, mais sans résultat. Malgré tout, les entrepreneurs décident de commencer les travaux par le percement du tunnel. Le chantier est installé près du village de Tavigny [Houffalize]. On attaque la galerie de 2 728 m par les deux extrémités ; la largeur est de 3,5 m et la hauteur de 5,5 m. Le travail avance d’un mètre par jour. 200 à 300 ouvriers sont sur place, ce qui provoque un grand bouleversement social et un choc culturel dans un monde d’agriculteurs.

A part les travaux du souterrain, peu de choses bougent et les finances sont trop faibles. Les travaux à réaliser tout au long du cours de l’Ourthe sont démesurés. Le délai imparti de cinq ans est trop court. En 1829, de Puydt obtient la collaboration d’artificiers de l’armée. Entretemps, la tension contre les Hollandais monte, l’armée néerlandaise est mise en déroute à Bruxelles et se retire. Le gouvernement provisoire proclame l’indépendance. Au Luxembourg, la moitié des communes a pris parti pour la Belgique, l’autre moitié est restée sous le joug des Hollandais et même des Prussiens car, si le territoire est menacé, en vertu des accords de la Confédération germanique, la Prusse vient à la rescousse. Il faudra attendre neuf ans pour que la situation se clarifie.

Rémi de Puydt a été nommé commandant de la garde civique de Mons, puis lieutenant-colonel, commandant en chef des troupes du génie de la jeune armée belge. Beaucoup d’entrepreneurs partent en exil. On continue à creuser le souterrain mais il n’y a plus de liquidités, plus de poudre, la situation politique est de plus en plus compliquée. Guillaume Ier vient de revendre toutes ses parts de la Société Générale, à la Belgique. En août 1831, le gestionnaire des travaux décide d’interrompre le chantier, de façon provisoire espère-t-il. 1130 mètres ont été creusés. En 1839, le traité des 24 articles scelle la situation du Grand-Duché et le territoire est séparé en deux, en suivant la ligne des crêtes. Cela change tout : une frontière coupe désormais le canal et le projet s’enlise complètement. En 1848, le canal de l’Ourthe refait parler de lui. À Londres, trois hommes d’affaires détiennent toutes les actions de la Société du Luxembourg et ils se disent prêts à reprendre les activités. Le canal se limiterait désormais au tronçon entre Liège et La Roche. Entre 1852 et 1857, les travaux reprennent et ce canal a fonctionné jusqu’au milieu du 20e siècle. Puis c’est le chemin de fer qui a progressivement tué cette activité.

Rémi de Puydt sera nommé ingénieur en chef des Ponts et Chaussées, deviendra député pour l’arrondissement de Mons et, enfin, administrateur de l’établissement belge au Guatemala.

Les terrains expropriés sont revendus progressivement. Actuellement, comme la nature a repris ses droits, l’entrée du tunnel devient de moins en moins visible. La galerie s’est effondrée à près de 400 m, les puits ont été rebouchés, le site, classé, est voué à devenir un refuge pour les chauves-souris.

d’après Géry de Pierpont

  • Illustration en tête de l’article : le tunnel de Bernistap © la-truite.com

La CHICC ou Commission Historique et Culturelle de Cointe (Liège, BE) et wallonica.org sont partenaires. Ce texte est le résumé d’une conférence de Géry de Pierpont, organisée en février 2003 par la CHiCC : le voici diffusé dans nos pages. Pour les dates des autres conférences, voyez notre agenda en ligne

Plus de CHiCC ?

HALLEUX : L’industrie à Liège du temps de John Cockerill (CHiCC, 2003)

Temps de lecture : 4 minutes >

John Cockerill est un peu l’arbre qui cache la forêt. Il la cache par son génie, par le mythe qui s’est créé autour de son personnage et autour de ses œuvres. Et pourtant, il n’était pas le seul, les vieux ouvriers disaient qu’ils travaillaient “amon Dallemagne“, “amon Michiels” ou “amon Orban” [“chez Orban”] selon qu’on parlait de l’une ou l’autre usine. Il y a tout un monde qu’il faut évoquer. Pourquoi, dans les années 1780-1830, notre région liégeoise est-elle devenue un des pôles du développement industriel européen ? Pourquoi à Liège et pas ailleurs ? Certes, il y avait du minerai de fer, on a recensé 300 anciennes petites mines de fer ; il y avait du charbon, mais il y en avait aussi ailleurs. Il faut chercher la réponse du côté des hommes, de leur savoir, de leurs réactions.

C’est ce monde des années 1780 à 1830 que nous vous invitons à découvrir. Il a donc connu cinq régimes : les derniers princes-évêques, la Révolution française, l’Empire français, le régime hollandais et la Belgique léopoldienne. Il faut pénétrer dans les lieux où se réunit ce monde. Trois grandes sociétés liégeoises sont créées dans les mêmes années : la Loge “La parfaite Intelligence, la société libre d’Emulation et la Société littéraire. Les personnes qui se retrouvent dans ces sociétés sont souvent les mêmes. C’est un univers d’intellectuels, d’aristocrates, de bourgeois qui partagent les mêmes intérêts. Il y a des politiques, des inventeurs, des financiers dont l’idéal est celui des Lumières. C’est à la fois le libre examen et le libre échange. Ils désirent appliquer la méthode scientifique dans tous les domaines, dans les matières de sciences, dans les matières d’éducation, de politique, de religion, d’économie c’est-à-dire qu’ils mettent la science au service de la prospérité publique. Ils veulent introduire toute espèce de nouveau procédé, élever le niveau d’instruction des ouvriers qui sont trop souvent, à ce moment, esclaves de la routine.

Au cours des cinq régimes évoqués ci-dessus, on trouve la même politique d’encouragement et de développement. Velbrück était un ami des encyclopédistes, il était franc-maçon et un des aspects de lui moins connu : ami des arts et des manufactures. Ce concept d’émulation se défini à l’époque comme une honnête rivalité pour l’honneur et pour le bien, une compétition dans le pays pour susciter le plus possible de talents. La société l’Emulation pose des questions : comment prémunir les mineurs contre les accidents, trop fréquents ; comment perfectionner les moyens de pompage dans les mines ; comment fabriquer du fer avec du charbon de terre alors qu’on utilisait le charbon de bois.

Les élites anglaises et américaines venaient étudier à Liège au collège des jésuites anglais, supprimé en 1773. Velbrück y voit l’occasion de créer un enseignement supérieur de la physique et des mathématiques de très haut niveau, ouvert cette fois aux élites liégeoises et européennes. Il crée en même temps le grand collège installé dans l’université, l’académie et des écoles de mathématiques et de géométrie pour les artisans. Il s’agit de doter Liège d’un enseignement spécialisé à la fois du point de vue technique, du point de vue général et même du point de vue médical et juridique. Ces idées seront reprises après la parenthèse révolutionnaire. Le régime français crée un conseil d’agriculture et des arts et manufactures, équivalent de la chambre de commerce. Il crée aussi une société des sciences physiques et médicales.

Les inventeurs sont trouvés dans le même milieu de la société d’Emulation. Ils se tiennent au courant de l’actualité scientifique. Spa est le rendez-vous de toutes les élites industrielles. Autour de l’analyse des eaux, se développe un milieu scientifique avec deux frères ennemis, les frères de Limbourg : Jean-Philippe et Robert, un chimiste et un géologue. Dans leur fourneau de Juslenville, ils font des recherches pour utiliser le charbon de terre en le transformant en coke. Jean-Jacques-Daniel Dony prend la concession de la Vieille Montagne et cherche comment produire du zinc métallique à partir du minerai. Les frères Poncelet de Sedan s’intéressent à la cémentation du fer pour faire de l’acier. Jean Gossuin les invite à Liège où ils entrent en contact avec un chimiste pour expérimenter les céments afin de fabriquer des limes. Ils trouvent un client important : la fonderie de canons créée par les préfets en 1803. Napoléon a, en effet, voulu redonner à Liège sa vocation de grande cité armurière en créant la fonderie de canons. Il y a donc eu interaction entre des savants et des chercheurs. La société d’encouragement de Paris couronnera deux liégeois en 1810 : Cockerill pour ses machines à tisser et à filer, et les frères Poncelet pour leur fabrication de limes en acier. Ils vont ensuite arriver à pouvoir fondre l’acier dans leurs creusets et fabriquer de l’acier coulé. Nous sommes dans un monde d’inventeurs doublés de bons investisseurs et de bons financiers.

Voici maintenant le monde des financiers. John Cockerill est le plus mauvais exemple car c’est un génie de la mécanique qui croit que ses machines sont tellement bonnes qu’il pourra toujours en vendre ! Les Orban sont des petits commerçants qui construisent un haut fourneau, produisent des tôles, fabriquent des bateaux en fer. Les Lamarche démarrent par la mécanique et s’associent avec un constructeur britannique pour construire des machines à vapeur. Pour celles-ci, il faut du fer et ils vont acheter des hauts fourneaux, des charbonnages, des fours à coke. Il sont aussi liés à la politique car une des filles Orban a épousé un avocat du nom de Frère qui deviendra l’illustre Frère-Orban.

Le milieu des travailleurs qui possèdent le savoir-faire et qui ont su s’adapter aux techniques nouvelles joue aussi un rôle important. Les Liégeois ont été forts dans la construction des machines à vapeur parce qu’ils étaient spécialisés dans l’industrie armurière. Puisqu’ils savaient forer et polir des canons de fusils, ils pouvaient faire de même pour les cylindres de machine à vapeur.

Le grand développement liégeois résulte d’un milieu complexe qui interagit. Le capital des uns, le savoir-faire traditionnel des autres, l’innovation technologique des savants, l’appui des politiques, constituent la recette de cette première réussite.

d’après Robert HALLEUX

  • Illustration en tête de l’article : John Cockerill à la Maison de la Métallurgie et de l’Industrie à Liège © cyberliegemagazine.com

La CHICC ou Commission Historique et Culturelle de Cointe (Liège, BE) et wallonica.org sont partenaires. Ce texte est le résumé d’une conférence de Robert HALLEUX, organisée en janvier 2003 par la CHiCC : le voici diffusé dans nos pages. Pour les dates des autres conférences, voyez notre agenda en ligne

Plus de CHiCC ?

HALLEUX : La seconde révolution industrielle dans le bassin liégeois 1860-1917 (CHiCC, 2002)

Temps de lecture : 4 minutes >

Le concept de révolution industrielle a été créé au moment de la révolution de 1830 par un littérateur qui remarquait un parallèle entre les événements politiques, c’est-à-dire l’indépendance belge et les grands changements que l’on voyait dans l’industrie. On percevait l’aurore de temps nouveaux, comme l’a écrit un poète : “Oui, l’industrie est noble et sainte, son règne est le règne de Dieu.” Une révolution industrielle, c’est un changement de système technique, c’est-à-dire un ensemble constitué par des matériaux et des méthodes de transformation, et des énergies.

Pendant le moyen-âge nous avons vécu sur un matériau qui était le fer produit avec du charbon de bois et l’énergie hydraulique. Au début du 19e siècle, l’énergie hydraulique atteint ses limites et les forêts se déboisent terriblement. C’est à cette époque que s’introduit, à Liège d’abord, un nouveau système technique. Au charbon de bois, on substitue le coke, du charbon de terre que l’on a cuit pour le débarrasser des matières volatiles. Les premières machines à vapeur créées en Angleterre s’introduisent aussi chez nous. Pourquoi à Liège ? Parce qu’il y avait de la houille et du minerai facile à extraire. Mais surtout une conjonction entre, d’une part un savoir-faire traditionnel et, d’autre part, un dynamisme de la bourgeoisie et d’une aristocratie investisseuse.

Le peintre Léonard Defrance affectionne les représentations des usines, des manufactures et des charbonnages. Le commanditaire de ces tableaux se fait représenter dans son usine avec ses ouvriers et souvent avec un vieillard pensif qui personnifie le passé et un petit enfant qui personnifie l’avenir, Jean-Jacques Daniel Dony invente un procédé de fabrication du zinc, son usine sera reprise par Mosselman qui va fonder la Vieille-Montagne. Nous trouvons un certain nombre d’hommes nouveaux qui ne sont pas des techniciens : les Orban qui sont des merciers, les Lamarche qui sont des marchands de tabac et de denrées coloniales, les Michiels, les Dallemagne, les Beer. Tous ces gens débutent en achetant un fourneau ou un charbonnage. Ils essaient de créer une usine intégrée où on commence par les matériaux extraits du sol, et où on va jusqu’à la fabrication des machines. C’est l’origine des sociétés comme la Société de Sclessin, la Société d’Angleur, la Société de Grivegnée, les deux fabriques d’Ougrée qui vont donner Ougrée-Marihaye et la Société d’Espérance. Ce sont des entreprises familiales montées par des hommes de négoce qui s’approprient les nouvelles techniques. Ils font venir des techniciens anglais qui construisent les nouveaux outils. Le haut-fourneau liégeois conçu pour le charbon de bois ne convient plus pour le coke. Mais très vite, les Anglais seront dépassés par les techniciens locaux.

John Cockerill n’a pas fait d’études. C’est essentiellement un ouvrier formé par son père avec un prodigieux génie entreprenant qui commence par construire des machines à filer et à tisser. De là, il découvre l’opportunité des machines à vapeur puis, partant d’un atelier de construction de ces machines, il construit un haut-fourneau, des fours à coke, achète des houillères et des mines de fer. Il inonde l’Europe de ses produits. C’est un vrai génie mais un piètre gestionnaire. Il connaîtra des revers et ainsi mourra d’une manière triste et mystérieuse en Russie en essayant de rétablir ses affaires.

Certes, ces hommes ont un certain savoir. Aujourd’hui, les ingénieurs ont étudié à l’université. À cette époque, ce sont généralement des ouvriers formés sur le tas qui ont suivi des cours de dessin industriel et qui viennent de toute l’Europe. L’Université de Liège a été fondée en 1817 en même temps que l’usine Cockerill et a eu des écoles spéciales des mines et des arts et manufactures. A cette époque les ingénieurs ne vont pas dans l’industrie, ils font carrière dans les grands corps de l’État : ponts et chaussées, corps des mines, et plus tard au chemin de fer. Les industriels se fient plutôt à leur chef fondeur, leur chef puddleur, leur chef mécanicien qui tous ont de l’or dans les mains.

Le paysage est encore très rural. Petit à petit, les usines s’entourent de maisons, de corons. Par cette imbrication entre les zones d’habitats, nos usines vont se trouver à l’étroit et cela va les handicaper par la suite.

Un système technique est condamné à saturer. Vers 1860, le fer ne répond plus à certaines contraintes notamment pour faire des rails. L’acier apparaît alors. De nouvelles énergies apparaissent. L’électricité, la dynamo inventée par Zénobe Gramme, les moteurs à combustion interne : à gaz inventé par Lenoir. Ensuite à essence, puis le moteur diesel. Ces moteurs légers et plus puissants vont s’imposer sur la route puis dans l’air. L’école industrielle de Liège, créée à l’initiative de la Société libre d’Émulation, date de 1826. Quant à l’école industrielle de Seraing, elle est créée à l’initiative du docteur Kuborn et a le souci d’actualiser sans arrêt ses cours pour suivre le progrès scientifique. Désormais, il faudra de plus en plus de science et une nouvelle génération d’ingénieurs, sortis de l’université et de l’Institut Montéfiore. Ils vont entrer dans l’industrie, ils vont se frayer un chemin jusqu’au conseil d’administration et ils vont souvent s’allier aux filles des grandes dynasties industrielles.

Le minerai de fer de notre bassin ne convient plus pour l’acier et celui de la Lorraine prend le relais. Il faut des capitaux importants pour adapter les usines et les premières fusions ont lieu. Les rapports sociaux changent vers 1886 avec la crise et les luttes ouvrières. Entre 1914 et 1918, toutes les industries liégeoises ont été démantelées par l’occupant dans le but de détruire un concurrent commercial. Paradoxalement, ces destructions ont été une chance car avec le dynamisme qui nous caractérisait et qui caractérisait nos industriels, très vite, ils vont rebâtir avec du matériel ultramoderne.

La situation fut différente en 1945 car les besoins étaient énormes et nos usines ont tourné à plein rendement pendant quelques années. Seulement, l’outil n’a pas été modernisé assez vite et est devenu obsolète.

d’après Robert HALLEUX

  • Illustration en tête de l’article : Léonard Defrance, “Intérieur de fonderie” © Walker Art Gallery

La CHICC ou Commission Historique et Culturelle de Cointe (Liège, BE) et wallonica.org sont partenaires. Ce texte est le résumé d’une conférence de Robert HALLEUX, organisée en mai 2002 par la CHiCC : le voici diffusé dans nos pages. Pour les dates des autres conférences, voyez notre agenda en ligne

Plus de CHiCC ?

Téléphone, mail, notifications… : comment le cerveau réagit-il aux distractions numériques ?

Temps de lecture : 6 minutes >

[THECONVERSATION.COM, 17 avril 2024] Aujourd’hui, les écrans et les notifications dominent notre quotidien. Nous sommes tous familiers de ces distractions numériques qui nous tirent hors de nos pensées ou de notre activité. Entre le mail important d’un supérieur et l’appel de l’école qui oblige à partir du travail, remettant à plus tard la tâche en cours, les interruptions font partie intégrante de nos vies – et semblent destinées à s’imposer encore davantage avec la multiplication des objets connectés dans les futures « maisons intelligentes ». Cependant, elles ne sont pas sans conséquences sur notre capacité à mener à bien des tâches, sur notre confiance en nous, ou sur notre santé. Par exemple, les interruptions engendreraient une augmentation de 27 % du temps d’exécution de l’activité en cours.

En tant que chercheuse en psychologie cognitive, j’étudie les coûts cognitifs de ces interruptions numériques : augmentation du niveau de stress, augmentation du sentiment d’épuisement moral et physique, niveau de fatigue, pouvant contribuer à l’émergence de risques psychosociaux voire du burn-out. Dans mes travaux, je me suis appuyée sur des théories sur le fonctionnement du système cognitif humain qui permettent de mieux comprendre ces coûts cognitifs et leurs répercussions sur notre comportement. Ce type d’études souligne qu’il devient crucial de trouver un équilibre entre nos usages des technologies et notre capacité à nous concentrer, pour notre propre bien.

Pourquoi s’inquiéter des interruptions numériques ?

L’intégration d’objets connectés dans nos vies peut offrir un contrôle accru sur divers aspects de notre environnement, pour gérer nos emplois du temps, se rappeler les anniversaires ou gérer notre chauffage à distance par exemple. En 2021, les taux de pénétration des maisons connectées (c’est-à-dire, le nombre de foyers équipés d’au moins un dispositif domestique connecté, englobant également ceux qui possèdent uniquement une prise ou une ampoule connectée) étaient d’environ 13 % dans l’Union européenne et de 17 % en France (contre 10,7 % en 2018).

Si la facilité d’utilisation et l’utilité perçue des objets connectés ont un impact sur l’acceptabilité de ces objets pour une grande partie de la population, les interruptions numériques qui y sont souvent attachées entravent notre cognition, c’est-à-dire l’ensemble des processus liés à la perception, l’attention, la mémoire, la compréhension, etc.

L’impact des interruptions numériques peut s’observer aussi bien dans la sphère privée que dans la sphère professionnelle. En effet, une personne met en moyenne plus d’une minute pour reprendre son travail après avoir consulté sa boîte mail. Les études mettent ainsi en évidence que les employés passent régulièrement plus de 1 h 30 par jour à récupérer des interruptions liées aux e-mails. Cela entraîne une augmentation de la charge de travail perçue et du niveau de stress, ainsi qu’un sentiment de frustration, voire d’épuisement, associé à une sensation de perte de contrôle sur les événements.

On retrouve également des effets dans la sphère éducative. Ainsi, dans une étude de 2015 portant sur 349 étudiants, 60 % déclaraient que les sons émis par les téléphones portables (clics, bips, sons des boutons, etc.) les distrayaient. Ainsi, les interruptions numériques ont des conséquences bien plus profondes que ce que l’on pourrait penser.

Mieux comprendre d’où vient le coût cognitif des interruptions numériques

Pour comprendre pourquoi les interruptions numériques perturbent tant le flux de nos pensées, il faut jeter un coup d’œil à la façon dont notre cerveau fonctionne. Lorsque nous réalisons une tâche, le cerveau réalise en permanence des prédictions sur ce qui va se produire. Cela permet d’adapter notre comportement et de réaliser l’action appropriée : le cerveau met en place des boucles prédictives et d’anticipation.

Ainsi, notre cerveau fonctionne comme une machine à prédire. Dans cette théorie, un concept très important pour comprendre les processus d’attention et de concentration émerge : celui de la fluence de traitement. Il s’agit de la facilité ou la difficulté avec laquelle nous traitons une information. Cette évaluation se fait inconsciemment et résulte en une expérience subjective et non consciente du déroulement du traitement de l’information.

Le concept de fluence formalise quelque chose que l’on comprend bien intuitivement : notre système cognitif fait tout pour que nos activités se déroulent au mieux, de la manière la plus fluide (fluent, en anglais) possible. Il est important de noter que notre cognition est motivée par une croyance qu’il formule a priori sur la facilité ou la difficulté d’une tâche et en la possibilité de réaliser de bonnes prédictions. Cela va lui permettre de s’adapter au mieux à son environnement et au bon déroulement de la tâche en cours.

Notre attention est attirée par les informations simples et attendues

Plus l’information semble facile à traiter, ou plus elle est évaluée comme telle par notre cerveau, plus elle attire notre attention. Par exemple, un mot facile à lire attire davantage notre regard qu’un mot difficile. Cette réaction est automatique, presque instinctive. Dans une expérience, des chercheurs ont mis en évidence que l’attention des individus pouvait être capturée involontairement par la présence de vrais mots par opposition à des pseudomots, des mots inventés par les scientifiques tels que HENSION, notamment lorsqu’on leur demandait de ne pas lire les mots présentés à l’écran.

Ainsi, une de nos études a montré que la fluence – la facilité perçue d’une tâche – guide l’attention des participants vers ce que leur cerveau prédit. L’étude consistait à comprendre comment la prévisibilité des mots allait influencer l’attention des participants. Les participants devaient lire des phrases incomplètes puis identifier un mot cible entre un mot cohérent et un mot incohérent avec la phrase. Les résultats ont mis en évidence que les mots cohérents, prédictibles, attiraient plus l’attention des participants que les mots incohérents.

Il semblerait qu’un événement cohérent avec la situation en cours attire plus l’attention et, potentiellement, favorise la concentration. Notre étude est, à notre connaissance, l’une des premières à montrer que la fluence de traitement a un effet sur l’attention. D’autres études sont nécessaires pour confirmer nos conclusions. Ce travail a été initié, mais n’a pas pu aboutir dans le contexte de la pandémie de Covid.

Les événements imprévus provoquent une rupture de fluence

Comme nous l’avons vu, notre système cognitif réalise en permanence des prédictions sur les événements à venir. Si l’environnement n’est pas conforme à ce que notre cerveau avait prévu, nous devons d’une part adapter nos actions (souvent alors qu’on avait déjà tout mis en place pour agir conformément à notre prédiction), puis essayer de comprendre l’événement imprévu afin d’adapter notre modèle prédictif pour la prochaine fois.

Par exemple, imaginez que vous attrapiez votre tasse pour boire votre café. En la saisissant, vous vous attendez a priori à ce qu’elle soit rigide et peut-être un peu chaude. Votre cerveau fait donc une prédiction et ajuste vos actions en fonction (ouverture de la main, attraper la tasse plutôt vers le haut). Imaginez maintenant que lorsque vous la saisissiez, ce ne soit pas une tasse rigide, mais un gobelet en plastique plus fragile. Vous allez être surpris et tenter d’adapter vos mouvements pour ne pas que votre café vous glisse entre les mains. Le fait que le gobelet plie entre vos doigts a créé un écart entre ce que votre système cognitif avait prédit et votre expérience réelle : on dit qu’il y a une rupture de fluence.

Les interruptions numériques perturbent notre système prédictif

Les interruptions, qu’elles soient numériques ou non, ne sont pas prévues, par nature. Ainsi, un appel téléphonique impromptu provoque une rupture de fluence, c’est-à-dire qu’elle contredit ce que le cerveau avait envisagé et préparé.

L’interruption a des conséquences au niveau comportemental et cognitif : arrêt de l’activité principale, augmentation du niveau de stress, temps pour reprendre la tâche en cours, démobilisation de la concentration, etc.

La rupture de fluence déclenche automatiquement la mise en place de stratégies d’adaptation. Nous déployons notre attention et, en fonction de la situation rencontrée, modifions notre action, mettons à jour nos connaissances, révisons nos croyances et ajustons notre prédiction.

La rupture de fluence remobilise l’attention et déclenche un processus de recherche de la cause de la rupture. Lors d’une interruption numérique, le caractère imprévisible de cette alerte ne permet pas au cerveau d’anticiper ni de minimiser le sentiment de surprise consécutif à la rupture de fluence : la (re)mobilisation attentionnelle est alors perturbée. On ne sait en effet pas d’où va provenir l’interruption (le téléphone dans sa poche ou la boîte mail sur l’ordinateur) ni ce que sera le contenu de l’information (l’école des enfants, un démarchage téléphonique…).

Des stratégies vers une vie numérique plus saine

Trouver un équilibre entre les avantages de la technologie et notre capacité à maintenir notre concentration devient crucial. Il est possible de développer des stratégies afin de minimiser les interruptions numériques, d’utiliser les technologies de façon consciente, et de préserver notre capacité à rester engagés dans nos tâches.

Cela pourrait impliquer la création de zones de travail sans interruption (par exemple la réintroduction du bureau conventionnel individuel), la désactivation temporaire des notifications pendant une période de concentration intense (par exemple le mode silencieux du téléphone ou le mode focus de logiciels de traitement de texte), ou même l’adoption de technologies intelligentes qui favorisent activement la concentration en minimisent les distractions dans l’environnement.

En fin de compte, l’évolution vers un environnement de plus en plus intelligent, ou du moins connecté, nécessite une réflexion approfondie sur la manière dont nous interagissons avec la technologie et comment celle-ci affecte nos processus cognitifs et nos comportements. Le passage de la maison traditionnelle à la maison connectée relève des problématiques du projet HUT pour lequel j’ai travaillé dans le cadre de mon postdoctorat. De nombreux chercheurs (sciences de gestion, droit, architecture, sciences du mouvement, etc.) ont travaillé autour des questions de l’hyperconnexion des habitations, des usages et du bien-être, au sein d’un appartement-observatoire hyperconnecté. Cela nous a permis de déterminer ensemble les conditions idéales du logement du futur, mais aussi de déceler l’impact des technologies au sein d’un habitat connecté afin d’en prévenir les dérives.

Sibylle Turo, chercheuse


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © fr.vecteezy.com.


Plus de presse en Wallonie…

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Temps de lecture : 5 minutes >

[THECONVERSATION.COM, 8 juillet 2024] Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les ‘deepfakes’, ou hypertrucages, ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu. Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio.

Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean Phillips.

En Slovaquie, en mars 2024, une fausse conversation générée par IA mettait en scène la journaliste Monika Tódová et le dirigeant du parti progressiste slovaque Michal Semecka fomentant une fraude électorale. Les enregistrements diffusés sur les réseaux sociaux pourraient avoir influencé le résultat de l’élection.

Le même mois, en Angleterre, une soi-disant fuite sur X fait entendre Keir Starmer, le leader de l’opposition travailliste, insultant des membres de son équipe. Et ce, le jour même de l’ouverture de la conférence de son parti. Un hypertrucage vu plus d’un million de fois en ligne en quelques jours.

Un seul deepfake peut causer de multiples dégâts, en toute impunité. Les implications de l’utilisation de cette technologie affectent l’intégrité de l’information et du processus électoral. Analyser comment les hypertrucages sont générés, interpréter pourquoi ils sont insérés dans les campagnes de déstabilisation et réagir pour s’en prémunir relève de l’Éducation aux médias et à l’information.

Analyser : un phénomène lié à la nouvelle ère des médias synthétiques

Le deepfake audio est une composante des médias synthétiques, à savoir des médias synthétisés par l’intelligence artificielle, de plus en plus éloignés de sources réelles et authentiques. La manipulation audio synthétisée par l’IA est un type d’imitation profonde qui peut cloner la voix d’une personne et lui faire dire des propos qu’elle n’a jamais tenus.

C’est possible grâce aux progrès des algorithmes de synthèse vocale et de clonage de voix qui permettent de produire une fausse voix, difficile à distinguer de la parole authentique d’une personne, sur la base de bribes d’énoncés pour lesquels quelques minutes, voire secondes, suffisent.

L’évolution rapide des méthodes d’apprentissage profond (Deep Learning), en particulier les réseaux antagonistes génératifs (GAN) a contribué à son perfectionnement. La mise à disposition publique de ces technologies à bas coût, accessibles et performantes, ont permis, soit de convertir du texte en son, soit de procéder à une conversion vocale profonde. Les vocodeurs neuronaux actuels sont capables de produire des voix synthétiques qui imitent la voix humaine, tant par le timbre (phonation) que la prosodie (accentuation, amplitude…)

Comment repérer les « deepfakes » ? (France 24, mars 2023).

Les deepfakes sonores sont redoutablement efficaces et piégeants parce qu’ils s’appuient également sur les avancées révolutionnaires de la psycho-acoustique – l’étude de la perception des sons par l’être humain, notamment en matière de cognition. Du signal auditif au sens, en passant par la transformation de ce stimulus en influx nerveux, l’audition est une activité d’attention volontaire et sélective. S’y rajoutent des opérations sociocognitives et interprétatives comme l’écoute et la compréhension de la parole de l’autre, pour nous faire extraire de l’information de notre environnement.

Sans compter le rôle de l’oralité dans nos cultures numériques, appuyée sur des usages en ligne et en mobilité, comme en témoigne la vogue des podcasts. Les médias sociaux se sont emparés de cette réalité humaine pour construire des outils artificiels qui instrumentent la voix comme outil narratif, avec des applications comme FakeYou. La voix et la parole relèvent du registre de l’intime, du privé, de la confidence… et la dernière frontière de la confiance en l’autre. Par exemple, la radio est le média en qui les gens ont le plus confiance, selon le dernier baromètre de confiance Kantar publié par La Croix !

Interpréter : des opérations d’influence facilitées par l’intelligence artificielle

Le clonage vocal présente un énorme potentiel pour détruire la confiance du public et permettre à des acteurs mal intentionnés de manipuler les appels téléphoniques privés. Les deepfakes audio peuvent être utilisés pour générer des falsifications sonores et diffuser de la désinformation et du discours de haine, afin de perturber le bon fonctionnement de divers secteurs de la société, des finances à la politique. Ils peuvent aussi porter atteinte à la réputation des personnes pour les diffamer et les faire chuter dans les sondages.

Le déploiement de deepfakes audio présente de multiples risques, notamment la propagation de fausses informations et de « fake news », l’usurpation d’identité, l’atteinte à la vie privée et l’altération malveillante de contenus. Les risques ne sont pas particulièrement nouveaux mais néanmoins réels, contribuant à dégrader le climat politique, selon le Alan Turing Institute au Royaume-Uni.

Le deepfake, expliqué (Brut, 2021)

Il ne faut donc pas sous-estimer cette amplification à échelle industrielle. Les deepfakes audio sont plus difficiles à détecter que les deepfakes vidéo tout en étant moins chers et plus rapides à produire : ils se greffent facilement sur une actualité récente et sur les peurs de certains secteurs de la population, bien identifiés. En outre, ils s’insèrent avantageusement dans l’arsenal des extrémistes, lors de campagnes d’ingérence en temps de paix comme les élections.

Réagir : de la détection des fraudes à la régulation et à l’éducation

Il existe plusieurs approches pour identifier les différents types d’usurpation audio. Certaines mesurent les segments silencieux de chaque signal de parole et relèvent les fréquences plus ou moins élevées, pour filtrer et localiser les manipulations. D’autres entraînent des IA pour qu’elles distinguent des échantillons authentiques naturels d’échantillons synthétiques. Toutefois, les solutions techniques existantes ne parviennent pas à résoudre complètement la question de la détection de la parole synthétique.

Cette détection reste un défi car les manipulateurs tentent de supprimer leurs traces de contrefaçon (par des filtres, des bruits…), avec des générateurs de deepfake audio qui sont de plus en plus sophistiqués. Face à ces vulnérabilités démocratiques restent donc des solutions humaines diverses, qui vont de l’autorégulation à la régulation et impliquent divers types d’acteurs.

Les journalistes et les fact-checkeurs ont augmenté leurs techniques de recherche contradictoire, pour tenir compte de cette nouvelle donne. Ils s’en remettent à leurs stratégies de vérification des sources et de validation du contexte d’émission. Mais ils font aussi appel, via Reporters sans Frontières, au corps juridique, pour la protection des journalistes, afin qu’ils créent un ‘délit de deepfake‘ capable de dissuader les manipulateurs.

Les plates-formes de médias sociaux (Google, Meta, Twitter et TikTok) qui les véhiculent et les amplifient par leurs algorithmes de recommandation sont soumises au nouveau Code de pratique de l’UE en matière de désinformation. Renforcé en juin 2022, il interdit les deepfakes et enjoint les plates-formes à utiliser leurs outils (modération, déplatformisation…) pour s’en assurer.

Les enseignants et les formateurs en Éducation aux Médias et à l’Information se doivent à leur tour d’être informés, voire formés, pour pouvoir alerter leurs étudiants sur ce type de risque. Ce sont les plus jeunes qui sont les plus visés. A leurs compétences en littératie visuelle, ils doivent désormais ajouter des compétences en littératie sonore.

Les ressources manquent à cet égard et réclament de la préparation. C’est possible en choisissant de bons exemples comme ceux liés à des personnalités politiques et en faisant attention aux 5D de la désinformation (discréditer, déformer, distraire, dévier, dissuader). S’appuyer sur le contexte et le timing de ces cyberattaques est aussi fructueux.

Aux personnalités politiques, somme toute concernées mais très peu formées, le Alan Turing Institute propose une stratégie partageable par tous, les 3I : informer, intercepter, insulariser. En phase de pré-élection, cela consiste à informer sur les risques des deepfakes audio ; en phase de campagne, cela implique d’intercepter les deepfakes et de démonter les scénarios de menace sous-jacents ; en phase post-électorale, cela oblige à renforcer les stratégies d’atténuation des incidents relevés et à les faire connaître auprès du public.

Toutes ces approches doivent se cumuler pour pouvoir assurer l’intégrité de l’information et des élections. Dans tous les cas, soignez votre écoute et prenez de l’AIR : analysez, interprétez, réagissez !

Divina Frau-Meigs


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © DP ; © France 24 ; © Brut.


Plus de presse en Wallonie…

DUMEZIL : Le calendrier était un outil de pouvoir

Temps de lecture : 6 minutes >

[LIBERATION.FR, 29 décembre 2017] Le médiéviste, maître de conférences à l’université de Paris-Nanterre, analyse la lente évolution du découpage des mois et des années en Occident, savant mélange de cultures romaine et catholique.

Caler le rythme de nos jours sur celui des planètes : c’est l’utilité première de notre calendrier. Avec ses 365 jours et ses années bissextiles, il permet de respecter scrupuleusement le temps que met la Terre à tourner autour du Soleil. Transposition de la mécanique des planètes, le calendrier transcrit aussi une partie de notre héritage culturel. Les noms des mois et des jours font écho à l’empire romain, qui célébrait Mars le mardi, Jupiter le jeudi, Jules César en juillet et Auguste en août. Les saints qui patronnent chaque journée, la numérotation des années après Jésus-Christ, ou encore le dimanche chômé sont, quant à eux, les marques d’une appropriation chrétienne.

Si c’est bien le cours des planètes qui règle nos jours et nos nuits, la façon de mesurer le temps est loin d’être immuable. L’historien Bruno DUMEZIL, maître de conférences à l’université Paris-Nanterre, explique comment notre calendrier a pris forme au milieu de mille façons de voir passer le temps.

Notre calendrier est-il vraiment né dans l’Antiquité romaine ?

Beaucoup de choses ont été fixées à cette époque, à tel point que l’on pourrait dire qu’en termes de civilisation, nous sommes encore dans l’Empire romain. Pour être plus précis, notre calendrier est gréco-romain : lorsqu’il a instauré le calendrier julien en 48 avant Jésus-Christ, Jules César a fait appel à des savants d’Alexandrie, issus du monde grec. Le calendrier romain s’est donc inspiré de son ancêtre grec, qui utilisait lui-même des méthodes de calcul égyptiennes.

Les modifications de César ont un intérêt scientifique : en instaurant une année de 365 jours au lieu de 355, et en prévoyant une année bissextile tous les quatre ans, son calendrier se rapproche des 365,25 jours que met la Terre à tourner autour du Soleil. Mais c’est aussi une réforme politique qui lui permet de fixer les jours fériés. Cela avait pour effet d’interrompre les procès et de retarder le début des procédures administratives ou des batailles. C’était un outil de pouvoir.

César invente donc le calendrier politique ?

Non, il existait avant ! Dans la Guerre du Péloponnèse, l’historien Thucydide explique qu’il ne pourra dater les événements relatés qu’en fonction des saisons, chaque cité combattante ayant voulu garder son propre calendrier pour marquer l’opposition avec ses rivales. Cette logique se poursuit à travers le temps : plus tard, au VIe siècle, le roi des Ostrogoths tente de faire adopter son calendrier au roi des Burgondes en lui offrant une horloge.

Il faut donc imaginer qu’à l’ombre du calendrier julien, la fin de l’Antiquité et le début du Moyen Age sont marqués par une diversité de calendriers

Plusieurs calendriers cohabitent, et cela est parfois difficile à gérer. Dans une même ville, la cathédrale et le pouvoir politique n’ont pas le même calendrier. Le rythme du temps varie aussi en fonction des métiers. C’est le cas des métiers judiciaires : les tribunaux ferment pendant les moissons, les vendanges, ou les anniversaires des membres de la famille impériale. Du point de vue religieux, les calendriers chrétien et judaïque cohabitent. Mais, au sein même des communautés chrétiennes, les temps forts de l’année varient en fonction des saints que l’on célèbre. Enfin, n’oublions pas les calendriers agricoles, qui rythment l’année en fonction des saisons et des travaux des champs, et qui ont leurs propres fêtes comme celles de la Saint-Jean.

Face à tout cela, à Rome, l’empereur fait preuve d’un grand pragmatisme. Ainsi, il tolère que les Juifs ne comparaissent pas au tribunal les jours de shabbat. De même, les fêtes païennes sont tolérées. Mais c’est l’intérêt économique qui prime : si des intempéries mettent les moissons en péril, toutes les fêtes sont suspendues pour sauver les récoltes.

Au milieu de tous ces calendriers, c’est donc surtout le catholicisme qui impose ses repères temporels en s’appropriant le calendrier julien. Comment s’enclenche cette évolution ?

Cela commence avec l’empereur Constantin (310-337). Premier à se convertir au catholicisme, il entraîne la cohabitation des temps romain et chrétien dans le calendrier. Au IVe siècle, les empereurs reconnaissent les jours de fête chrétiens et les intègrent au calendrier. L’enjeu était notamment de placer le jour de repos hebdomadaire : cela devait-il être le jeudi, jour de Jupiter, ou le dimanche, jour du Christ ? Rapidement, le dimanche l’emporte dans la loi romaine, mais il faut attendre que l’un des arrière-petits-fils de Clovis impose le changement en 595 pour qu’il s’applique vraiment.

Rome essaie aussi d’imposer son mode de calcul de la date de Pâques, ce qui est difficile car il s’agit d’un événement du calendrier lunaire à intégrer au calendrier solaire. De plus, les contraintes sont nombreuses : elle doit avoir lieu un dimanche, à une période où les jours rallongent, et pas le même jour que la pâque juive. Outre la rivalité avec le calendrier judaïque, il s’agit pour Rome d’imposer son autorité dans le monde chrétien. L’Irlande, convertie au Ve siècle, parvient à conserver un mode de calcul différent jusqu’en 664. Cependant, certains particularismes perdurent. Dans la péninsule Ibérique, le royaume suève de Galice refuse les noms des jours du calendrier chrétien, puisqu’ils font référence à des dieux païens : mardi est le jour de Mars, mercredi celui de Mercure… On décide de numéroter les jours, ce qui explique leur dénomination actuelle en portugais : segunda-feira (lundi), terça-feira (mardi), etc.

Le choix de faire débuter la numérotation des années avec ‘l’incarnation’ (la naissance de Jésus-Christ) est-il aussi le fruit de longues négociations ?

L’idée apparaît chez un clerc grec du VIe siècle, mais il faut attendre le siècle suivant pour qu’un grand historien du monde anglo-saxon, Bède le Vénérable, l’impose en datant tous les événements qu’il relate selon ce principe. Auparavant, la date de la création du monde (début du calendrier juif) a pu être utilisée par les chrétiens. Mais cette date étant très lointaine, elle multiplie les risques d’erreurs de calcul. Au VIe siècle, Grégoire de Tours l’a utilisée pour relater l’histoire de Clovis : certains épisodes de la vie de ce roi sont donc un peu incertains.

Les systèmes de comptage des années sont donc multiples, et les auteurs de l’époque privilégient une datation relative, en prenant pour point de départ l’entrée en fonction d’un empereur, d’un roi ou d’un abbé. Un même document est daté selon plusieurs personnages, au risque de l’erreur : le moine qui chronique la fondation de l’abbaye de Cluny se trompe dans l’une des deux dates qu’il indique. On ignore donc si cette grande abbaye fut fondée en 909 ou en 910.

Le 1er janvier n’est pas un événement religieux. Pourquoi cette date s’est-elle imposée ?

Dans l’Empire romain, ce jour marquait la prise de fonction des consuls et la fête du dieu Janus, où il était d’usage de s’offrir des cadeaux. Au début du Moyen Age, plusieurs évêques expliquent dans leurs sermons qu’il s’agit de rites païens : or, si les gens s’offrent bel et bien des étrennes, la fête a probablement perdu son sens religieux. Certains proposent de changer d’année à Pâques, mais c’est finalement le premier janvier qui reste la date de référence.

Les ruptures au sein du catholicisme – les schismes orthodoxe et protestant – sont-ils importantes pour comprendre la diversité des calendriers ?

La réforme grégorienne du Xe siècle, puis la prise de Constantinople, capitale de l’Empire romain d’Orient, par les Croisés en 1204 entraînent une rupture : les orthodoxes refusent dès lors toute décision venue de Rome. En 1582, ils n’adopteront donc pas le calendrier grégorien mis en place par le pape Grégoire XIII, d’où le décalage des calendriers. De même, lors de la réforme protestante, les luthériens refusent le calendrier grégorien pour marquer leur opposition à Rome. Mais cela n’est que temporaire. Pourtant, ce changement a aussi des fondements scientifiques : le calendrier julien partait du principe que la Terre tourne autour du Soleil en 365,25 jours, alors que ce temps est plus long de quelques minutes. Au fil des années, cela avait créé un décalage de dix jours excédentaires. Grégoire XIII les a donc supprimés en octobre 1582, et il a revu le système des années bissextiles pour éviter que ce décalage se reproduise.

Comment expliquer que notre calendrier grégorien se soit diffusé dans le monde entier ?

Parmi les facteurs d’explication, on peut citer le concile de Trente (1545-1563) qui visait à unifier les pratiques chez les catholiques dans un contexte de guerre de religion, ou la colonisation. Cette diffusion se fait aussi en Europe même : jusqu’au XIXe siècle, les habitants vivaient dans un univers local, sur une trentaine de kilomètres autour de chez eux, où les particularismes locaux du calendrier avaient du sens. Mais à cette période, le monde s’étend et fait naître le besoin d’un temps absolu. Et puis, n’oublions pas l’argument scientifique : ce calendrier est celui qui suit au mieux l’année solaire. C’est sans doute la raison principale.

L’hégémonie de ce calendrier a le mérite de simplifier la datation des événements. Est-ce une facilité pour les historiens ?

Aujourd’hui, l’histoire s’exerce de moins en moins à travers la fascination de la date exacte, comme lorsque nous apprenions que Charles Martel a arrêté les Arabes à Poitiers en 732… ce qui n’est pas si sûr. L’importance est plutôt de situer les événements les uns par rapport aux autres, ce qui donne du sens à la logique de datation relative du Moyen Age. Cela permet à l’historien de mieux saisir le temps vécu par les personnes de l’époque : l’an mil n’avait pas beaucoup de sens, car peu de gens savaient que l’on changeait de millénaire ! En revanche, se trouver dans la quatrième année de tel règne avait une signification. Ainsi, plutôt que de dire que nous passons à 2018, il peut être plus intéressant de penser que nous sommes “dans la première année du règne de Macron.

Une interview de Thibaut Sardier, liberation.fr


[INFOS QUALITE] statut : validé | mode d’édition : partage, correction, édition et iconographie | sources : d’après liberation.fr | contributeur : Patrick Thonart | crédits illustrations : en-tête, calendrier des travaux agricoles correspondant aux 12 mois de l’année (vers 1400).


Plus de presse en Wallonie…

Et si les réseaux sociaux devenaient une chance pour nos démocraties ?

Temps de lecture : 6 minutes >

[THECONVERSATION.COM, 11 janvier 2024] Alors que le président libertarien Javier Milei, récemment élu en Argentine, a largement profité des réseaux sociaux lors de sa campagne présidentielle, notamment pour séduire les plus jeunes générations, d’autres personnalités politiques envisagent au contraire de quitter ces mêmes réseaux. En France, c’est la maire de Paris, Anne Hidalgo, qui a initié ce mouvement, déclarant en novembre dernier que X (ex-Twitter) constituait “une arme de destruction massive de nos démocraties.” Force est de constater que depuis de nombreuses années, les réseaux sociaux dominants, dont le modèle d’affaires repose sur l’économie de l’attention favorise structurellement le clash et la polarisation des opinions.

Selon ce modèle économique, il s’agit de “maximiser l’engagement” des utilisateurs afin de vendre leur “temps de cerveau” et leurs données personnelles à des entreprises susceptibles de les cibler avec leurs publicités. Dès lors, tout ce qui compte pour gagner en visibilité sur ce type de réseau, est de trouver la ligne de fracture – chez chaque utilisateur ou dans la société – et d’enfoncer le coin, afin d’obtenir plus de clics et plus de vues, alimentant ainsi le “business de la haine” des géants du numérique, qui tirent profit de cette cacophonie.

Le résultat, tel que décrypté par l’écrivain et politologue italien Giuliano da Empoli, est le suivant : tandis qu’hier la politique était “centripète” – il fallait rallier autour d’un point d’équilibre –, elle est devenue aujourd’hui centrifuge. L’expression d’”ingénieurs du chaos” trouve alors tout son sens : pour conquérir le pouvoir, la politique consiste désormais à exploiter au mieux les dynamiques d’infrastructures, ici de communication, pour éclater la société en tous points.

Faire évoluer le modèle économique et l’architecture des réseaux sociaux

Comment changer la donne ? Il parait difficile d’imaginer l’ensemble des démocrates pratiquer la politique de la terre brûlée et quitter les réseaux sociaux dominants tant que l’espoir est encore à leur régulation. De même, nous ne pouvons uniquement nous en remettre à la bonne volonté de quelques autres réseaux dominants faisant pour l’instant office de refuge, tant que leur modèle demeure fondé sur la captation de l’attention.

Si nous devons poursuivre nos efforts pour “trouver des réponses politiques à la colère”, nous ne pouvons pas non plus nous aveugler sur les velléités autoritaires ou nationalistes exploitant les failles des réseaux sociaux les plus utilisés. Néanmoins, nous pouvons les priver de l’infrastructure qui les fait émerger comme forces politiques de premier plan partout dans le monde. Pour cela, nous devons faire évoluer le modèle économique et l’architecture des réseaux sociaux. Car il faut bien se rendre compte, dans la lignée de la pensée du professeur de droit Lawrence Lessig, que l’architecture numérique est normative : de même que l’architecture de nos rues détermine nos comportements, l’architecture des réseaux sociaux détermine la façon dont nous nous y exprimons et dont nous y interagissons.

© Générationlibre

De manière générale et par définition, le principe des “followers”, qui consiste à suivre des personnalités en particulier, ne favorise pas l’expression de points de vue diversifiés, mais plutôt les comportements mimétiques, la concurrence, la rivalité et in fine la dévalorisation de soi comme des autres.

Plus spécifiquement, X/Twitter et Thread sont construits pour faire se rencontrer absolument tous les sujets, points de vue et personnes d’opinions très diverses sur un flux unique et assurer des interactions directes au vu et au su de tous.

Autre architecture, autre ambiance, il en va autrement si l’on se rassemble autour d’un sujet, que ce soit pour en débattre ou seulement pour échanger. Sans qu’ils soient exempts de très nombreux défauts, TrustCafé, Reddit, Twitch, Discord donnent l’opportunité de créer des salons de discussion thématiques ou de regrouper des communautés en un espace et in fine d’avoir un débat plus approfondi. Mastodon repose quant à lui sur une structure décentralisée, c’est-à-dire que “chaque serveur Mastodon est totalement indépendant, mais capable d’interagir avec les autres pour former un réseau social mondial.” Cela permet d’éviter de cultiver l’animosité sociale. Des communautés irréconciliables n’ont pas à se côtoyer, ce qui permet d’éviter de propager le conflit de manière inopportune.

Reprendre la main sur les algorithmes

C’est pour orienter les réseaux sociaux vers des architectures permettant de créer des espaces de débat, d’apprentissage, d’échanges et de coopération que nous devons agir en premier lieu, avant même de nous intéresser à la modération des contenus qui y circulent. Le règlement européen sur les services numériques le permet en théorie, mais il faudra que la Commission européenne se mobilise en ce sens. Ce qui n’est pas le cas aujourd’hui. Jusqu’à présent, le débat a bien plus porté sur le nombre de modérateurs de tel ou tel réseau ou le nombre de contenus retirés que sur la structure des réseaux sociaux en elle-même. Ce qui risque surtout de nous épuiser pour un résultat très relatif.

Pour nous assurer que les réseaux servent une société démocratique où le débat, la construction collective et l’écoute sont privilégiés, nous devrions nous préoccuper de la manière dont les infrastructures numériques sont conçues, développées et financées. Comme les réseaux sociaux dominants sont structurellement fondés sur l’économie de l’attention, l’enfermement de leurs utilisateurs et l’amplification des contenus polémiques et choquants, nous devrions aussi décider de ne plus laisser aux mains du seul réseau social, c’est-à-dire d’une entreprise privée, le monopole de déterminer le flux algorithmique, soit le choix des contenus apparaissant sur nos fils d’actualités.

Une telle proposition est une exigence minimale pour tendre vers une plus grande réappropriation des réseaux sociaux par les utilisateurs. Elle a d’ailleurs déjà été faite sous diverses formes, que ce soit par des spécialistes du numérique, la Commission nationale consultative des droits de l’homme (CNCDH), des journalistes ou des chercheurs. Ainsi, il s’agit non plus seulement de forcer la plate-forme à accentuer tel ou tel paramètre de leur algorithme mais de contester le fait que la recommandation soit le seul fait de la plate-forme.

Pour justifier ce principe, nous pouvons nous demander si une fois une taille critique et une certaine concentration du marché atteintes, il est bien légitime de laisser uniquement à des entreprises privées le soin de décider ce qui doit être vu ou ce qui doit être invisibilisé dans l’espace médiatique numérique. Quand bien même certains d’entre nous souhaiteraient s’abandonner aux algorithmes de TikTok ou de Twitter, pourquoi tout un chacun devrait-il s’y plier ? Est-ce à un acteur unique de déterminer les critères en fonction desquels les contenus apparaissent ou disparaissent de nos écrans ?

Reconnaître les réseaux sociaux comme des espaces publics

La chose doit encore être affirmée : oui les réseaux sociaux dominants sont des espaces publics. Ce ne sont plus seulement des cafés que l’on est libre ou non de fréquenter. L’analogie ne fonctionne plus. Ils ont un impact structurant sur nos sociétés, que l’on y soit ou non.

2011 : les “printemps arabes” © Maxime Johnson

De plus, si tout le monde peut virtuellement s’exprimer sur les réseaux, ceux qui auront le plus de vues sont ceux qui joueront les codes du réseau et sponsoriseront leurs comptes ou publications. Ce qui laisse sur le bas-côté ceux qui ne peuvent pas ou refusent de jouer à ce jeu malsain de la mésestime de soi, des autres et du clash constant.

La prétendue liberté d’expression masque le sévère contrôle qui s’exerce sur la recommandation et la hiérarchie qu’elle recèle : l’apparence d’horizontalité (celle de tous les usagers exprimant leurs opinions ou leurs avis publiquement) masque une extrême verticalité (celle des entreprises décidant des critères de ce qui sera vu ou non).

Pour restaurer les libertés d’expression et de pensée, il nous faut donc décorréler l’intérêt du réseau social à voir promu tel ou tel contenu et l’intérêt social ou personnel à s’informer ou échanger sur tel ou tel sujet.

Œuvrer pour des infrastructures numériques démocratiques

Cela n’est désormais plus une seule affaire d’imagination ou de prospective. Regardons Bluesky (le réseau social alternatif créé par Jack Dorsey, l’un des fondateurs de Twitter) ou Mastodon : les flux algorithmiques y sont à la main des utilisateurs.

Sur Bluesky, les utilisateurs les plus chevronnés, des médias ou autres tiers de confiance peuvent proposer à l’ensemble des utilisateurs des algorithmes de leur cru. Et le choix est particulièrement simple à opérer pour un effet immédiat. Sur Mastodon, le classement chronologique reste la clef d’entrée vers les contenus publiés, mais le principe même du logiciel libre permet à l’administrateur comme à l’utilisateur de développer les fonctionnalités de curation de contenus qu’il souhaite. Cela ne veut pas dire que tout le monde doit savoir coder, mais que nous pouvons avoir le choix entre de nombreux algorithmes, paramètres ou critères de recommandations qui ne sont pas seulement le fait de la plate-forme.

Regardons aussi des projets comme Tournesol : cette plate-forme de recommandation collaborative de contenus permet à de nombreux citoyens de participer en évaluant les contenus en fonction de leur utilité publique (et non en fonction d’intérêts privés ou d’agendas politiques déterminés). Grâce à de telles initiatives, il devient possible de découvrir des vidéos pertinentes et pédagogiques que des réseaux sociaux dominants ou une plate-forme comme YouTube n’auraient probablement pas recommandées.

Toutes ces initiatives nous montrent qu’il est possible d’œuvrer pour des infrastructures numériques démocratiques. Nous ne sommes qu’à un pas politique de les valoriser. Et entendons-nous bien, l’objectif n’est pas de nous anesthésier en empêchant le désaccord. Bien au contraire ! Le but est de vivifier la démocratie et renforcer l’intelligence collective en exploitant tout le potentiel des réseaux sociaux.

Anne Alombert & Jean Cattan


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © Mauco Enterprises ; © Générationlibre ; © Maxime Johnson.


Plus de presse en Wallonie…