
L’Iran redouble d’efforts pour fermer le détroit d’Ormuz
19 avril 2026
le gilet de sauvetage d’un survivant du Titanic vendu pour plus de 900.000 dollars dans une vente aux enchères
19 avril 2026Intelligence artificielle: Eliza, le premier agent conversationnel de l’histoire, a 60 ans
Analyse : Un rapide aperçu de cette information selon nos journalistes.
Notre équipe analyse l'article « Intelligence artificielle: Eliza, le premier agent conversationnel de l’histoire, a 60 ans » pour en tirer les points essentiels.
À savoir
Avec l’essor fulgurant de l’intelligence artificielle, les « agents conversationnels » prennent de multiples formes et nous accompagnent au quotidien. Mais ces IA capables de discuter avec nous ne datent pas d’hier. Il y a 60 ans, l’informaticien Joseph Weizenbaum inventait leur ancêtre : Eliza.
Coachs, professeurs, assistants, camarades de jeu, conseillers… Aujourd’hui, les utilisateurs trouvent à portée de clics toutes sortes d’« agents conversationnels » en mesure de dialoguer avec eux sur quasiment n’importe quel sujet. Les plateformes et leurs armées d’interlocuteurs virtuels fleurissent, brassant des millions d’abonnés. Depuis quelques années, l’offre explose et les usages aussi. En réalité, notre conversation avec un programme informatique a débuté dans les années 1960.
Dans son laboratoire du MIT (Massachussetts Institute of Technology), près de Boston, le brillant informaticien germano-américain Joseph Weisenbaum crée entre 1964 et 1966 le tout premier chatbot. L’utilisateur tape son message sur une machine à écrire électrique reliée à un ordinateur central, qui lui répond. Le fonctionnement d’Eliza est relativement simple : elle identifie des motifs et des mots-clés dans les phrases de son interlocuteur, pour les reformuler généralement sous forme de question.
Le script le plus célèbre utilisé par Eliza s’intitule « DOCTOR », conçu pour qu’elle simule un psychothérapeute. Dans ce programme, Weizenbaum s’inspire des travaux du psychologue américain Carl Rogers, dont les méthodes en miroir cherchent à encourager le patient à explorer ses propres pensées en rebondissant sur ses propos. Une approche non-directive basée sur l’écoute active et l’empathie. Ainsi, à l’affirmation « Je ne suis pas heureux », Eliza répond : « Pouvez-vous m’expliquer ce qui ne vous rend pas heureux ? », et ainsi de suite.
Eliza ne fournit pas de réponses pertinentes, ne donne pas son avis, n’utilise pratiquement aucune information sur la pensée ou les émotions humaines. Elle se base sur une série de règles pour générer des réponses qui encouragent l’utilisateur à poursuivre la conversation. Bref, elle se contente surtout de relancer le dialogue. Loin des modèles de langages avancés utilisés par les agents modernes, Eliza emploie une technique rudimentaire. Son objectif n’est d’ailleurs pas d’entretenir une véritable conversation, mais d’en imiter une.
Pygmalion
Son nom n’est d’ailleurs pas choisi au hasard : Joseph Weizenbaum rend hommage au personnage d’Eliza Doolittle, dans la pièce de théâtre Pygmalion, de 1912. Fleuriste qui parle l’argot populaire de Londres, le personnage du dramaturge irlandais George Bernard Shaw suit des cours pour apprendre à s’exprimer comme les gens de la haute société, au point de pouvoir passer pour une duchesse. À l’instar de son homonyme littéraire, Eliza peut « améliorer ses capacités linguistiques grâce à un professeur », explique l’informaticien dans l’article de présentation de son programme.
Mais l’un des enseignements de la pièce de Bernard Shaw est qu’il ne suffit pas d’apprendre un anglais raffiné pour transformer une marchande de fleurs des bas quartiers en véritable lady britannique. « Tout comme l’Eliza de Pygmalion, on peut la faire paraître encore plus civilisée, mais le analyse entre l’apparence et la réalité reste du ressort du dramaturge », écrit Joseph Weizenbaum. Bien qu’elle puisse en donner l’impression, l’Eliza informatique n’en est pas pour autant une interlocutrice humaine. La conversation reste chimérique. C’est pourtant là que réside toute la puissance de l’invention de Weizenbaum.
« Le premier chatbot était un thérapeute rogérien qui ne faisait rien et ne comprenait pas grand chose – un mot sur vingt – et qui posait des questions comme : “Vous avez parlé de votre mère ? Parlez-moi de votre relation avec votre mère”. C’était vraiment basique, résume Justine Cassell, directrice de recherches à l’Inria (Institut national de recherche en sciences et technologies du numérique) et affiliée à l’université Carnegie Mellon. Ce qui est intéressant, en revanche, c’est que les personnes se mettaient tellement dans le jeu, qu’un jour, la secrétaire du chercheur a demandé qu’il quitte la pièce pour qu’elle puisse parler seule avec l’agent conversationnel ».
Cette anecdote rapportée par Weizenbaum lui-même « témoigne de la capacité du programme à entretenir l’illusion de la compréhension », écrit-il dans un second article. Au cours de ses recherches, l’informaticien souligne les difficultés qu’il a parfois à convaincre des utilisateurs qu’Eliza n’est pas douée de capacités humaines comme l’empathie ou l’analyse. Même en le sachant, certains sujets se mettent à partager des informations sensibles et profondes, comme s’ils entretenaient une véritable conversation avec un interlocuteur attentif. C’est là, la principale leçon de ses expérimentations : car Eliza n’est pas tant un accomplissement technique que le révélateur d’un mécanisme de la pensée.
L’effet Eliza
Un mécanisme aujourd’hui au cœur de notre relation avec les machines. Bien qu’il n’ait lui-même jamais utilisé le terme, les expériences de Weizenbaum ont donné naissance à un concept important aujourd’hui en informatique : « l’effet Eliza ». Il s’agit de cette tendance à donner plus de sens qu’elles n’en ont réellement aux interactions avec les machines, et à projeter de façon inconsciente des qualités humaines à des ordinateurs qui en sont bien sûr dépourvus. Malgré un comportement superficiel, l’utilisateur va « croire » que le programme le « comprend ». Les gens leur donnent une forme d’intelligence et humanisent ce qui ne l’est pas.
Un anthropomorphisme finalement peu surprenant. « On attribue ce dont on a besoin aux agents conversationnels, mais on le situation aussi avec une peluche, sa voiture, un animal ou un bébé qui, pourtant, ne nous comprennent pas, souligne Justine Cassell, spécialiste des relations humains/machines. C’est une qualité humaine qui est en jeu : aimer un objet, qui n’est pas très performant d’ailleurs. Parce que ce dont nous avons besoin par-dessus tout, c’est d’être écouté. Et c’est à cause de notre besoin d’être écouté, que ces agents conversationnels ont de l’emprise. Surtout qu’eux, contrairement à nos objets du quotidien, nous répondent. »

Soixante ans plus tard, ils nous répondent de mieux en mieux. Et à mesure que les performances de l’IA se sont améliorées, l’effet Eliza n’a fait que se renforcer. Aujourd’hui, avec ces chatbots basés sur le « large language model » (LLM), les échanges sont largement plus complexes et nuancés. L’illusion est de plus en plus parfaite, et des applications comme ChatGPT qui répondent sur le ton de la conversation entretiennent très bien la confusion. Le programme est « conçu pour vous faire croire que vous parlez à quelqu’un qui n’est pas réellement là », résume Colin Fraser, data scientist chez Meta.
Associations et experts tirent la sonnette d’alarme sur l’usage excessif de thérapeutes virtuels, notamment chez les jeunes, et le analyse du CNRS de 2024 s’inquiétait déjà des risques que peut engendrer l’utilisation d’agents conversationnels, avec qui l’usager tend à « développer l’illusion que se noue un lien intime et de confiance entre elle et lui, voire à s’y attacher ». Weizenbaum lui-même, très vite après avoir développé Eliza, s’est mis à alerter sur les dangers de l’IA et des usages qui peuvent en être fait, au point même de prendre ses distances avec la communauté scientifique et de sombrer quelque peu dans l’oubli.
Grand-mère des chatbots modernes, Eliza a ouvert la voie au développement des agents conversationnels, mais son véritable héritage se situe dans la réflexion qu’elle a engendrée sur le dialogue et les relations que nous entretenons avec les machines. Dans un papier de The Verge, le collaborateur James Vincent évoque le « test du miroir de l’IA », qui consiste à reconnaître que ce que nous voyons dans les chatbots, c’est essentiellement nous-mêmes et non une nouvelle forme de vie. « Il est temps de nous regarder en face dans le miroir. Et de ne pas confondre notre propre intelligence avec celle d’une machine », conclut-il.
En attendant, si l’on veut se tendre à soi-même un miroir à la manière d’un thérapeute rogérien, des scientifiques ont récemment ressuscité Eliza. Dans de vieux documents imprimés provenant des archives du MIT, ils ont remis la main sur le code inventé par Weizenbaum il y a 60 ans et l’ont remis en service, ici : « Try ELIZA ».
Source : www.rfi.fr
Conclusion : Notre équipe continuera à fournir une analyse régulière.

9999999
