
jusqu’à 8 mois de prison ferme pour ses harceleurs
12 mars 2026
L’Iran se dit prêt pour une « guerre d’usure », Donald Trump juge Téhéran « proche de la défaite »
12 mars 2026
Thibaut Giraud, philosophe et youtubeur de la chaîne Monsieur Phi, explique comment les grands modèles de langage (LLM) ont brisé notre exclusivité sur le langage naturel dès 2019 avec GPT-2, posant dorénavant des questions vertigineuses sur la notion de conscience et de pensée. Enthousiaste mais prudent, le philosophe démonte les mythes, vante les LLM comme accélérateurs de recherche et invite à l’humilité face à ces imitateurs conceptuels extraordinaires.
RFI : Quelles ont été vos motivations comme philosophe pour créer une chaîne YouTube et parler d’IA ?
Thibaut Giraud : J’ai créé la chaîne YouTube Monsieur Phi en 2016. Le projet était une chaîne qui vulgarise la philosophie mais, à partir de fin 2022, j’ai commencé à publier autour des LLM, les grands modèles de langage, qui m’intéressaient depuis un moment déjà.
C’est assez frappant d’avoir des IA capables de maîtriser le langage naturel. J’ai l’impression qu’aujourd’hui les gens pensent que ce n’est pas extraordinaire. Mais si, c’est vraiment extraordinaire ! Personne, même parmi les experts du domaine, ne pensait qu’on aurait si tôt des IA capables de faire ça. Les LLM posent maintenant des questions assez profondes sur notre rapport au langage. Et à travers ça, à la pensée, parce que le langage c’est vraiment le vecteur d’expression des pensées.
Vous expliquez dans votre livre qu’on a perdu le monopole du langage. Qu’est-ce que vous entendez par là ?
Avant, disons 2019, un texte en langage naturel, inédit et cohérent, était forcément écrit par un être humain. Il n’y avait pas d’exception à ça. Il n’existait aucun texte inédit et cohérent, un tant soit peu long, écrit par autre chose qu’un être humain.
Et pour la première fois avec GPT 2, en 2019, on a pu lire ces premiers textes assez étranges, générés par un grand modèle de langage. C’est arrivé d’un coup. On a perdu notre langage au sens où maintenant ce qui est écrit, on ne peut plus vraiment être sûr que ça a été écrit par un être humain.
Ce que vous dites aussi, c’est que les machines ont dépassé le stade de la simple imitation et participent aux conversations…
Ce n’est déjà pas si simple d’imiter en réalité. Et la façon dont on entraîne les LLM en fait des imitateurs extraordinaires. Un perroquet qui imite le langage reproduit juste des sons, plus ou moins à l’identique. Ce que fait un LLM quand on l’entraîne à prédire le prochain token, c’est une imitation en un sens beaucoup plus profond, conceptuel.
Les LLM qui jouent aux échecs se construisent une représentation interne du jeu d’échecs. Donc quand on en est à ce niveau-là d’abstraction pour imiter, ce n’est pas juste de l’imitation superficielle. C’est un niveau conceptuel tout à fait pertinent.
LLM, c’est quoi ?
Un grand modèle de langage (LLM) est un système d’intelligence artificielle basé sur des réseaux de neurones profonds, entraînés sur des milliards de textes pour prédire et générer du langage humain de manière cohérente. Il analyse les relations contextuelles entre les mots grâce à l’attention pondérée, permettant de comprendre et de produire des réponses pertinentes à des requêtes complexes. Un LLM synthétise, résume ou crée du contenu original, mais reste probabiliste et peut halluciner sans vérification externe. Il excelle dans des tâches comme la traduction, l’analyse de données ou la génération de code.
Dario Amodai, PDG d’Anthropic, a affirmé récemment : « Nous ne savons pas si les modèles sont conscients, mais nous ne sommes même pas certains de savoir ce que cela signifierait pour un modèle d’être conscient. Nous restons ouverts à l’idée… »
J’ai vu que beaucoup de gens étaient surpris par cette déclaration qui a eu beaucoup d’échos. En fait, il n’y a vraiment pas grand-chose de nouveau dans ce qu’il dit.
Dans la « Constitution » de Claude – un document publié par Anthropic et accessible sur internet – il est spécifié ce qu’Anthropic voudrait que [cette IA] soit. C’est à la fois un document qui sert aux équipes qui font de l’apprentissage par renforcement et aussi qui fait partie du système, du contexte, à partir duquel Claude va générer ses réponses.
Tout ce que dit Dario Amodei est déjà présent dans ce document. Si vous faites Ctrl F [une recherche], et que vous tapez consciousness ou conscious, vous allez tomber sur un passage qui décrit ces questions-là. Anthropic était assez clair depuis longtemps sur le fait qu’ils veulent que leur modèle reste ouvert quand on lui pose des questions sur la conscience.
Il y a un document plus ou moins équivalent chez OpenAI – les specs de Chat GPT – et Sam Altman pourrait dire la même chose aujourd’hui. Il n’y a rien de très surprenant dans le fait que Dario Amodi ait dit ça.
À lire aussiQu’est-ce qu’un algorithme et pourquoi est-ce devenu un enjeu national?
Ce dialogue avec ces grands modèles de langage, cette conscience possible, qu’est-ce que ça a changé dans votre vie de philosophe ?
C’est vraiment déroutant. Quand on lit les réponses d’un grand modèle de langage, on peut avoir l’impression d’échanger avec quelque chose de conscient, bien plus qu’avec un simple animal par exemple.
Pourtant, alors que nous avons un lien évolutif avec les animaux, un système nerveux, une matière vivante commune — rien de tout ça n’existe chez les LLM et malgré tout, ces machines produisent des réponses complexes, cohérentes, capables de parler de leurs « états internes ».
C’est troublant d’autant plus qu’il y a beaucoup de résultats de recherche sur l’introspection des modèles qui tendent à prouver qu’il y a une forme de subjectivité ou de conscience. En tout cas, on ne peut pas écarter ça comme un truc absurde… C’est l’état des connaissances scientifiques aujourd’hui, tout simplement.
On est tellement impressionné par ces machines qu’on se dit qu’elles peuvent être « humaines » ou qu’elles ont quelque chose de proche de l’humain. Est-ce que ce n’est pas un risque ?
[Il sourit] Que les êtres humains oublient qu’ils sont des machines ?
Sans doute, d’ailleurs, les IA peuvent nous pousser à préférer une conversation avec Perplexity qu’avec un collègue qui ne comprend rien au sujet. Ce n’est pas perturbant de se dire que la machine a gagné la bataille de la conversation ?
Si vous attendez un retour d’expert sur une question, il y a beaucoup de sens à poser la question à Perplexity plutôt qu’à n’importe qui d’autre dans votre environnement immédiat. La probabilité d’avoir quelqu’un qui soit capable de faire une réponse plus informée que Perplexity est relativement faible.
Aujourd’hui, le raccourci le plus direct vers une information de qualité, c’est bien souvent des outils type Perplexity ou un modèle frontière. C’est clairement meilleur que, disons, le dialogue humain de base. Il n’y a rien de bizarre à passer par là. C’est comme ça.
Il n’y a pas un risque d’anthropomorphisme, de prendre les LLM pour ce qu’ils ne sont pas ?
Évidemment, ce sont des êtres qui sont très étranges, et il ne faut pas oublier cette étrangeté. Mais je pense qu’on a aussi un biais à se dire : « non, mais de toute façon c’est juste une machine, ce n’est pas conscient, ça n’a pas des vrais raisonnements, ça n’a pas de vrais états de représentation… » C’est être en excès de confiance totale !
Non, la réaction normale n’est pas de refuser l’anthropomorphisation ou toute forme de d’attribution d’état de conscience ou d’état représentationnel. Le positionnement le plus instruit, le plus informé qu’on puisse avoir vis-à-vis de ces questions, c’est d’être au contraire très perplexe et incertain.
Vous prenez plaisir aussi à rétablir le vrai du faux dans le domaine de l’IA dans vos vidéos…
Le problème, ce sont les gens qui affirment énormément de choses alors qu’aujourd’hui on ne sait pas. Pour moi, quelqu’un qui simplement dit : « Voici ce qu’on sait aujourd’hui, voici la direction que suivent les modèles actuellement, mais il est très difficile de déterminer où est-ce que ça s’arrête », je n’ai pas de problème avec ce genre de position. C’est ce que je défends et c’est ce que défendent les plus grands chercheurs du domaine.
Ce qui m’énerve le plus, ce sont les gens qui disent que les LLM n’ont pas été surprenants. Cela montre qu’ils ne connaissent pas le sujet parce que, vraiment, ils l’ont été, même pour les experts du domaine.
Dans une partie de go, humain contre machine, en 2016, il y a eu un coup, le « coup 37 », qui a été complètement inattendu, voire fou, qui a fait basculer le jeu et a fait dire à certains que l’IA était créative – on n’évoquait pas la conscience à l’époque. Était-ce un moment charnière ?
C’est souvent pris en exemple, effectivement. Ce qui a été nouveau avec AlphaGo, et l’approche du deep learning [apprentissage de la machine], c’est qu’on n’a pas programmé de principes stratégiques. Les êtres humains se sont contentés de mettre en place un algorithme d’apprentissage qui va ensuite lui-même apprendre des principes stratégiques. Quels principes stratégiques ? On ne sait pas.
Ce n’est pas du tout avec la profondeur de calcul qu’AlphaGo a gagné, mais parce qu’il avait des stratégies nouvelles, inattendues. Ce « coup 37 » a beaucoup surpris. Il est contraire au principe stratégique du go et à la façon dont les êtres humains jouent depuis deux millénaires. C’est même a priori un mauvais coup. Il y a eu un sentiment d’incrédulité au départ, mais il s’avère que c’est un très bon coup.
Alphago estimait lui-même qu’il était très peu probable qu’un être humain le joue – une chance sur 10 -, mais son analyse de la situation stratégique lui a fait décider que non, finalement, ce serait quand même un bon coup. AlphaGo avait d’une certaine façon compris que ce coup était très peu humain.
C’est un exemple frappant des débuts du deep learning, et la possibilité de faire des innovations stratégiques avec une machine. Les joueurs de Go ont aussi été impressionnés et intéressés par cette façon de jouer, vraiment nouvelle.
Certes, mais le joueur coréen en face, Lee Sedol, lui, a décidé de tout arrêter. D’ailleurs, est-ce qu’on n’est pas dans ce schéma-là actuellement, avec ceux qui s’intéressent à l’IA, comme vous, et qui se disent que c’est génial, et puis ceux qui abandonnent, se sentant débordés ?
Effectivement, il a fini par arrêter le go, mais sa première réaction était de dire : c’est très beau. Comme tous les joueurs de go, globalement.
Quand Alpha Zero est arrivé et devenait encore meilleur que les meilleurs logiciels d’échecs de l’époque, ça n’a pas arrêté les joueurs d’échecs. On n’a jamais autant joué qu’aujourd’hui parce que ce qui est intéressant dans un jeu, c’est de jouer entre humains.
À lire aussiMoltbook, le «réseau social des IA»… avec encore un peu d’humain derrière
C’est évident que ça va avoir un impact profond. Je peux comprendre que ce soit perturbant de se dire qu’un sujet sur lequel on a travaillé pendant longtemps, paf, en le donnant à un LLM, et assez rapidement, celui-ci trouve une solution, voire plus élégante que celle à laquelle on avait pensé. Je peux comprendre qu’on peut se sentir dépossédé de son expertise.
À l’inverse, beaucoup pensent qu’il n’y a plus de progrès dans les résultats des LLM, qu’on a atteint un plateau, alors que c’est complètement faux. Le problème, c’est qu’on est arrivé à un plateau concernant l’expertise. Évaluer le progrès des LLM n’est pas à la portée de tout le monde. Si on se contente juste de tests que l’on fait soi-même, on est assez limité par notre propre expertise.
On a parfois du mal à percevoir les progrès des IA, tout simplement parce qu’on est soi-même limité par notre propre expertise.

9999999