
Le politicien sud-africain Malema de retour devant le tribunal alors que les procureurs demandent une peine de 15 ans de prison
15 avril 2026
Guerre en Ukraine : le plus important programme de drones jamais livré, le Royaume-Uni s’engage sur 120 000 modèles aux missions très précises pour Kiev
15 avril 2026l’utilisation de l’IA générative pour les tâches cognitives provoquerait une perte de capacités intellectuelles progressive, et peut-être irrémédiable?
Analyse : Notre équipe propose une lecture synthétique de cette actualité.
Notre rédaction analyse les faits saillants de « l’utilisation de l’IA générative pour les tâches cognitives provoquerait une perte de capacités intellectuelles progressive, et peut-être irrémédiable? ».
Ce qu'il faut retenir
Une nouvelle étude, menée par des chercheurs du MIT et des universités de Carnegie Mellon, Californie et Oxford, s’est attelée à relever les conséquences de l’IA générative sur les capacités intellectuelles des humains et sur leur comportement face à l’effort. Les résultats sont dramatiques.
Une grande première inquiétante. Pour la première fois, à en croire ses auteurs, une étude fait la démonstration d’un lien de cause à effet entre l’utilisation de l’intelligence artificielle pour des tâches qui sollicitent fortement les capacités cognitives et une réduction rapide des capacités intellectuelles d’un humain. Pire encore, sa volonté de maintenir un effort intellectuel face à une difficulté serait, elle aussi, atteinte.
Des chercheurs de différentes universités américaines et anglaises, dont celles de Carnegie Mellon, et d’Oxford, auquel s’ajoute le MIT, ont donc mené une étude sur près de 1.200 Américains. Les résultats obtenus permettent de constater l’impact de l’IA sur le moyen et le long terme, rapporte Futurism.
Constatant que « l’optimisation à court terme produit souvent un désalignement entre ce pour quoi les systèmes d’IA sont récompensés et ce dont les utilisateurs ont besoin », les chercheurs en sont venus à suspecter que « le déclin des compétences cognitives constitue un exemple sous-estimé de ce désalignement ». Car, pourquoi des systèmes d’IA optimisés pour une aide immédiate ne risqueraient-ils pas « de compromettre les capacités à long terme des personnes qu’ils cherchent à assister »?
« Il existe peu de preuves empiriques sur la manière dont ce scénario de ‘grenouille ébouillantée’ lié aux risques progressifs de l’IA va se concrétiser, en particulier au niveau individuel », reconnaissent les auteurs, se référant à la célèbre image de la « grenouille dans l’eau bouillante », qui s’échappe de la casserole si on la jette quand l’eau boue, mais reste dans l’eau dont la température monte progressivement, jusqu’à mourir… Oui, ici, l’humain est la grenouille, et l’eau, notre usage croissant de l’IA et son impact.
Une dégradation sur le long terme
Dans le cadre de tâches utilisant notre capacité de raisonnement, comme l’écriture de code informatique ou un simple travail de réflexion, « nous constatons que l’aide de l’IA améliore les performances immédiates, mais elle a un coût cognitif lourd, » estime cette étude, qui a mis ses cobayes face à la résolution de problèmes, d’abord assistés par l’IA pendant dix minutes, avant de la bannir.
Pour établir ce constat très alarmant, les chercheurs ont découpé leurs tests en plusieurs séquences. Au départ, un peu plus de la moitié des 350 personnes testées ont eu accès au hasard à un chatbot (basé sur GPT-5), ce qui leur a permis de bénéficier de réponses très précises pour des calculs mathématiques, les autres n’ayant accès à rien.
Les choses se sont compliquées lorsque l’accès au chatbot a été coupé sans avertissement préalable afin que ceux ayant jusqu’ici utilisé l’IA réfléchissent par eux-mêmes. Les performances ont alors sévèrement chuté, tout comme le souhait de continuer le test.
Le résultat est clair: une fois sans IA, les humains testés ont obtenu des résultats catastrophiques, et ont même plus facilement abandonné leurs tâches en cours, au contraire d’un autre groupe qui n’avait, lui, pas été aidé par une IA au préalable.
Une seconde expérience, rassemblant cette fois-ci 670 participants, et dans les mêmes conditions, a produit les mêmes effets. Un troisième test, avec 200 autres personnes, a confirmé les observations initiales, mais cette fois-ci sur des questions/réponses au sujet d’un texte à comprendre et à analyser.
L’étude démontre également que c’est la manière dont on utilise l’IA qui a un effet. Les sujets ayant demandé au chatbot des réponses précises, sans d’abord réfléchir par eux-mêmes, ont eu de moins bons résultats que ceux qui n’ont demandé que des éclaircissements à l’IA.
Réfléchir avant qu’il ne soit trop tard
Ce n’est pas la première étude à constater les conséquences de l’IA générative sur les capacités de raisonnement, mais les chercheurs estiment ici qu’elle a des effets sur le long terme: « Si l’utilisation soutenue de l’IA érode la motivation et la persistance qui stimulent l’apprentissage sur le long terme, ces effets s’accumulent au fil des années, et au moment où ils seront clairement visibles, il sera peut-être trop tard, » évoquent-ils.
Les auteurs expliquent en conclusion de leur étude que deux leviers sont à l’oeuvre quand quelqu’un utilise l’IA. Le premier est lié à la vitesse à laquelle l’IA réalise une tâche, toujours en seulement quelques secondes. Cette rapidité fait en sorte que le « point de référence sur le temps qu’une tâche devrait prendre peut se déplacer », alors « le travail réalisé sans assistance commence à paraître, de manière contrefactuelle, plus exigeant », analysent-ils.
Plus important encore, « ce mécanisme s’auto-renforce: chaque acte de délégation à l’IA modifie le indication de référence, augmente le coût subjectif de l’effort non assisté et rend les délégations futures plus attractives », expliquent les auteurs de l’étude.
Le second levier a un effet moins visible, mais peut-être plus délétère au long cours. « L’IA supprime la ‘lutte productive’ grâce à laquelle les individus développent non seulement des connaissances exactes, mais aussi une connaissance juste d’eux-mêmes », jugent les auteurs.
Dès lors, pour les chercheurs, il convient que le milieu éducatif soit plus strict en matière d’utilisation de l’IA par les étudiants: « Si nous nous déchargeons massivement sur l’IA pour tout et n’importe quoi, que fera-t-elle lorsqu’on lui demandera des conseils sur nous-mêmes ou sur nos croyances?, » se questionne l’un des chercheurs de l’étude.
En conclusion, l’étude estime que les entreprises doivent elles aussi prendre leurs responsabilités en habituant leurs salariés à non seulement utiliser l’IA, mais aussi à développer des projets sans elle, pour continuer à développer leurs capacités cognitives.
Car, il nous faut à tout prix éviter de devenir une « grenouille ébouillantée, où chaque action incrémentale semble sans coût, jusqu’à ce que l’effet cumulatif devienne trop important pour être maîtrisé ».
Source : www.bfmtv.com
Conclusion : Cette situation fera l’objet d’une observation continue de notre rédaction.

9999999
