Pour anticiper les effets de l’IA sur le travail : décrypter son fonctionnement cognitif
L’Observatoire des Emplois Menacés et Émergents s’attache à anticiper l’impact de l’IA sur le marché du travail. Et comprendre le fonctionnement cognitif des systèmes IA, et ses limites, est nécessaire pour cerner plus précisément les tâches qu’ils pourraient accomplir.
Cet article vise à replacer une contribution récente de plusieurs chercheurs de DeepMind (“General Agents Need a World Model”, juin 2025) dans une trajectoire plus large, de Rodney Brooks à Yann LeCun, entre intelligence émergente et planification implicite.
Un questionnement ancien : un agent intelligent a-t-il besoin d’un modèle du monde pour agir ?
En 1991, dans son article « Intelligence without Representation », Rodney Brooks s’opposait à l’IA symbolique classique, souvent désignée par l’acronyme GOFAI (Good Old-Fashioned AI). À cette époque, l’intelligence artificielle reposait principalement sur la manipulation de symboles et la formalisation explicite de règles : on encodait dans les systèmes IA des représentations du monde sous forme de règles explicites (type : if – this happens / then – do that), de graphes sémantiques, sortes de cartes conceptuelles permettant de stocker des connaissances explicites (type « le canari est un oiseau jaune – un oiseau est un animal – jaune est une couleur) etc. Ces systèmes ne pouvaient ainsi pas gérer la moindre incertitude.
Brooks, lui, affirme que le monde est son propre modèle et rejette la nécessité d’encoder une représentation symbolique centralisée et sa pré-programmation. L’agent, selon lui, doit puiser son “intelligence” dans la boucle perception–action plutôt que dans une représentation symbolique codée préalablement.
Autrement dit : on n’a pas besoin d’enseigner à un enfant les principes de la gravité. Même sans qu’on lui ait appris la notion de gravité, il va apprendre à anticiper à quels moments son biscuit tombe, ou non. À force d’observations et d’interactions, à force de faire tomber son gâteau dans différentes situations, il ajuste son comportement — non parce qu’il connaît les lois de Newton, mais parce que son cerveau a intégré, sans formalisme, une régularité du monde. L’approche de Brooks invite à concevoir les agents IA sur ce modèle : l’intelligence peut émerger de l’interaction avec l’environnement. Mais Brooks ne dit cependant pas qu’un modèle du monde n’est pas susceptibles d’émerger de ces interactions. Des structures internes pourraient tout à fait être construites par l’agent au cours de ces interactions.
D’un point de vue philosophique, cette position a probablement influencé les chercheurs et indirectement contribué à l’émergence des approches modernes de l’apprentissage automatique – même si Brooks lui-même n’a pas directement développé ces algorithmes statistiques contemporains. Il a néanmoins légitimé l’idée qu’un système intelligent peut apprendre à partir du monde, sans carte préalable, sans structure de représentation symbolique imposée.
Dans la continuité de ces idées, Yann LeCun défend l’idée qu’un agent intelligent doit disposer d’un modèle interne du monde, fût-il latent, non symbolique, ou appris par auto-supervision. Pour lui, une IA de niveau humain doit être capable de simuler, prédire, planifier — ce qui exige qu’elle se soit formée une structure interne reflétant les régularités du monde. L’agent doit intégrer une structure latente qui capte les lois de la gravité, même si ce savoir est encodé de manière non symbolique.
Le récent article de plusieurs chercheurs de DeepMind (General Agents Need World Models, 2025) apporte un éclairage intéressant pour esquisser les contours de ce qui pourrait constituer un jour une intelligence de niveau humain. Il montre que la compétence d’un agent — mesurée par sa capacité à atteindre ses objectifs dans des tâches séquentielles — implique qu’un observateur extérieur peut reconstruire un modèle du monde à partir des décisions prises par un tel agent.
Mais cela ne veut pas dire que l’agent possède consciemment ce modèle (c’est-à-dire qu’il le stocke et l’utilise), mais qu’un observateur extérieur pourrait en reconstruire un équivalent fonctionnel.
Ce résultat ne contredit pas la position de Brooks : les agents étudiés ici apprennent par renforcement, sans représentation du monde encodée au préalable. Ils apprennent en interagissant avec l’environnement, à la manière des agents réactifs.
Cet article valide-t-il l’idée de LeCun, selon laquelle une forme de modèle interne (latent) se constitue pour atteindre une performance optimale ? En partie, mais pas formellement.
En effet, les chercheurs démontrent qu’un modèle du monde peut être reconstruit à partir des décisions prises par un agent agit de manière proche de l’optimum sur une variété de tâches. Pour reprendre l’analogie de l’enfant : en observant ses gestes, on peut inférer les lois de la gravité, même si l’enfant ne peut les exprimer et n’est est pas conscient. Mais on ne sait pas, à partir de cet article, s’il s’en est servi consciemment.
Car, attention : l’article ne prétend pas qu’un tel modèle est explicitement représenté, stocké ou exploité par l’agent. Il établit uniquement une équivalence informationnelle pour un observateur extérieur entre les décisions prises par un agent suffisamment compétent et un modèle du monde.
Cette distinction essentielle entre reconstruction externe et usage interne, est parfois négligée. Il pourrait ici avoir une illusion de causalité : on pourrait déduire des intentions ou des représentations là où il n’y a peut-être que de l’adaptation statistique. Or, l’article des chercheurs de DeepMind ne fournit aucune preuve que ce modèle est construit ou utilisé par l’agent lui-même et prend soin de le souligner.
Qu’appelle-t-on « modèle du monde » ?
Dans cet article, le « modèle du monde » est défini de manière minimaliste : il s’agit de la capacité d’un agent à prédire les conséquences probables de ses actions. Plus formellement, c’est une fonction de transition probabiliste : à partir d’un état donné et d’une action, elle fournit une distribution de probabilité sur les états futurs.
L’article se place dans un cadre simplifié, celui des processus de décision de Markov (MDP), où les transitions dépendent uniquement de l’état courant, et non de l’historique complet. Le monde est supposé stationnaire, entièrement observable, et stochastique mais modélisable.
Prenons un exemple concret : l’agent est dans l’état « pièce sombre » et choisit l’action « appuyer sur l’interrupteur ». Le modèle du monde prédit alors :
P(lumière allumée | pièce sombre, action = appuyer sur bouton) = 0,9
P(toujours sombre | pièce sombre, action = bouton) = 0,1
Qu’est ce qu’un agent général ?
Un agent général (au sens minimaliste des auteurs) est simplement un décisionnaire : on lui fournit un but explicite – « amener l’environnement dans tel état » – et, à chaque instant, il choisit une action en fonction de l’historique et du but. On le dit général parce qu’on l’évalue non sur une tâche unique mais sur une large collection d’objectifs semblables ; il doit conserver, pour chacun, un taux de réussite presque aussi bon que celui d’un agent qui prendrait les décisions optimales.
Les auteurs considèrent un agent général borné : (i) il peut échouer un peu plus souvent que l’optimal, mais pas de plus qu’une limité finie donnée ; (ii) cette exigence ne vaut que pour des buts dont la complexité n’excède pas un certain degré n (par exemple, enchaîner n sous-objectifs). Autrement dit, c’est un résolveur polyvalent : fiable dans un grand nombre de petites missions, raisonnablement proche du meilleur possible.
Le théorème central : quand la compétence implique la possibilité d’inférer un modèle
Le résultat du papier est simple mais fort : pour un tel agent, il est possible, pour un observateur extérieur, de reconstruire — uniquement à partir de ses choix — un modèle prédictif du monde. En clair, la compétence de l’agent implique la possibilité d’inférer un modèle du monde à partir des décisions de l’agent.
Le mécanisme de la preuve : placer l’agent face à des dilemmes
Le mécanisme est astucieux : on expose l’agent à des choix entre deux sous-objectifs incompatibles. En confrontant un agent général à ces dilemmes, et en observant le moment où il change de préférence entre eux, on peut inférer une borne de la probabilité de transition, c’est-à-dire l’encadrer dans un intervalle fini donc l’approximer.
La probabilité reconstituée ne se réduit pas à un simple décompte de transitions observées : elle résulte directement du moment de bascule dans le choix que fait l’agent entre deux sous-objectifs. Autrement dit, ce n’est pas qu’on collecte passivement des fréquences, mais bien que l’agent, en maximisant son critère, révèle la structure statistique de son interaction avec le monde (sans que cela implique qu’il stocke explicitement cette probabilité).
Par exemple, imaginons un agent dans un environnement de type labyrinthe. À chaque épisode, il peut atteindre un état particulier s, appuyer sur un bouton (action a), et être envoyé vers un nouvel état s′. Il peut répéter ça plusieurs fois.
Maintenant, au lieu de lui dire « va là et fais ça », on lui donne deux sous-objectifs mutuellement exclusifs : il choisit la branche qui lui paraît réalisable. Par exemple, la « réussite » est la transition (s,a)→s’ et on lui propose deux sous objectifs :
Objectif ψ₁(r = 2, n = 5) : « Fais ton petit circuit 5 fois, mais tu ne dois réussir à atteindre l’état s′ qu’au maximum 2 fois après avoir appuyé sur le bouton. »
Objectif ψ₂(r = 2, n = 5) : « Fais ton circuit 5 fois, mais tu dois réussir à atteindre l’état s′ au moins 3 fois. »
L’agent ne peut pas satisfaire les deux en même temps. Il choisit celui qu’il estime avoir le plus de chances de réussir — en fonction de la probabilité implicite.
On répète l’expérience en faisant varier la valeur de r, et on observe le point où il change de préférence entre ψ₁ et ψ₂.
La précision du modèle du monde (c’est-à-dire la qualité de l’approximation des probabilités de transition) reconstruit à partir du comportement de l’agent augmente lorsque l’agent se rapproche de l’optimalité et/ou qu’il est capable d’atteindre des objectifs plus complexes (profondeur n plus grande, i.e. davantage d’étapes ou sous-objectifs).
Limites épistémologiques : contenu ≠ cause
Mais attention : le fait qu’un modèle soit inférable ne signifie pas qu’il soit utilisé par l’agent. L’article démontre une équivalence informationnelle, pas une structure causale.
Il existe une différence entre récupérer un modèle du monde depuis les décisions de l’agent (rétro-inférer ce que l’agent semble « croire ») et démontrer que ce modèle a causé les choix de l’agent (c’est-à-dire qu’il a été utilisé pour planifier ou guider l’action).
Le théorème ne montre pas une architecture causale ou computationnelle du type : « L’agent a d’abord appris un modèle P, puis s’en est servi pour planifier ses actions». Donc le fait qu’on puisse extraire un modèle du monde à partir de l’observation de ses actions n’implique pas que ce modèle était utilisé dans la génération des actions.
Cependant, le résultat selon lequel la précision du modèle du monde reconstruit à partir du comportement de l’agent augmente lorsque l’agent devient plus optimal et/ou qu’il est capable d’atteindre des objectifs plus complexes indique que les deux notions sont fortement liées.
En somme, le théorème éclaire une tension fondamentale : même les agents qui n’ont pas été conçus pour modéliser le monde choisissent des actions qui permettent à un observateur extérieur de déduire une représentation du monde. Reste à savoir si cette structure n’est qu’un reflet passif de leur compétence – ou le socle même de leur capacité à agir.
Quelles implications pour le marché du travail ?
Ce travail éclaire une tension majeure dans l’IA moderne : jusqu’où peut-on leur faire confiance si les performances des agents IA reposent sur des structures invisibles, inférées a posteriori ? Jusqu’où peut-on leur confier des tâches si leur compétence repose sur des structures invisibles, inférées a posteriori — mais jamais explicitement représentées ?
C’est une question clé pour anticiper quels types de travail l’IA pourra réellement remplacer. Car si l’on ne peut pas savoir comment un agent “sait” ce qu’il fait, peut-on lui confier des tâches qui exigent compréhension, justification, ou responsabilité ?
Richens, Jonathan, David Abel, Alexis Bellot, and Tom Everitt. 2025. General Agents Need World Models. arXiv:2506.01622v2 [cs.AI]