Agents IA : nouveaux alliés ou fausse intelligence ?

27/05/2025

Ils assistent, exécutent, rédigent, résument… mais sans comprendre. Ces nouveaux agents intelligents s’invitent dans les entreprises comme des collègues numériques capables d’apprendre et d’agir. En interaction avec des humains ou en autonomie, ils promettent des gains de productivité — mais soulèvent aussi des questions d’éthique, de dépendance cognitive et de responsabilité. Décryptage avec Laurence Devillers, experte en IA à la Sorbonne.

Quelle définition donnez-vous de l’IA agentique ?

Laurence Devillers – Une IA agentique perçoit, décide et agit selon une intention assignée. Elle représente une entité capable de comprendre des objectifs de haut niveau et d’établir une liste d’actions puis de les exécuter, sous la supervision d’un humain, ou de manière autonome. Une IA agentique peut ainsi lire des mails, synthétiser des informations, interagir par la parole. Elle s’inscrit dans le prolongement des automates et non en rupture avec eux, avec comme principal apport que l’agent conversationnel est entraîné à grande échelle sur la base de modèles (LLM), qu’il est capable de planifier, de combiner des outils, et d’optimiser ses réponses via une mémoire de travail. Il évolue de fait dans ses réponses et décisions au fur et à mesure des interactions. 
Mais si elle semble plus intelligente, l’IA agentique reste cependant limitée. L’arrivée de modèles capables de raisonnement nous rapprochera d’une automatisation plus avancée, sans franchir le seuil de la compréhension. Cela reste fondé sur des mathématiques, probabilistes, sans les capacités propres à l’humain : compréhension globale, conscience, sensorialité, éthique, sens critique… 

Quels sont ses principaux atouts pour les organisations ?

L. D. – L’IA agentique excelle dans les tâches liées au traitement de l’information : rédiger des synthèses, générer des rapports, compiler des données, automatiser des processus, produire du code. Elle peut traiter du texte, de l’image, de l’audio, et demain sans doute des gestes, interprétés par captation et traitement vidéo. En architecture, par exemple, elle permet de concevoir des modèles à partir de descriptions visuelles et verbales. Les agents conversationnels dialoguent aussi en langage naturel pour répondre aux questions d’utilisateurs dans les secteurs de la finance, des assurances, des centres d’appel. Des « robots sociaux » sont aussi utilisés dans des Ehpad pour accompagner les résidents, notamment ceux atteints de troubles cognitifs. Mais ces systèmes ne sont pas infaillibles : ils « hallucinent », fabriquent des réponses sans base réelle, et manipulent parfois nos représentations. Il faut donc cadrer leur usage : vérifier les résultats, croiser les sources, intégrer des IA de contrôle.

Comment gérer les impacts de l’IA agentique sur le travail et les compétences ?

L. D. – La machine peut compiler, pas inventer. Sous-traiter certaines tâches à un agent IA ne doit pas faire oublier l’apprentissage humain. De plus, ces systèmes modifient notre rapport au réel : ils simulent l’altérité, donnent l’illusion d’une présence. À terme, cela peut fragiliser notre autonomie, voire provoquer une dépendance cognitive. Le bon usage repose sur la collaboration : à l’humain de guider, de contrôler, de transmettre son expertise. La créativité humaine alliée à la puissance algorithmique peut ouvrir des voies nouvelles, à condition de rester dans une dynamique de cocréation, et non de substitution. J’insiste : ces agents ne comprennent pas ce qu’ils font. Ils exécutent. Il faut donc enseigner aux utilisateurs à faire preuve de recul, à questionner ces outils, sans leur prêter plus qu’ils ne peuvent donner.

Quelles sont les considérations éthiques à prendre en compte ?

L. D. – D’abord, être clair sur ce que ces IA agentiques sont : des machines probabilistes, sans conscience. Il ne faut pas entretenir l’illusion d’une pensée, car ces systèmes sont alimentés par des données issues d’activités humaines, et programmés par des humains. De plus, une IA agentique fera toujours en sorte de répondre à une question, sans raisonnement. L’IA agentique tend à abonder dans le sens de la question posée, produisant souvent de la banalité ou des biais. L’éthique, c’est aussi refuser l’opacité. Beaucoup de ces outils sont des « boîtes noires ». Il faut documenter les sources, tester les divergences, surveiller les biais. Et surtout, former les utilisateurs à l’esprit critique. Enfin, le risque serait de déléguer sans contrôle. L’IA agentique doit toujours être encadrée, comparée, contextualisée. La responsabilité reste humaine. Ce sont des outils puissants, mais sans sens. C’est à nous d’en faire bon usage.

 

Biographie

Professeure d’intelligence artificielle à l’université Paris Sorbonne (LIMSI/CNRS), Laurence Devillers est une spécialiste des agents autonomes et de leur impact sur l’organisation du travail. Elle préside la Fondation Blaise Pascal de médiation en mathématiques et informatique, fait partie du Comité national d’éthique du numérique et de l’IA, et s’implique pour une présence accrue des femmes dans les sciences. Elle a écrit le livre IA, ange ou démon ?, paru aux éditions du Cerf en 2025.

 

Crédits photo couverture : ©Adobe Stock

Biographie

VOUS POURRIEZ ÉGALEMENT AIMER