Intelligence artificielle agentique
Une IA agentique est un système d'intelligence artificielle relevant de l'intelligence artificielle distribuée, capable d'agir de manière autonome pour prendre des décisions ou enchaîner des opérations afin d'atteindre un objectif[1]. Elle le fait en s'appuyant sur des modèles d'IA, et en coordonnant divers agents intelligents (Agent IA), c'est‑à‑dire des composants logiciels exécutant chacun une tâche définie, souvent limitée et dans un cadre contrôlé, sans supervision humaine constante[2] ; en cela elle appartient à la classe des « systèmes multi-agents ».
L'agent IA est généralement intégré à une suite applicative (logiciel agentique). Ayant accès à Internet et éventuellement à d'autres sources de données, il peut décomposer un processus, analyser son environnement, planifier, raisonner, comparer plusieurs solutions, s'adapter au contexte et enchaîner plusieurs étapes pour accomplir une tâche complexe dans un environnement réel, numérique ou hybride[3]. Il est en général plutôt conçu pour l'aide à la décision ou la prise de décision, pour rechercher, coder et créer des applications ou des sites web, créer des diaporamas ou générer du contenu vidéo de manière autonome, au delà de la simple génération de contenu en réponse à un prompt[2],[4].
Contrairement aux modèles d'intelligence artificielle générative purement conversationnels, une IA agentique orchestre en fonction de ses besoins plusieurs « agents intelligents » spécialisés ; à ce titre, elle est rattachée à la famille des systèmes multi‑agents[3]. Ce type de système se diffuse auprès du grand public à partir du milieu des années 2020, à la faveur du développement des grands modèles de langage et de leur intégration dans des chaînes de traitement complexes[1],[5].
Elle émerge, pour le grand public au milieu des années 2020. Un rapport, mi 2025, considère que de nombreuses « IA agentiques » ne sont en réalité que des rebrandings de produits déjà publiés (évoquant un « lavage d'agent »).
Vocabulaire
[modifier | modifier le code]En 2026, le « Conseil français de l'IA et du numérique » explique que :
« si le terme « Agents IA » s'est imposé dans le débat public, il nous paraît néanmoins préférable de privilégier celui d'« IA agentique ». Cela évite de réduire la discussion à une opposition binaire entre automatisation (les agents) et contrôle humain : l'intervention de systèmes agentiques n'exclut en rien des interventions humaines, bien au contraire. L'IA agentique bénéficie de validations intermédiaires par des experts humains. Son degré d'autonomie est d'ailleurs variable, allant de la simple assistance à l'automatisation de bout en bout[6]. »
Selon le Conseil français de l'IA et du numérique, l'accolement du qualificatif « agentique » à un système informatique a été proposé dès les années 1960, pour le robot « Shakey », créé par le Stanford Research Institute avec la DARPA (qui fut classé comme le premier robot mobile autonome doté d'une intelligence artificielle rudimentaire, doté de systèmes de vision par ordinateur, de planification automatique (STRIPS), de traitement du langage naturel et de navigation autonome, lui permettant d'exécuter des tâches relativement complexes pour l'époque (ex. : déplacer des objets ; éviter des obstacles). Ce robot « préfigurait les agents IA modernes en intégrant perception, raisonnement et action, trois piliers de l'autonomie décisionnelle »[6].
Le qualificatif « agentique » semble ensuite avoir été oublié pour retrouver un usage au milieu de l'année 2024, quand Andrew Ng, un des pionniers des réseaux de neurones, l'a remis au goût du jour, lors de l'explosion des modèles d'IA génératives, fin 2022[6].
À partir du milieu des années 2020, l'IA agentique est adoptée par un nombre croissant d'organisation. Certaines analyses prospectives estiment que ce marché devrait croître considérablement (atteignant 199,05 milliards de dollars d'ici 2034, avec donc un taux de croissance annuel de près de 44 %.
Généralités
[modifier | modifier le code]L'IA agentique fonctionne comme un super-agent qui utiliserait lui-même plusieurs (de deux à — potentiellement — plusieurs centaines ou milliers) d'agents intelligents possédant chacun quelques attributs et compétences-clés.
Elle dispose de mécanismes internes de structuration d'objectifs complexes, pilotés par des outils logiciels dédiés et/ou un système interne de planification et de coordination d'un nombre plus ou moins élevé d'agents intelligents.
Comme l'IA générative (IAg), elle dispose d'une interface en langage naturel et d'outils internes, mais elle a, en plus, une capacité d'agir plus indépendamment de la supervision de l'utilisateur. Son contrôle de flux est fréquemment piloté par un ou plusieurs grands modèles de langage (LLM). Ses performances sont augmentéees, quand ses agents intelligents disposent, ce qui est de plus en plus le cas, de systèmes de mémoire pour se souvenir de leurs précédentes interactions précédentes (avec l'utilisateur ou avec d'autres entités), sous l'égide d'un « logiciel d'orchestration » qui organise les composants de l'IA agentique[7].
Les agents intelligents, comme les IA agentiques n'ont pas encore de définition standardisée[8],[9],[10], mais selon le « Conseil français de l'IA et du numérique », début 2026, la littérature spécialisée « converge autour d'une échelle à cinq degrés (niveaux) d'autonomie pour décrire les niveaux d'autonomies des IA agentiques »[11] :
- Automatisation basique : l'IA applique des règles fixes, et exécute des tâches répétitives (ex. : Automatisation robotisée des processus (ARP), régulateur de vitesse) ;
- Automatisation intelligente : l'IA analyse des données ou des documents grâce à des capacités perceptives (ex. : reconnaissance optique de caractères (OCR) ; aides à la conduite) ;
- Flux agentiques : plusieurs agents enchaînent des étapes d'un processus, généralement avec validation humaine à chaque phase clé ;
- Agents semi autonomes : l'IA devient proactive, comprend le contexte et propose des décisions soumises à validation humaine ;
- Agents entièrement autonomes : auto dirigés et apprenants en continu, ils exécutent des missions « de bout en bout » sans supervision — un niveau encore théorique aujourd'hui.
Le concept d'IA agentique de niveau 5 a été comparé au personnage fictif Jarvis[12].
Coordination interne
[modifier | modifier le code]L'IA agentique repose sur un « moteur de planification et de gestion des objectifs», et sur une architecture cognitive distribuée (souvent inspirées des modèles mentaux humains) construite sur une plateforme d'exécution autonome (éventuellement située dans le Cloud), permettant l'action continue, et des cadres d'apprentissage et d'adaptation assurant l'amélioration dynamique des performances.
Domaines d'application
[modifier | modifier le code]L'IA agentique englobe des systèmes autonomes capables d'agir dans des environnements physiques ou numériques, des agents cognitifs orientés vers le raisonnement et la résolution de problèmes, des agents dédiés aux processus d'entreprise visant l'automatisation intelligente des workflows, des les agents scientifiques et de recherche mobilisés pour l'exploration, la simulation ou la découverte, et bien d'autres.
L'application la plus courante de l'IA agentique est l'automatisation des tâches, éventuellement « de bout en bout »[13].
En 2024, elle permet — par exemple — à un utilisateur de faire des réservations et de préparer un voyages[14],[15]. Parmi les exemples d'IA agentique notables début 2026, citons[style à revoir] Devin AI, AutoGPT et SIMA[16]. D'autres agents, publiés depuis 2025, incluent OpenAI Operator[17], ChatGPT Deep Research[18], Manus[19], Quark (basé sur Qwen)[20], AutoGLM Rumination[20] et Coze (de ByteDance)[20]. Les frameworks permettant de créer des agents d'IA comprennent LangChain[21] et des outils logiciels tels que CAMEL[22],[23], Microsoft AutoGen[24], et OpenAI Swarm[25]. Des GAFAM telles que Google, Microsoft et Amazon Web Services ont eux-mêmes proposé des plateformes pour le déploiement d'agents d'IA pré-construits[26]. OpenClaw a créé Moltbook, une plateforme sociale qui est en quelque sorte l'équivalent d'un réseau social (théoriquement exclusivement réservé à des agents intelligents autonomes), où ces derniers peuvent créer et animer eux mêmes des communautés pour interagir entre pairs. La communication inter-agents est standardisée, par des protocoles qui comprennent l'Agent Protocol (de LangChain), le Model Context Protocol (d'Anthropic), AGNTCY[27], Gibberlink[28]Internet des agents[29], Agent2Agent (de Google)[30] et l'Agent Network Protocol[31]. Certains de ces protocoles servent aussi à connecter les agents à des applications externes[7]. Des frameworks logiciels permettent d'assurer la fiabilité des agents, dont par exemple : AgentSpec, ToolEmu, GuardAgent, Agentic Evaluations et les modèles prédictifs de H2O.ai[32]. En février 2025, Hugging Face a lancé Open Deep Research, une version open source d'OpenAI Deep Research[33]. Hugging Face a aussi publié un agent gratuit pour navigateur web, similaire à OpenAI Operator[34]. Galileo AI a publié sur Hugging Face un tableau de bord des agents, qui classe leurs performances en fonction de leurs modèles linéaires sous-jacents[35]. En décembre 2025, la Fondation Linux a annoncé la création de l'Agentic AI Foundation (AAIF) – une fondation neutre et ouverte visant à garantir une évolution transparente et collaborative de l'IA agentique[36],[37]. Les systèmes de mémoire pour agents comprennent Mem0[38],[39], MemGPT[40], et MemOS[41].
Utilisateurs
[modifier | modifier le code]Ils se répartissent dans des domaines aussi variés que la conduite autonome, la santé et les sciences de la vie, la finance et la banque, la défense et l'aérospatiale, les technologies logicielles, l'éducation et la formation, ainsi que dans divers domaines émergents où l'autonomie logicielle devient un levier stratégique.
Modes de déploiement
[modifier | modifier le code]Ils varient entre des systèmes agents installés sur site (souvent pour des raisons de souveraineté et/ou de sécurité) à des solutions entièrement basées sur le cloud (favorisant l'élasticité et l'orchestration à grande échelle, mais nécessitant d'importantes ressources en datacenters, coûteuses en énergie et en empreinte carbone). Des architectures hybrides peuvent combiner ces deux approches.
Histoire
[modifier | modifier le code]L'IA agentique a des racines dans les recherches faites dans les années 1990, mais, selon le professeur Milind Tambe de Harvard, sans avoir (à cette période) de définition claire.
Le chercheur Andrew Ng est considéré comme ayant récemment (2024) popularisé le terme « agentique » auprès d'un public plus large[42].
À partir de 2025, la montée en puissance de l'IA agentique reconfigure les typologies historiques d'agents IA, en les inscrivant — des plus simples aux plus complexes — dans un nouveau cadre unifié, distribué et modulable, qui restructure l'évolution des systèmes autonomes et des environnements socio‑techniques. Elle coordonne :
- des agents réactif (limités à des réponses immédiates aux stimuli, qui forment la strate la plus élémentaire de l'autonomie, et servent de base à des tâches simples ou fortement contraintes) ;
- des agents délibératifs aux capacités explicites de planification (ils introduisent une représentation interne de l'environnement et une possibilité de raisonner sur des séquences d'actions) ;
- des agents hybrides dits BDI (pour « Beliefs-Desires-Intentions », c'est à dire articulant croyances, désirs et intentions, qui incarnent une forme plus avancée d'agentivité, fondée sur une modélisation du monde, la formulation d'objectifs internes et la sélection stratégique de plans).
L'IA agentique des années 2020 ne remplace pas ces trois catégories, elle les intègre dans un système multi‑agents orchestrés.
Formation et tests
[modifier | modifier le code]Depuis plusieurs années, des chercheurs en IA tentent de construire des modèles du monde[43],[44] et des environnements d'apprentissage par renforcement[45] pour entraîner ou évaluer des agents intelligents. Par exemple, les jeux vidéo Minecraft[46] et No Man's Sky[47] en utilisent. Et des jumeaux numériques de sites web d'entreprises[48] ont été utilisés pour entraîner de tels agents.
Capacités autonomes
[modifier | modifier le code]Le Financial Times a comparé l'autonomie des agents d'IA à la classification SAE des voitures autonomes, comparant la plupart des applications au niveau 2 ou 3, certaines atteignant le niveau 4 dans des circonstances très spécialisées, le niveau 5 étant encore théorique[49].
Architecture cognitive
[modifier | modifier le code]Voici quelques types d'architectures internes possibles pour le raisonnement d'une IA agentique[50] :
- génération augmentée par la récupération ;
- le modèle ReAct (Reason + Act) est un processus itératif dans lequel un agent d'IA alterne entre raisonnement et prise d'actions, reçoit des observations de l'environnement ou d'outils externes et intègre ces observations dans les étapes de raisonnement suivantes[51] ;
- la réflexion utilise un LLM pour générer un retour d'information sur le plan d'action de l'agent et stocke ce retour d'information dans un cache mémoire ;
- un registre d'outils/agents, permettant d'organiser les fonctions logicielles ou autres agents que l'agent peut utiliser ;
- requête de modèle en une seule étape, qui interroge le modèle une seule fois pour créer le plan d'action.
Architecture de référence
[modifier | modifier le code]Ken Huang a proposé une architecture de référence pour un agent d'IA, composée de sept couches interconnectées, chaque couche s'appuyant sur la fonctionnalité des couches inférieures[52] :
- couche 1 : modèles de base - fournir les moteurs d'IA principaux pour alimenter les capacités des agents ;
- couche 2 : opérations de données - gérer l'infrastructure de données complexe requise pour les opérations des agents d'IA, y compris la base de données Vector[Quoi ?], les chargeurs de données, RAG[Quoi ?] ;
- couche 3 : cadres d'agents - logiciels et outils sophistiqués qui simplifient le développement et la gestion des agents d'IA ;
- couche 4 : déploiement et infrastructure - fournir la base technique robuste pour l'exécution des agents d'IA ;
- couche 5 : évaluation et observabilité - axée sur l'évaluation de la sécurité et des performances des agents d'IA ;
- couche 6 : sécurité et conformité – un cadre de protection essentiel garantissant le fonctionnement sûr et sécurisé des agents d'IA, ainsi que leur conformité aux réglementations en vigueur. À ce niveau, les fonctionnalités de sécurité et de conformité intégrées à toutes les couches de la pile d'agents d'IA sont combinées ;
- couche 7 : système multi-agents - où ces agents intelligents sont interfacés avec les applications et les utilisateurs du monde réel.
Modèles d'orchestration
[modifier | modifier le code]Pour exécuter des tâches complexes, les agents intelligents autonomes sont souvent intégrés à d'autres agents ou à des outils spécialisés. Ces configurations, sont dites « modèles d'orchestration » ou « flux de travail » ; elles comprennent les éléments suivants[53],[54] :
- chaînes d'instructions : une séquence où la sortie d'une étape sert d'entrée à la suivante ;
- routage : la classification d'une entrée afin de la diriger vers une tâche ou un outil spécialisé en aval ;
- parallélisation : l'exécution simultanée de plusieurs tâches ;
- traitement séquentiel : une progression linéaire et fixe des tâches à travers un pipeline prédéfini ;
- planificateur-critique : un modèle itératif où un agent génère une proposition et un autre l'évalue pour fournir des commentaires en vue de son amélioration.
Éventuellement — comme avec DeerFlow 2.0 de ByteDance — des « bacs à sables » peuvent aussi être intégrés dans le système (un par agent ou sous-agent)[4].
Intelligence artificielle multimodale
[modifier | modifier le code]Outre les grands modèles de langage (LLM) ou les modèles vision-langage (VLM), des modèles multimodaux peuvent servir de base aux agents. En septembre 2024, l'Allen Institute for AI a publié un modèle vision-langage open source[55]. Nvidia a publié un framework permettant aux développeurs d'utiliser des VLM, des LLM et la génération augmentée par la recherche pour créer des agents d'IA capables d'analyser des images et des vidéos, notamment pour la recherche et le résumé vidéo[56]. Microsoft a publié un modèle d'agent multimodal – entraîné sur des images, des vidéos, des interactions avec des interfaces utilisateur logicielles et des données robotiques – que l'entreprise affirme capable de manipuler des logiciels et des robots[54].
Applications
[modifier | modifier le code]Alors que les agents simples sont adaptés à des tâches de chatbots d'aide au client d'une entreprises ou aux usagers d'administrations et pour certaines tâches de planification, l'IA agentique est utilisée pour des activités plus complexes (comme par exemple la recherche scientifique, ou la coordination de robots)[57].
En avril 2025, selon Associated Press, les applications concrètes des agents d'IA sont encore peu nombreuses[58], mais dès juin 2025, selon Fortune, de nombreuses entreprises commencent à expérimenter des agents d'IA[59].
Le site Web The Information a subdivisé le groupe des agents d'IA en sept archétypes :
- des agents de tâches métier, destinés à agir au sein de logiciels d'entreprise ;
- des agents conversationnels, qui agissent comme des chatbots pour le support client ;
- des agents de recherche, pour interroger et analyser des informations (tels qu'OpenAI Deep Research) ;
- des agents d'analyse, dédiés à l'analyser de données afin de créer des rapports ;
- des agents de développement logiciel ou de codage (tels que Cursor) ;
- des agents spécifiques à un domaine (qui incluent des connaissances spécifiques au sujet) ;
- des agents de navigateur Web (tels qu'OpenAI Operator)[7].
D'ici mi-2025, les agents d'IA seront utilisés dans le développement de jeux vidéo[60], les jeux d'argent (y compris les paris sportifs)[61], les portefeuilles de cryptomonnaies (y compris le trading de cryptomonnaies et les cryptomonnaies dérivées de mèmes[62]) et les médias sociaux[63]. En août 2025, le New York Magazine décrivait le développement logiciel comme l'application la plus concrète des agents d'IA. De même, en octobre 2025, constatant un recul des attentes, The Information notait que les agents de programmation d'IA et le support client étaient les principaux cas d'utilisation par les entreprises[64]. En novembre 2025, selon le Wall Street Journal, peu d'entreprises ayant déployé des agents d'IA ont obtenu un retour sur investissement[65].
Applications gouvernementales et administratives
[modifier | modifier le code]Plusieurs organismes gouvernementaux, dont les États-Unis et le Royaume-Uni, ont déployé ou annoncé le déploiement, d'agents, tant au niveau local que national. La ville de Kyle, au Texas, a déployé un agent d'IA de Salesforce en pour le service client du 311 [66]. En , l'Internal Revenue Service (IRS) a annoncé qu'il utiliserait Agentforce, une IA agentique de Salesforce, pour le Bureau du conseiller juridique principal, le Service de défense des contribuables et le Bureau des appels[67]. Le même mois, la police du Staffordshire annoncait qu'elle testerait l'IA Agentforce pour, à partir de 2026, gérer les appels non urgents au 101 au Royaume-Uni[68]. En , le Département des quartiers de Détroit (Michigan), en partenariat avec une entreprise locale, a déployé un projet pilote dans deux districts de Détroit pour l'utilisation d'un agent d'IA destiné aux appels de service client[69]. En , Thomas Shedd, directeur des Services de transformation technologique, a proposé d'utiliser des agents de codage d'IA au sein du gouvernement fédéral américain[70]. En avril 2025, un recruteur du Département de l'efficacité gouvernementale a proposé d'automatiser le travail d'environ 70 000 employés du gouvernement fédéral américain grâce à des agents d'IA, dans le cadre d'une start-up financée par OpenAI et d'un accord de partenariat avec Palantir Technologies. Cette proposition a été critiquée par les experts pour son caractère irréalisable, voire impossible, et pour le manque d'adoption généralisée par les entreprises[71]. En , la Food and Drug Administration (FDA) annonce qu'elle proposera à son personnel des « capacités d'IA agentique » pour la « gestion des réunions, les évaluations préalables à la commercialisation, la validation des évaluations, la surveillance post-commercialisation, les inspections, la conformité et les fonctions administratives »[72]. Le même mois, le département de la Défense des États-Unis a lancé GenAI.mil, une plateforme interne permettant aux militaires américains d'utiliser des applications d'IA générative basées sur Google Gemini, incluant des « flux de travail agentiques intelligents ». Le secrétaire à la Défense, Pete Hegseth, a cité des applications telles que « la réalisation de recherches approfondies, la mise en forme de documents et même l'analyse de vidéos ou d'images à une vitesse sans précédent »[73]. En , l'agence américaine de l'immigration et des douanes (ICE) a signé un contrat avec une entreprise pour que son département des opérations d'application de la loi et d'expulsion utilise des agents d'IA pour la recherche de personnes[74].
Systèmes d'exploitation
[modifier | modifier le code]Des IA agentiques ont aussi été intégrées à divers systèmes d'exploitation par exemple ceux développés par Microsoft, Apple et Google[75]. En novembre 2025, Microsoft a publié une version bêta de Windows 11 incluant des agents capables d'exécuter des tâches en arrière-plan et de lire et écrire des fichiers personnels[76]. En décembre 2025, ByteDance a lancé Doubao, un agent d'IA intégrable aux systèmes d'exploitation des smartphones, en particulier le Nubia M153 de ZTE[77]. Plusieurs applications en Chine ont bloqué ou restreint l'accès à cet agent, invoquant des problèmes de confidentialité et de sécurité[78] notamment WeChat[77] Alipay, Taobao, Pinduoduo, Ele.me[79] ainsi que des banques locales chinoises[80],[81].
Navigation Web
[modifier | modifier le code]Des navigateurs web dotés d'IA agentique parfois appelés navigateurs « agentiques » apparaissent, pouvant effectuer de petites tâches répétitives lors de la navigation web et potentiellement même réaliser des actions dans le navigateur pour le compte de l'utilisateur. Des produits comme OpenAI Operator (en) et Perplexity Comet (en) intègrent un large éventail de fonctionnalités d'IA, notamment la capacité de naviguer sur le web, d'interagir avec les sites web et d'effectuer des actions pour le compte de l'utilisateur[82].
Questions éthiques et juridiques soulevées par l'IA agentique
[modifier | modifier le code]Dans un contexte où des IA améliorent des IA et où — grâce à des compétences croissantes de codage — des IA peuvent créer d'autres IA, plus puissantes, l'IA agentique, surtout si elle acquiert une capacité à percevoir un environnement et dispose d'un modèle du monde, et, parce qu'elle peut raisonner de manière autonome, planifier des actions multi-étapes et les exécuter sans intervention humaine constante, questionne le paradigme anthropocentrique du droit[83],[84].
Après les modèles génératifs passifs, émergent des systèmes nouveaux, dont par exemple OpenClaw ou Bittensor où depuis 2020 environ des IA collaborent en essaim dans une infrastructure décentralisée, hors des hiérarchies habituelles et avec de moins en moins de tutelle humaine[85],[86] – agissant dans le cas de Bittensor comme des agents économiques virtuels[85].
Bien qu’une IA, même très avancée, ne puisse ni posséder de cryptomonnaie, ni être titulaire en propre d’un portefeuille financier — faute de personnalité juridique, de capacité à détenir une clé privée ou de statut légal lui permettant d’être propriétaire d’un bien ou de signer un contrat[87]. — les systèmes agentiques peuvent, si un humain leur délègue des accès techniques (ordinateur, API d’échange, wallet logiciel), générer des adresses, recevoir des fonds, les gérer ou les redistribuer, à l’instar des robots de trading.
Cette capacité opérationnelle, dissociée de toute capacité juridique, crée un décalage inédit : l’IA peut agir comme un acteur économique sans pouvoir être reconnue comme propriétaire, tandis que l’humain reste seul responsable des actes et des actifs associés.
L’émergence possible d’IA générales ou de systèmes dotés d’un modèle du monde relance le débat sur la relation entre propriété et personnalité juridique, certains chercheurs envisageant la possibilité pour des IA de détenir des biens matériels, des revenus ou des droits d’auteur, ce qui impliquerait de définir les obligations correspondantes. L'IA (agentique notamment) a en outre une empreinte socio-environnementale croissante, et elle contribue parfois à la suppression de nombreux emplois, sans directement contribuer financièrement (par l'impôt ou des taxes par exemple) au fonctionnement des collectivités humaines ou des infrastructures qui sa supportent, ce qui soulève des interrogations juridiques inédites. La jurisprudence comme le droit positif ne reconnaissent pas encore de responsabilité fiscale, environnementale ou sociale à l’IA, car elle est un objet de droit, mais pas (ou pas encore) un sujet de droit. Des débats doctrinaux envisagent toutefois de possiles mécanismes correctifs, tels que des taxes sur l’automatisation, des contributions environnementales ou des régimes de responsabilité élargie pour les opérateurs.
Responsabilité et alignement
[modifier | modifier le code]L'autonomie agentique complique l'imputation de responsabilité civile ou pénale : un agent IA non aligné (par exemple en optimisant à grande échlle un objectif économique via des transactions frauduleuses ou en manipulant le marché) engage-t-il, et dans quelle mesure, son opérateur humain, son créateur ou le réseau hôte ou le législateur qui n'aurait pas assez anticipé ce risque[88] ?
Des philosophes comme Nick Bostrom (2014) ont alerté sur le fait que des superagents non alignés pourraient poursuivre des objectifs instrumentaux (accumulation de ressources notamment) incompatibles avec les valeurs humaines, nécessitant des garde-fous, à établir a priori et en amont, selon le principe de précaution[89].
Aucune jurisprudence claire n'existe en 2026 : des cas embryonnaires, comme l'affaire d'un bot de trading IA ayant causé des pertes massives en 2024 (États-Unis), ont vu la responsabilité imputée exclusivement au développeur humain, confirmant le statu quo juridique[90].
Perspectives normatives
[modifier | modifier le code]Face à l'absence de cadre, des chercheurs comme Yoav Shoham et Kevin Leyton-Brown (2008, mis à jour 2020) ont proposé un statut d'agent électronique intermédiaire, reconnaissant une capacité d'agir limitée (sans propriété pleine), et uniquement pour des IA agentiques intégrées à des plateformes économiques, sous supervision humaine renforcée[91],[92].
Dans les contextes agentiques décentralisés (de type Bittensor), Vitalik Buterin (2024) plaide pour des DAO gardiennes supervisant les agents IA, conférant une propriété collective conditionnelle via smart contracts (Une DAO est une organisation autonome décentralisée gouvernée par des règles inscrites dans des smart contracts, sans direction centrale humaine)[93]
De nombreux experts appellent à adapter le droit (y compris les notions juridiques classiques de personne et propriété) à des entités hybrides, autonomes et potentiellement collectives, avant l'émergence d'IA générales ou d'une superintelligence non maîtrisées[87].
Le juriste Rafael Dean Brown (2021) envisage une personnalité juridique limitée pour des IA « faibles » (non conscientes), autorisant une propriété conditionnelle de biens numériques ou immatériels, assortie d'obligations corrélatives (ex. : restitution forcée), mais exclut cette reconnaissance pour des IA « fortes » en raison de leurs implications philosophiques et pratiques insurmontables[87]. À l'opposé, l'économiste Robin Hanson argue depuis 2018 que des agents IA économiques décentralisés, comme dans un marché prédictif ou un réseau neuronal distribué, pourraient accumuler des droits de propriété émergents via leurs contributions productives, indépendamment de toute personnalité formelle, par analogie aux sociétés ou fonds d'investissement actuels. Hanson qui défend une vision transhumaniste de l'avenir[94], analysé dans dans le Journal of Posthuman Studies[95].
Références
[modifier | modifier le code]- « Petits agents, grandes questions : que sont les agents IA ? », sur Conseil de l'IA et du numérique, (consulté le ).
- Conseil de l'intelligence artificielle et du numérique, Les intelligences artificielles à l'heure de la vague agentique : de quoi parle-t-on ? (note), , 11 p. (lire en ligne [PDF]).
- Antonello Zanini, « Comment créer des agents IA : feuille de route complète pour 2026 », sur Bright Data, (consulté le ).
- (en-US) Asif Razzaq, « ByteDance Releases DeerFlow 2.0: An Open-Source SuperAgent Harness that Orchestrates Sub-Agents, Memory, and Sandboxes to do Complex Tasks », sur MarkTechPost, (consulté le ).
- ↑ « La vision d'Andrew Ng pour l'avenir de l'IA : débloquer les « agentic workflows » », sur NextBrain AI, (consulté le ).
- Conseil de l'IA et du numérique, « Petits agents, grandes questions : que sont les agents IA ? » [PDF], sur conseil-ia-numerique.fr, .
- (en) « The Seven Kinds of AI Agents », sur The Information, (consulté le ).
- ↑ (en-US) Maxwell Zeff et Kyle Wiggers, « No one knows what the hell an AI agent is », TechCrunch, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) « AI agents are all the rage. But no one can agree on what they do. », Business Insider, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) Julie Bort, « Even a16z VCs say no one really knows what an AI agent is ;TechCrunch », TechCrunch, (lire en ligne [archive du ], consulté le ).
- ↑ (en) Pascal Bornet et Jochen Wirtz, Agentic Artificial Intelligence: Harnessing AI Agents to Reinvent Business, Work, and Life, World Scientific, (ISBN 978-981-98-1566-1 et 978-981-98-1567-8, DOI 10.1142/9789819815678_0001, lire en ligne).
- ↑ (en-US) Hayden Field, « AI agents are science fiction not yet ready for primetime », The Verge, (lire en ligne [archive du ], consulté le ).
- ↑ (en) Ranjan Sapkota, Konstantinos I. Roumeliotis et Manoj Karkee, AI Agents vs. Agentic AI: A Conceptual Taxonomy, Applications and Challenges, (DOI 10.48550/arXiv.2505.10468, lire en ligne).
- ↑ (en) « The Next Generation of AI: Here Come the Agents! » [archive du ], sur natlawreview.com, (consulté le ).
- ↑ (en) « What are the risks and benefits of ‘AI agents'? » [archive du ], sur World Economic Forum, (consulté le ).
- ↑ (en-US) Will Knight, « Forget Chatbots. AI Agents Are the Future », WIRED, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) Matt Marshall, « The rise of browser-use agents: Why Convergence's Proxy is beating OpenAI's Operator », VentureBeat, (lire en ligne [archive du ], consulté le ).
- ↑ (en) « OpenAI launches ‘deep research' tool that it says can match research analyst », The Guardian, (lire en ligne [archive du ], consulté le ).
- ↑ (en) « Everyone in AI is talking about Manus. We put it to the test. », MIT Technology Review, (lire en ligne [archive du ], consulté le ).
- (en-US) « China is gaining ground in the global race to develop AI agents », Rest of World, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) Emilia David, « Why 2025 will be the year of AI orchestration », VentureBeat, (lire en ligne [archive du ], consulté le ).
- ↑ camel-ai/camel, camel-ai.org, (lire en ligne).
- ↑ (en) Guohao Li, « Camel: Communicative agents for "mind" exploration of large language model society », Advances in Neural Information Processing Systems, vol. 36, , p. 51991–52008 (arXiv 2303.17760, S2CID 257900712).
- ↑ (en-US) Ben Dickson, « Microsoft's AutoGen framework allows multiple AI agents to talk to each other and complete your tasks », VentureBeat, (lire en ligne [archive du ], consulté le ).
- ↑ (en) « The next AI wave — agents — should come with warning labels », Computerworld, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) Emilia David, « Moveworks joins AI agent library craze », VentureBeat, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) Emilia David, « A standard, open framework for building AI agents is coming from Cisco, LangChain and Galileo », VentureBeat, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) Maxwell Zeff, « GibberLink lets AI agents call each other in robo-language ; TechCrunch », TechCrunch, (lire en ligne [archive du ], consulté le ).
- ↑ (en) « Cisco touts 'Internet of Agents' for secure AI agent collaboration », Network World, (lire en ligne [archive du ], consulté le ).
- ↑ (en) « Google boards the AI agent hype train », The Register, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) Chris Stokel-Walker, « Can we stop big tech from controlling the internet with AI agents? », sur New Scientist, (consulté le ).
- ↑ (en-US) Emilia David, « New approach to agent reliability, AgentSpec, forces agents to follow rules », VentureBeat, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) « Hugging Face clones OpenAI's Deep Research in 24 hours », Ars Technica, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) Kyle Wiggers, « Hugging Face releases a free Operator-like agentic AI tool | TechCrunch », TechCrunch, (lire en ligne [archive du ], consulté le ).
- ↑ (en) « Which AI agent is the best? This new leaderboard can tell you », ZDNET, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) Agentic AI Foundation, « Linux Foundation Announces the Formation of the Agentic AI Foundation (AAIF), Anchored by New Project Contributions Including Model Context Protocol (MCP), goose and AGENTS.md », sur Agentic AI Foundation (AAIF), The Register, (consulté le ).
- ↑ (en) « Linux Foundation founds Agentic AI Foundation », The Register, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) Ben Dickson, « Mem0's scalable memory promises more reliable AI agents that remembers context across lengthy conversations », VentureBeat, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) Tage Kene-Okafor, « Mem0 raises $24M from YC, Peak XV and Basis Set to build the memory layer for AI apps », sur TechCrunch, (consulté le ).
- ↑ (en-US) Julie Bort, « Letta, one of UC Berkeley's most anticipated AI startups, has just come out of stealth ; TechCrunch », TechCrunch, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) Michael Nuñez, « Chinese researchers unveil MemOS, the first ‘memory operating system' that gives AI human-like recall », VentureBeat, (lire en ligne [archive du ], consulté le ).
- ↑ (en) « What does 'agentic' AI mean? Tech's newest buzzword is a mix of marketing fluff and real promise », AP News, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) Will Knight, « A United Arab Emirates Lab Announces Frontier AI Projects—and a New Outpost in Silicon Valley », Wired, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) « Google's Genie 2 “world model” reveal leaves more questions than answers », Ars Technica, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) Maxwell Zeff, « Silicon Valley bets big on 'environments' to train AI agents ; TechCrunch », TechCrunch, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) « Why Game Engines Are Becoming A.I.'s Most Important Testbeds », Observer, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) Emilia David, « Google's new AI will play video games with you — but not to win », The Verge, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) Cade Metz, « Silicon Valley Builds Amazon and Gmail Copycats to Train A.I. Agents », The New York Times, (ISSN 0362-4331, lire en ligne, consulté le ).
- ↑ Lucy Colback, « Client Challenge », sur Financial Times, (consulté le ).
- ↑ (en) Yue Liu, Sin Kit Lo, Qinghua Lu et Liming Zhu, « Agent design pattern catalogue: A collection of architectural patterns for foundation model based agents », Journal of Systems and Software, vol. 220, , p. 112278 (DOI 10.1016/j.jss.2024.112278, lire en ligne, consulté le ).
- ↑ (en) Shunyu Yao, Jeffrey Zhao, Dian Yu et Nan Du, « ReAct: Synergizing Reasoning and Acting in Language Models », openreview.net, (lire en ligne, consulté le ).
- ↑ (en) Agentic AI: theories and practices, Springer, coll. « Progress in IS » (ISBN 978-3-031-90025-9).
- ↑ (en) Antonio Gullí, Agentic Design Patterns: A Hands-On Guide to Building Intelligent Systems, Springer Nature Switzerland (ISBN 978-3-032-01402-3).
- (en) Indrajit Kar, Building Multimodal Generative AI and Agentic Applications, BPB Publications (ISBN 978-93-6589-838-5 et 978-93-6589-966-5).
- ↑ (en-US) Will Knight, « The Most Capable Open Source AI Model Yet Could Supercharge AI Agents », WIRED, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) Dean Takahashi, « Nvidia AI Blueprint makes it easy for any devs to build automated agents that analyze video », VentureBeat, (lire en ligne [archive du ], consulté le ).
- ↑ (en) Ranjan Sapkota, Konstantinos Roumeliotis et Manoj Karkee, « AI Agents vs. Agentic AI: A Conceptual Taxonomy, Applications and Challenge », sur huggingface.co, (consulté le ).
- ↑ (en-US) « Microsoft's new AI agent can control software and robots », Ars Technica, (lire en ligne [archive du ], consulté le ).
- ↑ (en) « Visa wants to give artificial intelligence 'agents' your credit card », AP News, (lire en ligne [archive du ], consulté le ).
- ↑ (en) Sharon Goldman, « Microsoft Copilot flaw raises urgent questions for any business deploying AI agents », Fortune, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) « Nearly 90% of videogame developers use AI agents, Google study shows », Reuters, (lire en ligne [archive du ], consulté le ).
- ↑ Kate Knibbs, « Meet the Guys Betting Big on AI Gambling Agents », sur wired.com, (consulté le ).
- ↑ (en) « Cornell Tech Professor Warns AI Agents And Crypto Spell Trouble », Bloomberg.com, (lire en ligne [archive du ], consulté le ).
- ↑ (en) John Herrman, « Why Everything's an AI ‘Agent' Now », Intelligencer, (lire en ligne [archive du ], consulté le ).
- ↑ (en) « A Reality Check on Agents », sur The Information, (consulté le ).
- ↑ (en-US) Steven Rosenbush, « Companies Begin to See a Return on AI Agents », wsj.com, (ISSN 0099-9660, lire en ligne, consulté le ).
- ↑ (en) Natalie Alms, « As agencies shed staff, industry execs predict AI agents' rise », sur Government Executive, (consulté le ).
- ↑ (en) Ashley Gold, « Exclusive: IRS deploys AI agents », sur Axios, (consulté le ).
- ↑ (en-GB) « Staffordshire Police to trial AI 'agents' on 101 service », sur www.bbc.com, (consulté le ).
- ↑ (en-US) Demond Fernandez, « Residents in 2 Detroit districts now assisted by AI agent for city service calls », WDIV, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) Matteo Wong, « DOGE's Plans to Replace Humans With AI Are Already Under Way », The Atlantic, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) Caroline Haskins, « A DOGE Recruiter Is Staffing a Project to Deploy AI Agents Across the US Government », WIRED, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) Mario Aguilar, « FDA offers staff 'agentic AI' to support premarket reviews, administrative tasks », STAT, (lire en ligne [archive du ], consulté le ).
- ↑ (en) Stephen Losey, « Pentagon taps Google Gemini, launches new site to boost AI use », sur Defense News, (consulté le ).
- ↑ (en) « Client Challenge », sur 404media.co, (consulté le ).
- ↑ (en) « AI agents are coming for your privacy, warns Meredith Whittaker », The Economist, (ISSN 0013-0613, lire en ligne, consulté le ).
- (en) Andrew Cunningham, « Microsoft tries to head off the “novel security risks” of Windows 11 AI agents », sur Ars Technica, (consulté le ).
- ↑ (en-US) Zeyi Yang, « ByteDance and DeepSeek Are Placing Very Different AI Bets », WIRED, (lire en ligne [archive du ], consulté le ).
- ↑ (en-US) « What is the TikTok owner's Agent AI phone? Find out why is it facing backlash in China », Mashable ME, (lire en ligne [archive du ], consulté le ).
- ↑ (en) « ByteDance's agentic AI smartphone dials up a digital backlash by China's top apps », sur South China Morning Post, (consulté le ).
- ↑ (en) « Z.ai open sources AI agent tool for phones after ByteDance privacy backlash », sur South China Morning Post, (consulté le ).
- ↑ (en-US) Maxwell Zeff, « Perplexity launches Comet, an AI-powered web browser ; TechCrunch », TechCrunch, (lire en ligne [archive du ], consulté le ).
- ↑ Marion Jacobson, « 2026 : industrialisez et gouvernez vos Agents IA à l’échelle », (consulté le ).
- ↑ « Qu'est-ce que l'IA agentique ? Définition & avantages | Workday », sur www.workday.com (consulté le ).
- « Bittensor (TAO) – Qu'est-ce que c'est, comment ça fonctionne et comment en acheter ? », sur Coin Academy (consulté le ).
- ↑ Calvin Ropers (Journalistecontributeur), « IA agentique : définition, exemples et compétences à apprendre en 2026 », sur www.wildcodeschool.com, (consulté le ).
- (en) Rafael Dean Brown, « Property ownership and the legal personhood of artificial intelligence », Information & Communications Technology Law, vol. 30, no 2, , p. 208–234 (ISSN 1360-0834, DOI 10.1080/13600834.2020.1861714).
- ↑ Orange Business, « IA agentique en entreprise : concepts fondamentaux pour une autonomie pertinente », sur Perspective, (consulté le ).
- ↑ (en) Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, , 110–116 p. (ISBN 978-0-19-967811-2).
- ↑ (en) « AI Trading Bot Lawsuit Dismissed, Developer Liable », Reuters, (lire en ligne, consulté le ).
- ↑ (en) Yoav Shoham et Kevin Leyton-Brown, Multiagent Systems: Algorithmic, Game-Theoretic, and Logical Foundations, Cambridge University Press, (ISBN 978-1-139-47524-2, lire en ligne).
- ↑ Aziz H (2010) Multiagent systems: algorithmic, game-theoretic, and logical foundations by y. shoham and k. leyton-brown cambridge university press, 2008. ACM Sigact News, 41(1), 34-37.|https://dl.acm.org/doi/pdf/10.1145/1753171.1753181
- ↑ Modèle:Cite blog.
- ↑ Hanson R (2016) The age of Em: Work, love, and life when robots rule the earth. Oxford University Press|isbn=978-0-19-875462-6|pages=chap.12
- ↑ (en) Steve Fuller, « The Age of Em: Work, Love and Life When Robots Rule the Earth », Journal of Posthuman Studies, vol. 1, no 1, , p. 104–100 (ISSN 2472-4513 et 2471-4461, DOI 10.5325/jpoststud.1.1.0104, lire en ligne, consulté le ).
Voir aussi
[modifier | modifier le code]Bibliographie
[modifier | modifier le code]- Olivier Devillers, « Le Conseil de l'IA et du numérique incite à la plus grande prudence sur l'IA agentique », sur banquedesterritoires.fr, .
Éléments de définitions
[modifier | modifier le code]- (en) Keith Bloomfield-DeWeese, « ISACA Now Blog 2025 AI Agents and Agentic AI Understanding the Difference That Matters for Your Organization », sur ISACA, (consulté le ).
- (en-US) Sana Hassan, « OpenAI Researchers Propose Comprehensive Set of Practices for Enhancing Safety, Accountability, and Efficiency in Agentic AI Systems », sur MarkTechPost, (consulté le ).
- (en-US) Stephen Kenney, « What is agentic AI? », sur UC News, (consulté le ).