Favoriser une IA agentique au-delà de la phase de nourrisson

⚡ Résumé en français par Brief IA
• Les parents s'inquiètent des étapes de développement des jeunes enfants, ce qui peut être comparé à l'évolution des IA. • L'évaluation des progrès des enfants est cruciale pour identifier des problèmes de santé potentiels. • La comparaison des étapes de développement de l'IA avec celles des enfants souligne l'importance de l'éducation et de l'encadrement. 💡 Pourquoi c'est important : Comprendre le développement de l'IA peut aider à mieux intégrer ces technologies dans notre société.
📄 Article traduit en français
Favoriser une IA agentique au-delà de la phase de nourrisson
Les parents d'enfants en bas âge font face à de nombreuses inquiétudes concernant les étapes de développement, de l'enfance à l'âge adulte. Le nombre de mois qu'un bébé met à apprendre à parler ou à marcher est souvent utilisé comme référence pour évaluer son bien-être ou comme indicateur de tests supplémentaires nécessaires pour diagnostiquer une éventuelle condition de santé. Un parent se réjouit des premiers pas de son enfant, puis réalise à quel point la situation a changé lorsque l'enfant peut rapidement marcher à l'extérieur, au lieu de ramper lentement dans un espace sécurisé à l'intérieur. Soudain, la sécurité, y compris la protection de l'enfant, prend une perspective et une approche complètement différentes.
L'IA générative a atteint sa phase de « jeune enfant » entre décembre 2025 et janvier 2026 avec l'introduction d'outils sans code de plusieurs fournisseurs et le lancement d'OpenClaw, un agent personnel open source publié sur GitHub. Fini le ramper sur le tapis — le bébé technologique de l'IA générative s'est mis à sprinter, et très peu de principes de gouvernance étaient opérationnellement prêts.
Le défi de la responsabilité : Ce n'est pas eux, c'est vous
Jusqu'à présent, la gouvernance s'est concentrée sur les risques liés aux résultats des modèles avec des humains impliqués avant que des décisions conséquentes ne soient prises — comme pour les approbations de prêts ou les candidatures à des emplois. Le comportement des modèles, y compris la dérive, l'alignement, l'exfiltration de données et l'empoisonnement, était au centre des préoccupations. Le rythme était déterminé par un humain interagissant avec un modèle sous forme de chatbot, avec de nombreux échanges entre machine et humain.
Aujourd'hui, avec des agents autonomes opérant dans des flux de travail complexes, la vision et les avantages de l'IA appliquée nécessitent beaucoup moins d'humains dans le processus. L'objectif est d'exploiter une entreprise à la vitesse de la machine en automatisant des tâches manuelles ayant une architecture et des règles de décision claires. L'objectif, du point de vue de la responsabilité, est qu'il n'y ait aucune réduction du risque d'entreprise ou commercial entre un flux de travail géré par une machine et un flux de travail géré par un humain. CX Today résume la situation de manière succincte : « L'IA fait le travail, les humains portent le risque », et la loi de l'État de Californie (AB 316), entrée en vigueur le 1er janvier 2026, supprime l'excuse « L'IA l'a fait ; je ne l'ai pas approuvé ». Cela est similaire à la parentalité, où un adulte est tenu responsable des actions d'un enfant qui impactent négativement la communauté au sens large.
Le défi est que, sans intégrer un code qui impose une gouvernance opérationnelle alignée sur différents niveaux de risque et de responsabilité tout au long du flux de travail, l'avantage des agents autonomes en IA est annulé. Dans le passé, la gouvernance était statique et alignée sur le rythme d'interaction typique d'un chatbot. Cependant, l'IA autonome, par conception, retire les humains de nombreuses décisions, ce qui peut affecter la gouvernance.
Considérer les permissions
Tout comme donner à un enfant de trois ans une console de jeu vidéo qui contrôle à distance un char Abrams ou un drone armé, laisser un système probabiliste fonctionner sans garde-fous en temps réel pouvant modifier des données critiques de l'entreprise comporte des risques significatifs. Par exemple, des agents qui intègrent et enchaînent des actions à travers plusieurs systèmes d'entreprise peuvent dépasser les privilèges qu'un utilisateur humain unique se verrait accorder. Pour avancer avec succès, la gouvernance doit évoluer au-delà des politiques établies par des comités vers un code opérationnel intégré dans les flux de travail dès le départ.
Un mème humoristique sur le comportement des jeunes enfants avec des jouets commence par toutes les raisons pour lesquelles le jouet que vous avez est à moi et se termine par un jouet cassé qui est définitivement à vous. Par exemple, OpenClaw a offert une expérience utilisateur plus proche de celle d'un assistant humain ; cependant, l'excitation a changé lorsque des experts en sécurité ont réalisé que des utilisateurs inexpérimentés pouvaient facilement être compromis en l'utilisant.
Depuis des décennies, l'informatique d'entreprise a vécu avec l'IT clandestin et la réalité que des équipes techniques qualifiées doivent prendre en charge et nettoyer des actifs qu'elles n'ont pas conçus ou installés, un peu comme l'enfant qui rend un jouet cassé. Avec les agents autonomes, les risques sont plus importants : des identifiants de compte de service persistants, des jetons API à longue durée de vie et des permissions pour prendre des décisions sur des systèmes de fichiers essentiels. Pour relever ce défi, il est impératif d'allouer dès le départ un budget informatique et une main-d'œuvre appropriés pour soutenir la découverte centrale, la supervision et la remédiation pour les milliers d'agents créés par les employés ou les départements.
Avoir un plan de retraite
Récemment, une connaissance a mentionné qu'elle avait fait économiser à un client des centaines de milliers de dollars en identifiant puis en mettant fin à un « projet zombie » — un pilote d'IA négligé ou échoué laissé en cours d'exécution sur une instance cloud GPU. Il existe potentiellement des milliers d'agents qui risquent de devenir une flotte de zombies au sein d'une entreprise. Aujourd'hui, de nombreux dirigeants encouragent les employés à utiliser l'IA — sinon — et les employés sont invités à créer leurs propres flux de travail ou assistants AI-first. Avec l'utilité d'un outil comme OpenClaw et des directives descendantes, il est facile de projeter que le nombre d'agents « construits par soi-même » arrivant au bureau avec leur employé humain va exploser. Puisqu'un agent IA est un programme qui relèverait de la définition de la propriété intellectuelle de l'entreprise, à mesure qu'un employé change de département ou d'entreprise, ces agents peuvent devenir orphelins. Il est nécessaire d'avoir des politiques et une gouvernance proactives pour décommissionner et retirer tout agent lié à un identifiant d'employé spécifique et à des permissions.
L'optimisation financière est une gouvernance dès le départ
Bien que pour certains dirigeants, l'IA autonome semble être un moyen d'améliorer leurs marges opérationnelles en limitant le capital humain, beaucoup découvrent que le retour sur investissement pour le remplacement de la main-d'œuvre humaine est le mauvais angle à adopter. Ajouter des capacités d'IA à l'entreprise ne signifie pas acheter un nouvel outil logiciel avec un tarif prévisible par instance par heure ou par siège. Une enquête IDC de décembre 2025, sponsorisée par Data Robot, a indiqué que 96 % des organisations déployant de l'IA générative et 92 % de celles mettant en œuvre de l'IA agentique ont signalé que les coûts étaient plus élevés ou beaucoup plus élevés que prévu. L'enquête sépare les concepts de gouvernance et de retour sur investissement, mais à mesure que les systèmes d'IA se développent au sein de grandes entreprises, la gouvernance financière et de responsabilité doit être intégrée dans les flux de travail dès le début. Une partie de la gouvernance de classe entreprise découle de la prévision et du respect des budgets alloués. Contrairement aux modèles financiers logiciels basés sur des coûts par siège avec des frais de support et de maintenance, l'utilisation de l'IA est basée sur des coûts de consommation et d'utilisation qui augmentent à mesure que le flux de travail s'étend à l'échelle de l'entreprise : plus il y a d'utilisateurs, plus il y a de jetons ou plus il y a de temps de calcul, et plus la facture est élevée. Pensez-y comme à une note laissée ouverte, ou au bouton de panier d'achat numérique d'un détaillant en ligne déverrouillé sur un appareil de jeu électronique d'un enfant.
Les FinOps cloud étaient déterministes, mais les systèmes d'IA générative et d'IA agentique construits sur l'IA générative sont probabilistes. Certains fondateurs axés sur l'IA réalisent qu'un seul jeton d'agent peut coûter jusqu'à 100 000 $ par session. Sans garde-fous intégrés dès le départ, enchaîner des agents autonomes complexes qui fonctionnent sans supervision pendant de longues périodes peut facilement dépasser le budget pour l'embauche d'un développeur junior.
Garder les humains dans la boucle reste essentiel
La promesse de l'IA agentique autonome est l'accélération des opérations commerciales, des introductions de produits, de l'expérience client et de la fidélisation des clients. Passer à des décisions à la vitesse de la machine sans humains dans le processus pour ces fonctions clés modifie considérablement le paysage de la gouvernance. Bien que de nombreux principes autour des permissions proactives, de la découverte, de l'audit, de la remédiation et des opérations/optimisations financières soient les mêmes, leur exécution doit évoluer pour suivre le rythme de l'IA agentique autonome.
Brief IA — Veille IA quotidienne
Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.