Votre agent IA est opérationnel, mais quid de votre infrastructure ?
0
Réaction
Livres blancs
Copilot Microsoft 365 : Libérez votre créativité, simplifiez votre quotidien !
Secteur industriel : quelle stratégie pour rester compétitif ?
La donnée industrielle au coeur de la performance client
A mesure que l'IA agentique passe des phases pilotes à la production, les entreprises réalisent que les principales lacunes ne résident pas dans les capacités de l'IA elle-même, mais dans l'infrastructure qui l'entoure. Sécurité, couche sémantique, orchestration, monitoring : sans ces composantes, point de système agentique efficace.
La complexité opérationnelle de l'orchestration de multiples composants représente le principal défi lors de la création d'agents selon Docker. (crédit : Dataiku)
IDC estime qu'à la fin de l'année dernière, plus de 28 millions d'agents IA étaient déjà déployés, et prévoit que plus d'un milliard seront actifs d'ici 2029, exécutant 217 milliards d'actions par jour. « Créer une expérimentation (PoC) avec un agent d'IA est facile, explique Venkat Achanta, directeur de la technologie, des données et de l'analytique chez TransUnion, une société d'information sur le crédit réalisant un chiffre d'affaires de 4,6 Md$. Mais le gouverner, le sécuriser et le faire évoluer représente un tout autre défi, en particulier pour les entreprises de secteurs fortement réglementés comme les services financiers et la santé.»
Pour relever ce défi, TransUnion a consacré les trois dernières années au développement de sa plateforme IA multi-agents, OneTru. L'objectif : créer une solution aussi fiable et déterministe que les anciens systèmes automatisés, basés sur des scripts et des systèmes experts, mais avec la flexibilité de l'IA générative et la simplicité d'usage d'un chatbot. L'astuce consistait à combiner le meilleur des deux mondes : utiliser des systèmes traditionnels pour les processus clés où l'explicabilité et la fiabilité sont essentielles, et intégrer progressivement des fonctionnalités de GenAI pour les tâches pour lesquelles elles étaient particulièrement adaptées. L'infrastructure nécessaire n'étant pas disponible, TransUnion a développé la sienne, en y consacrant 145 M$.
Décomposer une tâche en travaux élémentaires
Cet investissement conséquent dans une technologie non éprouvée a déjà permis de réaliser 200 M$ d'économies. De plus, une fois la plateforme mise en place, TransUnion l'a utilisée pour concevoir des solutions destinées à ses clients. En mars dernier, par exemple, TransUnion a lancé son agent AI Analytics Orchestrator, développé sur la plateforme OneTru et basé sur les modèles Gemini de Google. Cet agent était déjà utilisé en interne pour améliorer les résultats d'analyse, et les clients peuvent désormais l'utiliser pour réaliser leurs propres analyses de données sophistiquées sans avoir besoin de data scientists. Selon Venkat Achanta, de nombreux clients utilisent les données de TransUnion mais n'ont pas recours à d'autres solutions ou plateformes. Le nouvel agent orchestrateur a le potentiel d'aider les clients à tirer davantage de valeur de leurs données et à générer de nouvelles sources de revenus pour l'entreprise.
D'autres agents sont en cours de développement, indique le CTO et responsable data. La clef de leur bon fonctionnement repose sur l'orchestration, la gouvernance et la sécurité. Programmer un agent est très simple et ne prend que quelques jours, explique-t-il. « Mais je dispose des fondations et des garde-fous, et l'agent déployé sur ma plateforme les utilise tous », précise-t-il.
Le secret du bon fonctionnement des agents IA réside dans la séparation d'une tâche en travaux élémentaires et dans l'attribution de chacun à un système différent, opérant sous un ensemble de contraintes. Cette approche limite les dommages qu'un agent peut causer, crée un système de contrôle et d'équilibre, et permet de réserver les activités les plus risquées à une technologie IA de génération précédente.
Rendre le système agentique plus fiable
Par exemple, chez TransUnion, la prise de décision clef est assurée par une version mise à jour d'un système expert. Il fonctionne selon un ensemble de règles bien définies et vérifiables, et ce, de manière prévisible, économique et avec une faible latence. Quand le système fait face à une situation inédite, un LLM analyse le problème, un autre agent peut ensuite le transformer en une nouvelle règle, et un humain peut être sollicité pour examiner les résultats avant l'intégration de cette nouvelle règle au système expert. Et différents agents supplémentaires interagissent avec la couche sémantique, avec les humains ou effectuent d'autres tâches.
« Avec la couche de raisonnement neuronal - issue du LLM -, nous réintégrons l'humain dans le processus, explique Venkat Achanta. Quand il s'agit de raisonnement symbolique, basée sur la logique et le Machine Learning, nous laissons le processus opérer de façon automatique. » Ainsi, lorsque chaque agent opère dans un cadre très précis, avec les seules données nécessaires à sa tâche, et que ses capacités sont limitées, le système dans son ensemble devient beaucoup plus gouvernable et fiable.
C'est un peu comme la différence entre une chaîne de montage, où plusieurs ouvriers effectuent chacun une tâche unique et distincte, et un atelier où un seul artisan réalise le tout. La chaîne de montage est plus rapide et plus fiable or, aujourd'hui, de nombreuses entreprises déploient leurs agents IA comme s'il s'agissait d'artisans. Cette approche peut aboutir à des produits créatifs et uniques, mais ce n'est pas toujours ce dont une entreprise a besoin.
Nicholas Mattei, président du groupe d'intérêt spécial sur l'IA de l'ACM (Association for Computing Machinery, une société savante se focalisant sur l'informatique) et professeur à l'université de Tulane, suggère aux entreprises de renforcer la sécurité aux points de connexion des différentes parties du système d'agents. « Assurez-vous de la sécurité à tous les niveaux », conseille-t-il. Par exemple, si un agent envoie des requêtes à un service de messagerie, établissez un point de contrôle entre les deux. « C'est aux points de jonction entre les agents non fiables et les logiciels traditionnels que vous devez concentrer vos efforts de sécurité », précise-t-il.
Les failles de McKinsey
Selon une enquête de l'éditeur de plateforme low-code Jitterbit, menée auprès de 1 500 responsables informatiques et publiée en mars, la responsabilité de l'IA (sécurité, auditabilité, traçabilité et garde-fous) est le facteur le plus déterminant dans la décision d'achat d'une solution IA, avant même la rapidité de mise en oeuvre, la réputation du fournisseur et le coût total de possession (TCO). Les risques liés à la sécurité, à la gouvernance et à la confidentialité des données figurent également parmi les principaux obstacles au passage en production des initiatives d'IA, avant même les coûts et les difficultés d'intégration. Et ces inquiétudes sont justifiées.
Plus tôt cette année, des chercheurs de la société de cybersécurité CodeWall sont parvenus à compromettre la nouvelle plateforme IA de McKinsey, Lilli. Grâce à un outil d'IA développé en interne, les chercheurs ont pu accéder à 47 millions de messages du chat, 728 000 fichiers, 384 000 échanges avec des assistants IA, 94 000 espaces de travail, 217 000 messages d'agents, près de 4 millions de fragments de documents RAG, ainsi qu'à 95 prompts système et configurations de modèles IA. « Il s'agit de décennies de recherche, de frameworks et de méthodologies propriétaires de McKinsey - le fleuron intellectuel de l'entreprise -, exposé dans une base de données accessible à tous », ont écrit les chercheurs.
La raison de cette fuite de données ? Sur plus de 200 points d'accès API publics, 22 ne nécessitaient aucune authentification. Il n'a fallu que deux heures aux chercheurs pour obtenir un accès complet en lecture et en écriture à l'intégralité de la base de données de production de Lilli. McKinsey a réagi rapidement à l'alerte, corrigé les points d'accès non authentifiés et pris d'autres mesures de sécurité. « Notre enquête, menée avec le soutien d'un cabinet d'expertise judiciaire de premier plan, n'a révélé aucune preuve d'accès aux données ou informations confidentielles de clients par ce chercheur ou toute autre tierce partie non autorisée », a déclaré l'entreprise dans un communiqué.
Les dangers de la délégation de pouvoirs
IDC affirme que cet incident souligne à quel point une faille de sécurité dans un système IA peut être dangereuse pour une entreprise. « La plupart des entreprises perçoivent encore les risques liés à l'IA selon des critères dépassés : fuites de données, résultats erronés et atteinte à la réputation de la marque, analyse Alessandro Perilli, vice-président de la recherche en IA chez IDC. Ce sont des problèmes sérieux, mais le risque majeur réside dans la délégation de pouvoirs aux systèmes IA. »
En accédant à une plateforme agentique, un attaquant peut non seulement consulter des informations confidentielles, mais aussi modifier subrepticement le fonctionnement des processus. Et la sécurisation des systèmes d'IA agentique à l'échelle de l'entreprise ne représente que la moitié du défi auquel sont confrontés les DSI. Selon Gartner, 69% des organisations soupçonnent leurs employés d'utiliser des outils d'IA interdits. Selon le cabinet, 40% d'entre elles subiront des incidents de sécurité ou de conformité d'ici 2030.
Le casse-tête du recensement des agents
Par ailleurs, les outils de découverte disponibles ne sont pas encore totalement au point pour identifier tous les agents IA, estime Gartner. « Si je vous demandais combien d'agents sont actuellement en production dans votre entreprise, où iriez-vous trouver cette information ?, interroge Swaminathan Chandrasekaran, responsable des laboratoires d'IA et de données chez KPMG, entreprise qui compte aujourd'hui plusieurs milliers d'agents IA en production. Ont-ils tous été intégrés et possèdent-ils une identité ? Ont-ils suivi une procédure
← Volver a las noticias