Red Hat ouvre Ansible aux agents IA avec certaines limites
0
Réaction
Livres blancs
SecNumCloud : tout comprendre en 3 points
Quelles plateformes de protection des workloads cloud choisir ?
Singularity Cloud : la solution CWPP
Le fournisseur déploie son serveur MCP pour Ansible et présente en avant-première un orchestrateur qui canalise les actions des agents IA via des playbooks.
Red Hat a ouvert le serveur MPC pour la plateforme d'automatisation Ansible. (Crédit Red Hat)
A l’occasion de sa conférence annuelle à Atlanta du 11 au 14 mai,
Red Hat
a multiplié les annonces autour des agents IA. Parmi elles, on trouve la disponibilité pour tous du serveur MCP (model context protocol) pour Ansible, la plateforme d’automatisation open source. Pour rappel, cet outil facilite l'approvisionnement logiciel, la gestion de la configuration et le déploiement applicatif dans différents environnements. En parallèle, le fournisseur a présenté en avant-première un orchestrateur d’automatisation qui gère les actions via des playbooks déterministes approuvés par les humains. L’objectif est de donner la capacité aux entreprises de commencer à se servir de l’IA pour automatiser leur flux de travail tout en gardant un contrôle strict sur ce que les agents peuvent et ne peuvent pas faire. Un risque qui fait écho à plusieurs cas où des agents ont effectué des actions non autorisées (effacement de courriels, de bases de données, …). Parmi les autres annonces, les administrateurs pourront désormais déléguer aux utilisateurs finaux la possibilité de déclencher des automatisations. Par exemple, les responsables d'atelier peuvent déclencher des mises à jour à un moment où elles perturberont le moins possible le calendrier de production. De plus, Red Hat permet à présent à plusieurs événements de déclencher le même guide d'automatisation, au lieu d'avoir à créer un guide distinct pour chaque événement.
Lors d’un point presse, Sathish Balakrishnan, vice-président et directeur général de la division Ansible chez Red Hat a indiqué que la plateforme étoffe le support des modèles IA. En plus de WatsonX Code Assistant d’IBM, elle prendra en charge ceux de « Google, Anthropic, OpenAI et tout autre modèle de premier plan compatible avec l’API OpenAI », précise le dirigeant. Les entreprises pourront également fournir à la plateforme leurs propres informations contextuelles sous forme d’intégration RAG. « Les clients connaissent très bien le contexte : ils connaissent nos politiques, ils savent quand nous mettons à jour les machines, ils ont établi des règles pour leur infrastructure IT si bien que nous pouvons commencer à prendre en compte tous ces éléments », observe-t-il. En reconnaissant que « l’IA est imprévisible » et comporte des risques. D’où l’idée d’avoir des « guides préétablis, testés et approuvés pour créer les automatisations demandées par les utilisateurs », glisse-t-il. Le recours à ces playbooks est moins coûteux qu’à des LLM. « Nous savons que les tokens coûtent cher et nous savons quelle est la meilleure façon d’appliquer un correctif sur une machine. Alors pourquoi faire appel à une IA pour cela si l’on dispose déjà d’un guide opérationnel qui a fait ses preuves ? », constate le responsable.
Un pari risqué pour les analystes
Pour les analystes, « l’accès MCP qui permet à des agents IA externes de se connecter à Ansible, est nouveau et risqué », confie Paul Nashawaty, analyste chez Efficiently Connected. Il ajoute, « les préoccupations de sécurité sont bien réelles. Si ces agents sont connectés à des systèmes d’automatisation dotés de privilèges élevés, l’ampleur des dégâts peut être considérable, que ce soit des pannes accidentelles de production ou des actions destructrices ». Il rappelle que les cas d’usage actuels les plus pertinents de l’IA « sont le dépannage assisté, la mise en conformité, le libre-service pour les développeurs et l’exécution de workflows approuvés par des humains ». Avec les fonctionnalités dans Ansible, « les développeurs pourront demander des environnements en langage naturel ou des systèmes IA pourront corréler automatiquement les alertes et suggérer des corrections » évoque Paul Nashawaty
De son côté Jevin Jensen, analyste chez IDC, explique qu’il attend depuis 18 mois des fournisseurs qu’ils proposent des interfaces en langage naturel pour leurs plateformes. « Ces interfaces peuvent véritablement étendre l’usage et la valeur de la plateforme pour les nouveaux utilisateurs et améliorer l’efficacité des anciens », affirme-t-il. Pour lui, « la clé réside dans la mise en place d’une bonne gouvernance afin de réduire les risques » et de mettre en avant « l’exploitation correcte du contrôle d’accès basé sur les rôles ». Il salue l’initiative des playbooks pour que les entreprises puissent créer plus rapidement des guides d’automatisation. « IDC recommande de commencer par l'environnement de développement ou par un domaine cloud ayant un impact moindre », a-t-il conseillé.
Une erreur dans l'article?
Proposez-nous une correction
Cet article vous a plu?
Partagez le !
Newsletter LMI
Recevez notre newsletter comme plus de 50000 abonnés
Commentaire
Suivre toute l'actualité
Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
Je m'abonne
← Back to news