Entretien Luc Barnaud et Laurent Fernandez de BPCE : "Nous avons opté pour OpenAI, Google, Anthropic et Mistral"
0
Réaction
Livres blancs
Copilot Microsoft 365 : Libérez votre créativité, simplifiez votre quotidien !
Secteur industriel : quelle stratégie pour rester compétitif ?
La donnée industrielle au coeur de la performance client
Luc Barnaud, chief AI and data officer et Laurent Fernandez, directeur du centre d'expertise technologique du groupe BPCE décryptent les dessous technologiques, mais aussi éthiques, de souveraineté et de gouvernance de la stratégie IA du groupe.
Luc Barnaud (à D), chief AI and data officer et Laurent Fernandez (à G), directeur du centre d'expertise technologique du groupe BPCE (Photo EDelsol - conférence de presse BPCE novembre 2025)
Depuis 2025, le groupe bancaire BPCE déploie une stratégie d'IA progressive qui s'appuie sur un nombre restreint de cas d'usage, susceptibles d'apporter de la valeur. C'est justement la création et la mesure de cette valeur qui sont au programme de 2026 pour l'entreprise, après un succès en matière d'usages l'an dernier. CIO a interviewé le tandem Luc Barnaud, chief AI and data officer et Laurent Fernandez, directeur du centre d'expertise technologique du groupe BPCE, pour parler des dessous technologiques de la stratégie, du datalake mutualisé à la formalisation de la politique open source ou à l'infrastructure broker de LLM interne. Ces options technologiques vont de pair avec des choix de souveraineté, d'éthique, de gouvernance, d'accompagnement des équipes qui prennent une importance de plus en plus grande entre autres avec les premiers pas en agentique.
Comment s'inscrit le service IA et data que vous pilotez dans l'organisation ?
Luc Barnaud
: La filière IA et data est une filière de plein exercice dans le groupe. Nous ne sommes donc pas rattachés à la direction Technologies et opérations, même si nous travaillons beaucoup avec elle, et notamment avec [le DSI] Laurent Benatar. Je suis rattaché à Yves Tyrode, directeur général Digital & payments du Groupe BPCE. Il chapeaute des sujets transverses au groupe dont le digital avec Emmanuel Puga Pereira, sur la partie digital clients, moi-même sur la partie data IA et une autre activité transverse autour de l'innovation. Il pilote aussi deux métiers au sens P&L, d'une part les paiements et d'autre part la solution de paiement et de financement Oney Bank que BPCE détient avec Elo Group [anciennement Auchan Holding, NDLR].
Où en êtes-vous de votre stratégie data et quels sont les grands enjeux en la matière pour 2026 ?
Luc Barnaud :
Le groupe a lancé en 2024 son
plan stratégique Vision 2030
, cadencé en séquences. Nous sommes dans la première de ces séquences qui court jusqu'à 2026 incluse et s'appuie sur une stratégie IA présentée en 2025 ancrée sur deux jambes. D'abord, l'IA pour tous, avec la conviction que l'IA générative devient un standard de nos vies professionnelles, personnelles, numériques, etc., et qu'il est absolument clé pour nous de mettre ce standard à disposition d'un maximum de nos employés, mais de manière sécurisée et éthique. Cela s'incarne dans un certain nombre de produits, dont notre IA générative interne sécurisée Maïa. Nous avons d'ailleurs atteint dès novembre 2025 les objectifs fixés pour 2026 de 50% d'utilisation de Maïa. Cette première jambe de la stratégie reste d'actualité en 2026. En n'oubliant pas, bien entendu, qu'au-delà des produits comme celui-ci, il y a bien sûr un important enjeu d'accompagnement, de formation.
La deuxième jambe de la stratégie, c'est la transformation des processus, voire de pans entiers d'activité, pour laquelle nous avons choisi 5 sujets avec un impact fort, pour ne pas multiplier les POC. Pour commencer, l'accompagnement par la GenAI des quelque 35 000 conseillers du groupe dans tout le cycle de conseil et de vente, sur les marchés des particuliers, des professionnels, dans la préparation, la réalisation, la synthèse des entretiens par exemple. Ensuite, l'IA générative dans l'app mobile pour nos clients lancée en mars 2025. Nous avons une très forte progression depuis l'annonce du dépassement d'un million d'interactions sur cette app en novembre. Nous allons enrichir cette première version en 2026 avec des connaissances apportées à la GenAI, y compris de la connaissance spécifique à chaque client. Le 3e sujet, c'est l'IA au service de nos centres d'appel sur les métiers spécialisés, comme ceux du crédit à la consommation, de l'assurance ou du paiement. La GenAI traite en automatique certains appels simples - déjà un million sur une base de 12 mois -, mais elle accompagne aussi le téléconseiller avec le compte-rendu d'appel instantané, par exemple. 4e axe de transformation, le traitement de la fraude pour protéger la banque et les clients, passe plutôt par du machine learning pour affiner la détection d'événements. Enfin, le 5e et dernier axe, c'est l'IA pour les métiers de l'informatique.
Laurent Fernandez :
Nous avons essayé des outils du marché pour le développement, comme Github Copilot, mais nos équipes sécurité nous l'ont interdit. Certains agents IA allaient consulter sur les postes de travail des informations qu'ils n'étaient pas supposés chercher. Nous avons donc développé notre propre plug-in appelé Continue sur la base d'une solution open source, et nous l'avons déployé auprès de 2000 de nos développeurs.
Avez-vous déjà des retours mesurables sur ces 5 axes de transformation ?
Luc Barnaud :
2025 a été l'année de l'adoption par les utilisateurs. Et 2026 est celle de la transformation en valeur. Nous avons toujours deux familles d'indicateurs. D'un côté, des mesures d'effets directs liés aux gains de temps, par exemple avec l'enjeu du réinvestissement dans un avantage business. De l'autre côté, des mesures de gains business spécifiques comme la baisse du niveau de fraude qui a un impact financier direct. De la même façon, l'accompagnement de la préparation d'entretien avec les clients va rendre les conseillers plus efficaces, et donc augmenter le taux de concrétisation. Ce second type d'indicateur demande cependant davantage de temps pour disposer d'un retour réel.
Par ailleurs, en plus de ces 5 axes que nous continuons de développer en 2026, nous préparons la prochaine séquence 2027-28 du plan IA qui se concentre sur l'agentique. Nous avons déjà des travaux en cours dans le groupe sur quelques cas d'usage.
Comptez-vous faire évoluer vos infrastructures data dans le cadre de cette stratégie IA, mais aussi dans le cadre de la fusion des SI des Banques Populaires - Caisses d'Épargne ?
Luc Barnaud :
Effectivement, nous avons un important
projet de rapprochement dans le groupe, des systèmes core banking des Banques Populaires et des Caisses d'Épargne
qui restent aujourd'hui des instances et des outils séparés. Ce que nous avons construit pour notre activité retail, depuis environ 3 ans, c'est une couche data commune à l'ensemble du groupe, en l'occurrence un datalake avec Big Query sur un tenant GCP sécurisé, crypté, etc. Il nous permet, avec toutes les précautions d'usage, de croiser la data qui vient de différents univers : le monde des distributeurs - des Banques Populaires et des Caisses d'Épargne - , du monde des producteurs au sens de nos métiers assurance, distribution, etc. Nous avons donc homogénéisé la couche data pour les données structurées. En revanche, nos données les plus sensibles sont conservées dans nos propres datacenters avec des outils on premise.
Pour la GenAI, nous avons fait un choix de souveraineté pour être en capacité de maîtriser notre destin. Les équipes de Laurent [Fernandez] ont construit une infrastructure de brokers de LLM, qui dirigent nos usages de manière dynamique vers différents fournisseurs de modèles, appelés depuis des tenants sécurisés dans Azure ou dans GCP. Nous avons opté pour OpenAI, Google, Anthropic et Mistral. Mais nous pouvons aussi router les requêtes vers des modèles instanciés en local sur nos propres infrastructures on premise. Il est essentiel pour nous, en matière de souveraineté, mais aussi de coûts, de maîtriser notre gare de triage vers des partenaires que nous avons choisis.
Et cette couche d'abstraction répond également à un enjeu de mutualisation. C'est en effet un actif mutualisé dans le groupe, qui permet d'accéder à tous les produits à base de GenAI que nous utilisons, qu'il s'agisse de notre portail interne sécurisé, des produits pour nos clients, nos conseillers, nos informaticiens, etc.
Laurent Fernandez :
La couche d'abstraction est effectivement intéressante à plus d'un titre. Pour le finops, comme l'évoque Luc, nous suivons quotidiennement les coûts induits par les appels à chaque LLM. Mais c'est aussi intéressant pour les développeurs qui passent facilement d'un LLM à l'autre, en changeant une simple virgule d'appel dans une API.
Quelles sont les règles d'aiguillage vers un LLM plutôt que l'autre ? Une combinaison entre le coût, la souveraineté, la sensibilité de la donnée ?
Luc Barnaud
: Le premier aiguillage consiste à vérifier que l'usage du produit IA est compatible avec l'utilisation de nos infrastructures tenants sécurisées dans le cloud. Ou si ce n'est pas le cas, à diriger la requête vers nos datacenters on premise. Ensuite, effectivement, en fonction de la tâche confiée à la GenAI, nous trouvons le meilleur compromis entre performance, latence et coût. Et il n'y a pas de réponse absolue. Nous avons aussi un enjeu de frugalité. Donc, si un LLM de plus petite taille réalise la tâche de façon satisfaisante, c'est lui que nous allons choisir plutôt que le dernier modèle GPT ou Gemini, par exemple.
Vous ne priorisez pas Mistral ?
Luc Barnaud :
Non pas systématiquement pour les usages via API, car pour nous, garder ce côté agnostique et agile pour choisir entre les LLM est un enjeu fort. En revanche, pour l'inférence en local, pour construire des capacités sur nos propres datacenters, l'installation d'un LLM est plus lourde. Nous avons donc choisi de commencer avec certains modèles de Mistral.
Quelles démarches de gouvernance RSE mettez-vous en place dans le cadre de cette st
← Back to news