Fin janvier, ALM donnera accès à ses 15 000 collaborateurs à son outil d’IA générative en mode chat, ALMIA (ALM+IA). Le groupe ALM n’est pourtant pas spécialement connu pour la recherche effrénée de l’innovation. Qu’est-ce qui vous a poussé à investir ainsi dans l’IA générative ?
En effet, mais il faut bien comprendre le contexte de ce qu’est AG2R La Mondiale et des décisions prises en 2022 !
Nous sommes un groupe de référence en assurances de personnes et biens (avec la MAIF) qui couvre 5 métiers (assurance vie, épargne, santé, retraite complémentaire et supplémentaire, et prévoyance), opère ses services pour 15 millions de personnes, plus de 500 000 entreprises (soit quasiment une sur quatre), aussi bien des salariés que des dirigeants ou retraités, dans plus de 110 branches professionnelles en France.
Le groupe s’est constitué par rapprochements successifs, qui ont laissé les systèmes d’information et la data plus ou moins de côté. Jusqu’à créer des silos problématiques - du point de vue de la satisfaction du client, qui pouvait ressentir ces silos, mais aussi pour la pérennité du SI. A tel point que début 2022, le nouveau DG a fait de la transformation du SI un axe central de son plan “Nouvelle Donne”. La situation était vue comme un risque important d’implosion de l’entreprise ; il fallait y remédier d’urgence.
Nous sommes partis sur une vision du SI en grandes plateformes : plateforme de production d’assurances, plateforme de distribution (au sens du marketing ou de la relation client, sur tous les types de canaux : direct, B2B ou encore courtage en marque blanche au travers d’API) et plateforme data (pour récupérer les grands actifs assurantiels du groupe, soit une centaine d’objets métiers qui étaient silotés dans des bases différentes).
Il s’agit d’un plan de transformation majeur, dans lequel nous investissons 640 M€, sur 6 ans. Les 3 premières années devaient servir à rattraper notre retard, être aux standards du marché concernant l’expérience client - nous y sommes. Les 3 prochaines années seront consacrées à l’innovation, à la manière dont nous pouvons nous différencier, dans un secteur assurantiel surtout guidé par la réglementation.
Donc le choix de partir sur l’IA générative doit contribuer à cette différenciation ?
Oui, c’est un choix offensif - nous pensons que, bien industrialisée, cette technologie doit nous permettre à moyen terme de changer de braquet. C’était aussi un choix défensif, il faut l’admettre. Lorsque nous avons lancé notre programme de plateformisation, l’IA n’avait pas une empreinte très forte. Lorsque ChatGPT a explosé dans le public, fin 2022, nous avons rapidement vu son potentiel, mais aussi les risques liés au Shadow AI ! Des collaborateurs utilisaient ChatGPT avec des données de l’entreprise. Au printemps 2023, nous avons donc décidé de fermer l’accès à ChatGPT, mais nous ne pouvions pas ne rien proposer par ailleurs.
Nous avons donc lancé une analyse stratégique avec le Comex, sur laquelle vous nous avez accompagnés, et qui a permis de définir 5 principes directeurs pour notre adoption de l’IA générative.
Définir ces principes directeurs vous a aidé, concrètement ?
Oui, énormément. C’est essentiel pour avoir une communication claire sur le sujet : ce qu’on veut faire, comment et pourquoi. Cela nous a permis de bien faire comprendre que nous n’avions pas l’intention de remplacer les collaborateurs, que nous placions la conformité et la réglementation au cœur de notre projet et qu’il n’y aurait aucune dérogation ou compromission, que les équipes juridiques étaient embarquées d’emblée, ou encore l’importance de l’éthique et de nos valeurs, qui interdisent certains cas d’usage. Cela nous a permis de focaliser notre énergie sur d’autres problématiques. En premier lieu, la création d’une plateforme interne, suffisamment agile pour permettre le déploiement de plusieurs cas d’usage avec plusieurs LLM si besoin.
Où en êtes-vous aujourd’hui ? Quelle est votre utilisation de l’IA générative ?
Nous avons mis en place notre plateforme, ALMIA. Avec 4 grands domaines d’utilisation :
- Le chatbot (Bot by ALMIA), que nous avons progressivement ouvert à l’ensemble du groupe. Pour moi, c’est essentiel pour que les collaborateurs puissent se familiariser avec l’IA, voir les capacités et participer à l’idéation sur les nouveaux cas d’usage - ils nous font part d’idées auxquelles nous n’avions franchement pas pensé ! Le bot présente deux fonctionnalités particulièrement intéressantes : d’abord le RAG (retrieval augmented generation), pour travailler à partir d’un document, puis la possibilité de créer et travailler avec des assistants. Il s’agit de pouvoir spécialiser le moteur sur un sujet spécifique, un vertical métier, par exemple, et le cas échéant de le partager avec des collègues. Il y a un aspect viral auquel je crois beaucoup. Nous comptons déjà 250 assistants.
- ALMIA for Dev, qui met à disposition de nos développeurs mais aussi de l’actuariat (métier qui manipule beaucoup de Java et de Python) toutes les possibilités offertes par l’IA générative en matière de code : conception, analyse de code, migration de langage, génération de cas de tests, rétrodocumentation…
- Les Apps ALMIA, des applications entièrement conçues autour de l’IA générative. Nous en avons deux en production aujourd’hui. L’application de verbatim nous aide à analyser les retours de nos clients. Nous réalisons plus de 100 000 enquêtes de satisfaction par an, et nous avons l’intention de les quadrupler, car nous voulons des retours à chaud. Humainement, ce n’est juste pas possible de traiter tout cela. Nous avions commencé avec du machine learning, mais du point de vue coût et qualité, le résultat était mitigé. L’IA générative nous a permis de faire un vrai bond en avant. La deuxième application, Market Studio, est à destination de toutes les personnes créant du contenu, pour les espaces digitaux, les plaquettes commerciales… L’idée est de créer du contenu personnalisé, texte et images, pour l’ensemble des personas - sachant qu’on dessert tous types de professionnels dans plus de 110 branches différentes !
- Process by ALMIA, enfin, concerne tous les processus qu’on peut optimiser en faisant appel à l’IA générative depuis les applications métiers, au travers des API. Il s’agit par exemple de proposer aux conseillers des comptes-rendus d’appels automatiques directement dans leur application. Ou bien d’améliorer les usages de type LAD/RAD (lecture automatique de documents), particulièrement sur des éléments transmis par les assurés qui ne répondent pas à un formalisme précis. Après apprentissage, l’IA classique fonctionne bien sur des documents structurés ; l’IA générative permet quant à elle de capturer des informations dans un document de tout type, par exemple récupérer des données pertinentes (montant, type de technique, numéro d’identification…) dans un devis d’intervention dentaire. Nous sommes parvenus à monter à 30% d’automatisation, avec un objectif à 50%.
Quel bilan pouvez-vous déjà tirer ? Peut-on parler de ROI ?
Du point de vue financier, il faut déjà voir que l’investissement est relativement faible par rapport à l’ensemble du programme : nous avons investi 600 000 euros, auxquels il faut ajouter 120 000 euros de run pour 2024. Nous n’avons pas formellement mesuré les gains monétaires réalisés, mais très clairement, les champions avec lesquels nous travaillons dans chaque entité du groupe nous confirment que cela facilite le quotidien des collaborateurs. Nous partons du principe que chaque requête ALMIA leur fait gagner du temps. Les gains sont particulièrement flagrants pour les développeurs ou les personnes devant créer du contenu. Quant aux Apps, ce n’est même pas un sujet de gain ; sans l’IA générative, on ne pourrait tout simplement pas le faire (ou du moins sans y consacrer pléthore de moyens).
“Il ne faut pas céder aux sirènes d’un éditeur avec une solution toute faite mais complètement verrouillée. Une plateforme interne est plus difficile à mettre en place, mais cela nous permet de la maîtriser, de la rendre évolutive et d’être agnostique.”
Nous avons coutume de dire que les aspects technologiques ne représentent qu’un pan de la mise en œuvre ; les aspects culturels et organisationnels comptent autant sinon davantage. Vous confirmez ?
Tout à fait ! Le premier défi était celui de l’expertise - technologique mais aussi métier. Nous avons dû constituer une petite équipe, avec des compétences Cloud, DevOps, et y intégrer des représentants de chaque métier, pour nous accompagner sur l’idéation des cas d’usage, sensibiliser leur propre direction et nous accompagner dans l’acculturation des utilisateurs.
Le deuxième sujet est celui de la data, car il n'y a pas de projet IA sans data. Et ce fut plutôt une bonne nouvelle pour nous, car cela a remis sur le devant de la scène la nécessité d’une gouvernance de la donnée adaptée. Nous avons donc lancé en même temps une réflexion sur l’architecture data mesh, avec des data owners et des data stewards bien définis, du lignage, des capacités d’exposition de la donnée sur GCP, etc. pour pouvoir accoster notre stratégie IA avec la stratégie data.
Le troisième défi que nous avions identifié était celui d’une potentielle résistance au changement de la part des métiers et/ou des partenaires sociaux. Nous avons mené les consultations et réalisé des analyses d’impact sur les quelque 300 métiers du groupe, en partenariat avec la DRH. Nous restons bien sûr attentifs, car l’IA va progressivement impacter les métiers et les pratiques. Globalement, les métiers se sont montrés très volontaires - il a même fallu calmer un peu l’emballement parfois, pour éviter un effet déceptif. C’est nous qui avons poussé la technologie, mais l'adoption et les cas d'utilisation seront issus du terrain : les collaborateurs s’emparent de l’IA et créent leurs propres cas d’usage.
Reste-t-il des freins ou des points d’attention particuliers ?
J’en citerais trois en particulier.
- La transparence et l’explicabilité. C’est un vrai sujet, qui doit nous pousser à la modestie. Contrairement aux projets informatiques classiques où nous essayons d’automatiser les processus à 100%, ici il faut savoir rendre la main à l’utilisateur : c’est à lui de juger et retravailler la proposition de l’IA générative en dernier ressort.
- Les aspects FinOps et RSE. Selon les cas d’usage, le recours à tel ou tel moteur de LLM peut s’avérer extrêmement coûteux. Nous avons donc choisi d’orienter les utilisateurs vers ceux qui nous paraissent les plus efficients pour ce qui est demandé. Typiquement, le bot utilise Gemini 1.5, dont le rapport qualité/prix nous paraît approprié. Sur les assistants, nous orientons sur des LLM voire SLM (modèles de langages réduits) spécifiques selon les cas d’usage.
- La veille doit être permanente. La technologie évolue très vite. Autant il faut éviter de surpromettre aux utilisateurs pour éviter la désillusion, autant il faut régulièrement revoir des cas d’usage écartés, dont certains deviennent possibles quelques mois après.
Ce serait un peu contraire à ce que nous attendons d’un tel produit. En revanche, nous avons mis en place un programme d’acculturation. Nous devons en être à une centaine d’interventions dans les différentes directions, pour expliquer les enjeux, les risques, les contraintes… Et pour préparer l’ouverture à l’ensemble des collaborateurs, nous avons prévu 3 modules de e-learning suivis d’un petit quiz certifiant. L’idée est vraiment de faire prendre conscience des enjeux, des possibilités de l’outil, et les sensibiliser à l’art de bien prompter.
Quels conseils donneriez-vous aux entreprises qui hésitent encore à se lancer dans de tels projets ?
D’abord expérimenter, mettre les mains dedans très vite, pour vérifier le potentiel dans la vie réelle. Ensuite, se doter d’une plateforme dont on aura la maîtrise interne : c’est la philosophie de RAISE, la plateforme de SFEIR et WEnvision. Je crois qu’il ne faut pas céder aux sirènes d’un éditeur avec une solution toute faite mais complètement verrouillée. Une plateforme interne est plus difficile à mettre en place, mais cela nous permet de la maîtriser, de la rendre évolutive par rapport à nos objectifs, d’être agnostique par rapport aux différents fournisseurs de LLM, de pouvoir l’utiliser aussi bien en mode chat qu’au travers d’API, etc.
Bien sûr, la réalité sera hybride à terme, chaque éditeur incluant de l’IA dans ses produits. Mais ainsi nous pourrons arbitrer le “make or buy” sereinement, en fonction de ce que chaque éditeur SaaS apporte. En attendant, certains acteurs annoncent des coûts totalement délirants…
Je pense aussi qu’il est important de se faire accompagner pour passer les premières étapes, en faisant attention au choix du partenaire : beaucoup parlent d’IA sans vraiment maîtriser le sujet. Nous avons pu entamer un partenariat productif avec WEnvision, nous nous sommes enrichis mutuellement, et je souhaite que cela continue, mais il faut aussi rapidement être en capacité de prendre les choses en main avec sa propre équipe interne.
Pour finir, quelles sont vos perspectives pour 2025 et au-delà ?
L’IA s’est invitée dans notre plan stratégique en 2023. Aujourd’hui, nous travaillons sur le plan stratégique 2025-2028, et l’IA y aura toute sa place ! Nos 15 000 collaborateurs vont bientôt avoir accès à ALMIA, et je suis persuadé qu’une communauté va se créer autour des assistants, qu’il y aura une émulation. Nous comptons aussi une dizaine de projets très prometteurs dans notre roadmap, qui nous permettront d’ancrer les sujets de ROI. D’ores et déjà, le Comex est convaincu du potentiel de l’IA en tant que levier d’optimisation des processus et d’amélioration de la satisfaction client.