Pays
Éthique et Intelligence Artificielle : 3 questions à Cécile Wendling, directrice de la prospective AXA
Cantonnée à l’univers de la science-fiction il y a seulement quelques années, l’intelligence artificielle a quitté le domaine de la prospective pour intégrer notre quotidien. Quelle place doit-elle prendre au sein du monde de l’assurance ? Surtout, comment construire un cadre éthique solide pour garantir que ce puissant outil soit utilisé dans une démarche responsable ? Rencontre avec Cécile Wendling, directrice de la prospective du groupe AXA, membre du High level expert group sur l’IA de la commission européenne et représentante d’AXA au board de l’association Impact AI.
Cécile Wendling anime également une table ronde sur les outils de gouvernance pour une IA responsable lors de la conférence organisée par Impact IA sur le site Java d’AXA le 25 janvier 2019.
L’impact de l’intelligence artificielle dans l’assurance est multiple. Elle peut tout d’abord contribuer à changer la forme d'interaction avec le client et à améliorer l’expérience client. Prenons l’exemple d’un dommage survenant de nuit lors d’une catastrophe de grande ampleur. Là où un call center classique risquerait d’être fermé ou saturé, on peut imaginer que le client puisse faire appel à un chat-bot ou un voice-bot qui le guide sur les premiers gestes à avoir en cas de dommage.
Un autre impact certain est que l’IA transformera notre manière de travailler en interne. Les algorithmes nous permettront de mieux travailler, d’atteindre l’excellence opérationnelle.
Le troisième point représente un changement radical pour le métier d’assureur : il concerne l’assurance de l'IA. Dans un monde pénétré de plus en plus par des solutions basées sur l’IA, nous devons être en mesure d’assurer des véhicules autonomes, des navettes autonomes, ou toute forme d'entreprise 4.0.
En clair, l’intelligence artificielle concerne notre métier mais elle le dépasse largement. Comme partout ailleurs, elle ne transforme pas notre mission d’assureur, mais nous invite à la penser différemment.
On ne peut pas faire de la technologie sans se poser la question de l'impact qu'elle peut avoir sur la société et sur le monde. Lorsqu’on parle d’IA responsable, il faut commencer par se poser des questions simples : quelles sont nos valeurs ? Comment décliner nos engagements dans les nouveaux produits et dans les décisions autour de l’intelligence artificielle ? En bref, comment est-on responsable by design dans les conceptions des systèmes intelligents et dans les outils de gouvernance de l'entreprise ?
Attention, il ne s'agit pas de limiter des actions, au contraire ! Il est question de définir des principes d'action. Lorsqu’on se pose les bonnes questions by design, alors cela nous évite de nous retrouver dans des situations d'impasses ou de difficultés.
Aujourd’hui, nombreuses sont les chartes qui sont publiées sans être suivies d’effets. Nous posons un principe inverse : celui de l’action. Chez AXA, l’usage responsable en matière d’IA constitue un engagement fort de notre responsabilité sociale. Cela se décline sous plusieurs initiatives. AXA Research-Fund finance des travaux de recherche qui favorisent l’émergence de l'IA responsable. Nous faisons en sorte que nos propres data scientists développent ou contribuent à la création d’outils pour une IA responsable. Nous contribuons par ailleurs au débat autour de ces sujets. Je suis par exemple membre du High Level Expert Group de la Commission européenne sur l'IA. Mon travail au sein de ce groupe vise à assurer l'émergence de principes sur l'IA au niveau européen.
Concrètement, la mise en place d’une IA responsable passe par l’implémentation de « briques » fondatrices et incontournables. Certaines briques sont d’ordre technique. Elles consistent à dire : « tel algorithme doit respecter telles valeurs ». Mais il peut aussi s’agir de briques de gouvernance, qu'il faut intégrer dans les processus de prises de décisions. Le rôle d’AXA est de définir ces briques et de les mettre en place.
Nous sommes convaincus qu’en prenant des engagements, nous pouvons inspirer d'autres acteurs à suivre cette voie. Nous savons aussi que cette démarche ne peut se faire seul.
C’est là le sens d’Impact IA, cette association loi 1901 dont AXA est membre fondateur et où je siège au conseil d’administration en tant que spécialiste IA responsable. Avec d’autres grands groupes qui eux aussi se posent la question d’une intelligence artificielle responsable et de la mise place de process et d’outils pour l’atteindre, nous avons décidé de partager ces briques dans une bibliothèque ouverte à toute organisation souhaitant les mettre en place.
Partager des outils ouverts et inciter d'autres à le faire peut favoriser un important gain de temps. Avec Impact IA, nous avons la conviction qu’ensemble nous serons plus forts pour mettre en place nos engagements de façon durable.
Il faut savoir rester humble en matière de technologie en général et d’IA en particulier : le chemin est très long et complexe. D'une part parce que les chercheurs n'ont pas toutes les réponses, et d’autre part parce que ce sujet impose de nous confronter à des questions inédites. Chaque modèle a ses limites et nous allons tous devoir apprendre collectivement et bien saisir les biais des nouvelles technologies qui arrivent. La solution ne peut pas être individuelle mais celle d'un collectif qui apprend ensemble et qui partage. C’est là le sens de notre engagement au sein d’Impact AI qui va nous permettre de formuler des engagements concrets pour une IA éthique et responsable.