Blog Accenture Assurance

Avec la montée en puissance de l'intelligence artificielle, de ses capacités – et de son impact sur la vie quotidienne – les entreprises doivent « dresser » les IA à agir comme des membres responsables et productifs de la société. L'IA citoyenne : entraîner l'IA pour la mettre au service de l'entreprise et de la société. Voilà l'une des cinq tendances mises en lumière dans l'édition 2018 de la Vision Technologique d’Accenture. Pour les assureurs, cette tendance est déjà pertinente.

Les outils et décisions fondées sur l’IA commencent déjà à avoir de profondes répercussions sur la vie quotidienne des consommateurs et l’activité des assureurs. Mais pour apprendre, l’IA doit consommer d’importants volumes de données. Or, que se passe-t-il si les données ingérées par une solution IA sont biaisées ?

Avec la montée en puissance de l’IA et ses retombées sur toute la société, tout assureur voulant capitaliser sur le potentiel de l’IA se doit aussi de prendre conscience de son impact. Loin d’être un outil technologique comme un autre, l’IA a tant évolué qu’elle a souvent autant d’influence que les personnes qui l’utilisent, que ce soit à l’intérieur ou à l’extérieur de l’entreprise.

Au Royaume-Uni, une enquête de la BBC a comparé les devis d’assurance automobile sur les cinq plus grands comparateurs de prix en ligne, d’abord en saisissant le nom d’un britannique blanc, producteur de la BBC, ensuite en saisissant un autre nom britannique courant : « Muhammad Khan ». Les cinq sites ont indiqué des tarifs plus élevés pour Muhammad Khan.

Un client Accenture intervenant dans le domaine de l’assurance de personnes projette de réduire les délais de traitement des déclarations maladie et invalidité, pour les faire passer d’environ 100 jours à moins de cinq secondes. Cela, grâce au machine learning, à l’analyse textuelle et à la reconnaissance optique de caractères. Clairement, quand on doit lui confier des prises de décision automatisées qui affectent la vie des clients, des salariés et d’autres acteurs de l’écosystème des assurances, cette puissante technologie ne peut être considérée comme un simple logiciel.

Un nouvel impératif s’impose clairement aux assureurs : ils doivent « dresser » leurs systèmes IA, afin que ceux-ci reflètent les valeurs de responsabilité, de justice, d’honnêteté et de transparence attendues dans la société et l’entreprise.

Lui apprendre…  à apprendre

L’IA n’est pas un système programmé : elle apprend.

Indépendamment du rôle qu’elle est amenée à jouer dans la société, elle représente son entreprise dans chacune de ses actions. À l’image d’un décideur humain, l’IA doit « agir » de manière responsable, pouvoir expliquer ses décisions et collaborer harmonieusement avec les autres. C’est aux assureurs d’« apprendre » à l’IA à agir de la sorte.

À bien des égards, les défis associés au « dressage » d’une IA sont similaires à ceux que l’on rencontre dans l’éducation et le développement humains : encourager la compréhension des concepts de bien et de mal ; expliquer ce que signifie avoir un comportement responsable ; transmettre des connaissances non biaisées ; et apprendre l’autonomie, tout en soulignant l’importance de collaborer et de communiquer avec les autres.

Dresser une IA commence par les données – les bonnes données, en très grandes quantités. Pour entraîner leur IA à effectuer son travail, les compagnies d’assurance qui sont armées des données de la meilleure qualité possible seront à mêmes de créer les systèmes d’IA les plus performants. Cependant, les data scientists doivent se montrer prudents dans la sélection des taxinomies et des données destinées à l’entraînement de l’IA : il ne s’agit pas seulement de volumes, il s’agit de prendre des mesures concrètes pour limiter au maximum tout biais dans les données.

L’IA responsable

Est-il juste qu’un algorithme décide qu’un client présentant une mauvaise cote de crédit aura à s’acquitter d’une prime d’assurance plus élevée ? Non qu’il conduise moins prudemment, mais parce qu’il est plus susceptible de déclarer un sinistre pour un petit accident, alors qu’un conducteur plus aisé peut payer les réparations de sa poche.

Ces questions sont cruciales. Car l’association du big data et d’une IA plus intelligente permet aux assureurs de mieux évaluer le risque sur une base individualisée, plutôt que de le mettre en commun entre un grand nombre de personnes ou d’entreprises présentant le même type de besoins en termes de couverture.

Les entreprises qui hésitent à considérer l’IA comme une technologie à « éduquer » pour la rendre mature auront bien du mal à rattraper les nouvelles réglementations et les exigences du public. Pire : elles risquent d’entraîner la mise en place de contrôles réglementaires stricts sur tout le secteur de l’IA.

Rendez-vous la semaine prochaine pour la suite. Nous aborderons une autre tendance qui émerge du rapport Accenture « Technology Vision 2018 » pour les assureurs, sous le thème « la véracité des données : la confiance, une question primordiale ».

D’ici là, n’hésitez pas à consulter le rapport Accenture « Technology Vision 2018 » pour en savoir plus sur l’éducation de l’IA.

Soumettre un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *