La loi sur l’intelligence artificielle - affectera-t-elle également le secteur des assurances ?

Depuis quelques années, diverses instances européennes s’occupent de questions éthiques liées à l’utilisation de l’IA dans de nombreux domaines de la vie. Leur objectif est avant tout de garantir que l’intelligence artificielle soit fiable, éthique, robuste et conforme à la loi. Ce principe doit être appliqué non seulement pour chaque système d’IA, mais pour l’IA en général. Il en résulte des exigences pour les acteurs concernés, en tant qu’utilisateurs, fournisseurs et développeurs de systèmes d’IA.
Written on 22/02/2023

par Dr. Stefan Nörtemann,
msg life central europe gmbh

Point de situation début de 2023
La publication d’un projet de règlement commun* par la Commission européenne et le Parlement européen le 21 avril 2021 a marqué un pas vers une réglementation uniforme de l’intelligence artificielle à l’échelle de l’UE. Depuis lors, des consultations et de vastes discussions ont eu lieu entre les instances, les représentants de l’industrie et les autorités. L’objectif initial d’adopter la loi sur l’intelligence artificielle en 2022 n’a pas été atteint. Malgré tout, le Conseil européen du 6 décembre 2022 s’est mis d’accord sur une orientation commune définie dans l’orientation générale** du 25 novembre 2022. Elle ne constitue pas une décision sur le règlement, mais décrit la position du Conseil européen dans le processus de trilogue, qui devrait aboutir à l’adoption de la loi en 2023. 

Système des règlements 
Comme indiqué dans mes articles du 3 février 2022 et du 22 février 2022, le projet de loi sur l’intelligence artificielle applique le principe de la réglementation fondée sur les risques. Ce principe prévoit que chaque application d’IA soit classée dans l’une des quatre catégories suivantes : pratiques interdites, systèmes à haut risque, systèmes soumis à des obligations particulières de transparence, tous les autres systèmes d’IA (qui ne relèvent d’aucune des autres catégories). Une réglementation étendue est prévue (uniquement) pour les systèmes à haut risque.

Ce que cela signifie pour le secteur des assurances
Depuis la publication du projet initial, la question de savoir si et quelles applications d’IA dans le domaine de l’assurance doivent être qualifiées de systèmes à haut risque et donc soumises à une réglementation complète est discutée. Ce n’était pas du tout prévu dans le projet initial*. Un texte de compromis antérieur du Conseil européen (texte de compromis du 29 novembre 2021)**** déclare ce qui suit : « ... Systèmes d’IA qui doivent être utilisés pour la fixation des primes d’assurance, la prise en charge des contrats d’assurance et l’évaluation des sinistres. Dans l’orientation générale***, cela a été modifié par  « Systèmes d’IA à utiliser pour l’évaluation des risques et la fixation des prix pour les personnes physiques dans le cas des assurances vie et santé ... » (Orientation générale, annexe III, 5. d))

Exigences applicables aux systèmes à haut risque
En termes simples, cela signifie que les systèmes d’assurance à haut risque sont limités aux applications d’IA pour l’évaluation des risques et la tarification dans les assurances vie et santé. Les autres secteurs d’assurance ne sont pas mentionnés ici. Il en résulte un grand nombre d’exigences pour les applications d’IA destinées à l’évaluation des risques et à la tarification dans le domaine de l’assurance vie et de la santé (approche générale, chapitre 2, articles 8 - 15).
Cela comprend une gestion des risques spécifique, une gestion des données, des obligations de documentation technique et des de conservation détaillées, des règles de transparence, une supervision humaine et des exigences spécifiques en matière de précision, de robustesse et de cybersécurité.

Les défis liés à l’utilisation de systèmes à haut risque
Au-delà des règles plus « bureaucratiques » et organisationnelles liées au « dur labeur », la conception des systèmes d’IA doit tenir compte des exigences techniques les plus strictes.
Deux exemples parmi tant d’autres sont les exigences en matière de transparence (article 13) pour les systèmes d’IA en liaison avec la surveillance humaine (article 14), qui visent à garantir que les utilisateurs interprètent correctement les résultats de l’IA et soient en mesure de surveiller son fonctionnement efficacement. C’est un obstacle fondamental, en particulier pour les systèmes de boîte noire tels que ceux utilisés dans le deep learning (mot-clé « explicabilité »).

Bilan intermédiaire
Même si le Conseil européen s’est mis d’accord sur une orientation générale**, rien n’est définitif. Néanmoins, l’orientation générale est une indication claire de la direction dans laquelle les choses évoluent et nous pouvons supposer qu’au moins certaines applications d’IA dans les domaines de l’assurance vie et de l’assurance maladie seront considérées comme des systèmes à haut risque. Nous vous tiendrons informé.
*) Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées en matière d’intelligence artificielle (ARTIFICIAL INTELLIGENCE ACT) et modifiant certains actes de l’Union
**) Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées en matière d’intelligence artificielle (loi sur l’intelligence artificielle) et modifiant certains actes juridiques de l’Union - Approche générale
***) Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées en matière d’intelligence artificielle (loi sur l’intelligence artificielle) et modifiant certains actes juridiques de l’Union - texte de compromis de la présidence

Cet article a été publié pour la première fois en janvier 2023 sur le blog msg insur:it : https://msg-insurit.com/blog/rethinking-insurance/the-artificial-intelli...