Connectez-vous S'inscrire

Le magazine de l'innovation hospitalière
SIS

Liability Directive européenne sur l'intelligence artificielle : une avancée majeure


Rédigé par Rédaction le Lundi 3 Octobre 2022 à 10:04 | Lu 1858 fois


Le décryptage d'Ethik-IA : Liability Directive européenne sur l’intelligence artificielle : dernière étape de reconnaissance de la Garantie Humaine de l’IA et avancée majeure pour les patients et les citoyens !



La Commission européenne a publié, ce 28 septembre, la directive qui établit un régime harmonisé d’indemnisation au niveau communautaire des dommages susceptibles d’être causés par l’IA. 

Ce texte constitue, après le règlement européen sur l’IA dont la finalisation est attendue pour le début de l’année 2023, une nouvelle avancée majeure, dernière étape de reconnaissance du principe de Garantie Humaine de l’intelligence artificielle.

Cette directive renforce, en effet, très sensiblement la portée de l’obligation de contrôle humain / garantie humaine pour les systèmes d’IA à haut risque (comme dans le cas de la santé) : l’absence de système établi de Garantie Humaine permettra au patient de s’appuyer sur une présomption de responsabilité du fabricant pour obtenir réparation en cas de dommage.

Cette directive apporte une réponse pragmatique à la question soulevée dans le cadre du travail d’Ethik-IA depuis 2017 sur les risques de limitation de l’indemnisation des patients et des bénéficiaires finaux de l’IA dans le cas de solutions d’IA incorporant de l’apprentissage automatique (Machine Learning ou Deep Learning). En l’état de la législation communautaire actuelle sur la responsabilité du fait des produits défectueux, ces « dommages de Machine Learning » (liés à un effet de sur-apprentissage non piloté dans le temps de l’IA) peuvent, en effet, voir leur indemnisation bloquée par la cause exonératoire dite du « risque de développement »*.
 
Le système proposé dans la directive apporte une réponse concrète à cette problématique. Le texte établit, en effet, une présomption réfragable de responsabilité pesant sur le producteur du système d’IA dès lors qu’il n’a pas mis en œuvre un dispositif approprié de contrôle humain ou Garantie Humaine de l’IA, selon les termes utilisés en France dans le cadre de la révision de la loi de bioéthique de 2021. 

Dans ces conditions, les concepteurs et utilisateurs de solutions d’IA seront fortement incités au déploiement de dispositif de supervision comme les « collèges de garantie humaine » recommandés par l’avis 129 du Comité consultatif national d’éthique et l’OMS et qui associent concepteurs d’algorithmes, représentants des professionnels et représentants des bénéficiaires finaux du système d’IA. 

Le dispositif du règlement européen sur l’IA prévoit déjà un mécanisme de sanction de l’absence de Garantie Humaine dans le cadre d’un régime de sanctions financières –  jusqu’à    4 % du chiffre annuel mondial du groupe – décidés par les autorités de régulation sur le modèle du RGPD. La directive vient ainsi compléter l’opposabilité de la Garantie Humaine en ouvrant aux patients en santé et plus largement aux bénéficiaires finaux de l’IA une capacité à agir en responsabilité civile pour, en cas de dommage, s’appuyer sur l’absence ou l’insuffisance de la Garantie Humaine pour obtenir plus facilement réparation. 

Il s’agit donc d’un approfondissement très significatif des droits des patients et d’une avancée essentielle dans une logique de régulation positive de l’IA pour s’ouvrir aux innovations technologiques tout en régulant les risques qui leur sont associés.
 
* Risque que le producteur de la solution ne pouvait anticiper compte tenu des connaissances dont il disposait au moment de la mise sur le marché du produit. 






Nouveau commentaire :
Facebook Twitter