les barrières réglementaires de l’Intelligence artificielle dans le secteur médical
Autre obstacle : les barrières réglementaires. « On ignore quelles seront les procédures d’homologation de ces logiciels », indique Alain Livartowski, directeur des data de l’Institut Curie (Paris). Un algorithme validé sur des populations américaines, par exemple, sera-t-il valable sur des populations européennes, asiatiques ou africaines ? Sans compter que, pour entraîner ces algorithmes à reconnaître des images médicales, il faut une masse considérable de données de santé. « Le principal problème des sociétés qui développent ces outils, c’est l’accès à ces données, témoigne Francis Besse, soulevant une vague de questions morales, éthiques et juridiques. Qui est propriétaire de ces données : le malade ? le médecin ? l’hôpital ? le data center ? les financeurs du système de santé ? Comment faire pour que la protection de l’individu ne s’oppose pas à l’intérêt collectif, en freinant l’avancée de la recherche ? »
De fait, l’accès à ces données présente une vertigineuse asymétrie, de part et d’autre de l’Atlantique. En France et en Europe, ces données doivent être compatibles avec les règles posées par la CNIL et le RGPD, alors que, aux Etats-Unis, les Gafam en collectent à foison et sans états d’âme. Dernier casse-tête, et non des moindres, celui de la responsabilité. Si un logiciel d’IA fait une erreur, et si le médecin suit son « avis », qui sera responsable ? « Il est probable que le médecin ne sera pas dégagé de sa responsabilité, ce qui est une bonne chose », estime Alain Livartowski.
Source : LE MONDE
Découvrir Liste de matériels médical pour les médecins généralistes