Connectez-vous S'inscrire

Le magazine de l'innovation hospitalière
SIS

« Il est nécessaire d’expliquer le fonctionnement des outils numériques »


Rédigé par Aurélie Pasquelin le Jeudi 16 Décembre 2021 à 10:36 | Lu 1986 fois


Professeur des Universités émérite à l’université Claude Bernard de Lyon, Alain Mille s’est très tôt intéressé à l’informatique, aux statistiques et à l’intelligence artificielle appliquée à la santé. Aujourd’hui à la retraite, il poursuit ses recherches en la matière, se focalisant notamment sur les modalités d’apprentissage et d’appropriation par les utilisateurs. Rencontre.



Alain Mille, Professeur des Universités émérite à l’université Claude Bernard de Lyon. ©DR
Alain Mille, Professeur des Universités émérite à l’université Claude Bernard de Lyon. ©DR
Ingénieur de formation, vous avez commencé à travailler sur le numérique en santé dès les années 70. Pourriez-vous revenir sur cette période ?
Pr Alain Mille : J’exerçais alors aux Hospices Civils de Lyon, où j’ai participé au développement des systèmes informatiques. Nous travaillions déjà, à cette époque, à ce que l’on pourrait apparenter à de l’intelligence artificielle (IA) : en collaboration avec des soignants, nous essayions de mettre au point des programmes statistiques d’alerte et d’aide au diagnostic. Dans les années 80, j’ai quitté les HCL pour me consacrer à la recherche et passer mon doctorat, mais je n’ai jamais cessé de m’intéresser au monde de la santé et à la manière dont il pourrait intégrer ces technologies.

Vous faites aujourd’hui partie de l’équipe Tweak du CNRS. Sur quels domaines travaillez-vous ?
Issue de la scission, en 2015, de l’équipe Silex [Supporting Interaction and Learning by Experience, NDLR], l’équipe Tweak – pour Traces, Web, Education, Adaptation, Knowledge – fait partie du Laboratoire d’informatique en image et systèmes d’information (LIRIS) du Centre National de la Recherche Scientifique (CNRS). Nous nous intéressons plus particulièrement à l’apprentissage humain accompagné par les technologies numériques, qui peuvent aujourd’hui être utilisées par tous – autant les soignants que le personnel administratif et les patients, pour prendre l’exemple du secteur de la santé.

Justement, comment assurer leur appropriation par les utilisateurs ?
Je dirais qu’il faut toujours garder à l’esprit que les utilisateurs sont les derniers concepteurs de leur activité numérique. Nous travaillons, par exemple, sur la visibilité de leurs actions au sein du dispositif numérique. Leur permettre de visualiser et comprendre ces « traces » me semble essentiel pour qu’ils se représentent le fonctionnement de ces outils, qu’ils en comprennent le raisonnement. Ils leur font ainsi davantage confiance et peuvent mieux se les approprier.

Cela vaut-il également pour des solutions utilisant une technologie IA ?
Dans le cadre de l’IA et du Deep Learning, « expliquer » peut paraître plus compliqué, puisque ces processus ne sont par définition pas auto-explicatifs, et que le programmeur lui-même ne connaît pas non plus le cheminement réflexif exact du logiciel. Il ne faut pas pour autant renoncer à expliquer, bien au contraire. Là aussi, pour que l’apprentissage et la confiance s’installent, il faut tenter de répondre du mieux possible aux nombreuses questions des uns et des autres.

Qu’en est-il des données utilisées par ces systèmes ?
L’apprentissage à partir de données est une possibilité qui connaît aussi des limites, notamment sur les plans de la quantité et de la qualité. En pratique, le web fourmille de données qui, pour être traitées, doivent être temporalisées, localisées et nettoyées. Avoir des données utilisables mathématiquement impose donc, pour résumer, un énorme travail de préparation à réaliser en amont. Une fois celui-ci effectué, l’algorithme peut rechercher des similitudes, des cohérences, des regroupements stables… et procéder à l’étiquetage des données dès lors qu’un schéma récurrent ressort. Ce mode de fonctionnement, totalement différent d’un cerveau humain, n’est pas facile à identifier par ses utilisateurs. C’est pourquoi il doit être expliqué, pour être compris et accepté.

Ces technologies offrent pourtant de nombreux avantages…
Effectivement, de tels algorithmes ont des capacités d’apprentissage très puissantes, qui leur permettent de « remarquer » des éléments non perceptibles par l’humain. C’est d’ailleurs tout ce qui fait la mythologie de l’IA. L’on ne doit pas, pour autant, oublier qu’il ne s’agit que d’outils au service de ceux qui les utilisent. Sur un autre registre, en comparant systématiquement des données passées, l’IA pourrait, peut-être, limiter l’inventivité. Mais nous n’en sommes pas encore là, puisque la recherche semble aujourd’hui s’intéresser prioritairement à la création de nouveaux algorithmes mathématiques. Et nous avons fait de remarquables avancées en la matière. Mais plusieurs questions subsistent : Quelle sera leur utilité ? Leur finalité ?... Et surtout, comment les expliquer ? Si j’en reviens toujours à ce point, c’est qu’il est plus que jamais devenu essentiel : s’ils sont assurément plus performants, ces nouveaux algorithmes ne sont pas réellement expliqués et seront, de facto, plus difficiles à assimiler pour les usagers.

Ces réflexions concernent-elles le monde de la santé ?
Elles sont, ici, primordiales. Au-delà de sa dimension clinique, toute application médicale nous confronte à des enjeux vitaux, déontologiques et éthiques, et impose donc une explication de son fonctionnement. Un radiologue qui, par exemple, ne comprendrait pas le raisonnement de son logiciel d’IA, préférera certainement repasser en exercice manuel. Un tel processus est certes nécessaire au principe de garantie humaine, mais il ne doit pas être dû à une incompréhension ou une fausse conception des utilisateurs. La pédagogie est ici nécessaire. La société doit pouvoir s’approprier cette science.

Vous évoquiez les questions d’éthique médicale. L’IA pourrait-elle avoir ici un rôle à jouer ?
La réflexion éthique étant un cheminement personnel et multifactoriel, il me semble difficile qu’une technologie puisse y apporter une aide directe. En revanche, la déontologie propre à la profession, et plus largement au monde des soins, pourrait à l’avenir bénéficier des apports de l’IA. On pourrait très bien imaginer une aide pour l’information des patients et de leurs familles, ou pour mieux détailler les différentes conséquences possibles d’une situation. Mais, une fois de plus, comprendre le raisonnement et les recommandations de ces outils est essentiel pour décider de les utiliser et pouvoir les expliquer aux autres. Ce dernier point est important, puisqu’il implique un échange raisonné et éclairé. On l’a vu avec la vaccination contre le Covid : aussi foisonnantes soient-elles, les explications en amont ne garantissent pas une adhésion à 100 %. Notre société surinformée reste mal informée et l’enjeu principal sera de créer des liens entre sachants et usagers.
                                                                                                                                                          
Article publié dans l'édition de septembre 2021 d'Hospitalia à lire ici.







Nouveau commentaire :
Facebook Twitter