Connectez-vous S'inscrire

Le magazine de l'innovation hospitalière
SIS

La donnée, point focal stratégique pour le CHU de Toulouse


Rédigé par Aurélie Pasquelin le Jeudi 20 Juillet 2023 à 09:48 | Lu 2121 fois


Au CHU de Toulouse, la Direction des Services Numériques (DSN) a développé toute une stratégie autour de la donnée, depuis son recueil jusqu’à son traitement. Pour appuyer cette dynamique, elle a notamment mis au point un large catalogue de services au sein duquel l’entrepôt de données de santé (EDS) du CHU constitue « une brique indispensable », comme nous l’expliquent Gregory Lopez, chef du service Gestion de la donnée à la DSN, et Jean-Marc Alliot, directeur scientifique Intelligence artificielle et Données.



Pourriez-vous nous présenter brièvement la Direction des Services Numériques (DSN) du CHU de Toulouse ?

Gregory Lopez : Comprenant plus de 130 équivalents temps plein (ETP), celle-ci s’articule autour de plusieurs secteurs, le centre de solutions et expertises, le centre des opérations, le service Stratégie et innovation et le service Gestion de la donnée. Placé sous ma responsabilité, ce dernier traite deux axes majeurs : un volet décisionnel intégrant la notion de gouvernance de la donnée, et un volet se concentrant principalement sur les données de masse, ou Big Data, à travers notamment la gestion de l’entrepôt de données de santé (EDS) du CHU. Nos axes de travail sont donc larges, mais ils n’en restent pas moins interconnectés et nécessitent des ressources, une forte expertise et des liens forts avec les différents métiers de l’hôpital. Sur ce dernier point, nous pouvons nous appuyer sur les référents numériques notamment positionnés au sein des directions supports. Maîtrisant le catalogue de données propre à leur direction, ils sont chargés d’élaborer des indicateurs et de produire des tableaux de bord sectoriels, à partir desquels peut s’effectuer le pilotage général du CHU. Notre objectif étant, à terme, de capitaliser sur ces données pour améliorer nos outils ou alimenter des projets de recherche.

À quels enjeux êtes-vous actuellement confrontés dans le cadre de vos travaux ?

Gregory Lopez : J’évoquerai, en premier lieu, la nécessité de garantir l'exactitude et la cohérence des données utilisées, tout en étant en mesure de retracer leur cycle de vie et les différentes manipulations dont elles auraient pu faire l’objet. Mais aussi les enjeux en termes de confidentialité et de sécurité des données, qui sont fondamentaux et autour desquels nous avons déployé plusieurs initiatives. Par exemple, notre entrepôt de données de santé ne conserve que des informations pseudonymisées. Son architecture technique permet en outre d’isoler la donnée hors du système informatique de production, la conservant dans une « bulle » conforme aux exigences de la norme ISO 27001. À cet égard, le CHU de Toulouse compte obtenir la certification Hébergeur de Données de Santé (HDS) à l’issue de l’année 2024. Cela dit, les questions de confidentialité et de sécurité concernent également les manipulations de données. C’est pourquoi nous avons aussi mis en place un large catalogue de services, avec l’idée de proposer un environnement sécurisé au sein duquel pourront se déployer les projets de recherche.

Jean-Marc Alliot : À chaque fois qu’un projet de recherche implique un accès à l’EDS, il doit d’abord être soumis au Comité Scientifique et Éthique (CSE) du CHU, qui évalue ses aspects scientifiques, éthiques et réglementaires en matière d’utilisation des données des patients. S’il est validé, l’équipe technique en charge de l’EDS lui « pousse » alors les données demandées dans un espace dédié. Elle seule a donc accès à l’ensemble des données stockées dans l’EDS, limitant, pour des raisons de sécurité et de confidentialité, l’accès des équipes de recherche au set défini et validé par le CSE. 

Un mot, peut-être, sur la gouvernance de votre EDS ?

Gregory Lopez : Les travaux de configuration ont été menés dans le cadre de l’appel à projets sur les EDS Hospitaliers. À cette occasion, un consortium associant le CHU de Toulouse et le CHU de La Réunion a été créé pour développer une plateforme commune d’exploitation de la donnée, constituant les bases d’un réseau d’EDS fédéré. Bien qu’il s’appuie sur un comité stratégique commun, chargé d’en définir les principales orientations, chaque CHU bénéficie d’un entrepôt de donnée qui lui est propre, opéré en local par un comité stratégique et un CSE pour les procédures d’accès aux données. Au CHU de Toulouse, par exemple, l’EDS s’appuie sur le Centre de Données de Santé et de Recherche (CDSR) codirigé par le Pr Laurent Molinier, responsable du Département d’Information Médicale, et Jean-Marc Alliot, directeur scientifique Intelligence artificielle et Données. Véritable comité de coordination à l’échelle de notre CHU, le CDSR fédère des compétences techniques et médicales, mais aussi des experts réglementaires, des chefs de projets, des data scientists…

Pourriez-vous évoquer quelques projets de recherche actuellement menés en lien avec l’EDS ?

Jean-Marc Alliot : Trente à quarante projets gravitent aujourd’hui autour de l’EDS. Ils varient dans leur taille et leur durée, mais tous utilisent la donnée à des fins de recherche. Je peux par exemple citer le projet OncoLab, notamment mené en partenariat avec l’INRIA, l’Institut Bergonié, l’Institut Curie et l’Institut Universitaire du Cancer Toulouse-Oncopole. Bénéficiant d’un financement à hauteur de 11 millions d’euros par BPI France, il entend standardiser, structurer et étudier les données d’oncologie. Sur un autre registre, le CHU de Toulouse participe également à deux études avec le Health Data Hub, APSOREN sur les traumatismes crâniens, et APRIORICS sur les exploitations d'imagerie en anatomopathologie. Les champs étudiés sont très larges ! Néanmoins, qu’ils soient menés en interne ou fassent intervenir des partenariats extérieurs, ces projets demandent du temps, ce qui peut parfois sembler manquer, tant sur le plan technique que scientifique ou médical.

Gregory Lopez : L’implication des métiers hospitaliers est ici particulièrement importante, pour pouvoir « nettoyer » et surtout qualifier correctement les bases de données. Dans le domaine médical, un enjeu fort est de parvenir à extraire l’information des comptes-rendus textuels, pour la transformer en donnée structurée. Il existe un certain nombre d’outils utilisant la technologie Natural Language Processing (NLP) pour réaliser ces opérations, mais plusieurs freins perdurent tant la tâche est complexe et spécifique d’un établissement à l’autre. L’implication des spécialités médicales est donc ici particulièrement précieuse, car elles peuvent ainsi apporter leur expertise propre quant au langage utilisé, et contribuer à l’optimisation de ces systèmes.     

Or l’hôpital fait déjà face à des tensions fortes sur le temps médical disponible…

Jean-Marc Alliot : Nous en sommes tout à fait conscients. Et c’est justement pour préserver les ressources des établissements que certains éditeurs commencent à intégrer des professionnels du soin dans leurs équipes. Au vu de la situation actuelle, cette solution pourrait bien se généraliser, avec le développement à terme de profils disposant d’une double compétence, médicale et informatique. C’est d’ailleurs une transformation que nous avons choisi d’accompagner grâce, également, au travail sur la formation fait par le Pr Antoine Piau. Ainsi dès la 3ème année, les étudiants en médecine pourront bénéficier de cours sur le numérique appliqué à la santé et, en 5ème année, nous espérons leur proposer des enseignements en option pour ceux qui souhaiteraient développer une vraie double compétence. Le but est aussi de leur permettre de réaliser une thèse de sciences en informatique, et nous espérons avoir un premier candidat dès l’année prochaine. 

Vous intervenez régulièrement sur des thématiques en lien avec l’Intelligence artificielle. Avez-vous noté un changement dans l’approche qu’en ont les médecins et le grand public ?

Jean-Marc Alliot : Je commencerais par rappeler qu’il n’existe pas, aujourd’hui, d’intelligence artificielle au sens premier du terme, et que les technologies existantes sous cette appellation, sont somme toute basées sur des méthodes aléatoires. Elles sont d’ailleurs efficaces en moyenne, mais capables d’erreurs individuelles majeures, et leurs résultats sont difficilement explicables. Elles n’en suscitent pas moins des interrogations, je suis moi-même régulièrement interpellé à ce sujet. Un mythe est d’ailleurs en train de s'emparer du grand public, ce qui est à mes yeux plutôt redoutable. En ce qui concerne les médecins : ceux n’ayant pas eu l’occasion de pratiquer cette technologie ont souvent des espérances surdimensionnées par rapport à ses capacités réelles. En revanche, dès qu’ils commencent à s’y « frotter », ils en perçoivent rapidement les limites. Dans la continuité de ce constat, je suis récemment intervenu auprès d’internes en médecine et avais noté une petite inquiétude quant au fait d'être « poussé vers la sortie ». Là encore, une fois confrontés à la machine, ils voient bien les limites d’une technologie qui, aujourd’hui, fait surtout office de filtre permettant de résoudre efficacement les problèmes les plus simples, et n’est pas en mesure de remplacer un professionnel de santé expert dans son domaine.

Le mot de la fin ?

Gregory Lopez : Qu’ils s’appuient, ou pas, sur des technologies d’intelligence artificielle, les travaux du CHU de Toulouse sur le champ du traitement et de la gestion des données représentent un axe important, qui bénéficie aux professionnels comme aux usagers. Nous comptons bien les poursuivre et développer, à terme, une véritable offre de pilotage et de business intelligence, en nous orientant vers des projets de type jumeau numérique. Mis en place à l’échelle d’un service, voire de l’établissement dans son ensemble, ces modèles permettraient de simuler des situations variées telles que des épidémies générant un afflux massif de patients, pour mieux anticiper leur impact et élaborer des réponses adaptées.

Jean-Marc Alliot : Ce concept est extrêmement intéressant, mais il faut à mon sens se méfier du terme de « jumeau numérique ». Il ne s’agit, in fine, que d‘un modèle numérique essayant de reproduire au mieux la réalité. Or, on l’a vu, le terme d’« Intelligence Artificielle » a créé un mythe. Il ne faudrait pas en faire de même avec le « jumeau numérique », ce qui reviendrait à connoter positivement ou négativement une technologie qui reste avant tout de la modélisation informatique et mathématique, comme on la pratique depuis des années.

Article publié dans l'édition de mai 2023 d'Hospitalia à lire ici.
 
 






Nouveau commentaire :
Facebook Twitter