Pourquoi avoir conçu un nouveau dispositif de certification ?
Anne Chevrier : Le précédent référentiel datait de 2010. Malgré quelques évolutions apportées en 2014, il paraissait nécessaire de le faire évoluer. Nous souhaitions aussi répondre aux demandes des professionnels de terrain, notamment au niveau de l’approche. Nous avons donc choisi de nous recentrer sur le résultat.
Quelles ont été vos méthodes de travail ?
Entre 2018 et 2019, nous avons beaucoup échangé avec les fédérations d’établissements, les professionnels et les représentants des usagers pour réfléchir à l’élaboration du nouveau référentiel. Cette étape de co-construction nous a permis de mieux cerner des éléments d’évaluation basés sur la mise en œuvre effective des recommandations de bonnes pratiques, et d’une bonne dynamique d’amélioration de la qualité. En parallèle, nous avons fait évoluer nos méthodes d’évaluation, en diminuant le nombre d’audits de processus et en ayant d’avantage recours à des méthodes de traçage.
Par exemple ?
Je citerai notamment le « patient traceur », le « parcours traceur » et le « traceur ciblé », qui sont des méthodologies basées sur des entretiens réalisés auprès des patients et des équipes. Dans le cadre du parcours traceur, par exemple, un parcours-type est identifié avant de procéder à la rencontre avec toutes les équipes, cliniques, médico-techniques et support, et à la réalisation du parcours par l’évaluateur. Grâce à ces entretiens, la continuité et la coordination de la prise en charge des patients dans son parcours ainsi que la maturité des équipes dans leur démarche d’amélioration de la qualité peuvent être évaluées dans leur ensemble. Le patient traceur examine, lui, la qualité de la prise en charge d’un patient, tandis que le traceur ciblé se penche plus particulièrement sur la mise en œuvre d’un processus.
Sont-ce là les seules méthodes d’évaluation ?
Non, bien sûr. Nous conservons aussi les audits systèmes, mais sous une forme différente, en rencontrant la gouvernance et des professionnels de terrain. Et puis, au travers des méthodes traceurs, une évaluation que l’on qualifie de “méthode d’observation” est aussi réalisée. Nous nous sommes ici appuyés sur les témoignages de bon nombre de professionnels, qui ont constaté qu’une simple observation d’un lieu ou d’un service leur permettait d’en apprécier des éléments significatifs sur la qualité.
Toutes ces méthodes ont-elles pour but de simplifier la procédure ?
En les basant d’avantage sur le terrain, nous facilitons et accélérons en effet leur appropriation par tous, professionnels comme usagers. Dans cette même optique, nous avons également fait des efforts dans le vocabulaire employé et la définition des niveaux de décision. Comme pour le reste du dispositif, l’objectif est ici que les professionnels comprennent cette évaluation, qu’ils s’en emparent et surtout qu’ils intègrent les démarches Qualité de manière continue, avec des méthodes que l’on peut mobiliser et des exigences clairement déterminées.
Y a-t-il d’autres différences majeures par rapport à l’ancien dispositif ?
En allant d’avantage sur le terrain nous avons élargi le périmètre de la certification, qui inclut désormais le SAMU et des secteurs, telle que l’hospitalisation à domicile, de façon plus systématique. Le nouveau système d’information, Calista, permet quant à lui de réaliser des auto-évaluations. Dans le cadre de la simplification, Calista permet de récupérer automatiquement des données locales à partir des bases nationales et les envois des auto-évaluations ne sont plus obligatoires. Moins contraignants pour les établissements, ces aspects administratifs facilitent aussi grandement le dispositif.
Cette nouvelle certification a été lancée au 2ème semestre 2020. Avez-vous souffert de retards à cause de la crise sanitaire ?
Déjà, dans le dispositif précédent, nous avions dû suspendre toutes nos visites dès mars 2020. Il était donc naturel que nous retardions également le démarrage de cette certification. Les premières visites pilotes ont pu avoir lieu entre mai et juillet 2021, auprès de 33 établissements volontaires. Nous avons d’ailleurs déjà enregistré des retours, qui sont globalement positifs.
Pourriez-vous nous les évoquer ?
Les évaluations directes sur le terrain, les échanges directs avec les professionnels ont été particulièrement salués par les établissements, qui apprécient des rendus simplifiés, plus graphiques, permettant une identification plus rapide des points d’actions. Le principe de moyenne, qui met en avant aussi bien les aspects positifs que négatifs, semble également bien apprécié. Et puis les niveaux de criticité permettent d’identifier rapidement les attendus impératifs aujourd’hui, les exigences standard et celles qui le seront demain. Ici, l’idée est bien d’accompagner les établissements dans une démarche d’amélioration continue.
Avez-vous également eu des retours de la part d’experts-visiteurs ?
Oui, et même si la moitié environ sont nouveaux, ils se sont très rapidement appropriés la démarche. Pour ceux qui étaient déjà experts-visiteurs auparavant, le changement implique surtout une plus grande coopération. Alors qu’ils étaient souvent associés à une seule thématique, ils doivent aujourd’hui faire de multiples évaluations et doivent surtout se concerter avec les autres experts. Le seul point négatif, évoqué par certains, serait l’augmentation du rythme des évaluations qui engendre une densification des visites. En contrepartie, dans un esprit de simplification et de synthétisation des rapports, leur travail de rédaction est beaucoup plus restreint. C’est donc, pour eux, un nouvel équilibre.
Observez-vous déjà de grandes tendances dans les premières notes décernées ?
Pour la grande majorité, les établissements qui se sont portés volontaires sont matures quant à leurs démarches qualité. Il est donc difficile de tirer des conclusions à partir de cet échantillon. Je tiens néanmoins à souligner que la note seule ne suffit pas. Le score global obtenu est certes important mais, dans son processus décisionnel, la HAS prendra d’autres facteurs en considération, et notamment l’homogénéité des niveaux obtenus, mais aussi certains critères majeurs ou quelque anomalie qui aurait été détectée.
Quelle sera la prochaine étape ?
Si la situation sanitaire le permet, le pas suivant aura lieu à l’automne, avec le démarrage des 2 500 visites nécessaires à la certification de l’ensemble des établissements de santé pour les quatre prochaines années. Nous analyserons ensuite les premiers résultats obtenus pour identifier les tendances nationales, émettre des recommandations et continuer de faire évoluer ce référentiel qui, je tiens à le souligner, pourra être modifié tous les ans afin d’être mis à jour, notamment par l’intégration des références aux nouvelles recommandations de bonnes pratiques.
Article publié dans l'édition de septembre 2021 d'Hospitalia à lire ici.
Anne Chevrier : Le précédent référentiel datait de 2010. Malgré quelques évolutions apportées en 2014, il paraissait nécessaire de le faire évoluer. Nous souhaitions aussi répondre aux demandes des professionnels de terrain, notamment au niveau de l’approche. Nous avons donc choisi de nous recentrer sur le résultat.
Quelles ont été vos méthodes de travail ?
Entre 2018 et 2019, nous avons beaucoup échangé avec les fédérations d’établissements, les professionnels et les représentants des usagers pour réfléchir à l’élaboration du nouveau référentiel. Cette étape de co-construction nous a permis de mieux cerner des éléments d’évaluation basés sur la mise en œuvre effective des recommandations de bonnes pratiques, et d’une bonne dynamique d’amélioration de la qualité. En parallèle, nous avons fait évoluer nos méthodes d’évaluation, en diminuant le nombre d’audits de processus et en ayant d’avantage recours à des méthodes de traçage.
Par exemple ?
Je citerai notamment le « patient traceur », le « parcours traceur » et le « traceur ciblé », qui sont des méthodologies basées sur des entretiens réalisés auprès des patients et des équipes. Dans le cadre du parcours traceur, par exemple, un parcours-type est identifié avant de procéder à la rencontre avec toutes les équipes, cliniques, médico-techniques et support, et à la réalisation du parcours par l’évaluateur. Grâce à ces entretiens, la continuité et la coordination de la prise en charge des patients dans son parcours ainsi que la maturité des équipes dans leur démarche d’amélioration de la qualité peuvent être évaluées dans leur ensemble. Le patient traceur examine, lui, la qualité de la prise en charge d’un patient, tandis que le traceur ciblé se penche plus particulièrement sur la mise en œuvre d’un processus.
Sont-ce là les seules méthodes d’évaluation ?
Non, bien sûr. Nous conservons aussi les audits systèmes, mais sous une forme différente, en rencontrant la gouvernance et des professionnels de terrain. Et puis, au travers des méthodes traceurs, une évaluation que l’on qualifie de “méthode d’observation” est aussi réalisée. Nous nous sommes ici appuyés sur les témoignages de bon nombre de professionnels, qui ont constaté qu’une simple observation d’un lieu ou d’un service leur permettait d’en apprécier des éléments significatifs sur la qualité.
Toutes ces méthodes ont-elles pour but de simplifier la procédure ?
En les basant d’avantage sur le terrain, nous facilitons et accélérons en effet leur appropriation par tous, professionnels comme usagers. Dans cette même optique, nous avons également fait des efforts dans le vocabulaire employé et la définition des niveaux de décision. Comme pour le reste du dispositif, l’objectif est ici que les professionnels comprennent cette évaluation, qu’ils s’en emparent et surtout qu’ils intègrent les démarches Qualité de manière continue, avec des méthodes que l’on peut mobiliser et des exigences clairement déterminées.
Y a-t-il d’autres différences majeures par rapport à l’ancien dispositif ?
En allant d’avantage sur le terrain nous avons élargi le périmètre de la certification, qui inclut désormais le SAMU et des secteurs, telle que l’hospitalisation à domicile, de façon plus systématique. Le nouveau système d’information, Calista, permet quant à lui de réaliser des auto-évaluations. Dans le cadre de la simplification, Calista permet de récupérer automatiquement des données locales à partir des bases nationales et les envois des auto-évaluations ne sont plus obligatoires. Moins contraignants pour les établissements, ces aspects administratifs facilitent aussi grandement le dispositif.
Cette nouvelle certification a été lancée au 2ème semestre 2020. Avez-vous souffert de retards à cause de la crise sanitaire ?
Déjà, dans le dispositif précédent, nous avions dû suspendre toutes nos visites dès mars 2020. Il était donc naturel que nous retardions également le démarrage de cette certification. Les premières visites pilotes ont pu avoir lieu entre mai et juillet 2021, auprès de 33 établissements volontaires. Nous avons d’ailleurs déjà enregistré des retours, qui sont globalement positifs.
Pourriez-vous nous les évoquer ?
Les évaluations directes sur le terrain, les échanges directs avec les professionnels ont été particulièrement salués par les établissements, qui apprécient des rendus simplifiés, plus graphiques, permettant une identification plus rapide des points d’actions. Le principe de moyenne, qui met en avant aussi bien les aspects positifs que négatifs, semble également bien apprécié. Et puis les niveaux de criticité permettent d’identifier rapidement les attendus impératifs aujourd’hui, les exigences standard et celles qui le seront demain. Ici, l’idée est bien d’accompagner les établissements dans une démarche d’amélioration continue.
Avez-vous également eu des retours de la part d’experts-visiteurs ?
Oui, et même si la moitié environ sont nouveaux, ils se sont très rapidement appropriés la démarche. Pour ceux qui étaient déjà experts-visiteurs auparavant, le changement implique surtout une plus grande coopération. Alors qu’ils étaient souvent associés à une seule thématique, ils doivent aujourd’hui faire de multiples évaluations et doivent surtout se concerter avec les autres experts. Le seul point négatif, évoqué par certains, serait l’augmentation du rythme des évaluations qui engendre une densification des visites. En contrepartie, dans un esprit de simplification et de synthétisation des rapports, leur travail de rédaction est beaucoup plus restreint. C’est donc, pour eux, un nouvel équilibre.
Observez-vous déjà de grandes tendances dans les premières notes décernées ?
Pour la grande majorité, les établissements qui se sont portés volontaires sont matures quant à leurs démarches qualité. Il est donc difficile de tirer des conclusions à partir de cet échantillon. Je tiens néanmoins à souligner que la note seule ne suffit pas. Le score global obtenu est certes important mais, dans son processus décisionnel, la HAS prendra d’autres facteurs en considération, et notamment l’homogénéité des niveaux obtenus, mais aussi certains critères majeurs ou quelque anomalie qui aurait été détectée.
Quelle sera la prochaine étape ?
Si la situation sanitaire le permet, le pas suivant aura lieu à l’automne, avec le démarrage des 2 500 visites nécessaires à la certification de l’ensemble des établissements de santé pour les quatre prochaines années. Nous analyserons ensuite les premiers résultats obtenus pour identifier les tendances nationales, émettre des recommandations et continuer de faire évoluer ce référentiel qui, je tiens à le souligner, pourra être modifié tous les ans afin d’être mis à jour, notamment par l’intégration des références aux nouvelles recommandations de bonnes pratiques.
Article publié dans l'édition de septembre 2021 d'Hospitalia à lire ici.