Essais pragmatiques et science de la mise en œuvre : motifs de divorce ?

En effet, il y en a. Pour risquer de torturer davantage la métaphore du divorce de l’article, je veux suggérer que le PRCT devrait s’amender, chercher une médiation et faire appel à un soutien supplémentaire. Tous les projets mis en place pour améliorer l’utilisation de la recherche sont indubitablement des interventions sociales et, dans l’évaluation de ces programmes, il n’existe pas de « hiérarchie des preuves » mais plutôt un « bricolage d’approches ». La science de la mise en œuvre, peut-être plus que tout autre domaine des soins de santé, s’est efforcée et a débattu de l’approche optimale de ces conceptions mixtes ou hybrides. J’évite ici toute tentative de gagner la guerre des paradigmes. La deuxième partie s’attaque à une tâche plus simple, à savoir suggérer d’utiliser l’opportunité offerte par les PRCT d’une manière différente, plus inclusive. Elle commence par exposer une stratégie de recherche pour apprendre les leçons généralisables de la science de la mise en œuvre (tableau 1) et se termine par un bref exemple illustrant l’approche.

Tableau 1 Évaluation des stratégies génériques de mise en œuvre

Pris comme cela, un tel programme peut sembler horriblement abstrait. Je réponds à cela de deux manières. Premièrement, cette vision du cumul des connaissances a un pedigree philosophique considérable . Deuxièmement, le modèle trouve un usage pratique si l’on examine l’ensemble de la recherche sur une intervention plutôt que les contributions individuelles.

Le processus de recherche suggéré dans le tableau 1 correspond étroitement à la théorie de Popper sur la croissance de la connaissance scientifique, qui repose fortement sur l’idée d’une « élimination progressive des erreurs » (Fig. 2). Appliquée à la science de la mise en œuvre, cette stratégie se déroule comme suit. La recherche commence par l’identification initiale d’un problème (P1), en l’occurrence le manque de transfert de connaissances. Une théorie de programme provisoire (TT1) est proposée, qui pourrait offrir une solution, sous la forme d’un programme particulier visant à améliorer la mise en pratique de la recherche. Le programme est soumis à la recherche et rencontre invariablement un succès mitigé. Cette conclusion est considérée comme provisoire et susceptible d’être révisée à la lumière de résultats ultérieurs. Pour progresser, il faut examiner à la fois les succès et les échecs du programme en mettant l’accent sur l’élimination des erreurs (EE1). Cet examen conduit à une compréhension plus nuancée du problème (P2), à une solution affinée (TT2) et à davantage de recherches, favorables ou non. L’élimination d’autres erreurs (EE2) est le moteur de la connaissance progressive. Le processus se répète ensuite indéfiniment.

Figure 2
figure2

Théorie de la croissance des connaissances de Popper en tant que ‘Conjectures et réfutations’. Source (auteur)

Y a-t-il un processus de conjectures et de réfutations au sein de la science de la mise en œuvre ? Comme nous l’avons mentionné, de nombreux auteurs sont enclins à transmettre un sentiment indu de certitude, de finalité et d’universalité dans leurs résultats de recherche. Mais en même temps, si l’on examine les progrès réalisés dans l’ensemble de la recherche, on constate que le récit est plus hésitant et plus véridique. Nous nous tournons vers la littérature pour une exemplification du tableau 1.

Première étape

Urgence que les ECR élargissent leurs attributions et deviennent des études de cas multi-méthodes. Le conseil selon lequel les ECRP devraient incorporer un élément qualitatif est tout à fait banal, bien qu’il y ait des divergences d’opinion quant à savoir si la liaison est mieux servie par des entretiens ouverts, une évaluation du processus, une analyse des variables intervenantes, une évaluation basée sur la théorie, une évaluation réaliste et ainsi de suite. La suggestion que de telles enquêtes devraient également être considérées comme des études de cas, examinant l’une des nombreuses façons dont de telles interventions pourraient être configurées, est cohérente avec tous ces éléments, même si elle est rarement exprimée de cette façon.

Nous n’avons pas à chercher trop loin pour trouver un exemple ici, car l’étude PEMs était en effet associée à une « évaluation de processus basée sur la théorie » . Cette dernière étude a utilisé un mélange de questionnaires standardisés et d’entretiens ouverts pour vérifier les attitudes des médecins envers l’intervention et leur expérience et, ce faisant, elle commence à expliquer le résultat nul du PRCT. En bref, l’étude qualitative révèle des attitudes positives envers le dépistage de la rétinopathie, une connaissance approfondie de sa disponibilité et une forte intention de mettre en œuvre les recommandations, avant et après l’intervention. Et pourtant, l’étude PRCT nous apprend que les taux d’orientation restent statiques (et décevants). L’explication qui ressort des entretiens ouverts est qu’une série de facteurs  » post-intentionnels  » émoussent la volonté d’aiguillage exprimée. Ces facteurs sont présentés au moyen de citations illustratives des bénéficiaires, qui abordent un ensemble diversifié de préoccupations pratiques – la préférence des médecins pour leur propre jugement, des points de vue contrastés sur l’efficacité du dépistage, les contraintes de temps et les pressions, la charge administrative de l’orientation, le désintérêt de certains patients pour le dépistage, la non-couverture du dépistage par certains régimes d’assurance, les longs délais d’attente et l’inaccessibilité de certaines prestations de dépistage.

Nous avons un premier aperçu d’un cercle vertueux d’explication. L’ECRP rigoureux sécurise le constat de résultat mais ne peut dire pourquoi l’intervention est inefficace. L’interrogation qualitative approfondit une série de processus sous-jacents à l’œuvre, montrant comment l’expérience des médecins, les préférences des patients et les contraintes administratives ont pu se combiner pour générer le résultat imprévu. Il s’agit d’une explication très plausible de l’échec du programme, mais qui ne peut pas encore être généralisée. Il y a deux obstacles.

Tout d’abord, toutes les données ci-dessus (quantitatives et qualitatives) se rapportent aux spécificités de la gestion des soins de santé et aux préférences de divers groupes de parties prenantes dans ce lieu et à cette époque. Cela reste une étude de cas unique. Le second déficit, plus intéressant, découle d’une limitation habituelle de ce type d’analyse qualitative, à savoir que « l’analyse de la variation entre les types d’informateurs n’est pas explicitement rapportée » (nos italiques). Ainsi, tout à fait typiquement et comme dans le résumé ci-dessus, Grimshaw et al. produisent une liste de ‘thèmes’ assortis décrivant les nombreuses raisons pour lesquelles les praticiens peuvent négliger ou résister à la directive sur mesure. Ce qui ressort clairement de leur contenu, mais qui n’est pas rapporté, est que ces réactions divergentes au PEM seront particulières à des sous-groupes spécifiques de pratiques et de praticiens. Seuls certains préféreront faire confiance à leur propre jugement ; seuls certains manqueront de soutien administratif ; seuls certains de leurs patients auront des problèmes d’accès. Et sans connaître l’identité exacte et l’ampleur relative de ces divers groupes, nous ne pouvons pas savoir si le même résultat net suivrait dans d’autres contextes. Nous ne pouvons pas généraliser.

En résumé, l’ajout d’une description qualitative à l’évaluation quantitative fournit une base de preuves plus complète pour comprendre le destin d’une intervention, mais des stratégies de recherche supplémentaires sont nécessaires pour juger si ce destin est susceptible de se répéter.

La deuxième étape

marque le début de la stratégie pour mieux organiser ces fragments de preuves. La clé est l’introduction de constructions théoriques pour élargir la portée explicative de ces constatations locales. Cette approche évite la notion statistique selon laquelle la généralisation est basée sur la typicité – c’est-à-dire l’affirmation que l’intervention étudiée est « représentative » d’une population plus large d’interventions dont elle est issue. Le programme PEMs est un système complexe composé d’une intervention adaptative, d’un lieu, d’un système administratif, d’une voie de communication, d’une population de patients, de plusieurs niveaux de praticiens, d’une forme de réglementation financière, d’un type de service de soins de santé, et ainsi de suite. Aucune étude ne peut prétendre être représentative de toutes ces caractéristiques.

L’alternative proposée ici remplace le « programme » par la « théorie du programme » comme unité de base de l’analyse. Les théories de programme se réfèrent aux idées de base derrière une intervention, le raisonnement mis en avant pour expliquer pourquoi elle devrait fonctionner. Ces théories sont génériques. Elles reviennent sans cesse dans la planification des programmes et l’élaboration des politiques (pour un aperçu des théories de la science de la mise en œuvre, voir Nilsen ). La caractéristique de ces théories est qu’elles opèrent à un niveau d’abstraction supérieur à celui des interventions concrètes telles que celle qui est examinée ici. L’abstraction, ou l’abduction comme on l’appelle parfois, est en soi un puissant allié de la généralisation. Nous expliquons un événement particulier comme un cas reconnaissable d’une classe plus large de cas, comme une variation sur un thème, sur lequel nous avons déjà une certaine connaissance préalable. La compréhension existante livre des idées provisoires sur les forces et les faiblesses de cette classe de programmes, qui fournissent un aperçu de ce à quoi s’attendre dans toute application nouvelle, aperçu qui est ensuite affiné dans une inspection plus approfondie de chaque incarnation de la théorie du programme.

Ainsi, au lieu de considérer le « 2005-Onatario-printed-educational-messages-scheme-to-increase-practitioner-referrals-for-retinal-screening » comme un cas unique (ce qu’il est), nous le percevons comme une autre instance d’une idée bien usée (ce qu’elle est aussi). Alors, de quoi le PEMS est-il un cas ? Quelle est la théorie traditionnelle des programmes ? Je n’ai pas accès, bien sûr, à la pensée exacte des responsables de cette intervention spécifique. Mais les indices ne manquent pas. Les PEM font partie de « l’industrie des directives de pratique clinique » ou du « mouvement des soins standardisés ». L’idée générale est d’apporter de l’ordre et de la prévisibilité au comportement des praticiens en fournissant des « rappels », des « mises à jour », des « protocoles », des « bulletins », une « formation professionnelle continue » faisant autorité. Dans tous les cas, le message est le support. L’hypothèse sous-jacente, la théorie de l’intervention commune, est parfaitement simple, à savoir que – des praticiens de la santé bien informés et bien qualifiés répondront à des informations fondées sur des preuves et approuvées par des professionnels, et chercheront à les suivre.

Le point crucial, à répéter, est que nous en savons déjà beaucoup sur cette théorie et ses profondes limites. L’information peut avoir d’augustes références mais, sur le papier, l’autorité est rarement capable de contrecarrer les préférences personnelles profondément ancrées, les contraintes de temps, les routines existantes et les contraintes institutionnelles. Ironiquement, les conclusions de la myriade d’études qui nous ont révélé les nombreuses raisons pour lesquelles les praticiens ne lisent pas les publications de recherche formelles, et qui ont été à l’origine de la science de la mise en œuvre, se retrouvent à nouveau dans un programme de mise en œuvre qui tente d’impliquer les praticiens avec des bulletins probants personnalisés, envoyés directement par courrier. Nous n’aurions pas dû être surpris. Même si les conseils offerts sont profondément acceptés, certains praticiens n’en tiendront pas compte parce que les externalités quotidiennes de leur travail continuent de prévaloir.

Cela nous amène à la caractéristique suivante d’une approche de théorie de programme. Ces théories, comme les interventions qu’elles sous-tendent, sont fragiles et faillibles. Nous en savons donc beaucoup sur la « théorie des lignes directrices » parce que, dans de nombreuses applications, elle a été testée et s’est avérée insuffisante. Ainsi, de la même manière que nous abstrayons les idées qui sous-tendent une intervention, nous devons également construire des théories de programme qui fournissent des hypothèses abstraites sur les conditions qui expliquent le succès ou l’échec. Les décideurs politiques ont une série d’idées sur un programme, qui se heurtent souvent aux idées très différentes des praticiens. La caractéristique de l’approche de la théorie des programmes est qu’elle suppose des résultats mixtes. Dans le cas présent, la tâche consiste à construire des théories sur quel type de praticiens, dans quel type de pratique, sont susceptibles de tenir compte (ou de ne pas tenir compte) des conseils.

Bien que le but soit de les traiter comme des hypothèses abstraites et formelles, il n’y a rien d’ésotérique ou d’érudit dans ces théories.Note de bas de page 1 Par exemple, si l’on se réfère à la sous-étude qualitative de Grimshaw et al sur les réponses au PEM sur la rétinopathie, il existe plusieurs hypothèses implicites et non testées suggérant quels praticiens et quelles pratiques pourraient avoir des réponses différentes. Par exemple, le plus simple des nombreux thèmes découverts pour expliquer la non-adhésion aux directives personnalisées est peut-être la « confiance dans leur propre évaluation clinique ». Quel sous-groupe de praticiens pourrait raisonner ainsi ? Une hypothèse élémentaire est qu’il s’agit d’une réponse qui croît avec l’expérience du praticien, une proposition qui pourrait ensuite être testée empiriquement avec une comparaison de l’évolution des taux de référence entre les « vétérans » et les « nouveaux arrivants ».

Le véritable intérêt de traiter cette « hypothèse d’expérience » comme une théorie de programme est que nous en avons une connaissance préalable. Nous savons, grâce à une myriade d’études, que l’adhésion aux lignes directrices est sous-optimale. Nous pouvons donc nous attendre à ce qu’un « différentiel d’expérience » apparaisse comme un problème dans les milliers d’autres directives qui existent pour chaque condition, test et traitement. Mais ce que nous ignorons, c’est la manière dont l’expérience fait la différence. L’expérience ne se résume pas au nombre d’années qu’un praticien passe dans un harnais. L’expérience s’accompagne également d’autonomie, d’ancienneté, de responsabilités de gestion, d’engagements professionnels, de connaissances spécialisées, d’une familiarité croissante avec les pathologies, les patients et le « système », etc. Il y aura toujours des variations subtiles dans ce qui constitue l' »expérience » et en suivant l’idée et ses conséquences à travers une série d’études de cas, nous pouvons comprendre son impact différentiel. Les théories sont là pour être testées et affinées, re-testées et ré-affinées – et c’est à partir de ce processus que la généralisation se produit.

Etape trois

Alors, comment tester les théories de programme ? Une étape cruciale ici est de changer l’accent sur ce qui constitue l’explicandum dans la recherche sur les essais. Toutes les interventions d’AC ont des fortunes diverses et l’explication de cette multiformité devrait être un objectif clé. L’analyse devrait se concentrer sur les « modèles de résultats » plutôt que sur les « résultats » ou sur les « effets hétérogènes » plutôt que sur les « effets nets ». Cette proposition a rencontré une résistance considérable. Le modèle standard, même après l’avènement du pragmatisme, consiste à comparer les résultats dans les groupes traités et non traités, l’ECRP ayant une puissance statistique suffisante pour détecter de manière fiable un effet net comme base pour tester ce qui est toujours considéré comme la question de résultat fondamentale – l’intervention a-t-elle « fonctionné » ? De plus en plus fréquemment, une enquête qualitative est ajoutée pour construire une image composite du raisonnement des principaux bénéficiaires, qui peut avoir contribué à l’effet observé.

Ce modèle a persisté malgré une littérature clinique considérable démontrant que, presque sans exception, il y a des sujets qui éprouvent des avantages plus ou moins importants au sein de la « population traitée » . La notion de bon sens selon laquelle les traitements ne fonctionnent pas pour tout le monde est saisie en termes cliniques comme l’hétérogénéité des effets des traitements (HTE) et ses implications sont considérables, comme dans cette célèbre citation de Kravitz et al.:

« Lorsque l’HTE est présente, le bénéfice modeste attribué à de nombreux traitements peut être trompeur parce que les effets moyens modestes peuvent refléter un mélange de bénéfices substantiels pour certains, de peu de bénéfices pour beaucoup et de dommages pour quelques-uns » .

Cette proposition a encore plus de valeur si nous réfléchissons à la construction des essais pragmatiques. La TEH est présente même dans les essais d’efficacité des médicaments de phase trois, qui ont des critères d’inclusion et d’exclusion très soigneusement délimités et qui déploient une multitude de contrôles supplémentaires . L’idée même des essais pragmatiques est d’enquêter dans des environnements réels dans lesquels ces contrôles sont relâchés. Sur chaque dimension du graphique PRECIS, il y aura une variation d’entrée incorporée. Il s’ensuit que la TEH est particulièrement proéminente dans les essais PRCTS en raison de leur conception même, une observation extrêmement profonde mais largement ignorée faite pour la première fois par Segal et al. . La signification du résultat sommaire, l’effet net du traitement, s’en trouve diminuée. Dans le cas de programmes sociaux comme le PEMS, l’effet de traitement moyen et nul pourrait bien refléter, pour paraphraser Kravitz, une campagne d’information qui a eu une influence substantielle sur certains praticiens, qui est passée inaperçue pour d’autres et qui a agi comme un autre facteur de dissuasion gênant pour quelques-uns.

Cette éventualité tend à être négligée dans les EPR en général et dans notre exemple particulier de l’essai PEMS. La priorité des trialistes est toujours de protéger la validité interne en s’assurant, par le biais de la randomisation, qu’il existe un équilibre des caractéristiques et des prédispositions potentielles entre les groupes expérimentaux et les groupes témoins. De ce point de vue, Zwarenstein et al. rapportent une correspondance étroite et satisfaisante entre les pratiques expérimentales et les pratiques contrôlées en termes de « composition par sexe », « lieu de formation », « taille du cabinet » et, dans notre exemple, « années d’expérience des praticiens ». Le fait que ces caractéristiques et d’autres caractéristiques des bénéficiaires soient réparties de manière égale entre les conditions expérimentales et les conditions de contrôle ne signifie pas que les circonstances qu’elles reflètent n’ont aucune incidence sur la prise en compte des mises à jour éducatives. Cela laisse toujours ouverte la possibilité qu’il y ait des différences substantielles de sous-groupes et de sous-processus dans la réponse aux conseils qui, comme dans le scénario de Kravitz, peuvent rester indétectables dans l’effet net.

Cette éventualité peut être étudiée en identifiant et en comparant les résultats à travers des groupes différemment disposés. L’analyse qualitative peut fournir des indices importants sur ces prédispositions probables. Mais là encore, l’intérêt de comprendre des résultats hétérogènes échoue souvent en raison d’une tradition assez différente dans cette forme d’enquête. L’analyse qualitative privilégie depuis longtemps la « description épaisse ». Comme dans la sous-étude de Grimshaw, l’objectif est de saisir, souvent par le biais d’une analyse thématique, l’ensemble des attitudes envers le programme. L’intention d’une grande partie de l’analyse qualitative est d’être exhaustive plutôt qu’analytique. Le but est d’atteindre la « saturation » dans la description des dispositions des sujets plutôt que de suivre jusqu’aux conséquences comportementales des diverses dispositions.

L’inévitabilité d’un impact irrégulier dans les interventions étudiées dans la science de la mise en œuvre change la question de recherche. L’objectif ultime n’est pas de statuer sur l’efficacité des interventions. Au contraire, ce qui doit être recherché, compris, conseillé et exploité, c’est leur impact différentiel.

Quatrième étape

Ayant spéculé sur un agenda révisé pour la science de la mise en œuvre, à savoir enquêter sur les multiples contingences qui contribuent aux succès et aux échecs des théories de programme, il reste à fournir un compte rendu des conceptions de recherche qui peuvent accomplir cette tâche. J’ai déjà défendu la nécessité d’une approche axée sur la théorie, impliquant des séquences ou des séries d’études et utilisant des méthodes mixtes. Il est clair qu’il existe toute une série de modèles prospectifs et rétrospectifs qui pourraient convenir. Mais ce que je veux souligner ici, ce sont deux stratégies analytiques simples qui sont essentielles dans la recherche de preuves généralisables.

Dans le jargon de la recherche par étude de cas, ces stratégies sont appelées analyse « intra-cas » et « inter-cas ». Comment pourraient-elles être déployées dans l’investigation de la théorie des directives ? Dans le premier cas, différents sous-groupes de destinataires d’un guide sont identifiés, des différences dans leurs prédispositions et leur comportement résultant en ce qui concerne le conseil sont supposées, et des données sont générées pour tester ces conjectures. Cependant, l’adhésion aux recommandations ne dépend pas seulement des personnes concernées, mais aussi de leurs rôles, de leurs réseaux, de leurs organisations et des environnements réglementaires plus larges dans lesquels elles travaillent. Pour démêler ces influences, il faut une étude de cas croisés, avec des comparaisons choisies pour refléter les résultats qui peuvent être générés dans différents lieux institutionnels qui reçoivent la ligne directrice.

L’apprentissage augmente lorsque ces coupes analytiques sont appliquées séquentiellement. Les connaissances existantes sur les forces et les faiblesses, les gagnants et les perdants, des incarnations précédentes de la théorie du programme sont intégrées dans le choix des comparateurs de l’enquête 1. Certaines de ces hypothèses seront soutenues et d’autres seront réfutées. Cela donne l’impulsion à l’enquête 2, qui révise la théorie du programme et adapte les groupes de comparaison pour tenter d’expliquer l’hétérogénéité émergente des résultats. Les théories révisées du programme restent fragiles. Elles rencontrent des conformités et des anomalies, et la recherche se poursuit par d’autres études de cas pour tenter de les aplanir (rappelons la figure 2).

Ceci complète le plan d’une stratégie à méthodes mixtes pour évaluer les stratégies de mise en œuvre génériques. Un peu comme les directives cliniques, les préceptes méthodologiques n’ont de signification que s’ils trouvent une utilisation pratique. Cela m’amène à la dernière exhortation d’un document d’exhortations, à savoir saluer l’utilisation croissante de l’analyse intra-cas et inter-cas dans la science de la mise en œuvre. Je n’ai ici que l’espace nécessaire pour esquisser quatre brefs exemples qui illustrent le bien-fondé des études de cas multisites, à méthodes mixtes et fondées sur la théorie. Ces illustrations reprennent là où les exemples précédents se sont arrêtés, à savoir avec notre théorie de programme initiale et très faillible selon laquelle les praticiens de la santé répondront aux directives fondées sur des preuves et approuvées par des professionnels, et notre théorie de mise en œuvre de sens commun et de première supposition selon laquelle  » l’expérience du praticien  » fera une différence dans leur adoption.

Grove et al. examinent les réponses des chirurgiens orthopédiques aux directives du NICE sur le remplacement total de la hanche dans trois hôpitaux du NHS. Ces cliniciens de haut niveau ont réagi aux directives de manière très différente selon le contexte. Dans le cas A, un centre universitaire situé au sein d’une unité de traumatologie et d’orthopédie, les chirurgiens avaient une  » vision positive des connaissances formelles et codifiées « , étaient  » habitués à répondre aux questions en utilisant un cadre de référence pour une population plus large  » et compilaient leur  » propre documentation protocolaire liée à un document de conseils cliniques « . Le cas C, un service d’orthopédie dans un hôpital universitaire, offrait un contraste extrême, les chirurgiens déclarant qu’ils  » n’avaient jamais vu le processus NICE de leur organisation « , qui  » appartenait au domaine de la gestion et de l’administration « . Dans ce cas, les chirurgiens préféraient les « connaissances résilientes et expérientielles acquises au fil du temps » basées sur « la sensation innée de la chirurgie ». L’expérience pousse ces cliniciens chevronnés dans des directions opposées – selon le contexte.

Rycroft-Malone et al. ont examiné les réponses aux  » soins basés sur des protocoles  » dans une étude multi-cas à travers les soins infirmiers, les sages-femmes et les visites de santé, etc. Les outils ont suscité des réactions très différentes. Conformément à notre hypothèse primitive, les auteurs signalent que les praticiens les plus expérimentés  » ne s’y référaient pas ou les utilisaient avec souplesse « . De même, conformément à la thèse, les praticiens débutants ont perçu les protocoles comme des « ressources d’information utiles ». Mais il y a quelques nuances importantes. Dans certains contextes, l’autorité véhiculée par les directives est perçue comme une source de pouvoir. La standardisation de ce qui constitue une bonne pratique « a permis l’extension des rôles traditionnels et a facilité la pratique autonome, ce qui, à son tour, a entraîné une augmentation des soins et des services dirigés par les infirmières et les sages-femmes ». En revanche, « dans les contextes où le personnel change fréquemment ou qui font appel à du personnel intérimaire », les conseils étaient « inclus dans les documents d’initiation et les évaluations des compétences ». Dans ces situations, des niveaux relativement élevés d’adhésion découlent du fait que la ligne directrice est conscrite et coachée.

Moule et al. ont évalué un programme d’amélioration de la qualité intégrant les lignes directrices du NICE sur l’utilisation des anticoagulants pour réduire les accidents vasculaires cérébraux dus à la fibrillation auriculaire (FA) dans six cabinets de médecine générale au Royaume-Uni. Les ressources ont été utilisées de manière variable. Une fois encore, l’expérience et les idées préconçues des médecins généralistes se sont avérées importantes, mais avec d’autres variations sur le thème. Dans ce cas, certains des praticiens les plus expérimentés et disposant d’une expertise personnelle ont pris la direction du projet et ont contribué à propulser l’orientation vers un projet d’examen et de suivi. D’autres cabinets, où le médecin généraliste travaillait souvent de manière isolée, n’avaient pas la « mentalité » du système … qui leur permettrait de suivre les patients. Dans ces cas, la dépendance à l’égard de l’expérience et du jugement personnel était en grande partie due à un manque d’infrastructure formelle pour gérer les directives.

Spyridonidis et Calnan ont utilisé une comparaison longitudinale, intra-cas et inter-cas pour évaluer comment la mise en œuvre de deux directives NICE, sur l’insuffisance cardiaque chronique (ICC) et l’obésité, s’est déroulée dans le temps. L’accent est mis sur l’adaptation de l’ensemble du système aux directives et ils ont donc examiné les perspectives des cadres professionnels, des cadres supérieurs et intermédiaires, des cliniciens hospitaliers, des médecins généralistes, des infirmières et des professionnels paramédicaux. Les lignes directrices, comme toujours, sont suivies de manière « variable » ; leur mise en œuvre est soumise à des « allers-retours », les différentes parties prenantes réfléchissant à leurs conséquences rivales. Par exemple, l’une des options de la ligne directrice du NICE sur l’obésité était la chirurgie bariatrique. À la suite d’une recrudescence des demandes de soins bariatriques, la direction a rapidement réécrit la directive pour rationner une procédure coûteuse. Dans un autre exemple, la directive NICE sur l’ICC recommandait l’utilisation de bêta-bloquants, qui n’étaient pas inclus dans un autre programme du NHS, le Quality and Outcomes Framework (QOF), qui rémunérait les médecins généralistes pour la réalisation d’une série d’indicateurs de performance. La mise en œuvre de la recommandation du NICE a été bloquée dans l’attente d’une convergence entre les politiques respectives.

De nombreuses autres études de cas de ce type pourraient, bien sûr, être consultées pour approfondir la compréhension de l’adoption erratique des directives.
Note 2 Le point est qu’en commençant par une théorie de programme relativement abstraite, plutôt qu’une forêt d’initiatives distinctes, un programme de recherche d’études intra et inter-cas peut commencer à débloquer les variations des résultats qui suivent régulièrement la mise en œuvre des directives. Ainsi, dans le cas présent, j’ai commencé par une théorie de mise en œuvre rudimentaire selon laquelle le personnel débutant était plus enclin à respecter les directives approuvées par la profession, tandis que les praticiens expérimentés étaient plus susceptibles de faire confiance à leur propre jugement. Cette théorie est pleine de trous ou, comme Popper pourrait le préférer, a un besoin urgent d' »élimination des erreurs ». Ainsi, nous découvrons que les praticiens expérimentés peuvent être des défenseurs enthousiastes des directives – s’ils travaillent dans des institutions orientées vers des perspectives épidémiologiques plus larges. Nous découvrons que la préférence de certains praticiens expérimentés pour leur propre jugement réside en réalité dans le fait qu’ils ne disposent pas de l’infrastructure du système pour mettre en œuvre une nouvelle directive. Nous découvrons que certains membres du personnel relativement jeunes adoptent effectivement les lignes directrices, mais qu’ils le font parce qu’elles leur offrent de l’autonomie et de la responsabilisation, plutôt que d’apporter la sagesse de la recherche. Nous découvrons que d’autres groupes subalternes suivent les directives approuvées par la recherche simplement parce qu’elles sont intégrées dans l’initiation et la formation. Nous découvrons que les praticiens bien disposés à l’égard des nouvelles directives sont souvent contrariés dans l’application des schémas parce que d’autres parties prenantes (souvent avec plus de pouvoir) perçoivent que les changements auront des conséquences dommageables dans leurs sphères opérationnelles.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.