La qualité des données dans la recherche : la panacée pour les uns, l’enfer pour les autres
Si quelqu’un sait ce qui caractérise des données de bonne qualité, c’est assurément le Prof. Dr Carsten Oliver Schmidt. Directeur du domaine de la « Qualité dans la recherche en santé » du service « Study of Health in Pomerania – Recherche clinico-épidémiologique » (SHIP-KEF) de la Faculté de médecine de Greifswald, il doit à intervalles réguliers répondre à la question de la qualité des données dans différents cadres scientifiques. Dans le cadre d’un entretien avec VIEW, il nous fait partager ses connaissances et ses expériences et n’hésite pas à nous expliquer pourquoi l’ensemble de données idéal n’existe pas.
VIEW : Prof. Schmidt, qu’est-ce qui distingue les bonnes données des mauvaises ?
Carsten Oliver Schmidt : La norme ISO 8000 nous donne une première piste. La qualité de données y est définie dans le jargon comme l’aptitude d’un ensemble de caractéristiques intrinsèques à satisfaire des exigences. Cette définition contient l’un des principaux aspects pour la qualité des données : savoir si oui ou non des données sont exploitables aux fins auxquelles je les utilise. Et en fonction des besoins, les critères qui caractérisent un degré élevé de qualité peuvent être très différents. S’agit-il par exemple de prendre une décision diagnostique ou thérapeutique ? Ou les données doivent-elles servir à facturer des prestations ou encore à répondre à des questions scientifiques ? Un ensemble de données peut donc s’avérer très utile à des fins de décompte, mais ne servir à rien d’autre.
VIEW : Mais il existe quand même aussi des critères que chaque ensemble de données doit satisfaire, indépendamment des exigences ou questionnements, non ?
Carsten Oliver Schmidt : Je peux vous expliquer la manière dont nous envisageons la qualité des données. Pour ce faire, nous la définissons généralement selon trois niveaux. Premièrement, l’intégrité : on cherche alors à savoir si les données sont disponibles dans une structure donnée avec laquelle il est possible de travailler. Cette catégorie regroupe aussi l’exactitude syntaxique des données. En son absence, je ne peux plus rien contrôler. Le deuxième niveau est celui de l’exhaustivité. Et on y distingue parfois encore l’exhaustivité de l’intégralité, c’est-à-dire si les données destinées à une unité d’observation sont complètes et si les unités d’observation en elles-mêmes existent. Le troisième niveau est pour finir destiné à déterminer si les données sont correctes. Ici aussi, on distingue la cohérence, qui répond à la question du respect d’exigences formelles, comme l’absence de violation d’intervalles de valeurs, de l’exactitude qui désigne avant tout la précision métrologique.
On retrouve cette répartition grossière en trois catégories dans la plupart des modèles de qualité. Mais du point de vue conceptuel, les niveaux inférieurs divergent fortement les uns des autres. Nous avons développé une arborescence conceptuelle à plusieurs niveaux pour les études observationnelles que nous considérons comme pertinente. Mais elle ne saurait s’appliquer à tout.
VIEW : Sur quoi repose votre arborescence conceptuelle ?
Carsten Oliver Schmidt : L’arborescence conceptuelle a été développée en s’appuyant sur différentes bases, et nous avons par exemple intégré des recherches de littérature sur les concepts de qualité des données qui existent dans notre domaine. La ligne directrice sur la qualité des données dans la recherche en médecine de la plate-forme allemande TMF a été pour nous une importante référence et s’applique principalement aux registres.
Nous avons alors évalué cette ligne directrice avec des représentants de différentes études de cohorte épidémiologiques et en avons déduit ce qu’il conviendrait d’améliorer. Autre point : notre établissement est l’un des seuls à mettre en œuvre un cycle automatisé de présentation de compte-rendu sur la qualité. Il s’agit d’une approche basée sur un logiciel qui permet de facilement mettre la qualité en lumière de manière correcte. Et pour finir, nous nous sommes appuyés sur nos propres expériences pour savoir quels processus doivent impérativement être respectés. Il est en effet primordial de respecter une certaine séquence lorsque l’on se penche sur les aspects qualitatifs de données. Cette séquence est intégrée à l’arborescence conceptuelle.
VIEW : Peut-on tirer de « bonnes données » à partir de toutes les données ?
Carsten Oliver Schmidt : La qualité des données qu’il est possible d’obtenir a posteriori dépend des erreurs et de là où elles surviennent. Surviennent-elles lors de la production de données, par exemple lors de la mesure de la pression artérielle ? Ou les retrouve-t-on lors du traitement de données, c’est-à-dire à l’étape de leur documentation, de leur archivage et de leur exploitation ? Un échec de la production de données résulte de valeurs de mesure erronées, et là, on ne peut pas y faire grand-chose. Les algorithmes et les « big data » (en bon français, les grandes bases de données) ne sont d’aucune aide en cas d’erreur systémique grave. Le principe est clair : les mauvaises valeurs donnent de mauvaises données. Mais si les déficits surviennent lors du traitement de données, il est alors souvent possible d’y remédier. Un exemple : les observations histologiques du service de pathologie se composent principalement de texte libre – ce qui n’empêche en rien leur exploitation par les médecins traitants. Mais pour le secteur scientifique, les textes libres, c’est l’enfer. En présence de milliers de diagnostics, la définition de classifications comparables à partir des textes libres peut facilement prendre plusieurs mois. Il est néanmoins généralement possible d’améliorer certains aspects de la qualité des données par une préparation appropriée.
VIEW : Vous avez alors dû vous réjouir de l’avancée du diagnostic structuré...
Carsten Oliver Schmidt : Oui, là où le diagnostic structuré est correctement mis en œuvre, cela représente en effet un avantage. Mais il ne permet pas de savoir si les classifications et les mesures sont en elles-mêmes correctes. Et c’est là que nous revenons à la question des exigences. Au sein d’un établissement de santé, les exigences à l’égard d’une mesure sont différentes de celles posées par la recherche. En milieu hospitalier, le personnel n’a souvent pas le temps de réaliser des mesures. Et par exemple la pression artérielle doit être rapidement mesurée. Les scientifiques ont en revanche bien plus de temps et de ressources pour permettre un recueil reproductible de données. La mesure de la pression artérielle devrait par exemple être réalisée après une phase de repos défini et être réalisée au moins à deux et dans l’idéal à trois reprises. Ce n’est pas réalisable en conditions réelles.
VIEW : Quelles sont vos attentes à l’égard des données cliniques ?
Carsten Oliver Schmidt : En qualité de scientifique, j’aimerais obtenir des données cliniques qui seraient dans l’idéal immédiatement réutilisables. Mais les données sont recueillies au sein d’un établissement hospitalier d’une manière différente de celle suivie par les scientifiques, et ce en raison d’exigences divergentes. Le fait qu’elles ne soient donc pas totalement exploitables pour les chercheurs n’est dans un premier temps pas le problème des établissements. Mais je suis ravi de voir que différentes initiatives, telles que l’initiative allemande « Medizininformatik-Initiative » ou NFDI4Health, se consacrent aujourd’hui pleinement à la facilitation de la réutilisation de données de patients et de recherche en vue de développer des solutions innovantes à ce sujet. Si j’avais un souhait à exaucer, ce serait que la protection des données soit rendue plus praticable et qu’une attention plus grande soit accordée au bénéfice potentiel pour le grand public que permet l’exploitation scientifique de données.
VIEW : Merci de cet entretien !