The overall compliance with reporting guidelines of prospective diagnostic accuracy studies of CT coronary angiography is moderate to good, and STARD-adopting journals have greater STARD compliance than nonadopting journals. Online supplemental material is available for this article.
Die Prinzipien der evidenzbasierten Medizin (EbM) tragen nunmehr seit über 15 Jahren mit ihren Maximen der Zweckmäßigkeit und der Nützlichkeit zur Verbesserung der klinischen Patientenversorgung bei. Dies gilt zuallererst für die therapeutischen Fächer, aber auch zunehmend für den Bereich der Diagnostik und somit auch der Radiologie [1]. Aufgrund ihres hohen Evidenzgrads kommen dabei systematischen Übersichtsarbeiten (synonym: systematische Reviews) und Metaanalysen, die ergänzend eine statistische Zusammenfassung der Daten beinhalten, eine besondere Bedeutung zu. Durch spezielle metaanalytische Verfahren lassen sich die Ergebnisse (Schätzer der diagnostischen Genauigkeit) der verfügbaren Einzelstudien zu einem bestimmten diagnostischen Test statistisch zusammenfassen und somit der Test auf objektivere Art und Weise hinsichtlich seiner klinischen Wertigkeit einschätzen. Grundlage für die Beurteilung neuer diagnostischer Testverfahren bilden hierbei diagnostische Studien, in denen die diagnostische Genauigkeit des zu prüfenden Testverfahrens (Indextest) im Vergleich mit einem Referenzstandard ("Goldstandard") ermittelt wird [2 -20]. In diesem Zusammenhang haben wir schon in einem vorangegangenen Editorial [21] die Bedeutung der Berichtsqualität diagnostischer Studien dargelegt und hierfür die STARD-Checkliste [22] als Richtlinie bei der Manuskripterstellung vorgestellt. Dieses Editorial widmet sich der Qualität des Designs und der Methodik diagnostischer Studien. Die methodische Qualität diagnostischer Studien zeigt erhebliche Unterschiededie Ergebnisse einer Einzelstudie können durch Verzerrungen (Bias) [23 -25] beeinflusst sein, die sich wiederum beim metaanalytischen Zusammenfassen (Poolen) verfälschend niederschlagen können. Weiterhin stellen Unterschiede in der Qualität einen Hauptfaktor für die statistische Heterogenität zwischen den Primärstudien dar.
Die Zahl diagnostischer Methoden ist immens und nimmt auch in der Radiologie weiter zu. Deshalb ist es wichtig, die Qualität und den Nutzen solcher Verfahren im Sinne einer evidenzbasierten Radiologie zu bewerten [1]. Diagnostische Studien [2 -19] können die hierfür erforderlichen Informationen liefern, vorausgesetzt, sie sind ausreichend transparent und für den Leser nachvollziehbar dargestellt. Um die diagnostische Genauigkeit neuer Verfahren in der Radiologie einschätzen zu können, sind vergleichende Studien (versus "Goldstandard" = Referenzstandard) notwendig. Die Qualität der Berichterstattung von Ergebnissen derartiger Studien ist jedoch oft unzureichend. So konnten Reid et al. [20] zeigen, dass selbst in angesehenen medizinischen Journalen bei der Veröffentlichung von diagnostischen Studien wesentliche Informationen nicht enthalten sind. So wurden zum Beispiel Details des Studiendesigns und der Patientencharakteristika häufig nicht ausreichend beschrieben. Eine Auswertung von 124 diagnostischen Studien, die in 12 verschiedenen Journalen im Jahr 2000 veröffentlicht wurden, bestätigte dieses Ergebnis [21]. Dem Leser ist es außerdem kaum möglich, die Validität, Generalisierbarkeit und klinische Anwendbarkeit der Ergebnisse diagnostischer Studien zu beurteilen, wenn elementare Studiencharakteristika nicht beschrieben werden. Bedenkt man die zahlreichen Faktoren, die ein Studienergebnis beeinflussen und sogar verfälschen können [22, 23], wird deutlich, welche außerordentliche Bedeutung eine ausführliche Berichterstattung hat. Bereits die Wahl des Studiendesigns kann erheblichen Einfluss auf die Ergebnisse haben. Studien mit Mängeln im Design führen zu beeinflussten und überschätzten Testgenauigkeiten im Vergleich zu Studien ohne diese Defizite [24]. Ein Beispiel für einen solchen Mangel ist der "partial verification bias". Wenn dieser vorliegt, wird die Entscheidung, ob der Referenzstandard bei Patienten durchgeführt wird, von dem Ergebnis des zu überprüfenden diagnostischen Testes abhängig gemacht. Da in diesem Fall eine Patientenselektion stattfindet und Patienten mit positiven Testergebnissen mit höherer Wahrscheinlichkeit dem Referenzstandard zugeführt werden, wird die Sensitivität des zu überprüfenden diagnostischen Testes fälschlich erhöht. Häufig lassen sich derartige Schwierigkeiten in der praktischen Umsetzung von Studienideen nicht vermeiden. Die Kenntnis des "partial verification bias" durch eine ausführliche Berichterstattung in der Publi-kation ermöglicht dem Leser allerdings eine kritische und damit auch objektive Würdigung der Studienergebnisse. Mit der zunehmenden Zahl von systematischen Übersichtsarbeiten und Metaanalysen insbesondere zu randomisierten kontrollierten Studien traten die Mängel bei der Berichterstattung von Studien zu Beginn der 1990er-Jahre besonders deutlich zutage [25]. Um diesen Zustand zu überwinden, wurden zahlreiche Qualitätsinitiativen gegründet. Ihr Ziel war vorrangig die Verbesserung der Studienpublikationen. Damit grenzen sie sich von Leitlinien ab, die sich auf die Pl...
scite is a Brooklyn-based organization that helps researchers better discover and understand research articles through Smart Citations–citations that display the context of the citation and describe whether the article provides supporting or contrasting evidence. scite is used by students and researchers from around the world and is funded in part by the National Science Foundation and the National Institute on Drug Abuse of the National Institutes of Health.
hi@scite.ai
10624 S. Eastern Ave., Ste. A-614
Henderson, NV 89052, USA
Copyright © 2024 scite LLC. All rights reserved.
Made with 💙 for researchers
Part of the Research Solutions Family.