Zum Inhalt springen

In der neuen Themenreihe „Evidenz & Eminenz“ dreht es sich um alles zu Studien, wissenschaftlichem Arbeiten, Bewertung von wissenschaftlichen Dokumenten und was Evidenz eigentlich ist. Die wichtigsten Begriffe dazu gibt es unten im Glossar zum Nachschlagen.

Instagram-Beiträge in chronologischer Reihenfolge

Nachschlagewerk

0-9
A
Adhärenz
Einhaltung gesetzter Therapieziele/-maßnahmen wie z.B. Medikamenteneinnahme
Allocation Concealment (verdeckte Zuteilung)
Ansätze/Maßnahmen vor Studienbeginn zur Sicherstellung einer qualitativ hochwertigen Zuteilung zufällig ausgewählter Versuchsgruppen bei randomisierten kontrollierten Studie
Ambiguity Bias
Verzerrung von Studienergebnissen durch die Tendenz die Option/Diagnose zu wählen, deren Wahrscheinlichkeit bekannt ist, anstatt die Option/Diagnose zu wählen, deren Wahrscheinlichkeit unbekannt ist
Anteil
Untermenge bzw. Teil einer Gesamtmenge (i.d.R. als Bruch/Prozentsatz angegeben)
As Treated (AT)
Studienansatz, welcher Patient*innen dahingehend auswertet, welche Therapie sie – ggf. auch nach einem Wechsel – zuletzt erhalten haben
Attrition
 Verlust von Teilnehmern während der Durchführung einer Studie (auch loss to follow up oder drop out genannt)
Ausreißer
Messwerte, welche von anderen stark abweichen, also weiter entfernt von der Stichprobe liegen als eigentlich zu erwarten. Ursächlich hierfür können z.B. durch die Streuung der Messwerte oder durch Durchführungsfehler bedingt sein.
absolute Risikoreduktion (Absolute Risk Reduction, ARR)
– auch attributablen Risikos oder Risikodifferenz (RD)
– absolute Differenz der Rate an ungünstigen Ereignissen im Vergleich Versuchsgruppe zu Kontrollgruppe, sofern die Behandlung wirksam ist
– gibt an, um welchen Prozentsatz man im Rahmen epidemiologischer Studien die Krankheitshäufigkeit senken kann, wenn man einen Risikofaktor ausschalten würde
– Berechnung wie folgt CER („control event rate“) – EER („experimental event rate“) = ARR
absolute Risikozunahme (ARI, absolute risk increase)
– absolute Differenz der Rate an ungünstigen Ereignissen im Vergleich Versuchsgruppe zu Kontrollgruppe, sofern die Behandlung schlechter ist
– Kehrwert der ARI ergibt Number Needed to Harm  (1/ARI = NNH)
absolutes Risiko
Wahrscheinlichkeit, dass ein bestimmtes Ereignis bei einer einzelnen Person innerhalb eines bestimmten Zeitraums eintritt (Bereich liegt zwischen 0, also Ereignis wird überhaupt nicht auftreten, und 1, also Ereignis wird auf jeden Fall auftreten)
Äquivalenzbereich
vordefinierter Bereich, innerhalb dem die Ergebnisse unterschiedlicher medizinischer Maßnahmen als gleichwertig anzusehen sind
B
Basisreproduktionszahl
Wert, der angibt, wie viele Menschen eine erkrankte Person durchschnittlich ansteckt, sofern kein Populationsmitglied gegen die jeweilige Krankheit immun ist
Bayes-Theorem (Satz von Bayes)
Beim Bayes-Theorem handelt es sich, um ein wahrscheinlichkeitstheorischen Ansatz zur Bestimmung bedingter Wahrscheinlichkeit zweier Ereignisse, sofern eines der Ergebnisse schon bekannt ist. In der (evidenzbasierten) Medizin dient der Satz von Bayes als normative Definition für rationales Verhalten bzw. rationale diagnostische Prozesse. Einfach ausgedrückt und bezogen auf das diagnostische Vorgehen steht das Bayes-Theorem für die Modifikation der Wahrscheinlichkeit einer relevanten Erkrankung im Rahmen der Anamnese, körperlichen Untersuchung und weiterer Diagnostik. Kurz ausgedrückt: Nachtestwahrscheinlichkeit = Vortestwahrscheinlichkeit x Likelihood Ratio.
Behandlungsgruppe (Interventionsgruppe, Verumgruppe)
Anteil an einer Studienpopulation in kontrollierten Interventionsstudien, welcher die Behandlung bzw. Intervention erhält
Bias
durch Fehler bzw. falsche Untersuchungsmethode/-ansatz verursachte Verzerrung des Ergebnisses einer Untersuchung/Studie
Bias (Aggregate)
Verzerrung von Studienergebnissen durch die fälschliche Annahme, dass zusammengefasste Daten auch für einzelne Datenpunkte einer Untersuchung gelten
Bias (Attrition)
Verzerrung von Studienergebnissen durch Studienabbrecher, da diese Studien oftmals aufgrund von Nebenwirkungen, Unzufriedenheit oder schlechte, persönlichen Resultaten
Bias (Baader-Meinhof; auch Frequenzillusion)
Verzerrung von Studienergebnissen durch das Phänomen, dass kürzlich Erlerntes/Bemerktes scheinbar „überall“ bzw. häufiger aufzutauchen scheint, kurz nachdem man zum ersten Mal darauf aufmerksam gemacht wurden
Bias (Base rate neglect)

Verzerrung von Studienergebnissen durch die Tendenz, die Wahrscheinlichkeit eines Ereignisses durch Berücksichtigung neuer, leicht verfügbarer Informationen diesbezüglich, aber ohne die Berücksichtigung der zugrunde liegenden Wahrscheinlichkeit, dass dieses Ereignis tatsächlich eintritt
Bias (Belief; auch Überzeugungsbias)
Verzerrung von Studienergebnissen durch die Tendenz, glaubwürdige Schlussfolgerungen zu akzeptieren, unabhängig davon, ob sie logisch korrekt hergeleitet werden können
Bias (Berkson)
Verzerrung von Studienergebnissen durch die Problematik bei der Proband*innenauswahl einen bestimmten Bevölkerungsteil mit einem höheren bzw. geringeren Risiko hinsichtlich des Outcomes zu bevorzugen oder stärker zu repräsentieren als dieser in der Allgemeinbevölkerung ist (bspw. ist der Korrelation zw. Rauchen und einer COPD bei einem hospitalisierten Patient*innenkollektiv stärker als bei nicht-hospitalisierten Personen)
Bias (Blind Spot)
Verzerrung von Studienergebnissen durch die Tendenz, sich selbst seiner eigenen Vorurteile weniger bewusst zu sein und der daraus resultierenden Annahme, dass man weniger anfällig für Vorurteile ist
Bias (Collider Bias)
Verzerrung von Studienergebnissen durch Studiendesign, was darauf abzielt, die Auswirkungen von A auf B zu messen, indem man C überprüft, aber A und B einen kausalen Einfluss auf C haben und diese dritte Variable gemeinsam beeinflussen und die Kontrolle von C einen falschen Effekt einer negativen Beziehung zwischen A und B erzeugt
Bias (Commission)
Verzerrung von Studienergebnissen durch die Tendenz zu Handeln und nicht nichts zu tun
Bias (Commitment)
Verzerrung von Studienergebnissen durch Ausführung von Handlungen, welche mit früheren Überzeugungen, Worten und Taten übereinstimmen
Bias (Confirmation; auch Bestätigungsfehler)
Verzerrung von Studienergebnissen durch Tendenz, Informationen so auszuwählen und zu interpretieren, dass diese die eigenen Erwartungen bestätigen
Bias (Confounding)
Verzerrung von Studienergebnissen durch Verwischen bestehender Zusammenhänge („Negativ-Confounding“) oder Vortäuschen tatsächlich nicht bestehender Zusammenhänge („Positiv-Confounding“)
Bias (Conscious/Explicit)
Verzerrung von Studienergebnissen durch bewusste Voreingenommenheit
Bias (Correspondence; auch Attributionsfehler)
Verzerrung von Studienergebnissen durch die Tendenz, auf Grundlage des Verhaltens Annahmen über charakterliche Eigenschaften einer Person zu treffen
Bias (Courtesy)
Verzerrung von Studienergebnissen durch die Tendenz, aus Höflichkeit ggü. einer anderen Person eher kein negatives Feedback zu geben
Bias (Decline)
Verzerrung von Studienergebnissen durch die Tendenz, Vergangenes mit Aktuellem zu vergleichen, um eine Entscheidung zu treffen, und dabei die Annahme zu haben, dass Dinge im Vergleich zur Vergangenheit schlechter sind oder schlechter werden, bedingt durch den Fakt, dass Veränderungen stattfinden
Bias (Detection)
Verzerrung von Studienergebnissen durch die Nutzung unterschiedlicher bzw. genauerer Verfahren zur Endpunktfeststellung
Bias (Dunning-Kruger; auch Dunning-Kruger-Effekt)
Verzerrung von Studienergebnissen durch die Tendenz, dass (inkompetente) Menschen, das eigene Wissen und Können zu überschätzen
Bias (Extreme responding)
Verzerrung von Studienergebnissen durch die Tendenz z.B. in Fragebögen extremer zu antworten, also die niedrigste oder höchste Antwort zu wählen, auch wenn diese nicht zutrifft
Bias (False Consensus)
Verzerrung von Studienergebnissen durch die Tendenz zu überschätzen, inwieweit die Überzeugungen, Verhaltensweisen, Einstellungen und Werte anderer mit den eigenen übereinstimmen
Bias (Framing)
Verzerrung von Studienergebnissen durch die Beeinflussung verfügbarer Optionen/Wahlmöglichkeiten aufgrund eines spezifischen Kontextes
Bias (Functional fixedness)
Verzerrung von Studienergebnissen durch die Tendenz, ein Problem/eine Problemstellung nur auf eine bestimmte Weise zu betrachten und damit andere, wirksame oder sogar wirksamere Lösungen nicht zu berücksichtigen
Bias (Fundamental attribution; grundlegender Zuordnungsfehler)
Verzerrung von Studienergebnissen durch die Tendenz, spezifische Verhaltensweisen anderer auf bestehende, unbegründete Stereotypen zurückzuführen und gleichzeitig das eigene, sehr ähnliche Verhalten eher auf externe Faktoren zurückzuführen
Bias (Gender)
Verzerrung von Studienergebnissen durch sexistische Vorurteile bzw. Stereotypen
Bias (Halo; auch Halo-Effekt)
Verzerrung von Studienergebnissen durch die Tendenz, dass der erste Eindruck einen starken Einfluss darauf hat, was wir insgesamt von einer anderen Person halten
Bias (Health Worker)
Verzerrung von Studienergebnissen bei der spezifischen Kohorte von Mitarbeitenden im Gesundheitswesen durch die Annahme, dass Mitarbeiter*innen im Gesundheitssystem ein gewisses Gesundheitslevel aufweisen müssen für ihre Arbeit, während im Gegensatz dazu in der Gesamtbevölkerung auch bzw. eher krankheitsbedingt Arbeitsunfähige zu finden sind
Bias (Hindsight; auch Rückschaufehler)
Verzerrung von Studienergebnissen durch verfälschte Erinnerung an die eigenen Vermutungen hinsichtlich des zu erwartenden Ergebnisses
Bias (Impact; auch Auswirkungsverzerrung)
Verzerrung von Studienergebnissen durch die Tendenz, die Länge oder Ausprägung zukünftiger emotionaler Zustände zu überschätzen
Bias (Implicit/Cultural)
Verzerrung von Studienergebnissen durch die Beeinflussung der Wahrnehmung durch nicht notwendigerweise bewusstes Kategoriendenken, also z.B. dass bestimmte Reaktion für das weibliche Geschlecht wahrscheinlicher ist, als für das männliche Geschlecht
Bias (In-Group)
Verzerrung von Studienergebnissen durch die Tendenz dazu zu neigen, andere Personen innerhalb der eigenen (sozialen) Gruppe eher zu unterstützen als außenstehende Personen
Bias (Information)
Verzerrung von Studienergebnissen durch die Annahme, dass das Sammeln von mehr Informationen eine bessere Entscheidungsfindung bewirkt, auch wenn die weiteren Informationen irrelevant sind für das eigentliche Thema
Bias (Interviewer)
Verzerrung von Studienergebnissen aufgrund der bewussten/unbewussten Beeinflussung durch die Interviewer im Rahmen mündlicher Befragungen
Bias (Lead-Time; auch Vorlaufzeit-Bias)
Verzerrung von Studienergebnissen durch den Zeitpunkt der Diagnosestellung in Beziehung zur Erkrankungsdauer bzw. zum Zeitpunkt des Symptomeintritts, also beispielsweise, dass die Gefahr besteht, dass die Überlebensdauer länger erscheint, wenn eine Erkrankung in einem Screening frühzeitiger erkannt wird und nicht erst später diagnostiziert wird (frühere Identifikation durch Screening ≠ längere Überlebensdauer oder längerer Zeitraum bis zum Auftreten relevanter/kritischer Symptome)
Bias (Length-Time; auch Überdiagnose-Bias)
Verzerrung von Studienergebnissen dadurch, dass weniger schwere oder langsamer fortschreitende Erkrankungen im Screening früher erkannt werden als Krankheiten mit einem aggressiven Verlauf und daraus die Annahme entsteht, dass daraus höhere Überlebensraten bzw. ein höherer Behandlungserfolg resultieren
Bias (Misinformation)
Verzerrung von Studienergebnissen durch die Tendenz, dass die eigenen Erinnerungen stärker durch Dinge beeinflusst sind, die nach dem eigentlich zu untersuchten Ereignis selbst geschehen
Bias (Non-Response)
Verzerrung von Studienergebnissen durch die Problematik, dass die Ergebnisse von Personen, welche aus verschiedenen Gründen (keine Zeit, fehlende Bereitschaft, Unkenntnis hinsichtlich der Untersuchung) nicht an einer Untersuchung teilnehmen, sich relevant von denen unterscheiden, die an der Untersuchung teilgenommen haben (z.B. könnte es passieren, dass in einer Studie zur Arbeitsbelastung vor allem die Personen nicht antworten, die eine stärkere Arbeitsbelastung haben als die Personen, welche an der Studie teilnehmen)
Bias (Observer)
Verzerrung von Studienergebnissen durch die Tendenz der Studiendurchführenden, die eigenen Beobachtungen bewusst/unbewusst durch die eigenen Erwartungen oder persönlichen Motive beeinflusst sind
Bias (Omission)
Verzerrung von Studienergebnissen durch die Tendenz untätig zu sein statt zu Handeln
Bias (Optimism or Pessimism)
Verzerrung von Studienergebnissen durch die Tendenz in Untersuchungen/Befragungen eher das positive Ergebnis zu wählen, wenn man gut gelaunt ist, und das negative Ergebnis, wenn man schlecht gelaunt ist
Bias (Optimism)
Verzerrung von Studienergebnissen durch die Tendenz, die Wahrscheinlichkeit zu überschätzen, dass einem gute Dinge widerfahren, und simultan die Wahrscheinlichkeit zu unterschätzen, dass sich negative Dinge auf das eigene Leben auswirken
Bias (Outcome/Value)
Verzerrung von Studienergebnissen durch die Tendenz, den Fakt für wahr zu halten, den man für wahr halten möchte, anstatt weniger wahrscheinliche Dinge in Betracht zu ziehen
Bias (Performance)
Verzerrung von Studienergebnissen durch eine zusätzliche, nicht im Rahmen der Studie untersuchten Behandlungsmethode/Begleittherapie bei einem Teil des Patient*innenkollektiv über die eigentlich untersuchte Intervention hinaus
Bias (Projection; auch Projektionsfehler)
Verzerrung von Studienergebnissen durch die Tendenz, die eigenen Gefühle, Einstellungen und Gedanken auf andere Personen oder das persönliche Zukunfts-Ich zu projizieren
Bias (Publication/Dissemination)
Verzerrung von Studienergebnissen durch die Tatsache, dass Studien mit signifikanten Befunden bzw. positiven Ergebnissen eher und rascher publiziert werden, als Arbeiten, welche negative oder weniger signifikante Resultate ergeben
Bias (Question order)
Verzerrung von Studienergebnissen durch die Reihenfolge von Interviewfragen in Befragungen, die dadurch die Art und Weise der Interpretation bzw. Bewertung der Fragen beeinflussen
Bias (Recall; auch Erinnerungsverzerrung)
Verzerrung von Ergebnissen retrospektiver Studien durch das abweichende Erinnerungsvermögen der einzelnen Teilnehmenden wie z.B. dass sich erkrankte Personen sich eher an zurückliegende, mit der Krankheit zusammenhängende Ereignisse erinnern als die Kontrollgruppe
Bias (Reporting)
Verzerrung von Studienergebnissen durch das selektive Berichten von normalerweise positiven Studienergebnissen bzw. das Zurückhalten von Informationen zu negativen Studienergebnissen
Bias (Research Agenda)
Verzerrung von Studienergebnissen durch den Einfluss von Partikularinteressen sowie Überzeugungen/Erwartungen der Forschenden und weniger von objektiven Kriterien beim Studiendesign oder der Durchführung der Untersuchung
Bias (Response)
Verzerrung von Studienergebnissen durch die Tendenz eher dazu zu neigen, ungenaue/falsche Antworten bei Befragungen zu sich selbst zu geben
Bias (Reviewer)
Verzerrung von Studienergebnissen durch die Präferenz von Gutachter*innen im Review-Verfahren
Bias (Search Satisfaction)
Verzerrung von Studienergebnissen durch die Tendenz, nach der Identifizierung einer ersten Anomalie nicht nach weiteren Anomalien weiterzusuchen
Bias (Selection/Sampling/Ascertainment)
Verzerrung von Studienergebnissen durch die Stichprobenauswahl auf eine für die zu untersuchende Population nicht repräsentative, nicht unvoreingenomme oder nicht zufällige/randomisierte Art und Weise
Bias (Self-Serving; auch eigennützige Voreingenommenheit)
Verzerrung von Studienergebnissen durch die Tendenz, sich Erfolge eher selbst zuzuschreiben und die Schuld für Misserfolge eher bei anderen oder äußeren Ursachen zu suchen
Bias (Self-selection/Volunteer)
Verzerrung von Studienergebnissen durch die Tendenz von Personen sich eher freiwillig für eine Studie zu melden, wenn man bestimmte, für den Zwecke der Studie relevante Merkmale aufweist
Bias (Single Action)
Verzerrung von Studienergebnissen durch die Tendenz zu Handlungen, auch wenn ein Nicht-Agieren bzw. Warten eine äquivalente oder sogar bessere Alternative darstellen könnte
Bias (Social desirability)
Verzerrung von Studienergebnissen durch die Tendenz eher Antworten zu geben, von denen man annimmt, dass die Studiendurchführenden oder andere Teilnehmende diese eher positiv bewerten
Bias (Spectrum)
Verzerrung von Studienergebnissen durch die Durchführung von Test o.Ä. an einer Untersuchungsgruppe, die nicht mit der für den Test eigentlich vorgesehenen Population übereinstimmt
Bias (Status quo)
Verzerrung von Studienergebnissen durch die Tendenz, den Status quo gegenüber Veränderungen zu bevorzugen
Bias (Survivorship)
Verzerrung von Studienergebnissen durch Fokussierung auf erfolgreiche Ergebnisse und Ausblendung von negativen Ergebnissen
Bias (Undercoverage)
Verzerrung von Studienergebnissen durch den Ausschluss einer Teilmenge der zu untersuchenden Population bei der Untersuchung
Bias (Verification/Work-Up)
Verzerrung von Studienergebnissen dadurch, dass die Ergebnisse diagnostischer Tests Einfluss darauf haben, ob bei Proband*innen der Gold-Standard (Diagnostik/Intervention) zur Überprüfung des Testergebnisses zum Einsatz kommt oder ob sich bei den Proband*innen nach dem initialen, diagnostischen Test die Referenztests unterscheiden
Bias (Ying Yang)
Verzerrung von Studienergebnissen durch die Tendenz eine Diagnose für ausgeschlossen/unmöglich zu halten, da bereits viele negative Tests erfolgt sind
Bias (Zebra retreat)
Verzerrung von Studienergebnissen durch die Tendenz vor der Diagnosestellung einer seltenen Diagnose zurückschrecken, nur weil diese selten ist und man nicht seinen Ruf beschädigen will, da man unrealistische Diagnosen stellt und Ressourcen verschwendet
Bias (omitted variable)
Verzerrung von Studienergebnissen durch die Nichtberücksichtigung oder das Auslassen/Weglassen (mehrerer) relevanter Variablen bei der Durchführung oder beim Studiendesign
Bias (p-Hacking)
Verzerrung oder (sogar Manipulation) von Studienergebnissen mit dem Ziel den p-Wert unter eine bestimmte Grenze zu drücken/reduzieren, also der repetitiven Durchführung von Untersuchungen/Versuchen bis ein zuvor nicht signifikantes Ergebnis danach signifikant ist
Bias-Risiko
Risiko systematischer Fehler
Blockbildung
– Ein Block wird gebildet aus Beobachtungseinheiten, die sich ähneln. Natürliche Blöcke sind z. B. eineiige Zwillinge, paarige Organe oder unterschiedliche Hautflächen bei denselben Patienten.
– Dies kann man sich bei Therapiestudien zunutze machen (wenn es der Versuchsplan zulässt): Wenn etwa die Augen eines jeden Studienteilnehmers unterschiedlich therapiert werden, entstehen (unter der Annahme, dass beide Augen von der Krankheit gleichermaßen betroffen sind) zwei strukturgleiche Vergleichsgruppen.
Blockrandomisation (= Blockrandomisierung)
– Ist eine Methode, um sicherzustellen, dass in randomisierten Studien die Anzahl der Patienten in den Vergleichsgruppen stets ähnlich groß ist. Hierzu werden beim Generieren der Randomisierungsliste Blöcke verwendet, innerhalb derer die Anzahl der Gruppenzuteilungen gleich ist. So enthält z.B. ein 6er-Block in einer zweiarmigen Studie jeweils drei Zuteilungen zu den beiden Gruppen A und B (z.B. AABABB, ABBAAB, BBBAAA etc.). Damit nicht die jeweils letzte(n) Zuteilung(en) in einem Block vorhergesehen werden kann (siehe auch Allocation Concealment), empfiehlt es sich die Blockgröße ebenfalls zufällig variieren zu lassen (z.B. 6er- und 8-erBlöcke). Eine Blockrandomisierung ist vor allem bei Studien mit kleinerer Fallzahl sinnvoll. Sie kann mit einer stratifizierten Randomisierung kombiniert werden.
C
CONSORT (Consolidated Standards of Reporting Trials)
– Das CONSORT-Statement (Consolidated Standards of Reporting Trials) beschreibt, welche Informationen standardmäßig in Publikationen über Ergebnisse aus randomisierter kontrollierten Studien enthalten sein sollten. CONSORT schließt eine Checkliste und ein Flussdiagramm ein, dem sich der Umgang mit allen Teilnehmern der Studie entnehmen lässt. Absicht ist es, sicherzustellen, dass die Publikation einer Studie die für die Bewertung der Ergebnissicherheit wichtigen Angaben enthält.
Carry-over-Effekt
– Störender Effekt in Interventionsstudien mit Cross-Over-Design, wenn die Behandlung der 1. Phase über das Ende dieser Phase hinaus und in die 2. Phase hinein wirkt. So kann das Ergebnis der Behandlung in der 2. Phase beeinflusst und der Vergleich verzerrt werden. Zur Vermeidung dieses Effekts kann vor die 2. Studienphase eine so genannte Wash-out-Phase gesetzt werden, in der die Wirkungen vorangegangener Therapien abklingen.
Cochrane
– Cochrane ist benannt nach dem britischen Arzt und Epidemiologen, Sir Archibald Leman Cochrane
– Seine Überlegungen zur Überprüfung von Therapien in Studien und die Aufbereitung dieser Ergebnisse in systematischen Übersichten stellen einen gedanklichen Ausgangspunkt für die Gründung von Cochrane im Jahr 1993 dar
– globales, unabhängiges Netzwerk (Geschäftsform: Charity nach britischem Recht) aus Wissenschaftlern, Ärzten, Angehörigen der Gesundheitsfachberufe, Patienten und weiteren an Gesundheitsfragen interessierten Personen
Collider
– Variablen, die von mindestens zwei anderen Variablen beeinflusst werden
– Beispiel für einen CB ist die Beobachtung, dass bei Menschen mit Diabetes eine zusätzlich bestehende Adipositas mit einem verringerten Sterberisiko assoziiert ist, obwohl Adipositas in der Allgemeinbevölkerung mit einem erhöhten Sterberisiko einhergeht
Compliance
– Bereitschaft eines Patienten zur aktiven Mitwirkung an therapeutischen Maßnahmen
Confounder (Störgröße)
– Als Confounder (Störgröße) wird ein Faktor bezeichnet, der sowohl mit einer Intervention (oder Exposition), als auch mit dem beobachteten Ergebnis einer Studie assoziiert ist. Auch im Deutschen wird oft der englische Begriff verwendet. Wenn zum Beispiel die Personen in einer Gruppe, in der Therapie A eingesetzt wird, jünger sind als die der Gruppe, in der Therapie B eingesetzt wird, ist schwer zu entscheiden, inwieweit Vorteile der Gruppe A nun auf die Therapie oder das jüngere Alter zurückzuführen sind. Alter ist dann ein Confounder. Gegenmaßnahme: Randomisierung soll solche Ungleichheiten minimieren; bekannte und in der Studie erhobene Confounder können durch Anwendung geeigneter statistischer Verfahren berücksichtigt werden (Adjustierung).
Confounding (Umgang mit Störvariablen)
– Maßnahmen gegen Verzerrung durch Confounder
– Gegenmittel sind z.B. Randomisierung, Blockbildung, Matchen
Control Event Rate (CER, Ereignisrate in der Kontrollgruppe)
– Anteil der Teilnehmer in der Kontrollgruppe, die in einem definierten Zeitraum ein Ereignis oder einen Endpunkt erleiden. Die Ereignisrate in der Kontrollgruppe wird zur Berechnung der absoluten Risikoreduktion und relativen Risikoreduktion benötigt.
Cox-Proportional-Hazards-Modell
– Mit dem Cox-ProportionalHazards-Modell (7 Abschn. 13.3) lässt sich ein prognostischer Faktor oder eine Kombination mehrerer prognostischer Faktoren finden, mit der die Hazard­Ratio modelliert wird.
Critical Appraisal
– In der evidenzbasierten Medizin kritische Bewertung von wissenschaftlichen Studien mit dem Ziel, zu entscheiden, ob diese geeignet sind, zur Lösung eines spezifizierten Problems aus der medizinischen Versorgung (z.B. beste Behandlungsform für den eigenen Patienten) beizutragen. Geprüft werden: 1. Validität; 2. klinische Relevanz; 3. Übertragbarkeit auf den gegebenen Entscheidungskontext.
Critically Appraised Topic (CAT)
– In der evidenzbasierten Medizin (EbM) ein nach EbM-Methodik gelöstes Problem, das die als präzise formulierte Fragestellung, eine kurze Beschreibung der Informationsrecherche, die strukturierte Kurzfassung einer geeigneten, kritisch bewerteten Studie und die aus den Ergebnissen abgeleitete klinische Schlussfolgerung enthält; unter didaktischen Gesichtspunkten eignet sich die Erstellung von CATs zum Erlernen und Vertiefen der EbM-Methoden. Im Internet stehen freie Programme, sogenannte CAT-Maker, zur Verfügung. Wenn eine CAT-Sammlung als Informationsquelle weiter verwendet werden soll, sind drei Probleme zu bedenken: 1. CATs können fehlerhaft sein, ein Peer Review ist daher unverzichtbar; 2. CATs geben meist nur eine einzige Quelle zum klinischen Problem wider und sind fast nie repräsentativ für die gesamte, zum Thema publizierte Literatur; 3. je nach Thema veralten CATs schnell.
Cut-off-Wert
Wenn im klinischen oder im Forschungskontext Messwerte für eine Entscheidung herangezogen werden sollen, sind für die jeweilige Variable Bereiche mit unterschiedlicher Konsequenz zu definieren. Diese werden durch Cut-off-Werte abgegrenzt. So gilt ein Kreatinin-Wert oberhalb eines bestimmten Cut-off-Wertes als diagnostischer Hinweis für eine eingeschränkte Nierenfunktion und rechtfertigt weitere Diagnostik und ggf. Therapie. Bei klinische- pidemiologischen Studien ist ggf. für Expositionen (z.B. Toxine, Pack-Years bei Rauchern) und Outcomes (z.B. Blutdruck, Lungenfunktionswerte) die Definition von Cut-off-Werten sinnvoll. Dabei ist meist eine Unterscheidung von ‚normal‘ und ‚pathologisch‘ impliziert. Die inhaltliche Begründung eines Cut-off-Wertes kann sich auf statistische Verteilungscharakteristika, prognostische Überlegungen und/oder therapeutische Konsequenzen beziehen. Mit der Kategorisierung einer stetigen Variablen geht immer Information verloren. Bei wissenschaftlichen Untersuchungen ist der Cut-off-Wert relevanter Größen zu Studienbeginn im Protokoll festzulegen. Nur so wird vermieden, dass die erhobenen Daten die Entscheidung über die Definition von Cut-off-Werten beeinflussen. Wird ein Cut-off-Wert opportunistisch erst während der Auswertung festgelegt, führt der Bias meist zur Überschätzung diagnostischer, kausaler oder therapeutischer Effekte.
Cutt-Off-Wert
Wert, welcher als Grenze dient, die festlegt bis zu welchem Messergebnis ein negativer Befund und ab welchem ein positiver Befund vorliegt
D
Datenmanipulation
– selektive Falschdarstellung von Daten oder das Herbeiführen falscher Ergebnisse
Delphi-Technik
– Bezeichnung einer Umfragemethode, bei der eine ausgesuchte Gruppe von Experten gebeten wird, zu einem Thema wiederholt Stellung zu nehmen. Ein Delphi-Verfahren umfasst mehrere schriftliche Befragungsrunden, wobei nach jeder Runde die Antworten zusammengefasst und den Teilnehmern erneut zugesandt werden. Ziel ist das Erreichen eines Konsenses der Gruppe. Delphi-Verfahren werden als formales Konsensverfahren bei der Leitlinien-Erstellung verwendet.
Determinationskoeffizient (Bestimmtheitsmaß)
– Kennzahl der Regressionsanalyse
– gibt dir Auskunft darüber, wie gut du die abhängige Variable mit den betrachteten unabhängigen Variablen vorhersagen kannst
Diagramm (Balkendiagramm)
– Längen der einzelnen Balken entsprechen den Häufigkeiten ni oder hi
– Die 2-dimensionalen Balken lassen sich durch eindimensionale Striche oder dreidimensionale Säulen ersetzen. Darüber hinaus können die Balken horizontal anstatt vertikal angeordnet werden (Bei senkrechter Anordnung spricht man auch von einem Stabdiagramm oder Säulendiagramm)
– Darstellungsform eignet sich für alle diskreten Merkmale
Diagramm (Box-Plot oder Box-Whisker-Plot)
– besonders geeignet bei quantitativen Merkmalen
– Dabei wird jede Stichprobe durch eine rechteckige Box repräsentiert, die unten und oben (bzw. links und rechts) vom 1. und 3. Quartil begrenzt wird.
– Innerhalb der Box wird der Median gekennzeichnet; der Mittelwert kann ebenfalls eingezeichnet werden (er muss nicht notwendigerweise in der Box liegen)
– Die von der Box ausgehenden Striche (engl. „whisker“ für Schnurrhaar) zeigen die Lage des Minimums und des Maximums der jeweiligen Stichprobe an
Diagramm (Euler-Diagramm)
– Euler-Diagramme werden in erster Linie dazu eingesetzt, mengentheoretische Beziehungen und Sachverhalte, zum Beispiel die Teilmengeneigenschaft, anschaulich zu machen, wobei die folgenden Veranschaulichungen üblich sind
Diagramm (Histogramm)
– Bei einem Histogramm werden die Klassen durch Rechtecke repräsentiert, deren Flächen proportional zu den jeweiligen Klassenhäufigkeiten sind
Diagramm (Häufigkeitspolygon)
– Diese Darstellung erhält man, indem man senkrecht auf die Klassenmitten Strecken in Höhe der entsprechenden Häufigkeiten aufträgt und deren Endpunkte miteinander verbindet.
Diagramm (Kreisdiagramm)
– Bei dieser Darstellung geben die einzelnen Kreissektoren die absoluten Häufigkeiten ni oder die relativen Häufigkeiten hi wieder. Allerdings kommt hier nicht (zumindest nicht auf den ersten Blick) zur Geltung, welches der kleinste oder der größte Merkmalswert ist.
– Darstellungsform eignet sich nur für nominal skalierte Merkmale
Diagramm (Mengen-Diagramm)
– Mengendiagramme können Mengenbeziehungen verdeutlichen, sind jedoch im Allgemeinen nicht als mathematische Beweismittel geeignet.
Diagramm (Network plot/graph)
– Grafische Darstellung der Ergebnisse einer Netzwerk-Metaanalyse. Die verschiedenen Interventionen werden als Punkte dargestellt, die existierenden paarweisen Vergleiche von Interventionen als Linien zwischen den Punkten. Dabei ist die Größe der Punkte proportional zur Anzahl der Patienten, die die jeweilige Intervention erhalten haben, und die Dicke der Linien proportional zur Anzahl der Studien, auf denen der jeweilige Vergleich basiert
Diagramm (Punktwolke/Punkteschar)
– geeignet um einen Zusammenhang zwischen zwei quantitativen Merkmalen zu untersuchen
– Es bietet sich an, jeder Beobachtungseinheit ein Wertepaar (xi,yi) zuzuordnen und diese Punkte in ein rechtwinkeliges Koordinatensystem einzutragen.
Diagramm (Rechteck-/Blockdiagramm)
– Fläche eines Rechtecks entsprechend der einzelnen Häufigkeiten unterteilt
– Darstellung eignet sich auch für ordinal skalierte Merkmale, da die kleinste und die größte Ausprägung zu erkennen sind
Diagramm (Stamm-Blatt-Diagramm)
– Daten eines quantitativen Merkmals werden nach der Größe geordnet von unten nach oben aufgetragen
– Stamm besteht aus der oder den ersten Ziffern der Stichprobenwerte, die Blätter stellen die folgenden Ziffern (oder die Nachkommastellen wie bei den BMIWerten in . Abb. 3.3) dar
Diagramm (Venn-Diagramm)
– Anders als Euler-Diagramme beziehen Venn-Diagramme alle möglichen Relationen zwischen den betrachteten Mengen, also auch solche, die leer sind, mit in die Darstellung ein, so dass man an ihnen sowohl Zusammenhänge als auch das Fehlen von Zusammenhängen ablesen, aus dem Vorliegen oder Nicht-Vorliegen einzelner Relationen auf das Vorliegen oder Nicht-Vorliegen anderer Relationen schließen kann
Differenzmenge
– A − B (sprich: A minus B)
– bezeichnet das Ereignis, dass A eintritt, B aber nicht
E
Effectiveness (Wirksamkeit unter Alltagsbedingungen)
– Beschreibt die Wirksamkeit einer Maßnahme unter Routinebedingungen. Im Gegensatz zur Efficacy (Wirksamkeit unter Idealbedingungen) untersuchen Effectiveness-Studien die Frage: Wirkt die Maßnahme unter den Bedingungen der Routineversorgung? Effectiveness-Studien zielen auf eine möglichst hohe Externe Validität ab.
Effekt
– Ein Effekt beschreibt den im Rahmen vergleichender klinischer Studien gemessenen Unterschied für eine Zielgröße nach der Anwendung von 2 (oder mehr) Interventionen.
Effektivität
– Effektivität („effectiveness“) beschreibt in der EbM, ob die Wirksamkeit einer Maßnahme unter Alltags-/Routinebedingungen. Im Gegensatz zu Efficacy-Studien untersuchen EffectivenessStudien die Frage: Wirkt die Maßnahme unter den Bedingungen der Routineversorgung?
Effektmaß
– Maßzahl, um die Stärke eines Effekts zu quantifizieren. Gebräuchliche Effektmaße für dichotome Endpunkte sind das relative Risiko (RR) oder die Odds Ratio (OR); gebräuchliche Effektmaße für kontinuierliche Endpunkte sind die Standardisierte Mittelwertsdifferenz (SMD) und die Gewichtete mittlere Differenz (Weighted Mean Difference, WMD).
Effektschätzer
– schätzt das Ausmaß der Änderung in der Erkrankungs-Häufigkeit, welches von einer bestimmten Exposition verursacht wird
Efficacy (Wirksamkeit unter Idealbedingungen)
– Beschreibt die Wirksamkeit einer Maßnahme unter Idealbedingungen. Efficacy-Studien zeichnen sich durch hohe innere Validität aus, die Ergebnisse sind jedoch möglicherweise nur bedingt auf die Routineversorgung übertragbar.
Effizienz
– Beschreibt allgemein das Verhältnis von Nutzen und Aufwand und bezeichnet im Gesundheitswesen die Bewertung der Frage, ob die eingesetzten Ressourcen zum größtmöglichen Gewinn an Gesundheit geführt haben, d.h. ob wirtschaftlich gehandelt wurde. In der Wohlfahrtsökonomie spricht man auch von optimaler Allokation von Ressourcen. Das kann sich auf Gesundheitsprogramme (z.B. im Bereich der Prävention) beziehen, aber auch auf den differenziellen Einsatz diagnostischer oder therapeutischer Methoden.
– Effizienz („efficiency“) beschreibt in der EbM das Verhältnis zwischen dem Aufwand einer spezifischen Intervention (den benötigten Ressourcen, z.B. finanzieller, personeller, zeitlicher Aufwand) und ihrem Ergebnis.
Einschlusskriterien
– Bei klinischen und epidemiologischen Studien wird die Studienpopulation über explizite Einschluss- und Ausschlusskriterien definiert. Einschlusskriterien beschreiben positiv formulierte Eigenschaften, die die potentiellen Studienteilnehmer erfüllen müssen. Sie leiten sich einerseits ab aus der klinischen oder epidemiologischen Studienfragestellung, andererseits aus rechtlichen und ethischen Vorgaben ab. Typische Einschlusskriterien sind das Vorliegen einer bestimmten Erkrankung, gegebenenfalls spezifiziert nach Schweregrad, bisherigem Verlauf und Vorbehandlungen; Zugehörigkeit zu einer definierten Altersgruppe. Bei der Rekrutierung von Studienteilnehmern wird zunächst die Erfüllung der Einschlusskriterien festgestellt, in einem zweiten Schritt wird überprüft, ob Ausschlusskriterien die Studienteilnahme verbieten.
Eminenz
– scherzhafte, satirische Beschreibung für Expertenmeinung
– „Eminenzbasiert“ wird als Gegenbegriff zu „evidenzbasiert“ verwendet
– Pragmatisch gesagt ist es das Vorgehen ohne sorgfältige Bewertung relevanter Forschungsergebnisse, rein  auf der (Lehr-)Meinung einzelner prominenter Expert*innen
Empfehlungsgrade
A – starke Empfehlung („soll“)
B – Empfehlung („sollte“)
0 – Empfehlung offen („kann erwogen werden“)
Empfehlungsgrade
Empfehlungsgrad A (Evidenzklasse I) = starke Empfehlung
Empfehlungsgrad B (Evidenzklasse IIa) = Empfehlung
Empfehlungsgrad 0 (Evidenzklasse IIb) = offen
Empirie
– Als empirisch gelten Erkenntnisse, die auf Daten oder Erkenntnissen an realen Objekten oder Personen beruhen. Empirische Forschung (z.B. eine klinische Studie) unterscheidet sich von der alltagsweltlichen Wahrnehmung durch den Versuch, Daten möglichst systematisch und objektiv zu erheben. Während sich empirische Forschung primär einer induktiven Logik bedient, verknüpft theoretische Forschung gedankliche also nicht reale Informationen in deduktiver Logik.
Endemie
– Dies ist eine Krankheit, die in gewissen Regionen permanent gehäuft auftritt (wie z. B. Malaria in tropischen Ländern)
Endpunkt
– Auch Outcome, Ergebnismaß. Merkmal, mit dem ein Unterschied zwischen Interventionen oder zwischen dem Vorhandensein von Risikofaktoren gemessen werden soll. Beispiele: Tod, Schmerzen, Dekubitus, Pneumonie, Leukämie, Kosten, Lebensqualität
– Ein Endpunkt ist das im Rahmen einer klinischen Studie erhobene Ergebnis (Outcome) für die Patienten im Verlauf der Studie
Endpunkt (dichotom/binär)
– Ereignisse, die für einen Patienten nur eintreten oder nicht eintreten können. Teilnehmer haben entweder einen Herzinfarkt oder sie haben keinen Herzinfarkt, sie haben bis zum Ende der Studie überlebt oder sie haben nicht überlebt. Der Begriff dient der Abgrenzung zu kontinuierlichen Endpunkten.
Endpunkt (kontinuierlich)
– Ergebnisse, die auf einer kontinuierlichen Werteskala gemessen werden, wie zum Beispiel die Höhe des Blutdrucks.
Endpunkt (patientenrelevant)
– Patientenrelevante Endpunkte sind Endpunkte, die abbilden, wie ein Patient fühlt, seine Funktionen und Aktivitäten wahrnehmen kann oder wie lang er lebt. Hierunter fallen zum Beispiel die Gesamtsterblichkeit, Herzinfarkte und die gesundheitsbezogene Lebensqualität (siehe auch Zielgrößen).
Entblindung
Aufhebung der Verblindung während oder am Ende einer verblindeten Studie
Entscheidungsanalyse
– Bei der Entscheidungsanalyse im engeren Sinne handelt es sich um einen mathematischen Ansatz, eine Sequenz von Entscheidungsmöglichkeiten für ein klinisches Problem zu modellieren, für das Unsicherheit besteht. Ziel ist es, mindestens zwei Handlungsstrategien zu vergleichen, um die möglichst optimale Strategie zu identifizieren. Typische Probleme, für Entscheidungsanalysen sind der Vergleich verschiedener Screeningstrategien oder die Analyse von diagnostischen oder therapeutischen Vorgehensweisen. Das Entscheidungsmodell wird in der Regel als Entscheidungsbaum oder als Markov-Modell konstruiert. Entscheidungsbäume werden gegenüber Markov-Modellen bevorzugt, wenn es sich um weniger komplexe Situationen handelt und der Zeithorizont kurz ist. Wichtige Schritte bei der Entscheidungsanalyse sind die exakte Definition des Problems, Festlegung und Dokumentation von: Perspektive (für die Kostenermittlung), Zeithorizont, alle relevanten Handlungsmöglichkeiten, klinische Endpunkte, Ablauf, Ereigniswahrscheinlichkeiten, getroffene Annahmen. Um die Robustheit der Ergebnisse zu überprüfen, werden Sensitivitätsanalysen durchgeführt, bei denen eine oder mehrere Annahmen variiert werden. Eine Strategie, die bei geringeren Kosten zu einem höheren Nutzen führt, wird als dominant bezeichnet.
Entscheidungsregel (clinical prediction rule)
– Klinische Entscheidungsregeln (prediction rules) sollen das Stellen einer Diagnose (Aussage über den jetzigen Zustand eines Patienten) oder eine Prognose (Aussage über den künftigen Zustand) verbessern. Aus spezifischen Informationen über den Patienten (Prädiktoren) wird mit Hilfe eines mathematischen Modells eine Wahrscheinlichkeits-Aussage getroffen; für das statistische Vorgehen ist es unerheblich, ob es eine Aussage für die Zukunft (Prognose) oder die Gegenwart (Diagnose) angestrebt wird. Typischer Weise werden demografische Variablen (Alter, Geschlecht usw.), anamnestische Informationen (Familienanamnese, Vorerkrankungen usw.) oder physiologische Messwerte (Blutdruck, Blutfette, EKG-Abweichungen usw.) genutzt. Bekannte Beispiele bilden der Wells-Score für tiefe Beinvenenthrombosen und Lungenembolien, die Ottawa-Regel für Sprunggelenksfrakturen und der Framingham-Score für die koronare Herzkrankheit. Klinische Entscheidungsregeln müssen nach ihrer Ableitung an einer UrsprungsStichprobe (training or derivation set) an einer unabhängigen Stichprobe (validation set) validiert werden. Nur sehr wenige Regeln werden von Klinikern regelmäßig genutzt. Für eine breite Akzeptanz ist die Beschränkung auf wenige, einfach zu erhebende und gleichzeitig plausible Größen wichtig, nötige Rechenoperationen müssen einfach sein (z.B. Addition von ganzen Zahlen/Punkten) und ein Informationsgewinn zusätzlich zur informellen klinischen Einschätzung muss offensichtlich sein. Sobald ein Rechner nötig wird, z.B. wegen komplizierter Berechnungen, sinken die Chancen der Anwendung drastisch. Außerdem sind einfache Regeln meist robuster als komplizierte, d.h. sie hängen weniger von den Spezifika eines einzelnen Datensatzes ab und lassen sich eher auf andere Settings übertragen.
Epidemie
– gehäufte Auftreten einer Krankheit, das örtlich und zeitlich begrenzt ist
Epidemiologie
– Die Untersuchung der Verteilung und der Determinanten von gesundheitsbezogenen Zuständen oder Ereignissen in umschriebenen Bevölkerungsgruppen und die Anwendung der Ergebnisse zur Steuerung von Gesundheitsproblemen (nach James Last, 1988).
Equipoise
– Equipoise bezeichnet ein ethisches Gebot, welches bei der Beurteilung von biomedizinischen Studien mit Menschen berücksichtigt werden soll. Die ethische Relevanz dieses Gebotes wird international durchaus kontrovers diskutiert. Das Equipoise Gebot fordert, dass für jeden Teilnehmer an einer Studie eine klinische Behandlung gewährleistet wird, die der bestmöglichen Behandlung (im Sinne der etablierten klinischen Standardbehandlung) gleichwertig ist. Dieses Gebot impliziert, dass vor und während der Studie eine Unentschiedenheit hinsichtlich der Vorzugswürdigkeit der verschiedenen Studienarme bestehen muss. Kontrovers diskutiert und dokumentiert sind dabei folgende zwei Fragen: Wie eng oder weit soll die Unentschiedenheit gefasst werden? Wer kann bzw. soll die jeweilige Unentschiedenheit feststellen? Die Relevanz dieses Gebot ergibt sich durch die Vorannahme, dass klinische Forscher stets auch Ärzte sind. Ärzte wiederum haben sich verpflichtet, für ihre Patienten stets die bestmögliche Behandlung zu gewährleisten.
Ereignisrate
– gibt an, wie viele Ereignisse einer bestimmten Art in einem bestimmten Experiment pro Sekunde auftreten
Ergebnismenge
– Menge aller möglichen Ergebnisse
– Menge wird mit dem griechischen Großbuchstaben Ω (Omega) bezeichnet
Ergebnissicherheit
– Ergebnissicherheit ist eine Eigenschaft einer Einzelstudie oder einer systematischen Übersicht/Meta-Analyse. Sie bezeichnet das Vertrauen, das ein in der (den) Studie(n) gefundenes Ergebnis nahe am wahren Ergebnis liegt. Die Ergebnissicherheit ergibt sich aus der Bewertung des Verzerrungspotenzials einer Studie (systematischer Fehler) und der Größe der statistischen Unsicherheit (zufälliger Fehler).
Ethikkommission
Gremium, das ethische und rechtliche Zulässigkeiten im Zusammenhang mit medizinischer Forschung an Probanden und dem Import embryonaler Stammzellen klärt.
Evaluation
– sach- und fachgerechte Untersuchung und Bewertung
– systematische und empirische Analyse von Konzepten, Bedingungen, Prozessen und Wirkungen zielgerichteter Aktivitäten zum Zwecke ihrer Bewertung und Modifikation
Event Free Survival (EFS)
– Art eines primären Endpunktes
– Zeitraum von der Randomisierung bis zu einem Rezidiv, einer Krankheitsprogression oder Tod jedweder Ursache
– Zeit nach der Behandlung, in der bei einer Gruppe von Personen in einer klinischen Studie kein erneutes Auftreten oder eine Verschlimmerung des Krebses aufgetreten ist
Evidenz
– Der Begriff „Evidenz“ im Kontext der Evidenzbasierten Medizin leitet sich vom englischen Wort „evidence“ = Nach- oder Beweis ab und bezieht sich auf die Informationen aus klinischen Studien, die einen Sachverhalt erhärten oder widerlegen.
Evidenzbasierte Medizin (EbM)
„gewissenhafter, ausdrücklicher und vernünftiger Gebrauch der gegenwärtig besten externen, wissenschaftlichen Evidenz für Entscheidungen in der medizinischen Versorgung individueller Patienten“ (Sackett et al. 1996)
Evidenzbasierte Medizin (EbM) – Kernaspekte
– aktueller Stand der klinischen Forschung
– individuelle klinische Erfahrung
– Präferenzen und Wünsche der Patient*innen
Evidenzgrade
Ia – min. ein systematisches Review auf Basis methodisch hochwertiger RCTs
Ib – min. ein ausreichend großer, methodisch hochwertiger RCT
IIa – min. eine hochwertige Studie ohne Randomisierung
IIb – min. eine hochwertige Studie anderen Typs quasi-experimenteller Studien
III – mehr als eine methodisch hochwertige nicht-experimentelle Studie
IV – Meinungen & Überzeugungen von angesehenen Autoritäten
Evidenzklassen von Studien (gemäß Oxford Centre for Evidence-based Medicine)
– Grad 1a: systematischer Review von randomisierten kontrollierten Studien mit homogenen Studienergebnissen
– Grad 1b: randomisierte kontrollierte Studien mit kleinem Konfidenzintervall
– Grad 2a: systematischer Review von Kohortenstudien mit homogenen Studienergebnissen
– Grad 2b: Kohortenstudien (und randomisierte kontrollierte Studie geringer Qualität)
– Grad 3a: systematischer Review von Fall-Kontroll-Studien mit homogenen Studienergebnissen
– Grad 3b: Fall-Kontroll-Studie
– Grad 4: Fallserie (und Kohortenstudie/Fall-Kontroll-Studie geringer Qualität)
– Grad 5: Expertenmeinung aufgrund von Grundlagenwissen (Physiologie, Wirkmechanismen u. a.)
Experimental Event Rate (EER)
– Ereignisrate in der experimentellen Gruppe
– Anteil der Teilnehmer in der Kontrollgruppe einer klinischen Studie, die in einem definierten Zeitraum ein Ereignis oder einen Endpunkt erleiden
– Event-Zahl; Populationsgröße (der Versuchs-Gruppe) = a/g
– Anteil der Teilnehmer in der experimentellen Gruppe einer klinischen Studie, die in einem definierten Zeitraum ein Ereignis oder einen Endpunkt erleiden. Die Ereignisrate (Risiko) in der experimentellen Gruppe wird zur Berechnung der absoluten Risikoreduktion und relativen Risikoreduktion benötigt.
Exposition
In Beobachtungsstudien verwendete Bezeichnung für den Faktor, dessen Auswirkungen erfasst werden sollen. In Studien, die zum Beispiel gesundheitliche Auswirkungen von Vitaminpräparaten analysieren sollen, wird die Einnahme von Vitaminen als Exposition erfasst.
F
Fallbericht (Case Report)
– ein in Fachzeitschriften publizierter Bericht über einen einzelnen Patienten
Fallserie (Case Series)
– Ein in Fachzeitschriften publizierter Bericht über mehrere Patienten.
– unterscheidet sich von einem Fallbericht durch die Anzahl der involvierten Patienten
– einfache deskriptive Studie an einer größeren Gruppe von Personen (deren Anzahl sollte mindestens 10 betragen), die an einer bestimmten Krankheit leiden und darüber hinaus einige Besonderheiten aufweisen
Fallzahl
beschreibt, wie viele Patienten in eine klinische Prüfung aufgenommen werden sollten
Fallzahlplanung
Abschätzung vor Beginn einer Studie, um die Zahl der Teilnehmer und die Laufzeit der Studie festzulegen, so dass eine gute Aussicht besteht, einen tatsächlich vorhandenen Effekt auch zu erkennen.
Fehler 1. Art (Alpha-Fehler)
– Nullhypothese wird abgewiesen, obwohl sie in Wirklichkeit wahr ist
– Statistisch „falsch positive“ Ergebnisse (z.B. Patient wird als krank angesehen, obwohl er in Wirklichkeit gesund ist –> Nullhypothese: der Patient ist gesund)
Fehler 2. Art (Beta-Fehler)
– Als Beta-Fehler (oder auch Fehler 2. Art) wird beim statistischen Testen der Fehler bezeichnet, den man begeht, wenn man die Nullhypothese beibehält (also die Existenz eines Effektes verneint), obwohl die Alternativhypothese gilt (der Effekt in Wahrheit also vorhanden ist). Der Beta-Fehler lässt sich bei einer klinischen Studie insbesondere dadurch gering halten, indem eine Fallzahlplanung durchgeführt wird, so dass eine genügend große Anzahl von Patienten in die Auswertung eingeht. Meist wird hierbei ein Beta-Fehler von 10% oder 20% verwendet.
– Nullhypothese wird beibehalten, obwohl in Wirklichkeit die Alternativhypothese gilt (Falsch negatives Ergebnis; Feuermelder meldet nicht, obwohl es brennt –> Nullhypothese: es brennt nicht
Fertilitätsziffer (Fruchtbarkeitsziffer)
– Zahl der Lebendgeborenen im Verhältnis zur Anzahl der Frauen im gebärfähigen Alter (bezogen auf ein Jahr)
– anders als die Natalität unabhängig von der Altersstruktur der Population
Fixed Effects Model
– Statistisches Modell zur Zusammenfassung von Ergebnissen einzelner Studien, wobei angenommen wird, dass alle Studien den gleichen Effekt schätzen und Unterschiede nur durch zufällige Abweichung bedingt sind. Somit ist die Ungenauigkeit des Gesamteffektes (pooled risk) nur durch die Variation innerhalb der einzelnen Studien beeinflusst. Beispiele sind das Peto-Modell und die Mantel-Haenszel Methode.
Fokusgruppe
– Eine Gruppe von in der Regel 8 bis 12 Individuen, die gebeten werden, sich in einer moderierten Diskussion zu vorgegebenen Fragen zu äußern. Die Ergebnisse der Fragerunde können aufgrund der geringen Fallzahl der Befragten nie repräsentativ sein, es lassen sich aber grundlegende Argumente und die dahinterliegenden Begründungen/Motive ableiten. Fokusgruppen werden zum Beispiel in der Erarbeitung von Informationsbroschüren und Fragebögen eingesetzt
Follow-up
– Beobachtungsdauer einer Studie, während der das Auftreten von Ereignissen bei den Teilnehmern registriert wird.
Forest Plot
– Die graphische Darstellung der Einzelergebnisse aller eingeschlossenen Studien einer systematischen Übersicht, zusammen mit dem Ergebnis der kombinierten Analyse, falls eine Metaanalyse durchgeführt wurde. Für Cochrane Reviews werden diese Darstellungen standardisiert unter Verwendung des Review-Managers hergestellt.
Formmaße
– dienen dazu, die Form der Verteilung zu beschreiben
Funnel Plot
– auch Trichtergrafik
– Streudiagramm, in dem die Effektgrößen verschiedener Studien gegen ein Maß der Präzision (Studiengröße, Kehrwert der Varianz) oder eine andere Studieninformation aufgetragen wird. Dient in einer Meta-Analyse typischerweise dem Nachweis von Publikationsbias.
faktorielles Design
– In randomisierten Studien mit faktoriellem Design werden zwei oder mehr Interventionen gleichzeitig gegenüber einer Kontrolle (z.B. Plazebo) geprüft. Beispiel: In einer Studie mit zwei gegenüber Plazebo (P) geprüften Interventionen (A, B) erhalten die in vier Gruppen randomisierten Probanden: 1. A + P, 2. B + P, 3. A + B, 4. nur P. Unter der Voraussetzung, dass keine Interaktionen zwischen A + B bestehen, die bei Kombination zu überadditiver oder Wirkabschwächung führen, kann ein paarweiser Vergleich durchgeführt werden (für A: Gruppen 1 + 3 versus 2 + 4; für B: Gruppen 2 + 3 versus 1 + 4). Der Vorteil besteht darin, dass man weniger Probanden für die Prüfung mehrerer Interventionen benötigt, als wenn diese in Einzelstudien untersucht werden.
falsch negatives Ergebnis
– Einige Personen, die in der Tat gesund sind, werden von dem Test fälschlicherweise als „positiv“, also als krank, bezeichnet (falsch positiv), andere dagegen sind wirklich erkrankt und haben ein „negatives“ Testergebnis (falsch negativ)
– Falsch negativ (FN) = krank, aber negatives Testergebnis
falsch positives Ergebnis
– Einige Personen, die in der Tat gesund sind, werden von dem Test fälschlicherweise als „positiv“, also als krank, bezeichnet (falsch positiv), andere dagegen sind wirklich erkrankt und haben ein „negatives“ Testergebnis (falsch negativ).
– Falsch positiv (FP) = nicht krank, aber positives Testergebnis
G
GRADE-System
– GRADE (Grading of Recommendations Assessment, Development and Evaluation) ist ein standardisiertes methodisches Vorgehen, um eine systematische Evidenzgraduierung und eine transparentes Formulieren von Empfehlungen insbesondere in Leitlinien zu gewährleisten. Hierbei wird zu einzelnen vorab festgelegten patienten-relevanten Zielgrößen die Qualität der Gesamtevidenz in vier Evidenzgrade/Evidenzlevel (Level of evidence, LoE) eingeteilt (hoch, moderat, niedrig oder sehr niedrig). Auf der Basis aller Zielgrößen wird am Ende eine Handlungsempfehlung formuliert, für die es zwei mögliche Empfehlungs-Stärke/-Klasse/-Härtegrad (stark und schwach) gibt. Es existiert eine kostenfreie Software zu GRADE.
gewichtete mittlere Differenz (Weighted Mean Difference, WMD)
– Effektmaß für kontinuierliche Endpunkte (siehe Effektmaß), die auf derselben Skala gemessen werden (z.B. Größe) zur Beschreibung des Gesamteffekts, wenn Studien in Meta-Analysen gepoolt werden. Dabei erhalten die Einzelstudien ein unterschiedliches Gewicht, um wichtige Studieninformationen, wie z.B. Größe der Studie oder Präzision des Effekts, zu berücksichtigen.
graue Literatur
– Als “graue Literatur” wird Informationsmaterial bezeichnet, das nicht in per Computerrecherche leicht zugänglichen Zeitschriften oder Datenbanken publiziert ist. Dazu gehören zum Beispiel Zusammenfassungen (Abstracts) von Tagungen.
gute klinische Praxis (good clinical practice; GCP)
– Ein in einem schriftlichen Regelwerk festgelegter Standard für Design, Durchführung, Überwachung, Analyse und Publikation von klinischen Studien. Diese Regeln sollen sicherstellen, dass die Daten und Ergebnisse richtig und glaubwürdig sind, und dass die Rechte der Teilnehmer geschützt bleiben.
H
Halo-Effekt
Von einem Merkmal einer Person wird auf andere, unbekannte Merkmale geschlossen. Beispielsweise werden vom Sprechtempo Rückschlüsse auf die Intelligenz gezogen.
Hawthorne-Effekt
– Phänomen, dass in Studien allein durch die Tatsache, dass Probanden vermehrte Aufmerksamkeit erfahren, Effekte erzeugt werden können. Erkenntnis stammt von einem kontrollierten sozialwissenschaftlichen Experiment, mit dem 1927 in den Hawthorne-Werken (USA) überprüft werden sollte, inwieweit eine Verbesserung der äußeren Arbeitsbedingungen (Ergonomie, Lichtverhältnisse, Pausenzeiten, Länge des Arbeitstages) die Produktivität von Arbeiterinnen steigern kann. Vor, während und nach der Versuchsreihe fanden intensive Besprechungen mit den Probandinnen statt. Die Leistungen der Arbeiterinnen mit geänderten Arbeitsbedingungen wurden mit den Leistungen einer Kontrollgruppe verglichen. Überraschenderweise stieg die Produktivität in beiden Gruppen an, d.h. auch in der Kontrollgruppe, die nur vermehrte Aufmerksamkeit, aber keine verbesserten Arbeitsbedingungen erfuhr.
Hazard
– Hazard bezeichnet die momentane Sterberate für eine Gruppe von Patienten oder Risiko genau zum Zeitpunkt t ein Ereignis zu erleiden
Hazard bzw. Hazard Ratio
– Kurzgefasst bezeichnet das Hazard die momentane Sterberate für eine Gruppe von Patienten. Das Hazard Ratio ist ein Quotient aus den Hazards von zwei Gruppen und gibt an, um wie viel die Sterberate in der einen Gruppe höher ist im Vergleich zu der Sterberate der anderen Gruppe. Das Hazard Ratio ist ein deskriptives Maß zum Vergleich von Überlebenszeiten zwischen zwei verschiedenen Gruppen von Patienten. Es ist wie ein relatives Risiko zu interpretieren. […] Beträgt das Hazard Ratio 2,3 für Patienten mit Metastasen im Vergleich zu Patienten ohne Metastasen, so ist das Sterberisiko der Patienten mit Metastasen 2,3-mal so hoch wie das der Patienten ohne Metastasen (oder auch um 130 % erhöht).
– Hazard Ratio ist ein Quotient aus den Hazards von zwei Gruppen (Gibt an, um wie viel die Sterberate in der einen Gruppe höher ist im Vergleich zu der Sterberate der anderen Gruppe.)
– Hazard Ratio ist ein deskriptives Maß zum Vergleich von Überlebenszeiten zwischen zwei verschiedenen Gruppen von Patienten.
– Beträgt das Hazard Ratio 2,3 für Patienten mit Metastasen im Vergleich zu Patienten ohne Metastasen, so ist das Sterberisiko der Patienten mit Metastasen 2,3-mal so hoch wie das der Patienten ohne Metastasen (oder auch um 130 % erhöht)
Heterogenität (Inkonsistenz)
– In systematischen Reviews oder Meta-Analysen bezeichnet Homogenität (Heterogenität), inwieweit die in den eingeschlossenen Studien gefundenen Effekte ähnlich (homogen) oder verschieden (heterogen) sind. Mit statistischen Heterogenitätstests kann festgestellt werden, ob die Unterschiede zwischen den Studien größer sind, als zufallsbedingt zu erwarten wäre. Als Ursachen für Heterogenität kommen Unterschiede in den Patientencharakteristika, Intervention oder Endpunkte zwischen den Studien in Frage, was aus klinischer Sicht beurteilt werden muss. Die Durchführung einer Meta-Analyse aus heterogenen Studien ist problematisch.
Heuristik
wissenschaftlicher Problemlösungsansatz mit dem Suchziel eines suboptimalen, aber akzeptablen Lösungsweges
Homogenität (Konsistenz)
– In systematischen Reviews oder Meta-Analysen bezeichnet Homogenität (Heterogenität), inwieweit die in den eingeschlossenen Studien gefundenen Effekte ähnlich (homogen) oder verschieden (heterogen) sind. Mit statistischen Heterogenitätstests kann festgestellt werden, ob die Unterschiede zwischen den Studien größer sind, als zufallsbedingt zu erwarten wäre. Als Ursachen für Heterogenität kommen Unterschiede in den Patientencharakteristika, Intervention oder Endpunkte zwischen den Studien in Frage, was aus klinischer Sicht beurteilt werden muss. Die Durchführung einer Meta-Analyse aus heterogenen Studien ist problematisch.
Hypothese
– Aussage, Behauptung, oder Theorie, deren Zutreffen oder Nicht-Zutreffen mit Hilfe einer Studie oder eines Experimentes geprüft werden soll.
Hypothese (Alternativhypothese)
– Hypothese, die eine innovative Aussage beinhaltet und Althergebrachtes infrage stellt
Hypothese (Nullhypothese)
– konkurrierende Aussage zur Alternativhypothese nennt man Nullhypothese
– Bei der Durchführung statistischer Signifikanztests wird die Hypothese aufgestellt, dass zwischen den verschiedenen Gruppen einer Studie kein Unterschied besteht. Aus statistischer Sicht ist z.B. eine Behandlung wirksam, wenn man durch den statistischen Test die Nullhypothese, dass es zwischen den Ergebnissen der experimentellen und der Kontrollgruppe keinen Unterschied gibt, verwerfen kann.
Hypothese (einseitig)
– Festlegung vor Beginn einer Studie, dass Maßnahme A sich in einer bestimmten Richtung von Maßnahme B unterscheidet, also zum Beispiel überlegen sein soll.
Hypothese (zweiseitig)
– Festlegung vor Beginn einer Studie, dass Maßnahme A sich in einer beliebigen Richtung von Maßnahme B unterscheiden kann.
Hypothesentest (Signifikanztest)
– statistischer Test, mit dem du entscheidest, ob du eine Nullhypothese H0 beibehältst oder ablehnst
– Der Hypothesentest dient nun dazu anhand des Ergebnisses einer Stichprobe zu einer Entscheidung darüber zu kommen, welche der beiden Hypothesen man eher zu glauben bereit ist oder anders ausgedrückt: welche der beiden Hypothesen angenommen (bzw. beibehalten) und welche verworfen wird.- Ein Hypothesentest wird immer dann benötigt, wenn du eine Hypothese über die Grundgesamtheit mit Hilfe einer Stichprobe überprüfen möchtest. Hypothesentests werden also immer dann eingesetzt, wenn man mit Hilfe einer Stichprobe etwas über die Grundgesamtheit beweisen oder aussagen möchte.
harmonisches Mittel
– Lagemaß, wenn die Beobachtungswerte xi Quotienten sind, die sich bezüglich ihrer Nenner unterscheiden
– Damit lässt sich etwa eine Durchschnittsgeschwindigkeit oder eine durchschnittliche Dichte berechnen
I
I-Quadrat-Maß
– Angabe, die zur Abschätzung des Ausmaßes von Heterogenität von Studienergebnissen in Meta-Analysen dient. Das I2-Maß beschreibt, welcher Anteil der Variabilität der Ergebnisse verschiedener Studien auf Heterogenität zurückzuführen ist und nicht auf zufällige Schwankungen.
Impact Factor
– Ist eine bibliometrische Maßzahl, die dazu dient die Bedeutung wissenschaftlicher Zeitschriften zu quantifizieren. Hierfür wird ermittelt, wie oft in einem Jahr Artikel einer Fachzeitschrift zitiert werden. Diese Zahl wird dann in Beziehung gesetzt zur Gesamtzahl der Artikel in dieser Zeitschrift. Auf diese Weise kann abgeschätzt werden, wie oft ein Artikel in dieser Zeitschrift im Durchschnitt zitiert wird. Der Impact-Faktor wird oft auch dazu verwendet, die akademische Publikationsleistung einzelner Autoren(gruppen) zu erfassen. Jährliche Listen der Impact-Faktoren aller medizinischen Fachzeitschriften werden vom Institute of Scientific Information (ISI) ermittelt und gegen Gebühr vertrieben.
Induktionsperiode
Zeitdauer zwischen dem Auftreten einer Ursache (Beginn des ätiologischen Prozesses) und der manifesten Erkrankung (Beginn des pathologischen Prozesses)
Intention to Treat (ITT)
– Patienten werden so ausgewertet wie sie randomisiert wurden
– Strukturgleicheit bleibt erhalten
– Aber es gehen auch Pat. in die Analyse ein, die die Behandlung nicht erhielten oder vorzeitig beenden
– Therapieeffekt kann unterschätzt werden
– Beispiel: 2 Therapiearme A & B, randomisierte Zuteilung (Patienten aus der Randomisierung A erhalten versehentlich Therapie B –> „Schleppen“ den Therapieeffekt und die Toxizitäten von B in Arm A, also Verfälschung)
Intention-to-treat-Analyse (ITT-Analyse)
– Analyse-Technik, bei der die Patienten nach ihrer ursprünglichen Gruppenzuteilung analysiert werden, unabhängig davon, ob sie die zugeordnete (intendierte) Therapieform vollständig, partiell oder gar nicht erhalten haben, oder ob sie in die alternative Behandlungsgruppe übergewechselt sind. Patienten, die aus der Studie ausgeschieden sind, sind idealerweise mit zu berücksichtigen, auch wenn dies Ersetzungsstrategien mit entsprechenden Annahmen erfordert. Die ITT-Analyse sollte gemäß den internationalen Richtlinien (insbesondere Good Clinical Practice (GCP)) als primäre Analyseform gewählt werden. Als Ergänzung oder Alternative ist die „Per-Protokoll-Analyse” zu nennen.
Interaktion
– Situation, in der sich zwei Faktoren gegenseitig verstärken oder abschwächen. Liegt zum Beispiel vor, wenn eine Behandlung bei einem Geschlecht einen stärkeren Effekt hat als beim anderen
Interventionsgruppe (Experimentalgruppe)
– Personengruppe, mit der zu Studienzwecken eine bestimmte Intervention (z.B. Unterrichtsmaßnahme) durchgeführt wird und anhand derer mögliche Veränderungen beobachtet werden
Inzeptionskohorte
– Meint in einer klinischen Kohortenstudie, dass die Patienten zu einem möglichst frühen Zeitpunkt ihrer Erkrankung in die Studie eingeschlossen werden. Hierdurch wird verhindert, dass die Kohortenstudie nur solche Patienten erfasst, die die Erstmanifestation der Erkrankung überlebt haben. In gleicher Weise erlaubt die Beobachtung einer Inzeptionskohorte es auch in epidemiologischen Studien, den Einfluss von Überlebens-Bias (Survival Bias) zu minimieren.
Inzidenz
– Die Inzidenz beschreibt die in einem bestimmten Zeitraum neu aufgetretene Anzahl an Krankheitsfällen in einer definierten Population.
Inzidenz (kumulativ)
– Wahrscheinlichkeit für eine beliebige Person, während der Beobachtungszeit zu erkranken
– Basis für die Schätzung dieser Maßzahl ist eine Population, deren Mitglieder zu Beginn des Beobachtungszeitraums nicht erkrankt sind, die jedoch die interessierende Krankheit entwickeln können („Population unter Risiko“)
– kumulative Inzidenz InK hat nur Aussagekraft bei Erkrankungen, die während der Beobachtungszeit maximal einmal pro Individuum auftreten. Die Krankheitsdauer bleibt unberücksichtigt
Inzidenzdichte
– Die Inzidenzdichte ist – im Gegensatz zur kumulativen Inzidenz – keine Proportion. Sie gibt an, wie viele Neuerkrankungen in einer bestimmten Zeiteinheit eintreten und ist insofern vergleichbar mit einer Erkrankungsgeschwindigkeit oder der Hazard-Rate
– Diese Gleichung erklärt, weshalb viele chronische Krankheiten zwar eine geringe Inzidenz, aber dennoch eine hohe Prävalenz aufweisen
Inzidenzrate
– Die Inzidenzrate ist die Anzahl der Neuerkrankungen (Inzidenz) dividiert durch die Individuenzahl. Inzidenz bezieht sich eher auf eine nicht standardisierte Populationsgröße, z.B. 15 neue Fälle pro Jahr in Deutschland. Dagegen ist bei Inzidenzrate üblicherweise eine feste Zahl im Nenner, z.B. 15 neue Erkankung auf 100.000 Personen Bevölkerung pro Jahr.
Irrtumswahrscheinlichkeit
– quantifiziert die Unsicherheit, mit der die aus der Stichprobe gewonnenen Ergebnisse behaftet sind
Irrtumswahrscheinlichkeit (alpha)
– Alpha ist die vorgegebene maximale Wahrscheinlichkeit, in einer Studie durch Zufall einen Unterschied zu beobachten, der in Wahrheit nicht vorhanden ist (= Fehler erster Art, siehe auch p-Wert).
Irrtumswahrscheinlichkeit (beta)
– Beta ist die Wahrscheinlichkeit, in einer Studie einen tatsächlich vorhandenen Effekt wegen zu kleiner Stichprobengröße nicht zu beobachten (= Fehler zweiter Art, siehe auch Power)
J
Journal
– regelmäßig erscheinende Publikation zu wissenschaftlichen Themen
K
Kaplan-Meier-Kurve/-Schätzung/-Methode
– auch Kaplan-Meier-Schätzer
– Die Kaplan-Meier-Methode erlaubt es, eine Überlebenswahrscheinlichkeit im zeitlichen Verlauf mathematisch abzuschätzen und grafisch als treppenförmige Kurve darzustellen. Die besondere Eigenschaft der Kaplan-Meier-Schätzung besteht darin, auch Patienten in der Analyse mitberücksichtigen zu können, die nur für eine bestimmte Zeit nachbeobachtet werden konnten (sog. zensorierte Daten). Die Methode eignet sich nicht nur für Überlebensanalysen sondern auch für andere diskrete Ereignisse, die zeitabhängig analysiert werden sollen (z.B. Zahnverlust, Wundverschluss, etc.).
Kausalität
– Beziehung zwischen Ursache und Wirkung
– Kausalität bedeutet, dass zwischen Variablen ein klarer Ursache-Wirkungs-Zusammenhang besteh
Kohorte
– Gruppe von Personen mit gemeinsamen Charakteristika (z.B. Alter, Geschlecht, Gesundheitszustand), die in klinischen und epidemiologischen Studien beobachtet werden (siehe Kohortenstudie); Einteilung: 1. geschlossene Kohorte: Alle Probanden werden zum gleichen Zeitpunkt in die Beobachtung eingeschlossen und verbleiben dort bis zum Eintritt des Zielereignisses oder bis zum Ende der Studie. 2. offene Kohorte: Personen werden nach und nach in die Beobachtung aufgenommen und/oder scheiden nach einer definierten Beobachtungsdauer wieder aus der Studie aus. 3. Sonderform Geburtskohorte: enthält alle Personen einer umschriebenen Region, die im gleichen, meist eng definierten Zeitraum geboren wurden.
Konfidenzintervall (KI, Vertrauensbereich)
– Bereich, in dem der „wahre“ Wert einer Messung (Effektgröße) mit einer bestimmten Wahrscheinlichkeit erwartet werden kann (üblicherweise 95%  95%-Konfidenzintervall). Die Effektgröße kann dabei z.B. ein Therapieeffekt, ein Risiko oder die Sensitivität eines diagnostischen Tests sein. Das Konfidenzintervall beschreibt die Unsicherheit über die Zuverlässigkeit der Aussage zur Effektgröße. Die Breite des Konfidenzintervalls hängt u.a. von der Zahl der in die Studie eingeschlossenen Patienten ab und wird mit zunehmender Patientenzahl enger, d. h. die Effektgröße kann präziser geschätzt werden.
– Intervall aus der Statistik, das die Präzision der Lageschätzung eines Parameters (z. B. Mittelwertes) angibt.
– Bereich, der bei unendlicher Wiederholung eines Zufallsexperiments mit einer gewissen Häufigkeit (Konfidenzniveau) die wahre Lage des Parameters einschließt.
– Häufig verwendetes Konfidenzniveau ist 95 % ((Mindestens) 95 % aller auf Grundlage von gemessenen Daten berechneten
Konfidenzintervalle beinhalten den wahren Wert der zu untersuchenden
Population.)
– CAVE: mit steigender Anzahl von Messpunkten verkleinert sich das Intervall
– Wird eine Studie 100-mal in gleicher Weise wiederholt, beinhalten 95 der gefundenen Ergebnisse (+ Vertrauensbereich) den wahren Wert.
– CI gibt bei vorgegebener Ergebnissicherheit über die Schwankungsbreite eines Punktschätzers Auskunft
Konsensus
– Konsensusverfahren sind informelle oder formelle Methoden, mit divergierenden Meinungen hinsichtlich medizinischer Verfahren umzugehen. Zu den wichtigsten formellen Konsensverfahren gehören die Delphi-Methode und der Nominale Gruppenprozess (NGP).
Konsistenz
– Als Konsistenz bezeichnet man im EbM-Kontext allgemein die Eigenschaft verschiedener Messmethoden (z.B. Studiendesign) gleichartige Ergebnisse zu liefern. Im Bereich der Lebensqualitätsmessung wird als interne Konsistenz eines Fragebogens geprüft, inwieweit die einzelnen Einzelfragen („Items“) des Fragebogens alle denselben Aspekt von Lebensqualität erfassen. Hierfür wird als statistische Maßzahl Cronbachs Alpha berechnet.
Kontagionsindex
– Dieser Index gibt die Wahrscheinlichkeit an, dass sich eine nichtimmune Person, die mit dem Erreger in Kontakt kommt, infiziert. Er ist also ein Maß für die Ansteckungsfähigkeit.
Kontrollgruppe (Vergleichsgruppe)
– Anteil an der Studienpopulation in einer kontrollierten Interventionsstudie, der die zu untersuchende Behandlung/Intervention nicht erhält, aber ggf. mit einer Placebointervention oder einer Standardbehandlung versorgt wird; die Resultate der Kontrollgruppe werden mit denen der Behandlungsgruppe verglichen, um Aussagen über Größe und Richtung von Interventionserfolgen zu erhalten.
Korrelation
– Bezeichnet einen Zusammenhang zwischen zwei Variablen. Um die Stärke des Zusammenhangs quantifizieren zu können, wird in der statistischen Analye kontinuierlicher Variablen üblicherweise ein Korrelationskoeffizient berechnet. Meist wird entweder der Korrelationskoeffizent r nach Pearson (für parametrische Variablen) oder nach Spearman (für nicht normalverteilte Variablen) berechnet. Hierbei reicht der Wertebereich des Korrelationskoeffizienten von -1 (starker inverser Zusammenhang) über 0 (kein Zusammenhang) bis 1 (starker positiver Zusammenhang). Zusätzlich kann ein statistischer Test mit p-Wert berechnet werden, der prüft, inwieweit der beobachtete Zusammenhang noch durch Zufall erklärt werden kann. Oft wird das Vorhandensein einer klaren, statistisch signifikanten Korrelation fälschlicherweise als Beleg dafür angeführt, zwischen den beiden Merkmalen bestehe ein kausaler Zusammenhang.
Korrelationsanalyse
– statistisches Werkzeug, um einen möglichen Zusammenhang zwischen zwei (oder mehreren) Variablen aufzudecken bzw. die Stärke dieses Zusammenhangs zu ermitteln
Korrelationskoeffizient nach Kendall-Tau
– Der Korrelationskoeffizient nach Kendall-Tau untersucht, ob es einen ungerichteten Zusammenhang zwischen zwei ordinalen oder auch metrischen Variablen gibt. Er zeigt entweder einen positiven Zusammenhang, einen negativen Zusammenhang oder keinen Zusammenhang. In der Nullhypothese geht er von keinem Zusammenhang aus.
Korrelationskoeffizient nach Pearson (Produkt-Moment-Korrelationskoeffizient)
– normiertes Maß zur Quantifizierung eines linearen Zusammenhangs dar
– Man erhält diesen Koeffizienten, indem man die Kovarianz s xy durch die beiden Standardabweichungen sx und sy dividiert
– Korrelationskoeffizient kann nur Werte zwischen −1 und +1 annehmen; er ist dimensionslos
Korrelationskoeffizient nach Spearman (Rangkorrelation)
– Maß für die Stärke eines monotonen Zusammenhangs
Kosten-Effektivitäts-Analyse (Kosten-Wirksamkeit-Analyse; cost-effectiveness analysis, CEA)
– Form der vergleichenden gesundheitsökonomischen Analyse, bei der die Effekte in Form von klinischen Endpunkten erhoben werden (z.B. Kosten pro vermiedenem Herzinfarkt einer Behandlungsstrategie A im Vergleich zu B). Die Kosten-Effektivitätsanalyse eignet sich für den Vergleich von konkurrierenden Maßnahmen bei einer Indikation. Mit der Kosten-Effektivitäts-Analyse können allerdings nicht Interventionen für verschieden Bereiche im Gesundheitswesen verglichen werden.
Kosten-Minimierungs-Analyse (cost-minimisation analysis, CMA)
– Unter Kosten-Minimierungs-Analysen werden vergleichende gesundheitsökonomische Studien verstanden, bei denen die Outcomes von zwei Behandlungsstrategien identisch sind, so dass nur noch die Kosten verglichen werden müssen. Dies kann beispielsweise der Fall sein bei Arzneimitteln aus derselben Klasse. Es kann sich auch um zwei separate Studien mit identischen Outcomes in derselben Indikation handeln, bei denen die Kosten verglichen werden (das wird dann als Kosten-Kosten-Analyse bezeichnet).
Kosten-Nutzen-Analyse (cost-benefit analysis, CBA)
– Bei der Kosten-Nutzen-Analyse wird die Nutzenbewertung in monetären Einheiten vorgenommen. Es handelt sich um die klassische Form der ökonomischen Analyse außerhalb des Gesundheitswesens. Im Bereich der Medizin bedeutet diese Analyseform, dass Endpunkte mit Geldeinheiten bewertet werden, was nicht immer unumstritten ist. Ziel ist es herauszufinden, ob der Nutzen (d.h. die Kosten der vermiedenen alternativen Behandlung) einer Maßnahme ihre Kosten aufwiegt. Es werden verschiedene Methoden angewandt, um den Nutzen in Geldeinheiten zu messen, beispielsweise die Zahlungsbereitschaft. Im allgemeinen Sprachgebrauch wird der Begriff Kosten-Nutzen-Analyse häufig fälschlicherweise als Oberbegriff für gesundheitsökonomische Studien verwendet.
Kosten-Nutzwert-Analyse (cost-utility analysis, CUA)
– Die Kosten-Nutzwert-Analyse verwendet auf der Outcome-Seite so genannte Nutzwerte, von denen das qualitätsadjustierte Lebensjahr (QALY) am bekanntesten und am weitesten verbreitet ist. Nutzwerte stellen eine Präferenzbewertung der Ergebnisse einer medizinischen Maßnahme aus Patientensicht dar, die mit der Lebenserwartung verknüpft werden. Zur Ermittlung der Nutzwerte werden verschiedene Methoden angewendet, die zum Teil aus der mathematischen Spieltheorie abgeleitet sind. Der Vorteil der Kosten-Nutzwert-Analyse besteht darin, dass Vergleiche über verschiedene Indikationen hinweg ermöglicht werden. Kritisch sind die Methode, mit der Lebensqualität ermittelt wird (d.h. die Wahl des Instruments) und die Methode der Ermittlung der Präferenzen (z.B. Zeitausgleichsverfahren vs. Visuell-Analogskala).
Kovarianz
– Maß für das „Miteinander­Variieren“ zweier Merkmale
Kovarianz (negativ)
– Eine negative Kovarianz s xy < 0 ergibt sich, wenn sich die beiden Merkmale gegensinnig verhalten. Dann haben die Abweichungen unterschiedliche Vorzeichen, sodass deren Produkt negativ ist
Kovarianz (positiv)
– Eine positive Kovarianz s xy > 0 impliziert einen gleichsinnigen Zusammenhang. Wenn beide Messwerte einer Beobachtungseinheit größer oder beide kleiner sind als der jeweilige Mittelwert, sodass deren Produkt positiv ist
Krankheitsursache (Teilursache)
– Meist besteht eine hinreichende Ursache aus mehreren Teilursachen, die zusammenwirken müssen, damit es zum Auftreten der Krankheit kommt
– einzelne Teilursache führt jedoch in aller Regel nicht zum Auftreten
Krankheitsursache (hinreichend)
– Vorhandensein ruft eine Krankheit unweigerlich hervor
Krankheitsursache (notwendig)
– Exposition eines Risikofaktors stellt eine notwendige Ursache dar, wenn ohne ihn die relevante Krankheit nicht auftreten kann
– z.B. ist HIV eine notwendige Ursache für AIDS
Kreuzprodukt
auch Odds Ratio
Kriterien zur Güte der Schätzung nach RonaldAylmer Fisher
– Erwartungstreue: Man kann nicht erwarten, dass ein Schätzwert den unbekannten Parameter exakt wiedergibt
– Konsistenz: Je größer der Stichprobenumfang n, desto genauer sollte die Schätzung sein.
– Effizienz: Die Varianz des Schätzers sollte möglichst gering sein. Je geringer sie ist, desto präziser ist die Schätzung.
– Exhaustivität: Ein Schätzer ist exhaustiv (oder erschöpfend), wenn er alle Informationen, die in den Daten einer Stichprobe enthalten sind, berücksichtigt.
klinische Relevanz
– Klinische Relevanz beschreibt, ob die statistisch signifikanten Ergebnisse einer Studie auch einen praktischen Nutzen für die Patientenversorgung haben
L
Lagemaße (Lokationsmaße)
– informieren, in welchem Bereich sich die Stichprobenwerte konzentrieren
Last Patient Last Visit (LPLV)
– synonym für Studienabschluss
Latenzzeit
– symptomfreies Intervall zwischen dem Beginn des pathologischen Prozesses (z. B. Schädigung durch Strahlung) und dem Auftreten klinischer Symptome
Leitlinie
– systematisch entwickelte Aussagen, die den gegenwärtigen Erkenntnisstand wiedergeben, um die Entscheidungsfindung von Ärzt*innen sowie Angehörige von weiteren Gesundheitsberufen und Patient*innen/Bürger*innen für eine angemessene Versorgung bei spezifischen Gesundheitsproblemen zu unterstützen
– wichtige  Instrumente der Qualitätsentwicklung im Gesundheitswesen
Leitlinien-Stufen
S1 – Handlungsempfehlungen von Expertengruppen (Konsensfindung in einem informellen Verfahren)
S2k – konsensbasierte Leitlinie (repräsentatives Gremium, strukturierte Konsensfindung)
S2e – evidenzbasierte Leitlinie (systematische Recherche, Auswahl, Bewertung der Literatur)
S3 – Evidenz- und konsensbasierte Leitlinie (repräsentatives Gremium, systematische Recherche, Auswahl, Bewertung der Literatur, strukturierte Konsensfindung)
Letalität
– Dies ist die Sterberate der Erkrankten. Sie berechnet sich basierend auf den Personen, die während der Beobachtungszeit erkranken
– Die Angabe der Letalität ist nur sinnvoll für Erkrankungen, deren Beginn und Ende innerhalb des Beobachtungszeitraums liegen
Likelihood Ratio
siehe „Wahrscheinlichkeitsverhältnis“
Literaturdatenbank
Fachdatenbank, die bibliographische Angaben und eventuell darüberhinausgehende Fachtextinformationen enthält
Längsschnittstudie
(auch Verlaufs- oder Longitudinalstudie)
M
Manifestationsindex
– Dies ist die Wahrscheinlichkeit, mit der eine infizierte Person manifest erkrankt (die Krankheitsbereitschaft). Je kleiner dieser Index ist, desto mehr Infektionsfälle verlaufen klinisch stumm.
Matching („Anpassung“)
– Bestreben, zwei Untersuchungsgruppen möglichst vergleichbar zu machen. Dabei sollten alle Merkmale beachtet werden, die einen wesentlichen Einfluss auf die Zielgröße der Studie haben. Beim Matching nach Häufigkeiten werden die Merkmalsträger in den zu vergleichenden Gruppen ausgezählt (Frequency Matching). z.B. sollen in einer Studie zur koronaren Herzkrankheit in beiden Gruppen gleich hohe Anteile von Frauen, Rauchern, Diabetikern oder Hypertonikern vertreten sein um eine systematische Verzerrung der Ergebnisse zu verhindern. Beim individuellen Matching sollen für jedes Individuum der Untersuchungsgruppe ein oder mehrere, den Matchingkriterien entsprechende, Individuen in die Kontrollgruppe aufgenommen werden.
Median (empirischer Median; Zentralwert)
– Der Wert, der in einer nach Größe geordneten Reihenfolge von Messwerten, in der Mitte liegt.
Messfehler
– Messfehler sind Abweichungen von wahren Ergebnissen eines Experiments oder einer Messung. Je nach Ursache werden systematische und zufällige Messfehler unterschieden. Zufällige Fehler kommen durch wechselnde Umstände und Ungenauigkeiten zustande und verfälschen ein Ergebnis mal in die eine und mal in die andere Richtung. Systematische Messfehler sind (oft unerkannte) Eigenschaften einer Messmethode, die sich konstant in eine Richtung auswirken.
Meta-Analyse
– Statistisches Verfahren, um im Rahmen einer systematischen Übersicht die Ergebnisse mehrerer Studien, die die gleiche Frage bearbeiten, quantitativ zu einem Gesamtergebnis zusammenzufassen und dadurch die Aussagekraft (Ergebnissicherheit) gegenüber Einzelstudien zu erhöhen.
Meta-Analyse (Komponenten-Netzwerk-Meta-Analyse)
– spezielle Form der Netzwerk-Metaanalyse, bei der nicht nur mehrere Interventionen miteinander verglichen werden können, sondern auch verschiedene Komponenten innerhalb der Interventionen
– wird insbesondere beim Vorliegen von komplexen Interventionen (mit Kombinationen verschiedener Behandlungsansätze) eingesetz
Meta-Analyse (Netzwerk-Meta-Analyse)
– Eine Netzwerkmetaanalyse (NMA) ermöglicht es, mehr als zwei Therapieoptionen oder „Interventionen“ miteinander zu vergleichen. Sie ist eine Erweiterung der konventionellen paarweisen Metaanalyse.
Meta-Regression
– Statistisches Verfahren, um in einer systematischen Übersicht den Zusammenhang zwischen Eigenschaften der Studien oder Studienteilnehmer (zum Beispiel verdeckte Zuteilung, Basischarakteristika der Teilnehmer) und den Ergebnissen der Studie zu untersuchen.
Metaregression
– Analysetechnik, die den Zusammenhang zwischen bestimmten Studiencharakteristika und den Studienergebnissen innerhalb eines systematischen Reviews mit Metanalyse untersucht
– Metaregressionen werden im Rahmen von systematischen Reviews mit Metaanalysen häufig durchgeführt, um Heterogenität zu untersuchen bzw. zu erklären
Mittelwert (arithmetisches Mittel; Durchschnitt)
Summe aller Werte geteilt durch die Anzahl der Werte
Modus (Modalwert/Dichtemittel)
– Ausprägung mit der größten Häufigkeit (das ist – falls er eindeutig bestimmbar ist – der absolute Modus)
– Er wird mit dem Buchstaben D (oder M) abgekürzt und kann bei allen Skalenniveaus ermittelt werden
– Bei Daten, die in Klassen eingeteilt sind, gibt man gerne die modale Klasse an (das ist die Klasse mit der größten Besetzungszahl) und bezeichnet deren Mitte als Modus.
– Die Angabe eines Modus ist nur sinnvoll, wenn es sich um einen „ausgeprägten“ Gipfel handelt. Bei quantitativen oder ordinal skalierten Merkmalen sollte die Häufigkeit des Modalwerts wesentlich größer sein als die Häufigkeiten der Umgebung.
Morbidität
– Rate der nicht-tödlichen Krankheitsereignisse.
Mortalität
– Rate der tödlichen Krankheitsereignisse, bezogen auf die Gesamtbevölkerung.
Mortalität (krankheitsspezifische/ursachenspezifische)
– Darunter versteht man die die Wahrscheinlichkeit P(K ∩ T), während der Beobachtungszeit an der Krankheit K zu erkranken und daran zu versterben.
Mortalität (perinatal)
– Anzahl der Totgeburten und der Säuglinge, die vor Erreichen des 7. Lebenstages versterben, bezogen auf 1000 Neugeborene (Lebend- und Totgeburten)
mediane Überlebensrate
– mediane Wahrscheinlichkeit an, einen definierten Zeitraum ab Diagnosestellung oder einem therapeutischen Eingriff (z. B. Operation) zu überlebe
mediane Überlebenszeit
– Zeitpunkt, zu dem die Hälfte der Patienten ein Ereignis erlitten hat
N
Nachbeobachtungszeit (Setting)
Phase nach einer Studie, die vor allem aus der Überwachung der Blutwerte, des Erkrankungsstatus, von Nebenwirkungen und Langzeitnebenwirkungen etc.
Nachtest-Wahrscheinlichkeit
– Beschreibt die Wahrscheinlichkeit über das Vorliegen einer Erkrankung unter Berücksichtigung der Ergebnisse eines diagnostischen Tests. Bei Tests mit hoher Testgenauigkeit ändern sich die geschätzten Nachttest-Wahrscheinlichkeiten beträchtlich gegenüber den Vortest-Schätzungen.
Natalität (Geburtenrate/Geburtenziffer)
– Anteil lebend geborener Kinder im Verhältnis zur Gesamtpopulation während eines Beobachtungszeitraums
Nebenwirkung
– Eine gesundheitsschädliche und unbeabsichtigte Wirkung einer medizinischen Intervention.
Nettoreproduktionszahl
– gibt an, wie viele Menschen eine erkrankte Person durchschnittlich ansteckt, nachdem ein (bekannter) Teil der Population PI immun ist
Nichtunterlegenheit
– Klinische Studien zielen meist auf den Nachweis, dass eine medizinische Maßnahme einer anderen überlegen ist. Studien zur Frage der Nichtunterlegenheit zielen dagegen auf den Nachweis, dass eine medizinische Maßnahme einer anderen mindestens gleichwertig ist. Dazu muss schon bei der Planung der Studie festgelegt werden, bis zu welcher Grenze leicht schlechtere Ergebnisse einer Maßnahme noch akzeptiert werden können, weil der Unterschied für Patientinnen und Patienten ohne Bedeutung ist. Diese Festlegung wird „Nichtunterlegenheitsgrenze“ genannt.
O
Odds (Chance)
Beschreibt in einer Gruppe das Verhältnis zwischen der Anzahl von Teilnehmern mit einem Endpunkt und der Anzahl von Teilnehmern ohne diesen Endpunkt. Wenn also 30 von 100 Teilnehmern den Endpunkt entwickeln (und 70 nicht), beträgt die Odds 70/30 oder 0.42 (siehe auch Risiko).
Odds Ratio
– auch „Kreuzprodukt“
– Effektmaß für dichotome Daten. Bezeichnet das Verhältnis (Ratio) der Odds, dass ein Ereignis oder Endpunkt in der experimentellen Gruppe eintritt, zu der Odds, dass das Ereignis in der Kontrollgruppe eintritt. Eine OR von 1 bedeutet, dass zwischen den Vergleichsgruppen kein Unterschied besteht. Bei ungünstigen Endpunkten zeigt eine OR < 1, dass die experimentelle Intervention wirksam ist, um die Odds für das Auftreten dieser ungünstigen Endpunkte zu senken (siehe auch relatives Risiko).
– Eng mit relativem Risiko verwandt aber nicht dasselbe
– Odds Ratio setzt die Chance „Erfolg“ unter Behandlung A zur Chance für Erfolg von Behandlung B ins Verhältnis
– Gibt an, um welchen Faktor die Chance für ein erwünschtes oder unerwünschtes Ereignis steigt bzw. fällt im Vergleich zur Kontrollbehandlung
– Für die Zahlenwerte gilt für die Odds Ratio das Gleiche wie für die RR (OR < 1 „Chance“ des Verum besser als Kontolle; OR = 1 kein Unterschied; OR > 1 „Chance“ des Verum schlechter als Kontolle)
– Merke: ist die Ereignisrate in einer Untersuchung sehr klein, nähern sich die Werte von Odds Ratio und RR an
Overall Survival (OS)
– auch Gesamtüberleben
– Es handelt sich um einen der historisch gesehen wichtigsten primären Endpunkte in klinischen Studien
– OS beschreibt dabei die gesamte Zeitspanne zwischen der Randomisierung oder Registrierung im Rahmen einer Studie bis zum Tod des Patienten
Oxman-Guyatt-Index
– Bei einer „guten“ systematischen Übersicht beschreiben die Autorinnen und Autoren detailliert, was und wie sie gesucht und ausgewertet haben. Daher fordern wir von jeder Übersicht, dass sie diese und andere Mindestanforderungen erfüllt und nur geringe methodische Mängel aufweist.
– Dies bewerten wir mit einer Skala – dem sogenannten Oxman-und-Guyatt-Index. Dieser fragt zum Beispiel ab, ob die zugrundeliegende Recherche ausreichend war und ob die eingeschlossenen Studien angemessen ausgewertet wurden.
P
PICO-Schema
Hilfsschema für die Formulierung einer klinischen Frage zur Wirkung von Interventionen:

P – Patient oder Population (wichtigste Eigenschaft der Patient*innen)
I – Intervention (Behandlung)
C – Comparison (Alternativmaßnahme oder keine Behandlung)
O – Outcome (messbarer Endpunkt)
Pandemie
– Von einer Pandemie spricht man, wenn sich eine Krankheit länderoder gar kontinentübergreifend ausbreitet (aber zeitlich begrenzt ist)
Peer Review
– Peer Review bezeichnet allgemein eine systematische und kritische Reflexion, bei der mehrere Angehörige einer Berufsgruppe die Leistungen von Kollegen strukturiert bewerten. In der Medizin dient Peer Review im Rahmen des Qualitätsmanagements dazu, die Behandlungsqualität zu verbessern. In der Forschung meint Peer Review den Begutachtungsprozess, bei dem Experten eines Feldes wechselseitig die Qualität und Wichtigkeit ihrer Manuskripte vor Veröffentlichung kritisch beurteilen und kommentieren.
Peer Review (offen)
– Open science setzt diesem das open Peer-Review entgegen, bei dem der gesamte Prozess öffentlich sein sollte, um eine offene Kommunikation in ethischer und offener Weise zu gewährleisten. Dabei wissen alle Beteiligten die Namen der Akteure. Reviewer-Berichte werden mit der Publikation im Internet veröffentlicht und können optional von den Reviewern unterschrieben sein. Dies hat zur Folge, daß Peer-Review zu einem gemeinschaftlichen Prozess zwischen Autoren und Reviewern wird, um konstruktive Kritik zu gewährleisten.
Per Protocol (PP)
– Patienten werden so ausgewertet wie sie wirklich behandelt wurden
– Ausschluss von Pat. die die vorgesehene Behandlung nicht erhielten
– Randomisierung wird „zerstört“
– Therapieeffekt kann überschätzt werden
– Beispiel: 2 Therapiearme A & B, randomisierte Zuteilung (Patienten aus der Randomisierung A erhalten versehentlich Therapie B –> Werden so ausgewertet wie sie wirklich behandelt wurden, also sieht man den „wahren“ Effekt der Therapiearme –> aber keine Strukturgleichheit durch zufällige Zuteilung mehr, also Unterschiede können sowohl durch unterschiedliche Behandlung als auch durch bekannte oder unbekannte Confounder (Störfaktoren) entstehen
Per-Protocol Analyse
– Auswertungsmethode für (randomisierte kontrollierte) Interventionsstudien. Die Ergebnisse der Studienteilnehmer werden nur dann in der Auswertung berücksichtigt, wenn die Behandlungen (Verum- oder Kontrollbehandlung) protokollgemäß durchgeführt wurden. Die Per-Protocol-Analyse erlaubt die Abschätzung des Wirkungspotentials einer Behandlungsform unter optimalen Bedingungen. Nachteil der Per-Protocol Analyse ist, dass das Randomisierungsschema durchbrochen wird. Damit ist die Strukturgleichheit der zu vergleichenden Gruppen nicht mehr gegeben und es besteht die Möglichkeit systematisch verzerrter Ergebnisse. Per-Protocol-Analysen werden vor allem in Interventionsstudien der Phasen I und II eingesetzt, um das therapeutische Potential und optimale Dosierungen für eine Behandlungsform zu finden. Das Gegenteil einer Per-Protocol Analyse ist die Intention-to-Treat Analyse.
Placebo
– Ein Placebo ist eine therapeutische Intervention, die von der aktiven Therapie nach Art der Verabreichung, Aussehen, Farbe, Geschmack und Geruch nicht zu unterscheiden ist, aber keinen spezifischen bekannten Wirkmechanismus hat. Meist wird der Begriff „Placebo“ im Zusammenhang mit Medikamentenstudien verwendet. Placebos werden in Studien eingesetzt, um Teilnehmer und Ärzte im Ungewissen zu lassen, wer welche Behandlung erhält (Verblindung). Demselben Zweck dienen Scheinbehandlungen (Sham), die zur Verblindung bei Operationen und Eingriffen verwendet werden können.
Placeboeffekt
– Sammelbezeichnung für zum Teil psychologisch bedingte Einflüsse, die auf den Umständen der Gabe einer Therapie beruhen und nicht auf einer spezifischen Wirkung der Therapie.
Primärforschung
– Methode, mit der Forscher Daten direkt und aus erster Hand erheben
– Erhebung von bislang noch nie in dieser Form gesammelten und untersuchten Daten
– dazugehörige Studientypen: analytische/bildgebende/biometrische Verfahren, experimentelle (klinische) Studien, Therapie-/Prognose-/Diagnosestudien, Fallbericht/-serie, Intenventionsstudie (Feld-/Gruppenstudie), Kohorten-/Fall-Kontroll-/Querschnittsstudien
Prädiktion
– Vorhersage, dass mit einer beschreibbaren Wahrscheinlichkeit ein Zustand oder ein Ereignis eintreten wird.
Prädiktoren
– Zustände, Merkmale oder Ereignisse, deren Vorhandensein oder Ausprägung die Vorhersage erlauben, dass ein bestimmter Zustand oder ein bestimmtes Zielereignis eintreten wird. Beispiele für Prädiktoren im Bereich Medizin sind genetische Merkmale, die zum Auftreten bestimmter Erkrankungen prädisponieren oder Risikofaktoren wie Diabetes für das Auftreten eines Herzinfarkts. Der Begriff Risikomarker wird oft verwendet, um eine Assoziation ohne gesicherte Kausalität auszudrücken, während der Begriff Risikofaktor häufig eine Kausalität impliziert. Die Nomenklatur ist hier jedoch nicht einheitlich. Wie gut sich Outcomes aus Prädiktoren voraussagen lassen, wird in der Epidemiologie mithilfe von Regressionsanalysen ermittelt.
Prävalenz (Periodenprävalenz)
– Die Punktprävalenz bezieht sich auf einen Stichtag, die kumulative Inzidenz auf einen Beobachtungszeitraum. Der Periodenprävalenz verknüpft diese zeitlichen Komponenten.
– Die Periodenprävalenz ist aussagekräftig bei akuten Erkrankungen von kurzer Dauer oder bei rekurrierenden Erkrankungen.
– Eine spezielle Form der Periodenprävalenz stellt die Lebenszeitprävalenz dar: Sie quantifiziert die Wahrscheinlichkeit einer Person, krank geboren zu werden oder im Laufe des Lebens zu erkranken.
Prävalenz (Punktprävalenz)
– Dies ist der relative Krankenbestand zu einem bestimmten Zeitpunkt – also die Wahrscheinlichkeit für eine beliebige Person aus der betrachteten Population zum Zeitpunkt t erkrankt zu sein.
– Die Prävalenz beschreibt eine Momentaufnahme. Sie kann jedoch auch für einen längeren Zeitraum angegeben werden, wenn sie konstant bleibt. Sie wird üblicherweise im Rahmen einer Querschnittstudie bestimmt und eignet sich für Krankheiten, die chronisch sind oder wiederholt auftreten.
Prävalenz (bzw. Punktprävalenz)
– Die Prävalenz beschreibt den Anteil Erkrankter an der Gesamtzahl einer definierten Population zu einem bestimmten Zeitpunkt.
Prävalenzfehler
– häufig auch Base Rate Fallacy
– formaler Fehlschluss, der entsteht, wenn Informationen für eine bedingte Wahrscheinlichkeit einer einzelnen Variable und Informationen für die statistische Grundgesamtheit vermischt werden
– Fehler, der entsteht, wenn die Bestimmung der bedingten Wahrscheinlichkeit einer statistischen Variable A unter einer Bedingung B ohne Rücksicht auf die Prävalenz oder A-priori-Wahrscheinlichkeit von A vorgenommen wird
Präzision
– Genauigkeit, mit der ein Effekt geschätzt wird. Bedingt durch einen möglichst geringen Zufallsfehler und widergespiegelt durch ein enges Konfidenzintervall.
Punktschätzung
– Es liegt intuitiv nahe, die Funktionalparameter einer Grundgesamtheit durch die entsprechenden Kenngrößen der Stichprobe zu schätzen. So erscheint der Mittelwert als Schätzwert für den Erwartungswert geeignet; eine Wahrscheinlichkeit wird durch eine relative Häufigkeit geschätzt. Man nennt ein solches Verfahren, bei dem ein unbekannter Parameter durch einen einzigen Wert geschätzt wird, eine Punktschätzung.
Q
Qualitätsindikator
– Qualitätsindikatoren (klinische Messgrößen) sind Maße, deren Ausprägung eine Unterscheidung zwischen guter und schlechter Qualität von Strukturen, Prozessen und/oder Ergebnissen der Versorgung ermöglichen sollen. Qualitätsindikatoren sind Hilfsgrößen, die die Qualität einer Einheit durch Zahlen bzw. Zahlenverhältnisse indirekt abbilden. Man könnte sie auch als qualitätsbezogene Kennzahlen bezeichnen. Einzelne Indikatoren beleuchten immer nur Teilaspekte der Qualität. Es ist daher sinnvoll, Zusammenstellungen mehrerer Indikatoren zur Beurteilung eines Versorgungsaspektes bzw. Kriteriums in Form von Indikatorenprofilen vorzunehmen. Indikatoren sind unter anderem dazu geeignet, die Qualität von Führungs-, Kontroll- und Managementtätigkeiten sowie von klinischen und unterstützenden Tätigkeiten zu überwachen und zu bewerten, die patientenseitige Versorgungsergebnisse beeinflussen. Die Ausprägung eines Indikators kann mit guter bzw. schlechter Qualität in Verbindung gebracht werden. Hierzu verwendet man definierte Ausprägungen des Indikators, den sog. Referenzwert oder Referenzbereich. Der Referenzbereich ist definiert als das Intervall, innerhalb dessen die Ausprägung eines Qualitätsindikators als „unauffällig“ definiert wird. Ein Referenzwert ist ein Referenzbereich, dessen Unter- und Obergrenze zusammenfallen. Referenzbereiche bzw. -werte müssen im Rahmen der Qualitätsanforderung festgelegt werden. Diese Festlegung kann entweder empirisch (statistisch) oder normativ (Expertenkonsens) erfolgen. Qualitätsindikatoren sind struktur-,
prozess- und/oder ergebnisbezogen. Darüber hinaus müssen Qualitätsindikatoren – je nach Anwendung – den Anforderungen der Validität, Reliabilität, Sensitivität und Spezifität genügen.
Quartil (mittleres/2. Quartil)
– Während der Median die Stichprobe in zwei Hälften einteilt, unterteilen die Quartile die Stichprobe in vier Viertel
– Mittleres oder 2. Quartil Q2: Es entspricht dem Median  x.
Quartil (oberes/3. Quartil)
– Während der Median die Stichprobe in zwei Hälften einteilt, unterteilen die Quartile die Stichprobe in vier Viertel.
– Oberes oder 3. Quartil Q3: Analog gilt, dass 75 % der Werte maximal so groß wie Q3 und die Werte des restlichen Viertels mindestens so groß wie Q3 sind.
Quartil (unteres/1. Quartil)
– Während der Median die Stichprobe in zwei Hälften einteilt, unterteilen die Quartile die Stichprobe in vier Viertel.
– Unteres oder 1. Quartil Q1: Es besagt, dass 25 % der Stichprobenwerte kleiner als oder gleich Q1 sind. Dementsprechend sind 75 % der Werte größer als Q1 oder gleich Q1.
R
Random Effects Model
– Statistisches Modell zur Berechnung zusammengefasster (gepoolter) Ergebnisse, bei denen im Gegensatz zum Fixed Effects Model Effektunterschiede zwischen verschiedenen Studien berücksichtigt werden. In die Genauigkeit der Schätzung des gemeinsamen Effekts geht daher nicht nur die Variation ein, die innerhalb der Studien beobachtet wird, sondern auch die Variation zwischen den Studien. Ein Beispiel ist die Methode nach DerSimonian & Laird.
Randomisierung
– Verfahren, das eine zufällige Verteilung der Patienten auf eine Therapie- und eine Kontrollgruppe bewirkt (siehe auch randomisierte kontrollierte Studie). Dies kann durch (computergenerierte) Zufallszahlen oder andere Mechanismen erreicht werden. Damit soll sicher gestellt werden, dass alle Teilnehmer die gleiche Chance haben, der einen oder anderen Gruppe zugeordnet zu werden und es wahrscheinlich ist, dass sich (bei ausreichender Studiengröße) bekannte wie unbekannte Risiko- und Prognosefaktoren ausgeglichen auf die beiden Gruppen verteilen. Wenn sich zwischen den beiden Gruppen in den Endpunkten ein Unterschied zeigt, kann dieser tatsächlich der experimentellen Intervention zugeordnet werden.
– Patienten die die Ein- und Ausschlußkriterien erfüllen werden in einem vom Zufall abhängigen Verfahren den Behandlungsgruppen zugeteilt
– Gleichverteilung von potenziellen Störgrößen auf den Krankheitsverlauf
– Vordefinierte Randomisierungslisten müssen geheim gehalten werden
Randomisierung (Quasi-Randomisierung)
– Methoden der Studienzuordnung, die zwar nicht randomisiert sind, jedoch mit der Absicht angewandt werden, bei der Teilnehmerzuordnung ähnliche Gruppen zu gewährleisten. Beispiele: Zuordnung nach Geburtsdatum oder Krankenhausidentifikationsnummer, alternierende Zuordnung.
Randomisierung (gewichtet; Minimisation)
– Dabei ordnet man jeden Patienten mit einer vorab festgelegten Wahrscheinlichkeit (die größer ist als 0,5) der Gruppe mit der größeren Imbalance zu.
Randomisierung (stratifiziert)
– Variante der Randomisierung, bei der die Teilnehmer zuerst anhand von wichtigen Eigenschaften in Untergruppen aufgeteilt werden. Dann werden die Teilnehmer jeder Untergruppe per Zufall den Studiengruppen zugeteilt. Das soll sicherstellen, dass Faktoren mit besonders starker Bedeutung für eine Krankheit auch tatsächlich gleich auf die Studiengruppen verteilt werden.
Rate (Ereignisrate)
– Auch wenn in den Naturwissenschaften eine Rate stets eine auf eine Zeiteinheit bezogene Messgröße bezeichnet, wird in der Medizin der Begriff der Rate auch allgemeiner auf einen prozentualen Patientenanteil (n/N) bezogen. Der Nenner (n) umfasst alle Patienten, die ein Merkmal (z.B. Krebs, Heilung, etc.) aufweisen. Der Zähler beziffert die Gesamtzahl der untersuchten Personen. Hierbei ist – im Gegensatz zu Odds (Chance) – der Nenner stets auch im Zähler mitenthalten.
– Der Anteil von Personen in einer Gruppe, bei denen ein bestimmter Endpunkt auftritt. Wenn z.B. in einer Gruppe von 100 Personen 30 einen bestimmten Endpunkt entwickeln (und bei 70 Personen das Ereignis nicht auftritt), ist das Risiko (oder die Ereignisrate) 100/30 oder 0.3 oder 30% (siehe auch Odds und Risikoreduktion/Risikozunahme).
Rationierung
– In einer häufig verwendeten weiten Definition meint Rationierung das implizite oder explizite Vorenthalten einer medizinisch nützlichen Maßnahme für bestimmte Personengruppen vor dem Hintergrund begrenzter Ressourcen. In engeren Definitionen wird eine Handlung nur dann als Rationierung charakterisiert, wenn sie 1) explizit geschieht oder 2) eine notwendige Maßnahmen betrifft oder 3) vor dem Hintergrund absoluter und nicht nur relativer Mittelbegrenzungen zu sehen ist. Rationierung und Allokation sind dann synonym zu verwenden, wenn das Vorenthalten einer begrenzt verfügbaren Maßnahme im Falle der Personengruppe X mit dem Zuteilen der gleichen Maßnahme (oder auch einer anderen Maßnahme aufgrund frei werdender finanzieller Ressourcen) an die Personengruppe Y einhergeht.
Reanalysen (gepoolt)
– Bei einer gepooIten Reanalyse (auch „gepoolte Auswertung“ oder „Metaanalyse von Individualdaten“ genannt) handelt es sich um eine „quantitative Zusammenführung von Originaldaten einzelner Studien zur gemeinsamen Auswertung“
– Alle Daten aus den Einzelstudien werden hierfür in einer gemeinsamen Datenbank zusammengeführt. Anschließend werden sie nach einheitlichen, bereits im Vorhinein festgelegten Kriterien ausgewertet.
Referenzbereich
–  Toleranzbereich zwischen vorgegebenen Soll- und Grenzwerten (Referenzwerte)
– Referenzbereiche werden mit statistischen Verfahren aus Untersuchungsergebnissen gesunder Personen ermittelt. Der Referenzbereich umfasst definitionsgemäß die zentralen 95 Prozent aller bei offensichtlich gesunden Personen gemessenen Werte. Folglich befinden sich jeweils 2,5 % der Werte oberhalb bzw. unterhalb davon.
Referenzstandard
– In diagnostischen Studien werden die Befunde, die mit dem/den Indextest/s erhoben wurden, mithilfe des Referenzstandards überprüft (= verifiziert). Hierüber wird die Testgenauigkeit („accuracy“) der untersuchten Indextests bestimmt. Idealerweise entspricht der in einer Studie verwendete Referenzstandard dem Goldstandard. Teilweise wird jedoch die Diagnostik für den Referenzstandard nicht vollständig oder in Abhängigkeit der Indextestergebnisse nicht einheitlich durchgeführt (Verifikations-Bias = Work-up-Bias).
Regressionsanalyse
– Statistisches Verfahren um Art und Stärke des Zusammenhangs zwischen zwei oder mehr Faktoren zu beschreiben, zum Beispiel die Abhängigkeit einer Krankheit vom Alter.
Rekrutierung
Suche bzw. „Anwerbung“ von Personen als Studienteilnehmer
Reliabilität (Reproduzierbarkeit)
– Die Reliabilität (Zuverlässigkeit) ist ein Gütekriterium, das die Messgenauigkeit eines Verfahrens angibt und damit zum Ausdruck bringt, dass wissenschaftliche Ergebnisse frei von Zufallsfehlern sind, d. h. bei einer Wiederholung unter gleichen Bedingungen das gleiche Ergebnis erzielt würde. Im Hinblick auf menschliche Messungen wird auch von Objektivität bzw. Interbeobachterübereinstimmung gesprochen. Der eng verwandte Begriff der „reproducibility“ wird im engeren Sinne für die Wiederholungsstabilität eines technischen Messvorganges verwandt.
– Maß für die Reproduzierbarkeit der Testergebnisse unter ähnlichen Bedingungen
Replikationskrise
– Phänomen/Beobachtung, dass zahlreiche wissenschaftliche Erkenntnisse in erneuten Studien nicht bestätigt werden können
– So fand die Open Science Collaboration (2015), dass lediglich 36 – 68 % der publizierten Befunde unabh. repliziert werden können
Repräsentativität
– Unter Repräsentativität versteht man die Eigenschaft von Erhebungen, dass diese valide Aussagen zur Grundgesamtheit aller untersuchten Personen zulassen. Die Repräsentativität einer Studienpopulation (und damit auch die externe Validität einer klinischen Studie insgesamt) kann durch Selektionsbias gefährdet werden. In der Bewertung klinischer Studien wird die Repräsentativität der untersuchten Patientenpopulation vor allem darüber beurteilt, welcher Anteil der Patienten mit der Zielerkrankung (also die Grundgesamtheit oder eine Zufallsstichprobe) in die Studie eingeschlossen wurden, und ob sich Studienteilnehmer und Nichtstudienteilnehmer in wesentlichen Merkmalen ähnlich waren.
Residualvarianz (Restvarianz)
– Gemittelte Abweichung der empirischen Werte von den von der Regression vorhergesagten Werte. Die Residualvarianz ist derjenige Varianzanteil, welcher nicht durch die Regressionsgleichung abgedeckt werden kann
– Residualvarianz (auch Restvarianz genannt) ist eine Schätzung der Varianz der Regressionsfunktion in der Grundgesamtheit
– jener Teil der Gesamtvarianz (Varianz) von Daten bezeichnet, der nicht auf systematische, exp. Variation zurückzuführen ist
Residuum
– Differenz zwischen den tatsächlichen beobachteten Werten und den vorhergesagten Werten einer statistischen Analyse
Responder
– Personen, die auf eine spezifische Behandlung (z.B. Medikamente) in der erwünschten Weise reagieren, z.B. Anteil an Patienten mit diabetischer Proteinurie, die auf ACE-Hemmer mit dem erwarteten Rückgang der Proteinurie reagiert (vgl. auch Therapieversager).
– Personen einer Studienpopulation, die sich aktiv an der Studie, z.B. durch Rücksenden eines ausgefüllten Fragebogens, beteiligen.
Review (Narrative)
– qualitative Zusammenfassungen der Ergebnisse aus einzelnen Studien
– häufig von einem oder mehreren Experten verfasst und bieten einen Überblick zu einer bestimmten Thematik
Review (Single-blind)
– auch Einfachblindgutachten
Review (Umbrella Review)
– Übersichtsarbeit über systematische Übersichten oder Meta-Analysen
– also z.B. Übersichten von Reviews, Reviews von Reviews, Zusammenfassungen von systematischen Übersichtsarbeiten oder Synthesen von Übersichten
S
Scheinkorrelation (Scheinassoziation)
–  Korrelation zwischen zwei Größen, der kein Kausalzusammenhang, sondern nur eine zufällige oder indirekte Beziehung zugrunde liegt
Schnittmenge
– A ∩ B (sprich: A Schnitt B)
– bezeichnet das Ereignis, dass A und B gemeinsam eintreten
Score
– Punktwert, der aus der Erfassung einer Anzahl von Einzelinformationen in einem definierten Erfassungssystem nach einem festgelegten Algorithmus gebildet wird. Ein bekanntes Beispiel ist der APGAR-Score zur schnellen und systematischen Erfassung des Vitalzustands eines Neugeborenen nach der Geburt. Für Atmung, Herztätigkeit, Hautfarbe, Muskeltonus und Reflexe werden je 0 bis 2 Punkte vergeben und bilden aufsummiert den APGAR-Score. Ein APGAR-Score von 6 oder weniger zeigt einen eher schlechten Zustand des Neugeborenen an.
Screening
Die Untersuchung symptomfreier Personen (zumeist Gesunder) zur Früherkennung von Krankheiten.
Sekundärforschung
– Zusammenfassung oder Zusammenführung von Daten oder Studienergebnissen, die von anderen Wissenschaftler:innen bereits organisiert und veröffentlicht wurde
– zugehörige Studientypen: Meta-Analyse, Review, systematisches Review
Sekundärliteratur
– Publikationen, in denen über die Werke anderer berichtet wird. Die Literaturübersicht, zu der auch systematische Übersichtsarbeiten und Meta-Analysen gehören, ist eine Sonderform der Sekundärliteratur. Literaturübersichten fassen die wissenschaftlichen Erkenntnisse aus mehreren Einzelveröffentlichungen (Primärliteratur) zusammen.
Sensitivität
– Anteil der test-positiven Personen unter allen Erkrankten einer Stichprobe, d.h. die Wahrscheinlichkeit, mit einem diagnostischen Test die Kranken auch als krank zu identifizieren. Eine hohe Sensitivität wird angestrebt, wenn eine Erkrankung mit hoher Sicherheit ausgeschlossen werden soll.
Sensitivitätsanalyse
– Analyseverfahren, das feststellt, wie stabil sich eine Modellrechnung oder eine Meta-Analyse gegenüber Schwankungen der Eingangsparameter oder Veränderungen in der Berechnungsmethodik verhält. In gesundheitsökonomischen Modellrechnungen werden in einer Sensitivitätsanalyse mögliche Unterschiede in den Eingangsparametern (leichter versus schwerer Krankheitsschweregrade, gute versus schlechte Compliance, großer versus kleiner Behandlungseffekt) in ihren Auswirkungen auf die Endergebnisse untersucht und beschrieben.
– Wiederholung der ursprünglichen Analyse unter anderen Annahmen, um zu überprüfen, inwieweit sich dies auf die Ergebnisse auswirkt. Beispiele sind Änderungen der Einschlusskriterien oder Annahmen für fehlende Werte.
Signifikanz
– Eine statistische Signifikanz liegt vor, wenn nach vorheriger Festlegung des Signifikanzniveaus (alpha) und nach Durchführung der Studie (siehe p-Wert) offensichtlich wird, dass die Studienergebnisse trotz einer verbleibenden Irrtumswahrscheinlichkeit nicht mehr plausibel als zufällig erklärt werden können. Wenn also die Wahrscheinlichkeit sehr gering ist, dass die beobachteten Studienergebnisse durch Zufall zustande gekommen sind (entsprechend der Nullhypothese), wird aufgrund der Signifikanz statistisch darauf geschlossen, dass tatsächlich ein Unterschied vorliegt (Ablehnen der Nullhypothese). Die Signifikanz wird häufig mit dem p-Wert ausgedrückt. Ob eine klinische Studie eine statistische Signifikanz (p ≤ 0,05) zeigen kann, hängt
unter anderem von der Anzahl der analysierten Patienten ab. Der Nachweis einer Signifikanz in einer Studie belegt nicht, dass der gefundene Unterschied tatsächlich exakt so groß wie beobachtet ist (siehe Konfidenzintervall (KI, Vertrauensbereich, confidence interval – CI)) oder eine klinische Relevanz (von Studien/Leitlinien) besitzt.
Signifikanzniveau (α -Niveau)
– Schwellenwert, der bestimmt, ob ein Studienergebnis nach Durchführung der vorgesehenen statistischen Tests als statistisch signifikant angesehen werden kann
Simpsons-Paradoxon
– Ein Simpson-Paradoxon kann auftreten, wenn mehrere Vierfeldertafeln zu einer Gesamttafel zusammengefasst werden oder eine Gesamttafel in mehrere einzelne Vierfeldertafeln unterteilt wird. Dabei scheint es, dass die Ergebnisse unterschiedlich ausfallen, je nachdem ob man die Ergebnisse der Subgruppen kombiniert oder nicht.
Spannweite (Variationsbreite)
– Ebenso wie die Standardabweichung ist die Spannweite nur dann gleich 0, wenn alle Stichprobenwerte identisch sind; ansonsten ist sie positiv. Die Spannweite ist wesentlich leichter zu berechnen als die Standardabweichung; allerdings berücksichtigt sie nur die beiden extremsten Werte und ist daher sehr stark von Ausreißern beeinflusst. Meist wird man die Spannweite zusammen mit dem Maximum und dem Minimum angeben. Mit diesen Werten lassen sich einfache Plausibilitätsprüfungen vornehmen: Ausreißer, Übertragungs- oder Dokumentationsfehler werden am ehesten durch das Minimum bzw. Maximum offensichtlich.
Spezifität
– Spezifität gibt an, wie zuverlässig ein medizinisches Diagnoseverfahren erkennt, ob man nicht erkrankt ist
– aß dafür, wie hoch der Anteil gesunder Personen ist, der auch ein negatives Testergebnis bekommt
Standardabweichung
– Um ein Streuungsmaß mit gleicher Dimension wie die der Stichprobendaten zu erhalten, zieht man die Wurzel aus der Varianz und erhält die Standardabweichung s
– Die Standardabweichung stellt ein Maß für die Homogenität bzw. Heterogenität der Stichprobe dar. Sie ist wie der Mittelwert nur bei quantitativen Merkmalen sinnvoll. Im Allgemeinen ist diese Maßzahl positiv; nur im Extremfall – wenn alle Werte identisch sind und die Stichprobe vollkommen homogen ist – nimmt sie den Wert 0 an.
Statistik
– „wissenschaftliche Disziplin, deren Gegenstand die Entwicklung und Anwendung formaler Methoden zur Gewinnung, Beschreibung und Analyse sowie zur Beurteilung quantitativer Beobachtungen (Daten) ist“ (Vogel, F. (1997). Beschreibende und Schließende Statistik, Oldenbourg, München, Wien, 6. Auflage.)
Sterbeziffer (Gesamtmortalität)
– Anteil der im Beobachtungszeitraum Verstorbenen bezogen auf die zugrunde liegende Population
– Die Gesamtsterblichkeit hängt von der Altersstruktur einer Population ab. Deshalb ist es sinnvoll, Sterbeziffern separat für verschiedene Altersgruppen (eventuell separat für Männer und Frauen) zu ermitteln (Sterbetafeln)
Stratifizierung (stratifizierte Randomisierung)
– Bei der stratifizierten Randomisierung teilt man die Patienten zunächst in homogene Schichten (auch Strata genannt) ein. Eine Schicht (Stratum) besteht aus Patienten, die sich bezüglich wichtiger Einflussfaktoren gleichen oder zumindest ähneln.
Streuungsmaße (Dispersionsmaße)
– quantifizieren die Variabilität der Werte
Studie
– Erforschung eines Untersuchungsgegenstandes
– wissenschaftliche Untersuchung über eine Einzelfrage
Studie (Baseline-Studie)
– auch Studie zur Ausgangslage
– Eine „Baselinestudie“ oder „Studie zur Ausgangslage“ ist eine „Analyse, die die Situation vor einer Entwicklungsmaßnahme beschreibt und die als Bezugspunkt für die Bewertung von Fortschritten oder für Vergleiche dienen kann“
Studie (Baselinestudie)
– quantitative oder qualitative Ausprägungen einer Metrik (wie Effektivität und Fehlerhäufigkeit) als gemessene Größen zu einem gegebenen Ausgangszeitpunkt wieder
Studie (Beobachtungsstudie)
– auch nicht-interventionellen Studie
– Bei den nicht-interventionellen Studien, auch Beobachtungsstudien genannt, findet keine gezielte Intervention statt. Es wird lediglich beobachtet und dokumentiert. Es gibt drei wichtige Studientypen: Fall-Kontroll-Studien, Kohortenstudien & Querschnittsstudien
Studie (Cluster-RCT)
– experimentelle Studie, bei der so genannte Cluster von Patienten (Gruppen, z.B. Praxen, Kliniken) anstelle von individuellen Patienten nach einem Zufallsverfahren (mit verdeckter Zuordnung) den Interventionen bzw. Kontrollinterventionen zugeteilt werden (Randomisierung)
Studie (Cross-over-Studie)
– Studiendesign, in dem die zu vergleichenden Interventionen in den Vergleichsgruppen in zeitlicher Folge angewandt werden. Dabei erhält z.B. die eine Gruppe zunächst Therapie A, dann Therapie B, die andere Gruppe zuerst Therapie B und dann Therapie A.
Studie (Diagnose; auch diagnostische Genauigkeitsstudie)
– Eine Diagnose-Studie dient dazu, die Aussagekraft eines diagnostischen Tests zu bestimmen. Man unterscheidet grundsätzlich zwei Designs: die diagnostische Querschnittstudie und die randomisierte-kontrollierte Interventionsstudie. „Diagnostische Tests“ sind breit zu verstehen, sie reichen von Anamnese und körperlicher Untersuchung bis hin zu Labor- oder bildgebenden Verfahren.
– Für eine diagnostische Querschnittstudie werden Patienten rekrutiert, die möglichst genau der Population entsprechen, bei der ein zu untersuchender Test (sog. Indextest) künftig eingesetzt werden soll. Neben dem Indextest wird an jedem Probanden ein Referenzstandard („Goldstandard“, Außenkriterium) erhoben, an dem die Wirksamkeit des Indextests gemessen wird. Als Referenzstandard dient eine einzelne Untersuchung, manchmal aber auch eine komplexe klinische Entscheidung oder eine Follow-up (sog. Delayed-type Querschnittstudie). Bei der Konzeption des Studiendesigns ist zu entscheiden, wo im diagnostischen Prozess der Indextest nach Abschluss der Untersuchung eingesetzt werden soll: zeitlich vor den etablierten Verfahren (Triage), als Ersatz für einen vorhandenen Test oder zur diagnostischen Verfeinerung. Manchmal werden in einem Querschnitts-Design zwei Indextests vergleichend an einem Referenzstandard gemessen.
Studie (Doppelblindstudie)
– Doppel-blind bedeutet, dass weder die Patientin/der Patient noch die behandelnde Ärztin/der behandelnde Arzt wissen, wer welche Therapie erhält. Dies ist nur durch eine Gruppenzuteilung nach Zufallsprinzip (Randomisierung) möglich. Ziel der Verblindung ist eine möglichst objektive Auswertung der Ergebnisse.
Studie (Fall-Kohorten-Studie)
– Dabei wird die Kontrollgruppe bereits zu Beginn der Studie als zufällige Stichprobe der Kohorte ausgewählt. Deren Größe sollte basierend auf den zu erwartenden Fallzahlen bestimmt werden. Dieses Design ist insbesondere dann vorteilhaft, wenn gleichzeitig mehrere Krankheiten betrachtet werden (weil man dabei auf eine einzige Kontrollgruppe zurückgreifen kann).
Studie (Fall-Kontroll)
– Retrospektive Beobachtungsstudie, bei der eine Gruppe von Personen mit einer Zielerkrankung („Fälle“) und eine Gruppe von Personen ohne die Erkrankung („Kontrollen“) auf das Vorhandensein von Expositionsfaktoren (Risiko- oder protektive Faktoren) verglichen werden. Fall-Kontroll-Studien eignen sich besonders für medizinisch-epidemiologische Fragen, die die Ätiologie seltener Erkrankungen oder seltene Therapienebenwirkungen betreffen.
– Nicht-experimentelle, eine bestehende Situation beobachtende, retrospektive Studie
– Eigenschaften identifizierter „Fälle“ mit einer bestimmten Krankheit oder Eigenschaft werden retrospektiv mit den (als Ursache der Erkrankung vermuteten) Eigenschaften passender Personen ohne diese Erkrankung („Kontrollen“) verglichen.
– Eignet sich besonders zur Suche nach der Ursache sehr selten auftretender Erkrankungen oder solcher mit einer sehr langen Latenzzeit zwischen Einwirken einer schädlichen Noxe (z.B. Asbest) und klinisch erhebbarem Krankheitsstadium (z.B. Pleuramesotheliom)
– Die Zuordnung zu den beiden Gruppen erfolgt durch den Untersucher anhand des Vorhandenseins der Erkrankung oder den untersuchten Eigenschaften. (Gefahr für Verzerrung durch Selektionsbias)
Studie (Head-to-Head-Vergleich)
– Klinische Studie, in der 2 oder mehrere Arzneimittel oder andere medizinische Maßnahmen direkt miteinander verglichen werden.
Studie (Intervention)
– Studie, in der Teilnehmer geplant verschiedenen Interventionen zugeordnet werden. Zur Unterscheidung von Beobachtungsstudie, in der nicht vorab bestimmt wird, wie Interventionen zugeteilt werden, sondern eine Beobachtung der Teilnehmer ohne externe Beeinflussung erfolgt.
Studie (Kohorte)
– Vergleichende Beobachtungsstudie, in der Personen (Kohorte) mit bzw. ohne eine Intervention/Exposition (zu der sie nicht von dem Studienarzt zugeteilt wurden) über einen definierten Zeitraum beobachtet werden, um Unterschiede im Auftreten der Zielerkrankung festzustellen. Kohortenstudien können prospektiv oder retrospektiv durchgeführt werden.
– Stichprobe exponierter und nicht exponierter Personen wird hinsichtlich ihres Risikos einer Merkmalsausprägung (Erkrankung) untersucht
– CAVE: formulierte Endpunkte dürfen bei Studienbeginn noch nicht vorgelegen haben
– Erfordern lange Zeiträume, Großer Dokumentationsaufwand,
Studie (Lebensqualitätsstudie)
– In Lebensqualitätsstudien wird nach Wegen zur Verbesserung von Wohlbefinden und Lebensqualität bei Patienten und Patientinnen mit einer bestehenden Erkrankung geforscht.
Studie (Längsschnittstudie/Verlaufsstudie/longitudinale Studie)
– Diese Studien (auch Längsschnitt- oder Verlaufsstudien genannt) haben zum Ziel, einen zeitlichen Zusammenhang herzuleiten. Sie können retrospektiv (z. B. als Fall-KontrollStudien) oder prospektiv (z. B. als Kohortenstudien und klinisch-kontrollierte Studien) angelegt sein.
Studie (N=1-Studie)
– Eine N=1-Studie dient dazu, die Behandlung einzelner chronisch erkrankter Patienten zu optimieren. Hierbei erhält ein einziger Patient über einen Zeitraum eine Therapie, im nächsten Zeitraum jedoch eine andere Therapie. Die Auswahl der Therapie erfolgt hierbei initial randomisiert. N=1-Studien haben naturgemäß eine oft nur geringe Übertragbarkeit auf andere als den untersuchten Patienten.
Studie (Nicht-Unterlegenheitsstudie)
– Klinische Studien zielen meist auf den Nachweis, dass eine medizinische Maßnahme einer anderen überlegen ist. Nicht-Unterlegenheitsstudien zielen demgegenüber auf den Nachweis, dass eine medizinische Maßnahme gegenüber einer anderen nur höchstens so wenig schlechter abschneidet, dass der Unterschied klinisch ohne Bedeutung ist oder dass diese Maßnahme gegenüber der anderen sogar besser ist. Dazu muss schon bei der Planung der Studie eine Nicht-Unterlegenheitsgrenze festgelegt werden, oberhalb derer eine Maßnahme als mindestens gleichwertig bewertet wird.
Studie (Parallelgruppen)
– Klassisches Design von kontrollierten Interventionsstudien, bei denen die Studienarme zeitlich parallel laufen (siehe auch Cross-over-Studie)
Studie (Parallelstudie)
– Therapiestudien werden in der Regel in Parallelgruppen durchgeführt. Neben der Experimentalgruppe, welche das Prüfpräparat erhält, werden eine oder mehrere Kontrollgruppen in der Studie behandelt. Die Zuordnung zur jeweiligen Behandlungsgruppe erfolgt zufällig (randomisiert).
Studie (Population)
– Populationsstudien unterscheiden sich von anderen Risikostudien dadurch, dass nicht Individuen, sondern Gruppen oder Länder die Beobachtungseinheiten darstellen
Studie (Prognose)
– Klinische Studie zu prognostischen Fragen. Prognosestudien versuchen den weiteren Verlauf einer Erkrankung so zu beschreiben, dass der Erkrankungsverlauf zukünftiger Patienten hierüber abgeschätzt werden kann. Hierbei steht meist der Einfluss prognostischer Variablen im Fokus des Forschungsinteresses. Für Prognosefragen eignen sich vor allem prospektive Kohortenstudien (idealerweise anhand einer Inzeptionskohorte).
Studie (Prävalenz)
– Querschnittstudie, in der bei jedem Teilnehmer erfasst wird, ob er an einer bestimmten Erkrankung leidet und ob er exponiert ist
Studie (Präventionsstudie)
A
Studie (Querschnittsstudie; Cross-sectional Survey)
– Als Querschnittstudien oder -analysen werden Untersuchungen bezeichnet, die im Unterschied zu Längsschnittstudien nur ein Mal durchgeführt werden
– Als Querschnittsstudie bezeichnet man einen Studientyp, bei dem innerhalb einer Stichprobe eine einmalige Messung der zuvor definierten Parameter erfolgt
Studie (Querschnittstudie; transversale Studie)
– Querschnittstudien untersuchen jeden Studienteilnehmer zu nur einem einzigen Zeitpunkt (d.h. keine Erhebung von Daten aus Vergangenheit oder Zukunft, keine Nachuntersuchungen). Während Querschnittsstudien zu deskriptiven Fragestellungen (z.B. Prävalenz einer Erkrankung) oft verlässliche Aussagen machen können, ist ihre Bedeutung bei analytischen Fragestellungen begrenzt. Weil in einer Querschnittstudie Exposition (z.B. das Vorhandensein eines Risikofaktors) und Erkrankung gleichzeitig erhoben werden, ist unklar, ob eine Assoziation zwischen beiden Variablen tatsächlich durch eine Kausalbeziehung zwischen Exposition und Erkrankung hervorgerufen wurde; eine Querschnittstudie kann nicht belegen, dass nicht die Erkrankung zu einem vermehrten Auftreten der Exposition geführt hat, oder eine dritte Variable einen kausalen Einfluss auf beide Variablen hat.
– Gefahr für Verzerrung durch Selektionsbias; Datenerhebung prospektiv oder retrospektiv
– Zielereignis (Erkrankung) + gegenwärtige oder frühere Exposition werden gleichzeitig erhoben
– Besondere Anfälligkeit für Verzerrung
Studie (Registerstudie)
– Registerstudien sind epidemiologische oder klinische Studien, die sich in ihrer Datenerfassung auf Register stützen. Im Regelfall handelt sich um Beobachtungsstudien, vor allem in Form von Kohortenstudien oder Querschnittsstudien.
Studie (Schlüsselstudie; Pivotal Trial)
– Die Schlüsselstudie (Pivotal Trial) ist eine klinische Studie der Phase III, welche die medizinische Wirksamkeit eines Präparats im Kontrast zum gängigen Therapiestandard oder einem Placebo belegen soll. Die in dieser Phase erhobenen Daten sind zusammen mit jenen aus den ersten beiden Phasen einer klinischen Studie die Basis für den Zulassungsantrag eines Medikaments.
Studie (Screeningstudie)
Studie, in der Vor- und Nachteile eines Screening-Verfahrens untersucht werden
Studie (Therapiestudie)
– Therapiestudien sind medizinische Forschungsprogramme, in denen neue Behandlungsformen – z.B. neue Medikamente etc.
Studie (Vorbeugungsstudie)
– In Vorbeugungsstudien werden Ansätze, Medikamente, Vitamine, Mineralien, Impfstoffe oder Umstellungen der normalen Lebensführung zur möglichen Herabsetzung eines Risikos, an der Krankheit zu erkranken, getestet.
Studie (Zulassungsstudie)
– klinische Studie, die dazu dient, die Zulassung eines neuen Arzneimittels zu erwirken, oder den Einsatz eines bereits zugelassenen Arzneimittels in einer neuen Indikation zu ermöglichen.
Studie (analytische Studie)
– Wichtige Erkenntnisse der klinischen oder epidemiologischen Forschung basieren auf analytischen Studien, in denen mehrere Gruppen miteinander verglichen werden
– Zu diesem Typus zählen Fall-Kontroll-Studien, Kohortenstudien und klinisch kontrollierte-Therapiestudien
– Analytische Studien dienen zur Überprüfung von Hypothesen und sind damit konfirmatorisch: Zusammenhänge zwischen einer Zielgröße und einer (oder mehrerer) Einflussgrößen sollen inhaltlich hergeleitet und statistisch abgesichert werden.
Studie (beobachtend)
– Der Versuchsleiter nimmt in Bezug auf die interessierenden Eigenschaften der Untersuchungseinheiten eine passive Rolle ein: Er beobachtet, dokumentiert und analysiert die Daten. Er greift aber nicht aktiv ins Geschehen ein und er versucht nicht, die Studienteilnehmer in irgendeiner Weise zu beeinflussen. Beobachtende (oder: Nicht-experimentelle) Studien können sehr einfach und rein deskriptiv konzipiert sein (z. B. als Fallserie). Sie können jedoch auch als Longitudinalstudie angelegt sein und wertvolle Hinweise auf mögliche Zusammenhänge geben und damit analytischen Charakter annehmen (z. B. Fall-Kontroll-Studie oder Kohortenstudie). Epidemiologische Studien (Risikostudien) sind in aller Regel als beobachtende Studien angelegt. Nicht-experimentelle klinische Studien werden unter der Abkürzung NIS (nichtinterventionelle Studien) zusammengefasst. Dazu zählen Diagnose- und Prognosestudien.
Studie (deskriptiv)
– Versuchen im Gegensatz zu analytischen Studien lediglich Beobachtungen zu machen und ggf. hieraus Hypothesen zu generieren. Dementsprechend verwenden deskriptive Studien meist nur deskriptive statistische Methoden. Fallberichte und Fallserien sind typische Formen deskriptiver Studien.
Studie (epidemiologische Studie)
– Untersuchungen an größeren Bevölkerungsgruppen, die systematisch im Hinblick auf eine Erkrankung oder eine Schädigung beobachtet werden
Studie (genetische Studie)
– Genetische Studien sind konzipiert, um die Kapazitäten zur Erkennung der
Vererbungsrisiken bei einer Krankheit zu verbessern (pot. zukünftige Patienten).
Studie (gepoolt Studie)
– auch Pooling
– Eine gepoolte Studie (auch gepoolte Analyse oder Pooling-Studie) fügt Daten aus mehreren voneinander unabhängigen Einzelstudien zusammen und wertet sie gemeinsam aus. Vorteil einer solchen gemeinsamen Auswertung ist, dass die Zahl der untersuchten Studienteilnehmer erhöht wird, wodurch mit der Analyse aussagekräftigere Ergebnisse erzielt werden können.
Studie (klinisch)
– Unscharf definierter Begriff für eine Studie, in der eine Intervention an einer Gruppe von Patienten untersucht wird. Oberbegriff für unterschiedliche Studientypen, z.B. nicht kontrollierte, kontrollierte und randomisierte klinische Studien.
– Unter einer klinischen Studie versteht man die experimentelle Prüfung eines Behandlungsverfahrens (z.B. eines Medikaments) unter definierten Rahmenbedingungen. Sie ist das wichtigste Instrument der klinischen Forschung.
Studie (monozentrische Studie)
– Bei diesen Studien werden die Patienten oder Probanden aus einer einzigen Institution rekrutiert.
Studie (multizentrisch)
– Bei seltenen Krankheiten mag es schwierig sein, eine ausreichende Zahl von Teilnehmern zu rekrutieren. In diesen Fällen bieten sich multizentrische Studien an, bei denen Patienten aus mehreren Einrichtungen gemeinsam analysiert werden. Diese Studienart hat den Vorteil, dass die Studienteilnehmer heterogener und die Ergebnisse eher verallgemeinerbar sind.
Studie (nicht-randomisiert)
– Ist eine Studie ohne Randomisierung (siehe randomisiert kontrollierte Studie).
Studie (pragmatisch)
– Eine Studie, in der experimentelle Behandlungen möglichst unter Alltagsbedingungen erprobt werden, indem es kaum Einschränkungen bei Auswahl der Teilnehmer und sonstiger Behandlung gibt. Steht im Gegensatz zu Studien, in denen Therapien unter Idealbedingungen erprobt werden, um festzustellen, ob eine Therapie unter günstigen Umständen das Potenzial zu einem Nutzen hat.
Studie (prospektiv)
– In einer prospektiven Studie ist das den Forscher interessierende Ereignis (zum Beispiel eine bestimmte Krankheit) zum Zeitpunkt des Studienbeginns noch nicht eingetreten. Forscher haben die Möglichkeit, vorab die Ereignisse, die sie messen wollen, und die interessierenden Einflussgrößen präzise zu definieren.
– Prospektiv bedeutet „vorausschauend“. Bei diesen Studien ermittelt man zunächst die Einflussgrößen und wartet ab, ob und ggf. wann das interessierende Endereignis eintritt.
– Die Untersuchungsrichtung ist somit logischer als bei retrospektiven Studien. Prospektive Studien sind üblicherweise so angelegt, dass sich die Daten überwiegend nach Studienbeginn ergeben. Der Versuchsleiter hat dabei Kontrollmöglichkeiten bezüglich der Stichprobe, der zu erfassenden Merkmale, der Messmethoden und der Dokumentation.
– Kohortenstudien sind die bekanntesten prospektiven Studien.
Studie (pseudorandomisiert)
– Eine pseudorandomisierte Studie enthält im Gegensatz zu einer randomisierten Studie keine echten für die Studie erzeugten Zufallsmechanismus, der die Gruppenzuteilung bestimmt. Eine pseudorandomisierte Studie bietet keine verdeckte Zuteilung und ist daher anfällig für Bias. Übliche Methoden der Pseudorandomisation bestehen darin, Studienpatienten immer abwechselnd den Therapiegruppen zuzuteilen (Alternation) oder die Zuteilung nach geradem versus ungeradem Geburtsdatum vorzunehmen.
Studie (qualitativ)
– Diese Art von Studien wird eingesetzt, um zum Beispiel das Erleben und die persönlichen Erfahrungen von Menschen mit einer bestimmten Krankheit zu verstehen. Die Grundlagen qualitativer Forschung sind keine Zahlen und Daten wie bei anderen Studientypen, sondern Inhalte aus Erzählungen, Interviews mit Betroffenen und ihren Angehörigen, schriftlichen Dokumenten und Beobachtungen. Die gesammelten Informationen werden mithilfe verschiedener Methoden analysiert und interpretiert.
Studie (randomisiert kontrolliert; RCT)
– Eine experimentelle Studie, bei der die Patienten nach einem Zufallsverfahren (mit verdeckter Zuordnung) auf die Therapie- bzw. die Kontrollgruppe verteilt (Randomisierung) und auf das Auftreten der festgelegten Endpunkte in den einzelnen Gruppen nachbeobachtet werden.
Studie (retrospektiv)
– In einer retrospektiven Studie ist die Erkrankung (das Ereignis) zu Beginn der Studie schon eingetreten, und es wird rückblickend nach Risikofaktoren für die Erkrankung gesucht.
– Retrospektiv heißt „zurückblickend“. Man ermittelt zunächst die Ausprägungen der Zielgröße und versucht dann, die Ausprägungen einer oder mehrerer Einflussgrößen zu erfassen.
– Das Paradebeispiel sind Fall-Kontroll-Studien, bei denen eine Gruppe erkrankter Personen (Fälle) mit einer Gruppe Nichterkrankter (Kontrollen) dahingehend verglichen wird, welchen Risikofaktoren die Teilnehmer in der Vergangenheit ausgesetzt waren
Studie (Äquivalenzstudie)
– Klinische Studien zielen meist auf den Nachweis, dass eine medizinische Maßnahme einer anderen überlegen ist. In Äquivalenzstudien wird dagegen eine sogenannte Äquivalenzfragestellung oder Äquivalenzhypothese untersucht, ob 2 oder mehr medizinische Maßnahmen sich so wenig unterscheiden, dass dies klinisch ohne Bedeutung ist. Liegt der beobachtete Unterschied inklusive der statistischen Unsicherheit innerhalb eines vordefinierten Wertebereichs (Äquivalenzbereichs), können die Maßnahmen als gleichwertig betrachtet werden.
Studie (Überlegenheitsstudie)
– Klinische Studie, die auf den Nachweis zielt, dass eine medizinische Maßnahme einer anderen überlegen ist.
Studie (Überwachungsstudie)
– In Überwachungsstudien werden Wege zur Erkennung und insbesondere zur Früherkennung einer Krankheit getestet (pot. zukünftige Patienten).
Studie (ökologisch)
– Ökologische Studien sind spezielle epidemiologische Studien, die charakterisiert sind durch den Versuch, Exposition und Krankheit auf der Ebene von Regionen und Bevölkerungsgruppen in Beziehung zu setzen, und nicht auf der Stufe einzelner Personen. Ökologische Studien sind sehr anfällig dafür, aufgrund von Confounding Scheinkorrelationen zu finden (sog. ökologischer Trugschluss), so dass sie ursächliche Zusammenhänge nicht sicher nachweisen können.
Studienabbrecher (Drop-out)
– Teilnehmer, der aus einer klinischen Studie vor dem geplanten Ende ausscheidet.
Studienarm
– Gruppe von Teilnehmern, welche gemäß dem Prüfplan die gleiche Intervention oder keine Intervention erhält
Studienphase 0 (Phase-0-Studie)
– Phase-0-Studien sind klinische Studien, die der Testung der pharmakokinetischen Eigenschaften (u.a. Resorption, Verteilung und Metabolisierung) eines neuen Wirkstoffes beim Menschen dienen.
Studienphase 1 (Phase-1-Studie)
– kleine Studien, in denen eine neue Behandlung erstmals am Menschen eingesetzt wird, und zwar an gesunden Freiwilligen. In diesem Stadium werden grundlegende Eigenschaften wie Verträglichkeit und Sicherheit eines neuen Medikaments überprüft, um zu sehen, ob es sich für einen Einsatz beim Menschen eignet.
Studienphase 2 (Phase-2-Studie)
– Phase II-Studien sind bereits etwas größer angelegt. Sie umfassen meist 100 bis 300 Teilnehmende. In der Phase II wird ein Medikament zum ersten Mal an Patientinnen und Patienten überprüft, die an jener Erkrankung leiden, für deren Behandlung das Medikament entwickelt wird. Dabei geht es um die optimale Dosierung. Zusätzlich werden erste Daten zur Wirksamkeit erhoben.
Studienphase 3 (Phase-3-Studie)
– Phase III-Studien sind große Studien. Sie geben relativ präzise Auskunft über Wirksamkeit und Verträglichkeit. In den allermeisten Fällen sind es Vergleichsstudien. Dabei werden Patientinnen und Patienten, die die zu untersuchende Behandlung erhalten, mit einer Kontrollgruppe verglichen, die eine andere Behandlung erhält.
Studienphase 4 (Phase-4-Studie)
– Phase IV-Studien finden statt, wenn ein Medikament bereits auf dem Markt ist. So kann es sinnvoll sein, ein bereits zugelassenes Medikament bei Patientinnen und Patienten mit bestimmten Eigenschaften – etwa hinsichtlich der Altersgruppe oder bestimmter Vorerkrankungen – noch einmal gezielt zu untersuchen. Phase IV-Studien können zudem seltene Nebenwirkungen eines Medikaments besser erkennen, weil bereits viel mehr Patientinnen und Patienten damit behandelt werden.
Studienpower
– Unter Power einer Studie versteht man die Wahrscheinlichkeit, einen tatsächlich vorhandenen Unterschied mit einem statistischen Test nachzuweisen.
– Die Power gibt die Erfolgsaussicht einer Studie dafür an, dass ein angestrebter Nachweis gelingt, zum Beispiel zu zeigen, dass statistisch signifikante Unterschiede zwischen 2 Therapien bestehen. Die Power einer Studie hängt vor allem von der Größe des Unterschieds und der Zahl der Teilnehmer ab.
Störvariable
– Eine Störvariable ist etwas, das im Gegensatz zur untersuchten Behandlung, das Ergebnis einer Studie beeinflussen kann. Zum Beispiel wird ein Arzneimittel zur Vorbeugung des Schnupfens durch Verabreichung an 1.000 Männer getestet, während ein Placebo einer Gruppe von 1.000 Frauen verabreicht wird. Die Studienergebnisse zeigen, dass während der Studienperiode wesentlich weniger Männer einen Schnupfen hatten. Es wäre jedoch nicht möglich, zu behaupten, dass das Arzneimittel eine Wirkung hatte, zumal alle Teilnehmer der Placebo-Gruppe Frauen waren, und somit stellt das Geschlecht eine Störvariable dar. Es könnte eine plausible alternative Erklärung für die Studienergebnisse geben – zum Beispiel, dass Frauen anfälliger für die zum Zeitpunkt der Studie zirkulierenden Erkältungsviren sind.
Subgruppenanalyse
– Zusätzliche Analysen im Rahmen eines systematischen Reviews mit Metaanalyse, in die nur bestimmte Untergruppen von Patienten oder Studien eingeschlossen werden, die ein gewisses Merkmal erfüllen (z.B. Aufteilung nach Geschlecht oder geografischer Lokalisation). Subgruppenanalysen werden in der Regel durchgeführt, um den Einfluss verschiedener Studiencharakteristika (bzw. Heterogenität) auf die Ergebnisse zu untersuchen.
Surrogatendpunkt (intermediärer Endpunkt)
– Endpunkte, die selbst nicht von unmittelbarer Bedeutung für die Patienten sind, aber stellvertretend für wichtige Endpunkte stehen können (z. B. Blutdruck als Risikofaktor für Schlaganfall). Surrogatendpunkte sind oft physiologische oder biochemische Marker, die relativ schnell und einfach gemessen werden können und denen eine Vorhersagefunktion für spätere Ereignisse zugemessen wird. Für viele Surrogatendpunkt ist eine zuverlässige Vorhersage auf ein späteres Ereignis nicht nachgewiesen.
standardisierte mittlere Differenz (SMD)
– Ein Effektmaß für kontinuierliche Endpunkte. Die SMD wird insbesondere verwendet, um Metaanalysen von Studien durchzuführen, in denen derselbe Endpunkt mit unterschiedlichen Instrumenten gemessen wurde (z.B. wenn in allen Studien Depression gemessen wird, jedoch mit unterschiedlichen psychometrischen Skalen). Sie berechnet sich aus der mittleren Differenz zwischen zwei Versuchsgruppen dividiert durch die gepoolte Standardabweichung.
T
Testgütekriterien
– Als Kriterien der diagnostischen Testgüte (Accuracy) werden die wesentlichen Maßzahlen aus diagnostischen Studien zusammengefasst, vor allem Sensitivität und Spezifität, sowie positiver und negativer Vorhersagewert. Im Bereich psychometrischer Instrumente (z.B. Lebensqualitätsfragebögen) werden auch die wesentlichen Testeigenschaften, nämlich Objektivität, Reliabilität, und Validität, unter dem Begriff der Testgütekriterien zusammengefasst.
Teststärke
auch Studienpower
Time to next Treatment (TTNT)
– Art eines primären Endpunktes
– Zeit vom Indexdatum bis zum Beginn einer nächsten oder zusätzlichen Behandlung
therapeutische Äquivalenz
– Therapeutische Äquivalenz bedeutet, dass Arzneimittelprodukte zur gleichen therapeutischen Wirkung und gleichen unerwünschten Wirkungen führen, wenn sie dem gleichen Patienten mit demselben Dosierungsschema gegeben werden.
U
Underpowering
– Underpowering ist ein statistisches Problem von Studien, das meist durch eine zu geringe Zahl an Probanden verursacht wird (siehe auch Power). Je stärker eine Studie von Underpowering betroffen ist, umso wahrscheinlicher ist es, dass ein erwarteter Unterschied nicht als statistisch signifikant gezeigt werden kann.
Unerwünschte Arzneimittelwirkung (UAW)
– Als „Unerwünschte Arzneimittelwirkung (UAW)“ (engl. Adverse Drug Reaction, ADR) bezeichnet man jede gesundheitsschädliche und unbeabsichtigte Wirkung eines Medikaments, die in Dosierungen auftritt, welche beim Menschen zur Prophylaxe, Diagnostik oder Therapie üblich sind. Ein „Unerwünschter Arzneimittelschaden“ ist ein Personenschaden aufgrund der Anwendung/Verabreichung eines Medikamentes.
unerwünschtes Ereignis (Adverse Event, AE)
– Unerwünschtes Ereignis ist jedes nachteilige Vorkommnis, das nach oder während des Einsatzes einer Intervention wie zum Beispiel der Einnahme eines Medikaments eintritt, und das nicht notwendigerweise in ursächlichem Zusammenhang mit dieser Intervention steht. Als schwerwiegendes unerwünschtes Ereignis (Severe Adverse Event, SAE) gilt jedes unerwünschte Ereignis, welches tödlich oder lebensbedrohend ist, eine stationäre Behandlung oder deren Verlängerung erforderlich macht, zu bleibender oder schwerwiegender Behinderung oder Invalidität führt, oder eine kongenitale Anomalie oder einen Geburtsfehler zur Folge hat. Auch beim SAE ist es nicht erforderlich, dass ein Kausalzusammenhang zur Intervention besteht oder vermutet wird.
Überlebensrate
– Anteil der lebenden Patienten in einem Zeitraum nach Diagnosestellung oder nach einer bestimmten medizinischen Maßnahme
Überlebenszeitanalyse
– Verfahren zur Auswertung von Daten, die die Zeit bis zum Eintritt eines Ereignisses beschreiben, zum Beispiel bis zum Tod oder nächsten Krankheitsschub.
– Statistisches Bild des Überlebens einer Gruppe im Zeitverlauf
– Wird immer neu berechnet wenn das definierte Ereignis eintritt
– Bedingte Wahrscheinlichkeit für die in der Studie verbleibenden Personen, mit der sie das (neue) Zeitintervall überlebt haben
– Der Kaplan-Meier-Schätzer (auch Produkt-Limit-Schätzer) dient zum Schätzen der Wahrscheinlichkeit, dass bei einem Versuchsobjekt ein bestimmtes Ereignis innerhalb eines Zeitintervalls nicht eintritt.
V
Validierung
– Als Validierung bezeichnet man es, die Validität einer Messmethodik zu belegen. Studien, die auf eine Validierung zielen, werden Validierungsstudien genannt. Sie beziehen sich oft auf psychometrische Instrumente (insbesondere zur Lebensqualität).
Validität
– Unter Validität versteht man im wissenschaftlichen Kontext das Maß, in dem eine Vorgehensweise geeignet ist, das zu messen, was zu messen geplant war. Die Validität wird primär durch das Vorhandensein von Bias gefährdet. Im Rahmen der EbM beschäftigt man sich insbesondere mit der Validität von Studienergebnissen, wobei hier zwischen interner Validität und externer Validität unterschieden wird. Daneben werden auch Messmethoden (z.B. LebensqualitätsInstrumente, Surrogatparameter, etc.) hinsichtlich ihrer Validität beurteilt.
– Fähigkeit, zwischen Erkrankten und Nicht-Erkrankten zu unterscheiden. Sie wird bestimmt durch die Sensitivität und die Spezifität
Validität (extern)
– auch Generalisierbarkeit oder Übertragbarkeit
– Beurteilung, ob in der Studie gezeigte Ergebnisse auch unter anderen Rahmenbedingungen, Zeitpunkten und/oder bei Personen außerhalb der Studienpopulation gelten
– Eine Studie besitzt eine hohe externe Validität, falls sich ihre Ergebnisse gut auf die Routineversorgung übertragen lassen. Unterschiede in den Patientencharakteristika, den angewendeten Interventionen oder den allgemeinen Rahmenbedingungen können dazu führen, dass eine Studie eine nur geringe externe Validität aufweist.
– Im engeren Sinne bezieht sich externe Validität nur auf mögliche Unterschiede zwischen einer Versorgung unter Studienbedingungen und unter Routinebedingungen an den Studienstandorten selbst, während Unterschiede zu den Bedingungen an anderen spezifisch festgelegten Orten als Problem der Übertragbarkeit gesehen werden. Als drittes lassen sich Unterschiede zwischen den Studienbedingungen vor Ort und den allgemeinen Rahmenbedingungen (z.B. weltweit) als Problem einer fehlenden Generalisierbarkeit bewerten.
Validität (intern)
– Maß für Aussagekraft und Glaubwürdigkeit der Studienergebnisse
– Maß dafür, inwieweit in Untersuchungen das gemessen wird, was gemessen werden soll, und das Ergebnis nicht durch systematische Fehler (=Bias) verzerrt wird
– Interne Validität bezeichnet das Ausmaß, mit dem die Ergebnisse einer Studie den „wahren“ Effekt einer Intervention (oder Exposition) wiedergeben, d.h. frei von systematischen Fehlern (Bias) sind. Die interne Validität beruht im Wesentlichen auf einer möglichst optimalen Studienplanung (siehe Studiendesigns), -durchführung und -auswertung. Sie ist Voraussetzung für die Anwendbarkeit der Studienergebnisse in der Routineversorgung (siehe auch Externe Validität).
Variabilität
– Unterschiedlichkeit in den beobachteten Werten eines metrisch skalierten Merkmals bzw. in den der Ausprägungen einer Zufallsvariablen
– In der Statistik bezieht sich die Variabilität auf die Streuung oder den Bereich von Werten in einer Datenreihe. Sie gibt an, wie weit die Werte von einander entfernt sind und wie sehr sie von dem durchschnittlichen Wert abweichen
Varianz
– Maß für die Streuung von Messwerten. Die Varianz errechnet sich aus der mittleren quadratischen Abweichung der Einzelwerte vom Mittelwert, geteilt durch die Anzahl der Messwerte minus 1.
– Bei quantitativen Merkmalen ist der Mittelwert das am häufigsten benutzte Lagemaß. Es liegt deshalb nahe, ein Streuungsmaß zu definieren, das die Abweichungen der Stichprobenwerte vom Mittelwert quantifiziert. Ein solches Maß ist die Varianz – das ist die mittlere quadratische Abweichung der Daten vom Mittelwert.
Variationskoeffizient
– Ein nützliches Maß ist der Variationskoeffizient, der die Standardabweichung zum Mittelwert in Bezug setzt:
– Dieses Maß ist dimensionslos und nur für verhältnisskalierte Merkmale geeignet. Es wird häufig in Prozenten angegeben. Ein Variationskoeffizient bis zu 30 % ist in den Biowissenschaften keine Seltenheit.
– Ist der Variationskoeffizient wesentlich höher als 30 %, so weist dies darauf hin, dass die Verteilung extrem schief ist, oder dass zwei inhomogene Gruppen gemeinsam untersucht werden.
Verblindung
– Maßnahme während einer Studie, um die Patienten aber auch Ärzte, Pflegepersonal und/oder Wissenschaftler bis zum Ende im Unwissen zu lassen, welche Patienten welche medizinische Maßnahme erhalten haben. Ziel der Verblindung ist es, Verzerrungen zu minimieren, die entstehen können, wenn die Bewertung einer Behandlung durch die Kenntnis der Behandlung beeinflusst werden könnte. Oft gibt es Vorurteile, die bei Patienten oder Ärzten zur Überschätzung einer der Alternativen führen können. Möglich ist zudem, dass Ärzte Patienten einer Gruppe für benachteiligt halten und bei ihnen dann zusätzliche Maßnahmen ergreifen, die dann ebenfalls das Ergebnis verzerren können. Verblindung lässt sich in Therapiestudien zum Beispiel aufrechterhalten, indem eine Gruppe der Teilnehmer eine identisch erscheinende Schein- oder Placebobehandlung erhält, zum Beispiel identisch aussehende Tabletten. Verblindung ist auch dadurch möglich, dass dem Studienpersonal, das die Untersuchungsergebnisse auswertet, nicht mitgeteilt wird, zu welchen Patienten die Ergebnisse gehören. In einfach-blinden Studien wissen nur die Patienten nicht über ihre Zuordnung Bescheid, in doppel-blinden Studien bleibt die Zuordnung dem Patienten, dem behandelnden Arzt sowie dem Erheber der Endpunkte verborgen. Die Terminologie ist hier jedoch nicht einheitlich, so dass in einer verblindeten Studie besser klar beschrieben werden sollte, wer genau verblindet ist (Patient, Therapeut, Outcome-Evaluator).
Vereinigungsmenge
– A ∪ B (sprich: A vereinigt B)
– bezeichnet das Ereignis, dass A allein oder B allein oder beide Ereignisse gemeinsam eintreten
Verum
– wissenschaftliche Bezeichnung für ein „echtes“ Medikament
Vorgehen in der evidenzbasierten Medizin
1.    Übersetzung des klinischen Problems in eine Fragestellung, die durch wissenschaftliche Untersuchungen zu beantworten ist
2.    Systematische Literaturrecherche nach geeigneten Studien
3.    Kritische Evidenzbewertung über alle identifizierten Studien hinweg
4.    Anwendung der gewonnenen Einsichten in Abwägung der konkreten klinischen Situation
5.    Selbstkritische Evaluation und ggf. Anpassung der bisherigen Vorgehensweise
Vorhersagewert (negativ)
– auch negativer prädiktiver Wert
– Parameter zur Einschätzung der Aussagekraft von medizinischen Testverfahren. Er gibt an, wie viele Personen, bei denen eine bestimmte Krankheit mittels eines Testverfahrens nicht festgestellt wurde, auch tatsächlich gesund sind.
Vorhersagewert (positiv)
– auch positiver prädiktiver Wert
– Parameter zur Einschätzung der Aussagekraft von medizinischen Testverfahren. Er gibt an, wie viele Personen, bei denen eine bestimmte Krankheit mittels eines Testverfahrens festgestellt wurde, auch tatsächlich krank sind.
Vorhersagewert (prädiktiver Wert)
– Wahrscheinlichkeit, dass das Testergebnis den richtigen Krankheitsstatus anzeigt
W
Wahrscheinlichkeit
– Maß, das bestimmt wie sehr erwartet wird, dass genau dieses Ereignis eintritt
– allgemeines Maß der Erwartung für ein unsicheres Ereig
Wahrscheinlichkeit (A-posteriori-Wahrscheinlichkeit)
– Wahrscheinlichkeit, mit der Beobachtungen auf der Grundlage der Daten Gruppen zugewiesen werden
Wahrscheinlichkeit (A-priori-Wahrscheinlichkeit)
– auch Anfangswahrscheinlichkeit, Vortest- oder Ursprungswahrscheinlichkeit
– Schätzung der gesamten relativen Häufigkeit für jede Kategorie der abhängigen Variable, die aufgestellt wird, noch bevor die Werte der unabhängigen Variablen (Prädiktorvariablen) bekannt sind
–  Wahrscheinlichkeitswert, der anhand von allgemeinem Vorwissen bzw. vernünftig erscheinenden Grundannahmen über ein System (zum Beispiel symmetrische Eigenschaften eines Würfels) als naheliegend vermutet wird
– – Schätzung der Wahrscheinlichkeit einer Erkrankung vor der Durchführung eines Tests. Sie beruht im Allgemeinen auf der Prävalenz der Erkrankung in einem bestimmten Umfeld (z.B. Normalbevölkerung, Primär-, Sekundärversorgung, im Krankenhaus, in der eigenen Praxis). Sind diese Informationen nicht verfügbar, müssen sie gegebenenfalls geschätzt werden.
Wahrscheinlichkeit (bedingt)
– Es ist nicht immer zweckmäßig, Wahrscheinlichkeiten anzugeben, die sich auf die gesamte Population beziehen. Viele Krankheiten sind mit dem Geschlecht der Patienten assoziiert (etwa Hämophilie, Rotgrünblindheit oder Brustkrebs) oder sind abhängig sind von bestimmten Risiken. In diesen Fällen ist es sinnvoll, die Erkrankungswahrscheinlichkeiten für bestimmte Subgruppen separat zu berechnen – etwa separat für Männer und für Frauen oder für Patienten mit und ohne Risikofaktor.
– bezeichnet diese als P(A| B) (sprich: „P von A gegeben B“ oder „P von A unter der Bedingung B“)
– Formel quantifiziert die Wahrscheinlichkeit für das Eintreten des Ereignisses A eingeschränkt auf die Menge, die dem Ereignis B entspricht
Wahrscheinlichkeit (objektiv)
– Wahrscheinlichkeiten, die auf Basis statistischer Beobachtungen gebildet werde
Wahrscheinlichkeit (subjektiv)
– Wahrscheinlichkeiten, die aufgrund von Vermutungen oder innerer Überzeugung gebildet werden
Wahrscheinlichkeitsverhältnis (Likelihood Ratio, LR)
– Das Verhältnis der Wahrscheinlichkeit, dass ein positives (oder negatives) Testergebnis bei einer Person mit der Erkrankung auftritt zur Wahrscheinlichkeit, dass dieses positive (oder negative) Testergebnis bei einer Person ohne diese Erkrankung auftritt. Die LR ermöglicht eine Aussage darüber, wie stark sich durch das Testergebnis die Wahrscheinlichkeit für oder gegen das Vorliegen einer Erkrankung ändert (Nachtestwahrscheinlichkeit).
Waterfall-Plot
– Zeigt den schlechtesten Wert (links) und den größten Effekt (rechts) gleichzeitig
– Patienten sind nach Effektstärke geordnet nicht nach zeitlichem Auftreten (Zeigt auf einen Blick den Effekt auf die gesamte Studienpopulation)
Weighted Mean Difference (WMD)
– auch gewichtete mittlere Differenz
– Effektmaß für kontinuierliche Endpunkte (s. Effektmaß), die auf derselben Skala gemessen werden (z. B. Größe) zur Beschreibung des Gesamteffekts, wenn Studien in Metaanalysen gepoolt werden
– In Metaanalysen erhalten die Einzelstudien ein unterschiedliches Gewicht, um die Präzision des Effektschätzers zu berücksichtigen. Üblicherweise geht hier die Größe der Studie ein.
Wirksamkeit
– Wirksamkeit („efficacy“) beschreibt in der EbM, ob eine Maßnahme unter Idealbedingungen gute Ergebnisse hervorbringt.
X
Y
Z
Zielgröße
– Häufig Synonym für Endpunkt. Allerdings kann eine Zielgröße (z. B. Mortalität/Sterblichkeit) gegebenenfalls auch mehrere Endpunkte (z.B. Gesamtsterblichkeit und Sterblichkeit aufgrund einer bestimmten Erkrankung) umfassen.
Zufallsfehler (zufällige Abweichung)
– Abweichungen der Messwerte von ihrem Mittel- oder Erwartungswert
– Abweichungen der Messwerte vom Erwartungswert als dem Grenzwert des Mittelwertes nach unendlich vielen Messwerten bezeichnet
Zufallsvariable
– Der Begriff des Merkmals ist fundamental für die deskriptive Statistik. Die Beschreibung einer Stichprobe beruht im Wesentlichen auf den Häufigkeiten der Merkmalsausprägungen und auf statistischen Kenngrößen wie etwa Mittelwert oder Standardabweichung. In der Wahrscheinlichkeitsrechnung benutzt man anstelle des konkreten Begriffs „Merkmal“ den abstrakten Begriff „Zufallsvariable“.

Quellen