Aktiver Betrug ist selten, doch klinische Studien sind fehleranfällig. Selbst kleine Anomalien können enorme Auswirkungen haben und über die Zulassung entscheiden. Ursachen gibt es viele in einem komplexen Prozess, an dem viele Menschen beteiligt sind – und alle verdienen daran.
Alexander K. ist ein nachdenklicher Mann, Mitte 50, Schriftsteller von Beruf. Das Geld verdient er mit Deutsch- und Englischunterricht, und es ist knapp, fast immer. „Vor ein paar Jahren saß ich in der U-Bahn und sah Plakate, auf denen es hieß, es würden Probanden für eine Studie zur Behandlung der Gürtelrose gesucht“, sagt er. „Ich fand das interessant. In meiner Verwandtschaft gab es Fälle von Gürtelrose und ich weiß, wie schmerzhaft das sein kann. Und die Bezahlung war auch nicht schlecht.“ 50 Euro sollte es jeweils geben, für drei Spritzen, insgesamt 150 Euro. K. ging zu einer Praxis einer Ärztin nahe dem Berliner Ku'damm, saß, wie er sagt, zwischen rund 20 weiteren Testpersonen jeden Alters, unterschrieb die Einverständniserklärung und bekam die erste Injektion. „Mir wurde Blut abgenommen und ich wurde darüber informiert, dass ich nicht wissen würde, ob ich Placebo bekäme oder nicht.“ K. erfuhr, welche Nebenwirkungen auftreten könnten; also Fieberschübe, trockener Mund, wässrige Augen oder Ausschlag auf der Haut. Für Notfälle bekam er eine Telefonnummer. „Ich wurde relativ zeitnah auf Symptome kontrolliert“, sagt K. „Ich hatte nichts, alles ganz normal. Ich kassierte das Geld. Das war's.“ Nicht ganz: Einige Tage nach Ende der Studie spürte K. Kopfschmerzen, nachts schwitzte er. „Ich rief am folgenden Tag an. Dort sagte man mir, ich solle abwarten, es würde von selbst vergehen.“ So war es auch. K. hörte nie wieder etwas von der Studie oder den Ergebnissen. „Es lief alles korrekt“, sagt er heute.
Wirklich? Die Wahrheit ist: Er weiß es nicht. Als Laie sowieso nicht. Aber auch für Ärzte, Apotheken und Wissenschaftler ist es nahezu unmöglich, hinter die Kulissen zu sehen und festzustellen, ob die Daten, die bei klinischen Studien erhoben und ausgewertet werden, tatsächlich stimmen. Nicht nur, weil die Ergebnisse selten veröffentlicht und schwer verständlich sind, sondern auch, weil die erhoben Daten selbst nicht immer stimmen und schwer zu überprüfen sind. Zu vielfältig sind die Faktoren, die ineinander greifen, zu undurchsichtig die vielen Schritte, zu manipulierbar einzelne Stellschrauben im langen Prozess von der Entdeckung eines Moleküls bis zum fertigen Medikament. Dirty Data, also falsche, „schmutzige“ Daten, seien ein großes Problem, sagen Kenner der Szene. Artem Andrianov zum Beispiel. Der 34-jährige promovierte Ingenieur war lange Entwickler für Studiendesigns, er konzipierte und stellte Software her zur Datenerfassung bei klinischen Studien – bis er die Seiten wechselte. Heute ist Andrianov Geschäftsführer von Cyntegrity. Das Unternehmen prüft anhand einer Kombination aus statistischen und mathematischen Vorgehensweisen die riesigen Datenmengen von Forschungsergebnissen auf Anomalien hin. Schon in geringer Zahl könnten diese die Ergebnisse verfälschen: „Es kann passieren, dass ein gutes Medikament nicht auf den Markt kommt wegen schlampiger Arbeit von Prüfzentren“, so der gebürtige Russe. Falsche Daten entstünden in den Prüfzentren entweder durch Schlampigkeit oder bewusste Manipulation. Wo die Grenze sei, wisse man nie. Laut einschlägigen Publikationen seien etwa zwei Prozent aller klinischen Studien von aktivem Betrug betroffen, so Andrianov, er selbst rechne mit etwas unter zehn Prozent. „Die Dunkelziffer ist hoch, sehr vieles bleibt unentdeckt“, sagt er.
Doch warum kommt es überhaupt zu falschen Daten? Klinische Studien sind Teil eines komplexen Prozesses, Tausende Menschen sind darin eingebunden. Der entwickelnde Konzern spielt dabei gegen die Zeit, denn er hat von der Patentierung eines entdeckten Moleküls 25 Jahre Zeit, es zu testen, ein Medikament daraus zu entwickeln und es zu vermarkten – bis der Patentschutz erlischt, Generika auf den Markt kommen und der Gewinn einbricht. Studien kommt hier die entscheidende Rolle zu: Je schneller, je eindeutiger und je positiver, desto eher erteilen die Behörden ihre Zulassung. „Im Durchschnitt kostet eine Studie vom Anfang bis zum Ende rund eineinhalb Milliarden Euro“, so Andrianov. „Wenn man versteckte Kosten noch hinzuzieht, dann können es bis zu drei Milliarden Euro werden. Mehrkosten entstehen zum Beispiel, wenn man gewisse Parameter noch einmal überprüft oder die Studie an Ergebnisse anpasst. Solche Summen verleiten zu falschem Verhalten.“ Es gebe eine hohe Motivation, Studien zu beeinflussen, sagt der Software-Spezialist. Denn klinische Studien seien einerseits kompliziert, andererseits auch streng in ihrem Prozess geregelt: „Diesen kann man leicht unterbrechen. Involviert sind Patienten, Institute und Auftraggeber, alle verdienen daran.“ Das Ergebnis einer Studie könne man vergleichen mit einem Herstellungsprozess: Es würden Daten hergestellt, die evaluiert und als Gesamtergebnis an die Behörden zur Zulassung gegeben werden.
Tatsächlich kommen nur selten Fälle von Manipulation ans Licht der Öffentlichkeit. Bekannt werden die großen Skandale, etwa der des Influenza-Mittels Tamiflu®, dessen Nutzen bis heute nicht nachgewiesen und dessen Studienergebnisse lange unter Verschluss gehalten wurden. Bis heute lagern die Pillen millionenfach zum Schutz vor einer Epidemie. Allein Deutschland kaufte Tamiflu® im Wert von 330 Millionen Euro. Bekannt wurde die Fragwürdigkeit des Medikaments durch die Jahre dauernden Nachfragen der Cochrane Collaboration, ein Zusammenschluss von Ärzten und Forschern, die medizinische Therapien bewerten. „Obwohl klinische Studien einer strikten Regulierung durch Ethikkommissionen, Behörden und Ministerien unterliegen, gibt es viele Versuchungen, dieses Regelwerk außer Acht zu lassen oder auch vorsätzlich zu umgehen oder zu verletzen“, sagt Gerd Antes, Leiter von Cochrane Deutschland: „Fälschungen oder Manipulationen geraten immer wieder in die Medien, sind jedoch nicht das dominierende Problem, da sie isoliert auftreten und ihre Folgen beherrschbar sind. Viel schädlicher sind die vielen kleinen Schlampereien und Vergehen, die im Einzelnen keine große Aufregung verursachen, in der Summe jedoch immense Schäden anrichten.“
Fehler entstünden auf zweierlei Weise, sagt Antes: „Einmal gibt es systematische Fehler, der sogenannte Bias. Das sind im Grunde Verzerrungen, die dazu führen, dass die Aussagen einer Studie selbst bei insgesamt korrektem Vorgehen falsch werden müssen.“ Es gäbe Hunderte Bias-Ursachen, so der Mathematiker und Biometriker. Ein Beispiel sei der Selektions-Bias: „Er bezeichnet die ungleiche Zusammensetzung von zwei Behandlungsgruppen in einer vergleichenden Studie, etwa durch unterschiedliches Körpergewicht der Probanden. Zeigen sie eine unterschiedliche Heilungsrate, so ist nicht zu trennen, ob dies auf die Behandlung zurückzuführen ist oder auf das Gewicht.“ Die zweite Fehlerquelle rühre von statistischen Schwankungen her, sagt Antes: „Keine Studie liefert bei Wiederholung die gleichen Ergebnisse wie die vorherige, das ist unvermeidlich. Die Präsentation von Ergebnissen muss darum heute nicht durch eine genaue Zahl, sondern durch Konfidenzintervalle dargestellt werden, in dem der wahre Wert wahrscheinlich liegt.“ Diese Fehler in Statistiken, Schnittmengen und farbigen Diagrammen zu finden, sind das tägliche Geschäft Andrianovs. Es laufe gut für den promovierten Ingenieur, sagt er, auch, weil er nach Jahren als Entwickler von Studiendesigns für Pharmafirmen die Abläufe kenne: „Wenn man weiß, wie die Daten sich verteilen müssten, dann sieht man relativ schnell Abweichungen“, sagt er. Zum Beispiel habe er kürzlich eine Phase III-Studie zur rheumatischen Arthritis geprüft und schnell erkannt, dass etwas nicht stimme: „Zum einen hatte ein Zentrum sehr viel mehr Patienten rekrutiert als die anderen. Es bekam so großen Einfluss auf die Studie. Zudem waren die Zahlen gerundet, denn die Null und die Fünf kamen sehr häufig vor. Wenn man häufig rundet, verliert man an Präzision.“
Dieser Fall war leicht – oft ist die Suche nach falschen Daten jedoch wesentlich schwerer. „Die Fehler finden auf jedem Schritt einer Studie statt und es kann an allen verschiedenen Stellen zu Dirty Data kommen“, so der Experte. Häufig werde dies nicht erkannt. Die Folge seien falsche Ergebnisse: „Seitdem Daten elektronisch erfasst werden, kann man keine Felder mehr unausgefüllt lassen. Fehlen die Informationen, schreibt man statt nichts irgendetwas, damit man weitermachen kann“, sagt Andrianov. Früher also habe man bei der Prüfung freie Felder und fehlende Daten sehen können. Heute seien immer Daten da – doch möglicherweise falsche: „Es ist kaum zu verifizieren, es sei denn, die Fehler wären sehr offensichtlich.“ Doch nicht die Anzahl von falschen Daten ist entscheidend – bei klinischen Studien kann schon ein einziger Fehler schwerwiegende Folgen nach sich ziehen. Denn heute sucht man bei Medikamenten nach Verbesserungen von wenigen Prozent. Getestet wird dabei meist nach dem Doppel-Blind-Verfahren, wo weder Prüfzentrum noch Patient wissen, wer Placebo und wer Verum bekommt. „Angenommen, bei einer Studie bringt Placebo gewisse Parameter auf eine Verbesserung von zehn Prozent. Das ist der bekannte Placebo-Effekt“, erklärt Andrianov. Die andere Gruppe, die das Verum einnehme, habe eine Verbesserung von zwölf Prozent. Man subtrahiere nun die zehn Prozent des Placebo von dem Verum und komme auf eine Verbesserung von zwei Prozent. „Das allein reicht schon, um ein neues Medikament auf den Markt zu bringen“, so der Experte. „Wie ich aber eingangs sagte, haben wir im Durchschnitt etwa zehn Prozent falsche Daten. Werden sie diese eins bis zwei Prozent Verbesserungen beeinflussen? Natürlich. Und sogar sehr gravierend.“
Fehler schleichen sich nicht aus Versehen ein, sondern Daten werden bewusst manipuliert, dessen ist sich Günther Jonitz, Präsident der Ärztekammer Berlin, sicher. Den Grund sieht er in einer Vielzahl von Interessen der Beteiligten: „Der Patient erhofft sich durch Medikamente eine Heilung, die es oftmals nicht gibt“, so der 57-Jährige. „Ein Forscher, der forscht, möchte einen Wirkstoff erforschen, der etwas bringt.“ Die Pharmafirmen und die Medien hätten ebenfalls mehr davon, wenn sie etwas publizierten, das etwas bringe, und der Hersteller des Produkts wolle etwas haben, das wirke, damit es laufe. „In dieser Gemengelage schauen alle Beteiligten in die gleiche Richtung“, so Jonitz. „Drehen kann man viel, und es wird sehr viel gedreht“, sagt auch Andrianov, „vor allem, seit das Adaptive Design immer mehr in Mode kommt.“ Dabei würden die Parameter während der laufenden Studie immer neu an die Ergebnisse angepasst, was streng genommen nicht richtig sei, wolle man statistisch korrekt sein: „Man spielt mit Wahrscheinlichkeit und Zufall. Bei manchen Patienten hat ein Medikament geholfen, bei anderen nicht. Wenn ich aber die Parameter drehen kann, sodass vielleicht ein Effekt bei Frauen im Alter zwischen 20 und 30 Jahren sichtbar wird, so kann man die Parameter ändern und nur noch Frauen zwischen 20 und 30 Jahren ansehen“, erklärt Andrianov. Obwohl der beobachtete Effekt rein zufällig war, könne man so beim Adaptive Design sozusagen einen ganzen Zug in eine Richtung ziehen: „Damit kann man nur die Effekte darstellen oder erzielen, die positiv sind, die anderen fallen weg.“
Laut Jonitz würden Studien auf verschiedene Art manipuliert. Zum Beispiel, wenn die Studienteilnehmer jünger seien als die Zielgruppe: Werde ein Medikament gegen Bluthochdruck an 30 bis 40-Jährigen getestet, die Patienten seien aber in der Regel älter als 60 Jahre, dann hätte man scheinbar geringere Nebenwirkungen und einen scheinbar höheren Nutzen. Eine zweite Möglichkeit sei ein vergleichender Text mit einem Konkurrenzprodukt, das in einer zu niedrigen Dosierung verabreicht würde. Ein Problem sei auch die Interpretation der Rohdaten: „Der Wissenschaftler beantragt die Studie, führt sie durch und liefert sämtliche Rohdaten an das beauftragende Unternehmen. Was daraus gemacht wird, liegt nicht in seiner Hand, er weiß es nicht“, sagt Jonitz. Zudem werde manipuliert durch Verzögerung der Publikation und das konkrete unterschlagen von negativen Studien: „Jedes Taschenbuch, das auf den Markt kommt, hat eine ISBN-Nummer. Bei Studien ist das völlig unklar.“ Noch schwerer sei es, im Nachhinein etwas über fehlerhaft durchgeführte Studien zu erfahren, sagt Andrianov. Es gäbe hierzulande kein Register, wo falsche oder schadhafte Studien aufgeführt würden: „In Deutschland spricht man von dem sogenannten Goldenen Gedächtnis. Doch die Deutsche Gesellschaft für Pharmazeutische Medizin, kurz DGPharMed, führt den einen oder anderen Ordner, wo Zentren gelistet sind, die gefälscht haben. Aber hier muss man direkt nach einem konkreten Zentrum fragen, man bekommt es nicht genannt“, so Andrianov.
„Eine solche Liste ist mir nicht bekannt. Das ist ein Gerücht“, sagt Florinda Mihaescu, Vorstandsmitglied von DGPharMed. „In Deutschland und auf der ganzen Welt muss es gemeldet werden, wenn es zu Fehlern bei Studien kommt.“ Das britische National Insitute for Health and Care Excellence (NICE) etwa sammele und analysiere solche Fälle. In Amerika gäbe es das System der Warning Letters: „Wenn etwas Schwerwiegendes passiert ist, wird es aufgenommen und öffentlich publiziert auf den Seiten der amerikanischen Food and Drug Administration (FDA). Dort sind einzelne Vergehen von einzelnen Prüfern gelistet. Das gibt es so bei uns noch nicht. Im Rahmen der EU-Reform sind aber neue Regularien mit mehr Offenheit geplant“, sagt die Diplom-Biologin, die selbst Audits macht für beauftragende Unternehmen, sogenannte „Sponsoren“. Mihaescu untersucht, ob Prozesse, Anforderungen und Richtlinien den geforderten Standards im Sinne der Good Clinical Practice (GCP) entsprechen. Sie glaubt an das, was sie tut. „Klar können Fehler passieren“, sagt sie. „Man hört immer wieder von Skandalen, aber Fehler werden immer besser entdeckbar und handhabbar. Als Auditor bin ich davon überzeugt, dass wir uns immer weiter verbessern. Qualitätsmanagement ist bei jedem Sponsor verankert.“ Tatsächlich sieht die EU-Verordnung für alle Mitgliedsstaaten vor, dass sowohl positiv als auch negativ verlaufende Studien mit Humanarzneimitteln künftig in detaillierter Zusammenfassung in einer Datenbank veröffentlicht werden müssen. Hier sollen sie ab 2017 kostenlos für jeden einsehbar sein. Die Rohdaten aber, auf die es eigentlich ankommt, bleiben weiter unter Verschluss.