Artificial Intelligence in der Arzneistoffentwicklung –
Bits and Pieces

Diese Veranstaltung fand in Kooperation mit der Medizinischen Universität Wien statt

Veranstaltungsbericht

Am 22. November 2018 fand in Zusammenarbeit der GPMed mit der Med Uni Wien eine Veranstaltung zum Thema „Artificial Intelligence in der Arzneistoffentwicklung – Bits and Pieces“ statt. Mehrere Sprecher beleuchteten dieses Thema aus verschiedenen Blickwinkeln.

Dr. Raheleh Sheibani-Tezerji vom Ludwig Boltzmann Institute Applied Diagnostics, Wien,
eröffnete das Thema mit Überlegungen dazu, welche Möglichkeiten Big Data – bzw. deren gezielte Analyse – für die sog. Precision Medizin bieten. So könne man z.B. die enorme Datenmenge des Cancer Genom Altas einsetzen, um Zusammenhänge zwischen bestimmten Mutationen einerseits sowie der Genexpression, der micro-RNA und anderen Parametern sowie auch  des klinischen Verlaufs bei einzelnen Patienten zu analysieren. Eine sich hierbei abzeichnende Heterogenität bei einer Tumorentität könne dann gezielt für die Auswahl von möglichst treffsicheren Therapien eingesetzt werden. Bereits zur Anwendung kommt dies bei Immun-Checkpoint-Inhibitoren in der Therapie des Kolonkarzinoms. Und natürlich können Big Data Analysen einen hervorragenden Ansatz zur Hypothesen-Testung und zur Identifikation von Biomarkern bieten – immer mit dem Ziel, die Therapie so individualisiert wie möglich zu gestalten.

Dr. Nikolas Popper vom Center for Computational Complex Systems, Technische Universität Wien, ging in seinem Vortrag darauf ein, wie Big Data im österreichischen Gesundheitssystem genutzt werden können. Zunächst betonte er jedoch ein ganz elementares Thema: Bevor an die Nutzung von vorhandenen Daten überhaupt gedacht werden kann, sind zentrale Fragen zu beantworten: einerseits die Qualität und Validität der Datenquellen sowie deren „Verknüpfbarkeit“ (Linkage) und andererseits die exakte Fragestellung sowie damit zusammenhängend das bereits vorhandene Systemwissen. Als konkretes Anwendungsbeispiel brachte Popper eine dynamische Fallsimulation zur Optimierung einer Krankenhausplanung. Für so eine Anwendung ist ein detailliertes und konkretes Systemwissen inklusive dynamischer Vorgänge und deren Zusammenhänge sowie Abhängigkeiten unerlässlich. Nur dann könne man aus einer Analyse von „Big Data“ – natürlich basierend auf einer methodisch korrekten Verknüpfung – auch die richtigen Schlüsse ziehen.

Dr. Tim Wintermantel, Senior Principal IQVIA, Basel, Schweiz, befasste sich mit der Möglichkeit, prädiktive Algorithmen auf Basis von Real-World Daten zu entwickeln. Langfristig könnte dies neue Chancen für zielgerichtete Entwicklung und Anwendung von Medikamenten bieten. Derzeit betrifft die Anwendung aber eher Fragestellungen wie die Vorhersage von Rezidiven bei chronischen Erkrankungen, zur Prädiktion der Patienten-Adhärenz oder auch zur Beschleunigung von Diagnosen bei seltenen Erkrankungen. Ein weiterer Einsatz ist die Entwicklung von Therapiealgorithmen, um das Ansprechen von Patienten auf eine bestimmte Therapie vorhersagen zu können. Für Wintermantel ist es ein zentrales Anliegen, diese Methoden der Big-Data-Analysen, die von vielen als „Black Box“ wahrgenommen und deshalb sehr kritisch betrachtet werden, in eine „Glass Box“ zu transformieren. Hierbei ist ausschlaggebend, dass die Algorithmen zwar Prädiktionen, z.B. durch Mustererkennung und Gewichtung der Input-Daten leisten können, dies aber wiederum nur die Ausgangsbasis für faktenbasierte Diskussion der jeweiligen (klinischen) Experten ist – also keine Bevormundung, sondern eine Hilfestellung! 

Dr. Wolfgang Bonitz, Chief Scientific Officer Novartis Österreich, und Generalsekretär der GPMed, widmete seinen Vortrag dem Einsatz neuer Technologien in der klassischen Pharmaforschung. Große forschende Pharmafirmen haben riesige Bibliotheken mit potentiellen Wirkstoffkandidaten, die jedoch aufgrund der jeweils aktuellen Schwerpunkte und beschränkter Ressourcen nicht weiter untersucht wurden. Hier könnten durch Big Data Analysen gezielt besonders vielversprechende neue Wirkstoffkandidaten identifiziert werden. Ein anderer, bisher ungenutzter Datenpool sind die Studiendaten, die über Jahrzehnte in den verschiedenen Entwicklungsprogrammen erhoben wurden. Es bietet sich an, mit den Ansätzen eines Data Mining und Deep Learning in diesen Datensätzen nach bisher unbekannten Zusammenhängen zu suchen – und damit vielleicht neue vielversprechende Therapieansätze zu identifizieren. Schon in Verwendung sind sog. prädiktive Analysetools im Studiensetting, insbesondere zur Effizienzsteigerung. So wird mit solchenTools z.B. die zukünftige Rekrutierung von Studienzentren vorhergesagt. Ebenfalls eingesetzt werden Analysetools beim Monitoring: Hier fließen in einem adaptiven Ansatz bestimmte Qualitätsparameter inklusive Identifikation von Outliern ein, und dies steuert dann die Monitoringfrequenz. Aber auch zur Vereinfachung der Studienabläufe aus Patientensicht ergeben sich hier viele Möglichkeiten. So könnten Untersuchungen, für die Patienten derzeit zum Studienzentrum kommen müssen, zukünftig entweder vom Patienten selbst zu Hause oder vom Hausarzt erhoben und an das Studienzentrum übermittelt werden. Dies könnte eine Studienteilnahme auch für solche  Patienten möglich machen, die derzeit aufgrund ihres Wohnortes oder eingeschränkter Mobilität praktisch automatisch ausgeschlossen sind. Dieser Ansatz muss natürlich zunächst mit den Behörden entsprechend akkordiert werden, die FDA befasst sich bereits mit dieser Thematik. Das Outcome wäre eine Effizienzsteigerung bei der Rekrutierung, aber sicher auch eine bessere Abbildung der Realität in den Studiendaten selbst.

Diese Vielfalt an Themen führt eindrucksvoll vor Augen, wie viele Möglichkeiten sich aus den immensen Datensätzen ergeben, die inzwischen zur Verfügung stehen. Neue Ansätze für die Precision Medizin genauso wie Simulationen komplexer Abläufe bis hin zur scheinbar banalen Effizienzsteigerung. Aber für Big Data gilt genauso wie für jede wissenschaftliche Untersuchung: eine Analyse ist nur dann sinnvoll, wenn man die Struktur und Qualität der Ausgangsdaten kennt und wenn man ein klares Ziel vor Augen hat. Einfach Herumprobieren, nur weil es die Rechner heutzutage hergeben, frei nach dem Motto „es wird schon irgendetwas „signifikantes“ herauskommen“, ist auch mit Big Data der denkbar schlechteste Ansatz.

 

Koordinationszentrum für Klinische Studien, 1090 Wien, Währinger Straße 25a, 0G 1
Tel (+43-1)40160 25176, kks@meduniwien.ac.at, http://www.meduniwien.ac.at/kks

Archive