Entwicklung von Modellen in der Zoonosenforschung – Willkommen in einer interdisziplinären, digitalen Zukunft!
Die Digitalisierung macht auch vor der Zoonosenforschung nicht halt. Hierbei eröffnen technischer Fortschritt in Kombination mit immer größeren Datenmengen ganz neue Möglichkeiten, insbesondere in der Erstellung von Modellen. Mit diesen Modellen können komplexe Zusammenhänge für die Beantwortung von wissenschaftlichen Fragestellungen dargestellt und analysiert werden. Für den interdisziplinären Austausch über Chancen und Risiken sowie über konkrete Anwendungsbeispiele von Modellen in der Zoonosenforschung fanden sich am 26. November 2019 Forscher*innen und Mitarbeiter*innen des Öffentlichen Gesundheitsdienstes in Berlin zusammen. In den spannenden Vorträgen und den lebhaften Diskussionen des Workshops wurde eines klar: Um das Potenzial von Modellierungen im One Health-Kontext gewinnbringend einbringen zu können, ist die interdisziplinäre Zusammenarbeit unerlässlich. Der verantwortungsvolle Umgang mit Daten und die Auseinandersetzung mit ethisch-rechtlichen Fragen muss dabei stets Berücksichtigung finden.
In der Reihe der Workshops, die die Nationale Forschungsplattform für Zoonosen in Kooperation mit der Akademie für Öffentliches Gesundheitswesen in Düsseldorf veranstaltet, fand am 26. November 2019 ein Workshop zu Datenmodellen in der Zoonosenforschung statt. Prof. Stephan Ludwig und Peter Tinnemann begrüßten das interdisziplinäre Publikum und eröffneten den Workshop im Namen der Veranstalter.
Erst die Fragestellung, dann das Modell – die Modellentwicklung muss sich an der Fragestellung orientieren
Den inhaltlichen Einstieg in den Workshop übernahm Dr. Jana Schulz (Institut für neue und neuartige Tierseuchenerreger, Friedrich-Loeffler-Institut). Die Bioinformatikerin erläuterte den Prozess einer Modellentwicklung über dessen Implementierung hin zur Interpretation und Kommunikation der Ergebnisse. Anhand eines Modelles für LA-MRSA1 bei Schweinen in Dänemark nahm sie dabei die Teilnehmer*innen Schritt für Schritt auf diesem Entwicklungsweg mit. Ein Modell könne dabei stets nur ein vereinfachtes Abbild der Realität sein. Daher sei es unabdingbar, bereits während der Konzeption des Modelles die Fragestellung und die Zielsetzung für dessen Verwendung genau zu kennen. Die Ergebnisse können dann am Ende immer nur so gut sein, wie die Qualität der Daten, mit denen man das Modell speist. Eine unzureichende Datengrundlage führt zwangsläufig zu schlechten Ergebnissen, egal wie gut das Modell sein mag (siehe Abb. 1).
Abb. 1: Zusammenhang zwischen der Qualität der Daten, des Modells und der Ergebnisse erläutert beim Workshop von Dr. Jana Schulz. Die Qualität von Ergebnissen hängt im gleichen Maße von der Güte einfließender Daten als auch von der Eignung des Modelles ab.
Individualisierbarkeit von Modellen – Aufbau einer Plattform zur vielfältigen Einsetzbarkeit
Mit vielen qualitativ hochwertigen Daten soll in Zukunft auch die Plattform, welche der Wirtschaftsinformatikern Johannes Ponge von der Universität Münster vorstellte, befüllt werden. Hierbei handelt es sich um ein Tool, das die Modellierung von Epidemien ermöglichen soll. Durch den modularen Aufbau der webbasierten Software, deren Grundelemente im Rahmen eines Projekts der Zoonosenplattform aufgesetzt wurden, soll eine flexible Anpassung an unterschiedliche wissenschaftliche Fragestellungen möglich werden. So sollen Ausbreitungsdynamiken betrachtet werden können und Informationen über den Einsatz von spezifischen Interventionsmaßnahmen gewonnen werden können. Für eine möglichst detailgetreue Darstellung liegt der Plattform eine agentenbasierte Modellierung zugrunde. Somit können Mensch- und Tierpopulationen in Form sogenannter Agenten modelliert und in ihren Eigenschaften vielschichtig an die zu untersuchende Fragestellungen angepasst werden. Auch charakteristische Eigenschaften des zu untersuchenden Erregers können aufgenommen werden. Der Datenschutz und die Dual-Use-Problematik soll durch eine projektbezogene und kontrollierte Freischaltung der Daten ebenfalls Rechnung getragen werden.
Die Möglichkeiten von korrelativen Modellen als Frühwarnsysteme
Oft werden Modelle in der Infektionsforschung eingesetzt, um valide Prognosen zur Verbreitung von Erregern oder deren Vektoren geben zu können. Ein Beispiel hierfür ist Zoonose RISKtool, welches bereits vor einigen Jahren in einem durch die Zoonosenplattform geförderten Projekt an der Universität Bayreuth entwickelt wurde. Das korrelative Modell, welches als Open Source Tool auf dem R-Code basiert, integriert verschiedene Habitat-beschreibende Parameter. Frau Alexandra Lawrence (Universität Bayreuth) erörterte wie diese in Kombination mit bestehenden Artenvorkommensdaten für Aussagen zur Verbreitung verschiedener Vektorspezies heute und in der Zukunft genutzt werden können. In Anbetracht des voranschreitenden Klimawandels, der bereits eine Ausbreitung verschiedener zoonotischer Erreger in Europa begünstigt hat (siehe Interviewreihe zum Thema West-Nil-Virus in Deutschland auf dieser Internetseite), kann Zoonose RISKtool zur Risikoabschätzung eingesetzt werden. Speziell als Frühwarnsystem für das Auftreten Stechmückenübertragender Erreger in Bayern soll BayVirMos aufgebaut werden. Hierbei sollen regionale Klima- und Wettermodelle mit Informationen zu Stechmückenvorkommen, Bevölkerungsdichte und ggf. weiteren relevanten Parametern verbunden werden. Dabei sollen nicht nur die klimatischen Anforderungen von Vektoren, sondern auch die Extrinsische Inkubationsperiode (EIP) der Arboviren berücksichtigt werden. Langfristig sollen Mitarbeiter*innen des ÖGDs und praktizierende Ärzte dieses Modell nutzen können und frühzeitig auf das potenzielle Auftreten von Arboviren in ihrer Region vorbereitet sein.
Modelle in der Praxis – Vorhersage von Hantavirusinfektionen in Baden-Württemberg
Ein Modell, welches bereits als Frühwarnsystem für den ÖGD installiert wurde, findet sich im benachbarten Bundesland von Bayern, in Baden-Württemberg. Frau Dr. Christiane Wagner-Wiening vom Landesgesundheitsamt Baden-Württemberg stellte ein Kooperationsprojekt zwischen Wissenschaft und ÖGD vor, aus dem ein Vorhersagemodell für Hantavirusinfektionen hervorging. Der Vortrag verdeutlichte, dass die Entwicklung eines Vorhersagemodelles alleine nicht ausreichend ist. Es müsse eine Kopplung mit darauf aufbauenden Bekämpfungsstrategien erfolgen. Zudem sei die nachhaltige Nutzbarkeit eines Modelles und die Kommunikation von Ergebnissen ein wichtiger Baustein um einen langfristigen Nutzen für die Gesellschaft durch Modelle erzeugen zu können.
Modelle als integrative Lösungsansätze in der Prädiktion von Wildtierpopulationen
Ein weiteres Einsatzgebiet für Modelle in der Zoonosenforschung ist die Modellierung von Wildtierpopulationen. Hier stoßen Forscher*innen in der Praxis oft an Grenzen, da das Monitoring von Wildtieren einige Herausforderungen bereithält. In dem von Dr. Timo Homeier-Bachmann (Institut für Epidemiologie, Friedrich-Loeffler-Institut) vorgestellten NASeR2–Projekt sollen Habitat- und Risikoanalysemodelle entwickelt werden. Diese sollen es unter anderem ermöglichen, in quasi Echtzeit Aussagen zum Vorkommen von Wildtieren (Bsp. Wildschweine) in einem bestimmten Gebiet zu machen. Damit wären lokal angepassten Risikobewertungen für den Eintrag von Tierseuchen über Wildtiere realisierbar. Durch eine gewichtete Überlagerung von einfließenden Daten in das Modell soll zukünftig eine möglichst genaue Prognose möglich sein, ohne jedes Tier einzeln durch Wildkameras oder GPS-Halsbänder erfassen zu müssen. Die Integration von verschiedenen Datenquellen wie Satellitenbilder, Landwirtschaftsdatenbanken und Verkehrserfassungen hat eine beinahe Echtzeitauflösung zum Ziel, da retrospektive Betrachtungen in hoch dynamischen Wildtierpopulationen nur bedingte Aussagekraft besitzen.
Algorithmen Ein Algorithmus kann nicht böse sein – der Anwendende aber schon
Im letzten Redebeitrag des Workshops ging es um die politische und ethische Betrachtung von Modellen und denen ihnen zugrundeliegenden Algorithmen. Der vielfach ausgezeichnete Journalist und Mitbegründer von AlgorithmWatch GmbH, Mathias Spielkamp, erörterte in seinem Vortrag warum eine kritischen Auseinandersetzung mit Algorithmen und ADM-Prozessen (automated decision making) aus ethischer und gesellschaftlicher Sicht unerlässlich sei. Mit seinem Unternehmen ist der Journalist bestrebt, Missstände aufzudecken und evidenzbasierte Empfehlung für die Politik im Umgang mit ADM zu entwickeln. Zwar könne ein Algorithmus selber niemals „böse“ oder „unethisch“ sein, seine Verwendungsart hingegen schon. Die Verantwortlichkeit für die Aktionen, die durch ein Modell initialisiert werden, lägen stets bei dem Anwender oder Entwickler des Modells und nicht bei dem Modell selber. Bei jedem Modell sei daher die Fragen zu stellen: Warum sollte es eingesetzt werden? Wird es mit den richtigen Daten verwendet? Was ist die Aussagekraft von dem Modell? Was sind die Auswirkungen für die Gesellschaft?
Mathias Spielkamp folgerte in seinem Vortrag, dass man die Verwendung von Algorithmen nicht von vornherein verbieten solle. Gerade die auf dem Workshop vorgestellten Modelle würden zeigen, dass es viele sinnvolle Verwendungen gebe. Eine vorherige Abschätzung möglicher Konsequenzen und das Erstellen von bindenden Richtlinien für ihre Verwendung sei aber gesellschaftlich wichtig.
Abb. 2: Referenten und Referentinnen des Workshops in Berlin (v.l.n.r.: Peter Tinnemann (Akademie Düsseldorf), Dr. Christiane Wagner-Wiening (LGL Baden-Württemberg), Dr. Timo Homeier-Bachmann (Friedrich-Loeffler-Institut), Dr. Jana Schulz (Friedrich-Loeffler-Institut), Dr. Dana Thal (Zoonosenplattform), Matthias Spielkamp (AlgorithmWatch GmbH), Alexandra Lawrence (Universität Bayreuth), Prof. Dr. Stephan Ludwig (Universität Münster), Johannes Ponge (Universität Münster)), Foto: Sebastian Sprengel (Zoonosenplattform)
Mehr Vernetzung und Verbesserte Datenbereitstellung für die Zukunft
In der abschließenden Diskussion wurde noch einmal die Notwendigkeit interdisziplinärer Zusammenarbeit bei der Er- und Bereitstellung von Modellen betont. Dies fange bereits damit an, bestehende Modelle aus der Human- und Veterinärmedizin zusammenzuführen. Oft sei man mit den gleichen Problemen konfrontiert und könne daher voneinander lernen. Die Vernetzung sollte bereits vor der gemeinsamen Modellentwicklung aufgebaut werden, damit möglichst gute Ergebnisse erzielt werden können und auch eine sinnvolle Nachnutzung mit den gewonnenen Daten erfolgen kann. Da der Modellierer*in selber nur als Dienstleister*in in diesem Gefüge agieren kann, müssen die Fragestellungen und Zielsetzungen aus der Forschung oder aus der Praxis geliefert werden.
Eine Engstelle in der erfolgreichen Anwendung von Modellen ist häufig die Verfügbarkeit von qualitativ hochwertigen Daten. Langfristig sollten daher Strategien für die optimierte Bereitstellung/ Erhebung von Daten entwickelt werden. Der Datenschutz sollte hierbei immer Berücksichtigung finden. Allerdings sollte der Datenschutz kein Verhinderungsgrund für die Erstellung von Modellen sein, wenn die Transparenz des Handels und der ethische Rahmen gewahrt sind.
Der Workshop wurde von den Teilnehmenden als wichtiger Schritt hin zu mehr interdisziplinärer Kommunikation in dem Themengebiet gelobt. Im Zeitalter der Digitalisierung ist davon auszugehen, dass die auf dem Workshop thematisierten Inhalt in Zukunft noch an Relevanz gewinnen werden.
Abb. 3: Graphical Abstract zum Workshop „Zukunft mit Daten – Modelle, die die Welt vereinfachen“. Die Komplexität von Modellierungen in der Zoonosenforschung bezüglich der Konzeption, Ausführung, Interpretation und Umsetzung von Ergebnissen wurde während des Workshops deutlich. ÖGD: Öffentlicher Gesundheitsdienst
Text und Grafiken Dana Thal i. A. für die Nationale Forschungsplattform für Zoonosen
1Livestock-assoziierte Methicillin-resistente Staphylococcus aureus
2Near-real-time Analysen von Satellitendaten zur Unterstützung von epidemiologischen Risikobewertungen