Sort by:
Tuesday
10 Sep 2019
14:45 - 17:45
WS1
Aktuelle Themen der Nutzerbewertung
Im Workshop „Aktuelle Themen der Nutzenbewertung“ der AG Therapeutische Forschung werden die drei folgenden Themen behandelt. Zum einen werden Vorschläge zur Wahl geeigneter A-priori-Verteilungen für die unbekannten Parameter in Bayes‘schen Metaanalysen mit sehr wenigen Studien vorgestellt und diskutiert. Dies ist ein relevantes Thema, da der Heterogenitätsparameter für das Modell mit zufälligen Behandlungseffekten im Fall sehr weniger Studien nicht verlässlich geschätzt werden kann und möglicherweise Bayes‘sche Verfahren mit leicht informativen A-priori-Verteilungen hier einen praktikablen Kompromiss zwischen metaanalytischen Methoden unter der restriktiven Annahme eines festen Behandlungseffekts sowie solchen mit zufälligen Behandlungseffekten darstellen. Der zweite Themenschwerpunkt befasst sich mit der Analyse und Interpretation von Subgruppen, die Bestandteil der Nutzenbewertung nach AMNOG sind. Im Rahmen des Workshops sollen alternative Verfahren vorgestellt und ihre Eignung für die Nutzbewertung diskutiert werden. Das dritte Themenfeld widmet sich dem Umgang mit nicht-proportionalen Hazards in der Nutzenbewertung. Der bei Überlebenszeitanalysen üblicherweise verwendete Log-Rank-Test hat bei nicht-proportionalen Hazards und den üblicherweise verwendeten Fallzahlen oftmals zu wenig Power, um Behandlungsunterschiede aufzudecken. Insbesondere bei der üblichen späten Trennung der Kaplan-Meier-Kurven in Studien zu Immuntherapien ist die Anwendung des Log-Rank-Tests deshalb unter Umständen nicht die Methode der Wahl. Es gibt eine Reihe von Ansätzen, wie z.B. die Fleming-Harrington-Familie von gewichteten Log-Rank-Tests, um Behandlungsunterschiede im Falle von nicht-proportionalen Hazards mit einer größeren Power zu detektieren. Die Anwendbarkeit dieser Methoden für die frühe Nutzenbewertung soll in diesem Workshop diskutiert werden.

Weiterere Informationen
Room: A.1.02 (Location: Emil-Figge-Str. 42, Number of seats: 124)
Chair(s): Meinhard Kieser
Aktuelle Themen der Nutzenbewertung (Meinhard Kieser, Ralf Bender, Friedhelm Leverkus)
Einleitung
Im Workshop „Aktuelle Themen der Nutzenbewertung“ der AG Therapeutische Forschung werden die drei folgenden Themen behandelt. Zum einen werden Vorschläge zur Wahl geeigneter A-priori-Verteilungen für die unbekannten Parameter in Bayes‘schen Metaanalysen mit sehr wenigen Studien vorgestellt und diskutiert. Dies ist ein relevantes Thema, da der Heterogenitätsparameter für das Modell mit zufälligen Behandlungseffekten im Fall sehr weniger Studien nicht verlässlich geschätzt werden kann und möglicherweise Bayes‘sche Verfahren mit leicht informativen A-priori-Verteilungen hier einen praktikablen Kompromiss zwischen metaanalytischen Methoden unter der restriktiven Annahme eines festen Behandlungseffekts sowie solchen mit zufälligen Behandlungseffekten darstellen. Der zweite Themenschwerpunkt befasst sich mit der Analyse und Interpretation von Subgruppen, die Bestandteil der Nutzenbewertung nach AMNOG sind. Im Rahmen des Workshops sollen alternative Verfahren vorgestellt und ihre Eignung für die Nutzbewertung diskutiert werden. Das dritte Themenfeld widmet sich dem Umgang mit nicht-proportionalen Hazards in der Nutzenbewertung. Der bei Überlebenszeitanalysen üblicherweise verwendete Log-Rank-Test hat bei nicht-proportionalen Hazards und den üblicherweise verwendeten Fallzahlen oftmals zu wenig Power, um Behandlungsunterschiede aufzudecken. Insbesondere bei der üblichen späten Trennung der Kaplan-Meier-Kurven in Studien zu Immuntherapien ist die Anwendung des Log-Rank-Tests deshalb unter Umständen nicht die Methode der Wahl. Es gibt eine Reihe von Ansätzen, wie z.B. die Fleming-Harrington-Familie von gewichteten Log-Rank-Tests, um Behandlungsunterschiede im Falle von nicht-proportionalen Hazards mit einer größeren Power zu detektieren. Die Anwendbarkeit dieser Methoden für die frühe Nutzenbewertung soll in diesem Workshop diskutiert werden.

Referate und Ablauf
Teil 1: Wahl geeigneter A-priori-Verteilungen für den Homogenitätsparameter in Bayes‘schen Metaanalysen mit sehr wenigen Studien im Rahmen der Nutzenbewertung
Ralf Bender: Einführung in die Thematik
Sebastian Weber: Konstruktion schwach informativer A-priori-Verteilungen - Teil 1
Christian Röver: Konstruktion schwach informativer A-priori-Verteilungen - Teil 2
Sibylle Sturtz: Bayes‘sche Metaanalysen mit zufälligen Effekten: Wahl der A-priori-Verteilung für tau aus HTA-Sicht
Panel Diskussion

Teil 2: Analyse und Interpretation von Subgruppen in der Nutzenbewertung
Friedhelm Leverkus: Einführung in die Thematik
Susanne Lippert, Bodo Kirsch, Christoph Muysers: Subgroup Explorer zur systematischen Analyse von Subgruppen - einsetzbar bei der Nutzenbewertung?

Teil 3: Umgang mit nicht-proportionalen Hazards in der Nutzenbewertung
Meinhard Kieser: Einführung in die Thematik
Katrin Kupas: Tests bei Time-to-event Analysen und verzögertem Wirksamkeitseintritt
Panel Diskussion
Herr Prof. Dr. Meinhard Kieser
Universität Heidelberg
Herr Prof. Dr. Ralf Bender
Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen
Herr Friedhelm Leverkus
Pfizer Deutschland GmbH
Aspekte der Wahl von A-Priori Verteilungen für Heterogenitätsparameter (Sebastian Weber)
Bayessche Metaanalyse-Verfahren haben sich in der Praxis bewährt, um heterogene Effekte zu schätzen. Insbesondere im Fall weniger Studien ermöglicht ein Bayesscher Ansatz robuste Inferenz durch die Wahl von A-Priori-Verteilungen für den Heterogenitätsparameter. Die Wahl dieser Verteilungen ist nicht durch Daten der zu analysierenden Experimente gegeben und ist somit eine zunächst subjektive Wahl. In diesem Beitrag werden Aspekte des Metaanalyse-Modells aufgezeigt die helfen, die Wahl der A-Priori-Verteilungen zu objektivieren, indem die Bedeutung des Heterogenitätsparameters diskutiert wird [1,2]. Insbesondere wird die Verwendung des Metaanalyse-Modells als Basis für informative Effekt-Prioren erläutert.

Das ist ein Vortrag für den ATF-Workshop Aktuelle Themen der Nutzenbewertung.
Herr Sebastian Weber
Konstruktion schwach informativer a-priori-Verteilungen für die Heterogenität (Christian Röver)
Meta-Analysen werden häufig basierend auf einem hierarchischen Normalverteilungsmodell mit zufälligen Effekten durchgeführt. In dem häufigen Fall, dass nur wenige Studien zur Analyse zur Verfügung stehen, verhalten sich frequentistische Methoden bisweilen problematisch, während für Bayes-Methoden die a-priori-Annahmen an Bedeutung gewinnen. Für den Effekt-Parameter stehen hier nichtinformative Prioren zur Verfügung, andererseits werden für die Heterogenität in der Regel schwach-informative Prioren empfohlen. Einen allgemeinen Konsens, wie solche schwach-informativen Wahrscheinlichkeitsverteilungen zu bestimmen wären, gibt es in der Regel allerdings nicht. In diesem Vortrag werden Konstruktionsprinzipien und Erwägungen zur Motivierung und Objektivierung auf dem Weg zu allgemein anwendbaren Empfehlungen erörtert.

Das ist ein Vortrag für den ATF-Workshop Aktuelle Themen der Nutzenbewertung.
Herr Dr. Christian Röver
Universitätsmedizin Göttingen
Tests bei Time-to-event Analysen und verzögertem Wirksamkeitseintritt (Katrin Kupas, Roberto Zoffoli, Anne Pieters)
Bei immunonkologischen Wirkstoffen zeigt sich häufig ein verzögerter Wirkeintritt, der sich in einem späten, aber dann deutlichen und andauernden Auftrennen der Kaplan-Meier-Kurven zum OS oder PFS widerspiegeln kann [1]. Während der klassische Log-Rank-Test in der Situation proportionaler Hazards eine Analysemethode mit adäquater Power darstellt, unterliegt die Anwendung dieses Tests bei Immunonkologika Limitationen [2]. Die bei Immunonkologika häufig feststellbare verzögerte Separierung der Kaplan-Meier-Kurven sorgt für eine zum Teil deutlich geringere Power des klassischen Log-Rank-Tests. Insbesondere beim Vergleich zweier Immunonkologika kann dies zu einem erheblichen Powerverlust bei der klassischen Analyse führen, so dass entweder die Patientenzahl deutlich erhöht oder die angesetzte Beobachtungszeit deutlich verlängert werden müsste.
Eine Alternative zum klassischen Log-Rank-Test in der Situation nicht-proportionaler Hazards stellt der gewichtete Log-Rank-Test nach Fleming und Harrington dar [2, 3]. Bei dieser Testmethode ist es über eine Gewichtsfunktion mit den Parametern ρ und γ möglich, die aufgetretenen Ereignisse über den Zeitverlauf unterschiedlich zu gewichten. Dabei werden alle Ereignisse weiterhin berücksichtigt. Im Falle von verzögertem, aber langfristigem Wirkeintritt ist eine höhere Gewichtung der späteren Events eine sinnvolle Parameterwahl, die mit einer deutlich höheren Power des Testes einhergeht. Zeitabhängige Cox-Modelle können zusätzlich der Quantifizierung des Effekts in den einzelnen Abschnitten der Kurve dienen.
An einem konkreten Beispiel [4], in dem zwei Immunonkologika miteinander verglichen werden, werden die Vor- und Nachteile der Methodik diskutiert und dem klassischen Log-Rank-Test gegenübergestellt.

Das ist ein Vortrag für den ATF-Workshop "Aktuelle Themen der Nutzenbewertung".
Frau Dr. Katrin Kupas
Bristol-Myers Squibb GmbH & Co. KGaA
Bayes’sche Metaanalysen mit zufälligen Effekten: Wahl der A-Priori-Verteilung für tau aus HTA-Sicht (Sibylle Sturtz)
Sollen im Rahmen von Nutzenbewertungen Daten mehrerer Studien quantitativ zusammengefasst werden, stellen Metaanalysen die Methode der Wahl dar. Entsprechend dem Methodenpapier des Instituts für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG), Version 5.0 (1), wird für eine Metaanalyse in der Regel ein Modell mit zufälligen Effekten nach der Methode von Knapp-Hartung verwendet (2). Liegen allerdings Daten aus nur wenigen Studien vor (d.h. weniger als 5 Studien), kann die Heterogenität zwischen den Studien nicht verlässlich geschätzt werden, sodass zu breite Konfidenzintervalle resultieren. Im Fall weniger Studien stellen daher Bayessche Methoden eine Alternative zur Durchführung von Metaanalysen dar.
Für die Wahl einer geeigneten a priori Verteilung für den Heterogenitätsparameter tau stehen verschiedene Alternativen zur Verfügung (z.B. (3-5)). Anhand empirischer Daten für tau aus publizierten IQWiG-Berichten wird die Eignung dieser Verteilungen im Kontext systematischer Übersichtsarbeiten diskutiert.
Frau Dr. Sibylle Sturtz
IQWiG
Subgroup Explorer zur systematischen Analyse von Subgruppen / Einsetzbar bei der Nutzenbewertung? (Bodo Kirsch, Susanne Lippert, Christoph Muysers)
Der Subgroup Explorer ist ein visuelles Tool zur Unterstützung von Subgruppenbewertungen und ist als R-Paket ‚subscreen‘ auf dem CRAN Server frei verfügbar. Es wurde als Shiny-basierte interaktive grafische Benutzeroberfläche (GUI) entwickelt, um Untergruppen mit außergewöhnlich guten oder schlechten Ergebnissen zu identifizieren.

Aus einem Satz vordefinierter Merkmale der Probanden werden Untergruppen durch Kombination aller Merkmalsausprägungen gebildet.
Die Ergebnisse (Punktschätzer) werden grafisch dargestellt, so dass Untergruppen, die vom Gesamtergebnis abweichen, identifiziert werden können.
Auf diese Weise lassen sich Fragen beantworten, wie z.B.
„Gibt eine Subgruppe mit vorteilhaftem Behandlungseffekt, obwohl die Population insgesamt keinen Behandlungseffekt zeigte?“, „Enthalten die Daten eine Subgruppe mit einer Häufung eines bestimmten unerwünschten Ereignisses?“ oder
„Basierend auf welchem Merkmal ist der Behandlungseffekt in den Regionen inhomogen?“.

Dieses Tool garantiert, dass auf der Grundlage der verfügbaren Merkmale nichts übersehen wird, und ein umfassendes Verständnis der untersuchten Daten vermittelt wird.
Dieser Überblick an Subgruppenanalysen (Subgroup Screening) trägt außerdem dazu bei, die Anzahl der Post-Hoc-Analysen zu reduzieren. Dies kann mit einer einzigen, interaktiven Präsentation erreicht werden.
Da keine statistische Adjustierung der Punktschätzer vorgenommen wird, erlauben diese explorativen Subgruppenanalysen zwar keine Verallgemeinerung auf die Gesamtheit der untersuchten Population, vermeiden aber eine verzerrte Darstellung des nominalen Effekts, der für eine weitere Hypothesengenerierung notwendig sein kann.

Nach der Präsentation des Subgroup Explorers folgt eine Podiumsdiskussion bezüglich der Eignung für die Nutzenbewertung.
Frau Susanne Lippert
Bayer AG
Herr Bodo Kirsch
Bayer AG
Herr Dr. Christoph Muysers
BAYER Pharma AG
Monday
09 Sep 2019
10:45 - 12:45
WS2
Urban Epidemiology
Die Session behandelt die Analyse räumlich strukturierter epidemiologischer Daten aus städtischen Räumen unter besonderer Berücksichtigung des Ruhrgebiets.
Room: E24 (Location: Emil-Figge-Str. 40a, Number of seats: 236)
Chair(s): Katja Ickstadt
Pollution State Modelling for Mexico City (Alan E Gelfand)
Pollution State Modeling for Mexico City
Alan E. Gelfand
Dep't of Statistical Science
Duke University

Ground-level ozone and particulate matter pollutants are associated with a variety of health issues as well as increased mortality. For this reason, federal environmental agencies in Mexico regulate pollutant levels. In addition, Mexico City de_nes pollution emergencies using thresholdsthat rely on regional maxima for ozone and for particulate matter with diameter less than 10 micrometers (PM10). To predict local pollution emergencies and to assess compliance to Mexican ambient air quality standards, we analyze hourly ozone and PM10 measurements from 24 stations across Mexico City during all of 2017 using a bivariate spatiotemporal model.

With this model, we predict future pollutant levels using current weather conditions and recent pollutant concentrations. Employing hourly pollutant projections, we predict regional maxima needed to estimate the probability of future pollution emergencies. We discuss how predicted compliance to legislated pollution limits varies across regions within Mexico City in 2017. We find that predicted probability of pollution emergencies is limited to a few time periods. By contrast, we show that predicted exceedance of federal Mexican ambient air quality standards is a common, nearly daily occurrence.
Herr Prof Alan E Gelfand
The PerSpat-Project: Assessment and Spatial Alignment of PFOA Exposure via Public Water Supply in the Ruhr Region (Jonathan Rathjens, Arthur Kolbe, Johanna Kohlenbach, Eva Becker, Katharina Olthoff, Sabine Bergmann, Jürgen Hölzer, Katja Ickstadt)
The PerSpat-Project aims to integrate spatial statistics and environmental health and was established a) to evaluate the applicability of different statistical approaches for spatial alignment and b) to investigate associations among Perfluorooctanoic Acid (PFOA) in drinking water and birth outcome.
As part of the PerSpat-Project, we here consider models of the state-wide concentrations of PFOA in drinking water of North Rhine-Westphalia, Germany, in connection with the state-wide comprehensive perinatal data set.
Drinking water samples have been drawn from both the water supply stations and the network of water supply areas. Apart from such comprehensive data, there are regions with no or few measurements, usually non-detects.
Being on postal code level, the birth data are spatially misaligned with respect to the water supply areas, particularly in affected rural regions, so a main task is to assign an exposure level to a given birth based on the mother’s approximate residence.
In order to estimate PFOA concentrations, we formulate spatial models based on the measurements and the spatial connectivity via rivers. Furthermore, the water proportions in the complex relationship of 417 stations supplying 451 areas are estimated based on their supplied and demanded amounts. These weights are used to mediate between station and area level modelling.
Weights based on the census population density are used in the application of various approaches of spatial realignment. Ambiguous postal areas are handled by interpolation of their PFOA concentrations or by further intersection to obtain unique water supply. The latter analysis’ results on the so-called atom level are compared to those on postal area level, obtaining but minor differences.
The applicability of some models is limited to count data; therefore, cases of low birth weight per area are also considered. Using the census data grid, being the finest resolution, leads to considerable random assignment of birth data, whose locations within the postal areas are not actually known.
Generally speaking, interpolation of exposure values as well as uncertainty of outcome locations lead to further variability, which has to be respected when estimating relationships in epidemiological studies based upon these information.
The methods may be adapted to other substances measured in drinking water or in a river network as well as to other spatial datasets based on, e.g., administrative regions, various environmental media such as, e.g., air or noise pollution.

### Beitrag zur Sonderveranstaltung (Session) “Urban Epidemiology” ###
Herr Jonathan Rathjens
Technische Universität Dortmund
The PerSpat-Project: Integration of National Census Data for Spatial Alignment of Birth Registry and Drinking Water Data from the Ruhr Region (Arthur Kolbe, Jonathan Rathjens, Eva Becker, Katharina Olthoff, Sabine Bergmann, Hans-Joachim Bücker-Nott, Katja Ickstadt, Jürgen Hölzer)
Introduction: Perfluorooctanoic Acid (PFOA) is suspected to have various adverse effects on human health, in particular on foetal development. In 2006, elevated PFOA concentrations in drinking water have been observed in several areas of North Rhine-Westphalia (NRW), Germany.
The PerSpat-Project aims to integrate spatial statistics and environmental health and was established a) to evaluate the applicability of different statistical approaches for spatial realignment and b) to investigate associations among PFOA in drinking water and birth outcome. We here report on the additional integration of census data to improve the spatial realignment between both datasets. Analyses are based on two secondary datasets of different spatial and temporal structures: the state birth registry is a postal code dependent dataset and includes various biometric, medical and social variables of more than 1.5 million births from 2003 to 2014 in hospitals in NRW. The drinking water database is a compilation of a state monitoring programme and self-investigated information on PFOA-concentrations in water supply areas from 2006 to 2017.
Additionally, spatial data of residents in NRW have been obtained from the 2011 European Union Census (www.zensus2011.de), which includes a registry based data collection of all inhabitants in Germany.
In order to assign exposure data (drinking water concentrations) to individuals (birth cohort) different spatial resolutions (drinking water supply areas and postal code areas) have to be aligned.

Methods: Spatial assignment of both datasets is conducted using residential data from the 2011 European Union Census. Residential data are joined to a national grid consisting of squares with 100 m side length. Geographical intersection of both, water supply and postal code areas, with the national grid is computed. Weighted by the number of residents, the proportion of every water supply area related to postal code areas is calculated.

Results: 336 of 864 postal code areas in NRW are completely located within one water supply area, while the majority of postal code areas intersects with two or more water supply areas.
When census data is integrated, additional 335 postal code areas can be assigned to a water supply area (based on assumption that at least 97 % of the population should be provided by a single water utility).
Based on census data 671 of 864 postal code areas are served with an amount of at least 97% by one of 190 water supply areas and could therefore definitely be assigned to it. For the 193 remaining postal code areas, population-related prediction of the relative contribution of multiple water supply areas can be distinctly enhanced.

Conclusion: The usage of census data significantly improved geographical realignment of postal code and water supply areas. More than 75 % of NRW’s postal code areas could be aligned to a single water supply area. Additionally the weighting of water supply areas in the remaining postal code areas may be used in further statistical models of realignment.

Beitrag zur Sonderveranstaltung (Session) “Urban Epidemiology”
Herr Arthur Kolbe
Multilevel Conditional Autoregressive models for longitudinal data nested in geographical units with dynamic characteristics (Dany Djeudeu, Katja Ickstadt, Susanne Moebus)
In analyzing associations between individual health outcomes and environmental exposures for individuals nested within geographical units, multilevel models are commonly used.
Traditional two-level (multilevel) models for individuals nested within geographical units use geographical unit-level random effects to account for spatial heterogeneity and help to answer some important research questions but do not account for possible spatial dependence between spatial units. Existing models for cross-sectional data combine the multilevel structure and the advantages of models like the Besag-York-Mollie and Leroux
for the random effect at the geographical unit to jointly model the spatial autocorrelation and the spatial heterogeneity, as these models also take advantages of the Conditional Autoregressive (CAR) prior specification of random effects ([1], [2], [3]). This combination leads to estimates of random covariate effects that are robust and have higher precision, which is of particular importance for areas with small sample size for instance.
However, longitudinal data are increasing because of its ability to detect developments or changes in the characteristics of the target population at both the area and the individual level.
In longitudinal studies involving environmental exposures, not only individuals are changing over time, so are geographical unit (characteristics) and this dynamic needs to be accounted for. For instance, variables like unemployment rates, greenness , measured at an areal level are known to impact health and are changing over time. Not accounting for such variables in the analysis would induce dynamic unexplained spatial variation in the data.

The overall aim of this work is to extend the idea of combining the Multilevel structure and the spatio-temporal extension of models like the Besag-York-Mollie and Leroux for longitudinal data on individuals nested within geographical units such as participants nested within districts, thereby accounting for the dynamic of the characteristics of geographical units.
Simulation studies are used to access the performance of the proposed method.
We simulate longitudinal data sets with 2 different spatial structures; 1. heterogeneity only of the geographical units, 2. both spatial heterogeneity and spatial dependence to analyze the association between a health outcome defined at individual level and an environmental exposure adjusting for confounders given at all levels in a defined study area. For each of the spatial structures, we consider the case where the strength of the spatial effect is changing over time. We mainly compare the proposed method to the classical three-level (multilevel) growth model for longitudinal data: Measurement occasions nested within individuals and individuals nested within geographical units.

Results suggest that the proposed model yields more accurate coefficient estimates and reliable credible intervals compared to traditional spatial growth models formulated as a (three level) multilevel model with repeated measurements over time nested within individuals and individuals nested within spatial units.
Herr Dany Djeudeu
Tuesday
10 Sep 2019
08:00 - 17:30
WS3
Intensiv-Journal Club Causal Inference
Dieser Workshop richtet sich an Promotionsstudierende der Epidemiologie. Er basiert auf aktuellen methodischen Diskussionen zum Themenbereich „Kausale Inferenz in der Epidemiologie“, wie sie in der Dezemberausgabe 2016 des International Journals of Epidemiology (Volume 45, Issue 6) präsentiert wurden. Der Workshop wird durch einen Vortrag von Prof. Andreas Stang (Zentrum für klinische Epidemiologie, Universitätsklinikum Essen) eingeleitet. Anschließend werden alle teilnehmenden Studierenden jeweils in einem fünf- bis zehnminütigen Vortrag die ausgesuchten Publikationen (einschließlich der relevanten methodischen Grundlagen) vorstellen und mit den betreuenden Wissenchaftler_innen kritisch diskutieren. Ziel des Workshops ist es den Promotionsstudierenden zu ermöglichen, aktuelle methodische Diskussionen zum Themenbereich „Kausale Inferenz in der Epidemiologie“ und deren methodischen sowie philosophischen Grundlagen zu erläutern und zu bewerten sowie die formellen Grundlagen der Debattenkultur in wissenschaftlichen Fachzeitschriften zu beschreiben.
Teilnahmevoraussetzungen: Grundlegendes Verständnis moderner Kausalitätsprinzipe in der Epidemiologie. Erste Erfahrungen mit DAGs und dem Potential Outcome Approach.
Interessierte werden gebeten, sich bis spätestens zum 1.9.2019 bei André Karch (andre.karch@ukmuenster.de) anzumelden.
Room: B.1.20 (Location: Emil-Figge-Str. 42, Number of seats: 25)
Intensiv-Journal Club Causal Inference (André Karch, Stefanie Castell, Nicole Jankovic, Andreas Stang)
Dieser Workshop richtet sich an Promotionsstudierende der Epidemiologie. Er basiert auf aktuellen methodischen Diskussionen zum Themenbereich „Kausale Inferenz in der Epidemiologie“, wie sie in der Dezemberausgabe 2016 des International Journals of Epidemiology (Volume 45, Issue 6) präsentiert wurden. Der Workshop wird durch einen Vortrag von Prof. Dr. med. Andreas Stang, MPH (Zentrum für Klinische Epidemiologie, UK-Essen) eingeleitet. Anschließend werden alle teilnehmenden Studierenden jeweils in einem fünf- bis zehnminütigen Vortrag eine der ausgesuchten Publikationen (einschließlich der relevanten methodischen Grundlagen) vorstellen und mit den betreuenden Wissenchaftler_innen kritisch diskutieren. Ziel des Workshops ist es den Promotionsstudierenden zu ermöglichen, aktuelle methodische Diskussionen zum Themenbereich „Kausale Inferenz in der Epidemiologie“ und deren methodischen sowie philosophischen Grundlagen zu erläutern und zu bewerten sowie die formellen Grundlagen der Debattenkultur in wissenschaftlichen Fachzeitschriften zu beschreiben.
Teilnahmevoraussetzungen:
Grundlegendes Verständnis moderner Kausalitätsprinzipe in der Epidemiologie
Erste Erfahrungen mit DAGs und dem Potential Outcome Approach.Literaturgrundlage:
13 Artikel und Kommentare aus der Dezemberausgabe 2016 des International Journals of Epidemiology, Volume 45, Issue 6, December 2016
Herr Prof. Dr. André Karch
Westfälische Wilhelms-Universität Münster
Monday
09 Sep 2019
09:30 - 12:30
WS4
Deep Learning in der Med. Informatik und Bioinformatik
Deep Learning ist zu einem prägenden Thema der Medizinischen Informatik und der Bioinformatik geworden. Nicht-Fachleuten mag es aber schwer fallen, diese Entwicklung einzuordnen, weil die grundlegenden Kenntnisse der Methodik fehlen. Deshalb ist der Workshop in zwei Blöcke aufgeteilt:
- Zunächst werden in zwei Vorträgen Grundlagen der Methodik des Deep Learning erläutert, gefolgt von einer Diskussion über die Implikationen für die Medizinische Informatik und die Bioinformatik
- Danach folgen zwei spezifische Fachvorträge, die jeweils eine Deep Learning Anwendung aus der Medizinischen Informatik und der Bioinformatik vorstellen.
Zielgruppe des Workshops sind also im ersten Teil alle Interessierten und insbesondere diejenigen, die bislang wenig Berührung mit dem Künstliche Intelligenz und Deep Learning hatten. So vorbereitet richtet sich der zweite Teil sowohl an Fachleute als auch an Neulinge der Thematik.

Weitere Informationen
Room: A.E.03 (Location: Emil-Figge-Str. 42, Number of seats: 42)
Chair(s): Christoph Palm
Wednesday
11 Sep 2019
08:30 - 11:00
WS5
Curriculare Entwicklung in Biomedical and Health Informatics
Die curriculare Weiterentwicklung für die Aus- und Weiterbildung ist einer der Förderschwerpunkte der Medizininformatik-Initiative des BMBF (MI-I). Diese Veranstaltung, initiiert durch das SMITH-Konsortium, hat zum Ziel, die bisherige curriculare Entwicklung im Rahmen der Medizininformatik-Initiative Konsortien übergreifend abzubilden. Gemeinsam mit den MI-I Konsortien sowie Partnern, Stakeholdern und Interessierten sollen folgende Themen bearbeitet werden: Zukunftsorientierte Lernzielkataloge BMHI, Implementierung neuer medizininformatischer Lehr-/Lerninhalte, Lehrformate in der MI, Kooperative Fortentwicklung der BMHI Lehre, Aus- und Weiterbildung

Weitere Informationen.
Room: 150 (Location: Emil-Figge-Str. 44, Number of seats: 72)
Chair(s): Paul Schmücker and Alfred Winter
Monday
09 Sep 2019
10:15 - 12:45
WS6
Medical Omics
Krankheiten gehen oft mit Veränderung der Gen-, RNA-, und Proteinexpressionsprofilen einher. Solche Änderungen können über Genomik, Transkriptomik und Proteomik analysiert werden. Andere OMIKs Felder wie zum Beispiel Metabolomiks werden auch immer wichtiger um ein Gesamtbild einer Krankheit zu erzeugen. Aktuell steht die Identifizierung von Target-Genen/Proteinen im Blickpunkt, die wiederum die Analyse biologischer Netzwerke ermöglichen. Oft werden diese Methoden auch zur Ermittlung von Biomarkern herangezogen. Die hier gewonnenen Erkenntnisse gewinnen eine immer stärkere Bedeutung für die Diagnose und Therapie. In der Zukunft sind es diese Methoden und deren Integration, die die Präzisionsmedizin ermöglichen werden. Der angebotene Workshop wird sich thematisch in diesem Rahmen bewegen
Room: A.2.03 (Location: Emil-Figge-Str. 42, Number of seats: 42)
Chair(s): Jens Allmer and Ralf Hofestaedt
Medical OMICs (Jens Allmer)
Krankheiten gehen oft mit Veränderung der Gen-, RNA-, und Proteinexpressionsprofilen einher. Solche Änderungen können über Genomik, Transkriptomik und Proteomik analysiert werden. Andere OMIKs Felder wie zum Beispiel Metabolomiks werden auch immer wichtiger um ein Gesamtbild einer Krankheit zu erzeugen. Aktuell steht die Identifizierung von Target-Genen/Proteinen im Blickpunkt, die wiederum die Analyse biologischer Netzwerke ermöglichen. Oft werden diese Methoden auch zur Ermittlung von Biomarkern herangezogen. Die hier gewonnenen Erkenntnisse gewinnen eine immer stärkere Bedeutung für die Diagnose und Therapie. In der Zukunft sind es diese Methoden und deren Integration, die die Präzisionsmedizin ermöglichen werden. Der angebotene Workshop wird sich thematisch in diesem Rahmen bewegen.
Herr Dr. Jens Allmer
Hochschule Ruhr-West University of Applied Sciences
Jens Allmer is Full Professor for Medical Informatics and Bioinformatics at the University of Applied Sciences, HRW, Mülheim an der Ruhr, Germany. He previously held positions of Cluster Leader (Wageningen University and Research, Wageningen, Netherlands, 2017-2018), Assistant and Associate Professor (Izmir Institute of Technology, Izmir, Turkey, 2008-2016). Prof. Allmer received his PhD (2006) in Biology with great honor from the University of Münster where he also obtained his MSc. In 2010 he was selected the outstanding young scientist for bioinformatics from the Turkish Academy of Sciences (TÜBA). Prof. Allmer published more than 80 manuscripts in peer reviewed journals with a cumulative impact factor above 130. He also received more than 650,000 Euros in funding. Prof. Allmer’s research interests have covered most OMICS areas. Currently, his main focus is on microRNA regulation and the use of microRNAs in pathogen-host communication. For this, he applies and extends machine learning paradigms to make them more applicable to problems in bioinformatics.
New drug targets for the treatment of co-morbid multifunctional diseases (Ralf Hofestaedt, Marcel Friedrichs)
During the realization of the “Trilateral Partnership – Cooperation Project” between Scholars and Scientists from Ukraine (Kiev), Russia (Tomsk and Novosibirsk) and Germany (Bielefeld) (2016 - 2018) we have obtained important data and results concerning pathogenetic factors of such important comorbidity as combination of hypertension and asthma. The relevant medical data and medical part of this project presenting the focus to asthma and hypertension was done in TOMSK. Based on this data the computational part was done in NOVOSIBIRSK. Using new textmining tools relevant target genes could be identified. For further discussion the target gene IL10 was discussed in KIEV based on knock out experiments. Using methods of database integration and information fusion the new information system GenCoNet could be implemented representing the positive and negative drug list of asthma and hypertension.
Herr Prof. Dr. Ralf Hofestaedt
Department of Bioinformatics and Medical Informatics, Faculty of Technology, Bielefeld University
Proteogenomics: integrating multipe lines of evidence for patient stratification (Jens Allmer)

Introduction


A disease often manifests itself through protein dysregulation or protein sequence variation. Sequence variation can occur by chance due to transcription/translation errors or because they are encoded in the genome. Changes in protein abundance depend on regulation and may be controlled genomically, epigenomically or post-transcriptionally. Proteogenomics aims to investigate proteins and correlate them with the genomic level. With decreasing sequencing costs, exome sequencing can be applied on a per patient level. Mass spectrometry to investigate the protein level is also becoming a routine analysis that can be applied for precision medicine.

Methods


A genome codes for the possible proteins that can be expressed. Full genome sequencing is not generally indicated for patient stratification and, therefore, exome sequencing is employed here. On the proteomics level, shotgun sequencing using mass spectrometry (MS) is the current tool of choice. Many modifications can occur to proteins including alternative splicing and alternative open reading frame start sites. These and other differences can be quantified using MS-based proteomics. Proteogenomics offers the possibility to integrate genomic and proteomic information.

Results


This workshop will show how proteogenomics can be achieved for large eukaryotic genomes such as human. Transcript and protein biomarkers can be discovered using a protegenomics workflow and such mechanisms will be discussed in the workshop.

Discussion


This workflow will show how protegenomics fits into the medical workflow for biomarker discovery and patient stratification for precision medicine.
Herr Dr. Jens Allmer
Hochschule Ruhr-West University of Applied Sciences
Jens Allmer is Full Professor for Medical Informatics and Bioinformatics at the University of Applied Sciences, HRW, Mülheim an der Ruhr, Germany. He previously held positions of Cluster Leader (Wageningen University and Research, Wageningen, Netherlands, 2017-2018), Assistant and Associate Professor (Izmir Institute of Technology, Izmir, Turkey, 2008-2016). Prof. Allmer received his PhD (2006) in Biology with great honor from the University of Münster where he also obtained his MSc. In 2010 he was selected the outstanding young scientist for bioinformatics from the Turkish Academy of Sciences (TÜBA). Prof. Allmer published more than 80 manuscripts in peer reviewed journals with a cumulative impact factor above 130. He also received more than 650,000 Euros in funding. Prof. Allmer’s research interests have covered most OMICS areas. Currently, his main focus is on microRNA regulation and the use of microRNAs in pathogen-host communication. For this, he applies and extends machine learning paradigms to make them more applicable to problems in bioinformatics.
Interactive visualization as a key tool for understanding medical omics data (Federico Marini, Charlotte Soneson, Kevin Rue-Albrecht, Aaron Lun)
Life sciences have been evolving through the last decade to become a quantitative discipline, with a leading role played by high-throughput technologies (gene expression profiling, protein quantitation via mass spectrometry, high-throughput imaging).
Data is available in different experimental conditions, at different molecular layers, and also at different resolution, whereas single-cell techniques (especially in the field of transcriptomics) have enabled unprecedented views to understand complex phenomena by means of large, heterogeneous datasets.

How can interactive visualization help in this regard? It is an essential tool for quality assessment of often noisy multivariate data, for hypothesis generation and exploration, for the visualization of results, as well as for the efficient communication of findings.

The ideal visualization tool offers a variety of views on the data: reduced dimensionality views, features and samples plots for the assays and the metadata (scatter plots, heatmaps, distribution plots, interactive tables). Simultaneous and linked viewpoints are also fundamental to aid the exploration of complex data, and this holds true for anyone who accesses the data. A tool should also account for ways to guide external users (i.e. other practitioners) in obtaining new angles on the same input, to increase usability and impact of the data at hand.

We developed a general tool, iSEE (http://bioconductor.org/packages/iSEE/ [1]), for exploring a wide range of high dimensional datasets (bulk and single cell RNA-seq, mass cytometry, ...), with a solution that delivers scalability, flexibility, interactivity, and reproducibility, and I would like to present in this workshop how we addressed these aspects more in detail.
Using iSEE, inter-disciplinary efforts in understanding complex data are efficient in the many iterations commonly involved in exploration. Moreover, our tool can become a stepping stone to tackle the challenges of multi-omics approaches, by leveraging data structures able to accommodate the different biological, molecular, and clinical layers.
Herr Dr. Federico Marini
University Medical Center Johannes Gutenberg University Mainz
MicroRNAs: small regulators of gene expression (Müşerref Duygu Saçar Demirci)
MicroRNAs (miRNAs) are small, single-stranded, non-coding RNAs that regulate gene expression at the post-transcriptional level through numerous ways including translational inhibition, degradation and destabilization of mRNAs. Early assessments suggested that miRNAs control activities of around 30% of all protein coding genes in mammals. In spite of the fact that thousands of miRNAs have been identified in various organisms ranging from viruses to higher eukaryotes, many still remain undetermined. Since a single miRNA might target hundreds of mRNAs and an mRNA could be targeted by many miRNAs, miRNA based regulation is a complex system influencing both the transcriptome and proteome. Consequently, the identification of novel miRNAs is a fundamental step for analyzing gene regulation, which led to the construction of sophisticated computational tools for identification of possible miRNAs in silico.
Frau Dr. Müşerref Duygu Saçar Demirci
Abdullah Gül University
Tuesday
10 Sep 2019
08:15 - 09:45
WS7
Evaluation von komplexen Gesundheitstechnologien
Ziel des Workshops ist es, die Herausforderungen und daraus resultierenden Anforderungen sowie mögliche Lösungsstrategien bzgl. der entwicklungsbegleitenden Evaluation von komplexen Gesundheitstechnologien aufzuzeigen und zu diskutieren.
Room: A.E.03 (Location: Emil-Figge-Str. 42, Number of seats: 42)
Chair(s): Uwe Fachinger and Mareike Mähs
Evaluation von komplexen Gesundheitstechnologien (Mareike Mähs, Uwe Fachinger, Alric Rüther, Juliane Köberlein-Neu, Daniel Gensorowsky)
Komplexe Gesundheitstechnologien, wie e-health-Anwendungen, Telemedizin-Systeme und AAL-Technologien, können Menschen in der gesundheitlichen Versorgung, bei der Prävention und Gesundheitsförderung unterstützen. Viele dieser Technologien verharren jedoch in Pilot- und Forschungsprojekten [1]. Ein Grund hierfür können Informationsmängel sein, da vielen potentiellen Nutzern, Leistungserbringern, Sozialversicherungsträgern und Dienstleistern das Wissen über die Qualität, Wirtschaftlichkeit und Nutzen dieser Technologien fehlt [2]. Evaluationen können dazu beitragen, das Problem der unvollständigen Information zu verringern. Zudem können die Effektivität, Effizienz sowie mögliche Risiken komplexer Gesundheitstechnologien transparent gemacht werden, die z. T. auch für Zulassungs- und Erstattungsentscheidungen aufzuzeigen sind. In der EU wird eine einheitliche Bewertung von Gesundheitstechnologien angestrebt [3], im Rahmen dessen die klinische Bewertung von Medizinprodukten mit höherem Risiko oder großer gesundheitlicher Relevanz durch mehrere Stellen und Behörden der EU-Staaten gemeinsam durchgeführt werden könnte.

Die Evaluation innovativer Gesundheitstechnologien kann aufgrund des komplexen und innovativen Charakters dieser Technologien herausfordernd sein. So müssen Kontextfaktoren, wie umwelt- und situationsspezifische Effekte, die z. B. aus der technischen und organisationalen Infrastruktur resultieren, sowie Lerneffekte berücksichtigt werden. Hinzu kommt, dass derartige Technologien komplexe Ursache-Wirkungs-Beziehungen mit möglichen Interaktionseffekten aufweisen können. Komplexe Interventionen können aus mehreren Komponenten bestehen, sodass es schwierig sein kann, die Zusammenhänge zwischen den Einzelkomponenten und dem Outcome sowie mögliche Interdependenzen adäquat zu erfassen [4]. Die Identifikation von Effekten wird durch die regelmäßige Modifikation und Weiterentwicklung der Technologie zusätzlich erschwert. Auch kann es herausfordernd sein, die Effekte dieser Technologien in spezifischen Endpunkten, Nutzwerten oder monetären Werten, wie sie in den gesundheitsökonomischen Evaluationen angewendet werden, auszudrücken.

Um diesen Herausforderungen zu begegnen, können Evaluationen im Rahmen von entwicklungsbegleitenden Health Technology Assessments (HTAs) durchgeführt werden. Dabei sollten folgende Aspekte bei der Evaluation von innovativen Gesundheitstechnologien beachtet werden:
  • Erstellung, Überprüfung und Anpassung konzeptioneller Wirkmodelle [5],
  • Einbezug aller potentiellen Nutzer der Technologie, zu denen auch Angehörige, medizinisches und pflegerisches Fachpersonal, die in Kontakt mit der Technologie treten, gehören,
  • Evaluation im Alltagssetting,
  • Orientierung am Lebenszyklus der Technologie [4],
  • zeitnahe Bereitstellung der Ergebnisse für die Entscheidungsträger,
  • regelmäßige Aktualisierung der Ergebnisse auch nach der Implementierung.
Ziel des Workshops ist es, die Herausforderungen und daraus resultierenden Anforderungen sowie mögliche Lösungsstrategien bzgl. der entwicklungsbegleitenden Evaluation von komplexen Gesundheitstechnologien aufzuzeigen und zu diskutieren.

Dr. med. Alric Rüther: HTA und innovative Gesundheitstechnologien – Vorstellungen und Entwicklungen
Wie soll in Zukunft mit innovativen Gesundheitstechnologien umgegangen werden und welche Rolle spielt HTA dabei? Ein internationaler Überblick auf Basis des EU-HTA-Proposals.

Prof. Dr. Juliane Köberlein-Neu: Komplexe Gesundheitstechnologien in komplexen Systemen: Implikationen für die Evaluation
Es werden die Begrifflichkeiten „komplexe Intervention“ und „komplexes System“ gegenübergestellt und das MRC-Framework als Ausgangspunkt für die Entwicklung und Evaluation komplexer Interventionen vorgestellt. Darüber hinaus soll aufgezeigt werden, welche Folgerungen sich für die Evaluation durch die zusätzliche Berücksichtigung der Systemkomplexität ergeben.

Daniel Gensorowsky: Komplexe Evaluationen in der Praxis
Anhand von aktuellen Projektbeispielen werden verschiedene Herausforderungen bei der Evaluation komplexer Interventionen illustriert und Ansätze zur (methodischen) Bewältigung dieser aufgezeigt.

Mareike Mähs: Framework zur Evaluation von AAL-Technologien
Auf Basis von Literaturrecherchen und konzeptionell-theoretischer Vorarbeiten wurde ein Framework entwickelt, das eine Orientierung für eine strukturierte, entwicklungsbegleitende Evaluation von AAL-Technologien bietet.
Frau Mareike Mähs
Universität Vechta
Herr Dr. med. Alric Rüther
IQWiG
Frau Dr. Juliane Köberlein-Neu
Bergische Universität Wuppertal
Herr Daniel Gensorowsky
Universität Bielefeld
Tuesday
10 Sep 2019
14:45 - 18:00
WS8
ICD11
Durch eine Serie von 3 Vorträgen soll die ICD-11, ihre Innovationen und Unterschiede gegenüber der ICD-10 sowie die Chancen, die sich durch die ICD-11 u.a. für die medizinische Dokumentation, deren standardisierte Verschlüsselung, Interoperabilität und Versorgungsforschung auftuen, dargestellt werden. Der erste Teil des Tutorials soll der frühzeitigen Information der Anwender dienen. Im zweiten Teil soll dann in interaktiver Weise Handlungsbedarf für den Einsatz der ICD-11 in Deutschland erarbeitet werden.  Die Veranstaltung wird zumindest teilweise in Englisch durchgeführt, da einzelne Redner aus dem internationalen Raum stammen. Anhand von Impulsvorträgen soll eine Diskussion erfolgen, welche inhaltlichen und strukturellen Komponenten der ICD-11 besonders relevant für Deutschland sind, insbesondere in Bezug auf Epidemiologie, Medizininformatik und digitale Anwendung. Die Ergebnisse des Workshops sollen in die weiteren Arbeiten und Entscheidungsprozesse zur Evaluation und möglichen Implementierung der ICD-11 einfließen.

Agenda:
Robert Jakob: ICD-11 Introduction
Can Celik: ICD-11 digital innovations
Vincenzo dellaMea. ICD-11 in applications with an example of the Iris project
Ulrich Vogel: ICD-11 Welche Arbeiten laufen bereits für Deutschland?
Danach werden 4-5 Experten zu verschiedenen Bereichen (z.B. Medizininformatik (Initiative?), Krebsregister, Versorgungsforschung, Patientensicherheit und Qualitätssicherung) eingeladen je ca. 5 Minuten um auf Ideen aus dem ersten Workshop-Teil zu reagieren und Wünsche für den potentiellen Einsatz der ICD-11 in Deutschland zu formulieren.
Abschließende Diskussion und Ausblick
 
Room: A.E.02 (Location: Emil-Figge-Str. 42, Number of seats: 124)
Chair(s): Stefanie Weber
Wednesday
11 Sep 2019
09:00 - 10:30
WS9
Nichtparametrische und parametrische Methoden bei komplexen Datenstrukturen – ein anwendungsorientierter Vergleich I
Die AG Statistische Methodik in der klinischen Forschung richtet auf der diesjährigen GMDS einen Workshop zu komplexen Datenstrukturen aus. Im Rahmen unseres Workshops werden die zwei eingeladenen Redner Susanne Sehner(UKE, Hamburg) und Prof. Dr. Frank Konietschke(Charité, Berlin) zunächst einen Überblick sowohl über parametrische als auch über nichtmetrische Verfahren zur Analyse komplexer Datenstrukturen geben und dabei auf die Vor-und Nachteile der spezifischen Methoden eingehen.Eingereichte Vorträge werden den Workshop mit Beispielen bereichern.

Zu diesem Workshop wurden zwei Redner eingeladen:
Im ersten Abschnitt ist es Frau Susanne Sehner mit Parametrische Methoden zur Analyse komplexer Datenstrukturen – ein Überblick
Im zweiten Abschnitt Herr Frank Konietschke mit Nichtparametrische Methoden zur Analyse komplexer Datenstrukturen – ein Überblick


Weitere Informationen (LINK) 
Room: A.2.03 (Location: Emil-Figge-Str. 42, Number of seats: 42)
Chair(s): Daniela Adolf
Analyse longitudinaler Daten in einem gemischten Modell mit Messwiederholungen mittels der SAS-Prozedur PROC MIXED (Lars Beckmann, Ulrich Grouven, Guido Skipka)
In klinischen Studien werden für Patientinnen und Patienten häufig medizinische Daten, insbesondere zur gesundheitsbezogenen Lebensqualität und zur Symptomatik, zu aufeinanderfolgenden Zeitpunkten erhoben. Für die Auswertung dieser longitudinalen Daten werden in der Literatur sowohl lineare gemischte Modelle für Messwiederholungen (Mixed Models Repeated Measures – Modelle [MMRM]) vorgeschlagen.

In dem Vortrag diskutieren wir die verschiedenen Möglichkeiten, mit denen Modelle zur Analyse von longitudinalen Daten mit der SAS-Prozedur PROC MIXED implementiert werden können. Dies beinhaltet die Modellierung mit den Statements RANDOM, d. h. als gemischtes Modell mit den Zeitpunkten als zufälligem Effekt, sowie die Modellierung mit dem Statement REPEATED. Zentral in diesen Modellen ist die Modellierung der Kovarianzmatrix, in der die Abhängigkeiten sowohl innerhalb als auch zwischen den Patientinnen und Patienten entweder in zufälligen Effekten bzw. im zufälligen Fehler berücksichtigt wird.

In klinischen Studien können verschiedene Fragestellungen und damit auch unterschiedliche Effekte untersucht werden. Beispielsweise kann die Remission eines Symptoms, welches ein diagnostisches Kriterium einer psychischen Störung erfüllt, nach Ende einer psychotherapeutischen Behandlung von primärem Interesse sein. In diesem Fall ist die Änderung von Baseline zum Zeitpunkt des Behandlungsendes der interessierende Effekt. In anderen Fällen kann die Last einer Symptomatik über den gesamten Studienverlauf von Interesse sein. Dies trifft zum Beispiel auf Symptom- und Funktionsskalen, erhoben über die entsprechenden EORTC-Fragebögen (European Organisation for Research and Treatment of Cancer), in onkologischen Studien zu. Die interessierende Fragestellung ist dann ein Unterschied in der Symptomlast, vorstellbar als Differenz in der mittleren Area under the Curve (AUC) zwischen den Behandlungsarmen. PROC MIXED ermöglicht die Schätzung dieser Effekte mit den Statements LSMEANS und ESTIMATE.

Anhand von Beispielen werden die verschiedenen Analysen vorgestellt. Hierbei wird auf den Umgang mit fehlenden Werten, auf nicht-äquidistante Messzeitpunkte sowie auf nichtlineare Daten eingegangen. Empfehlungen für die Analysen von longitudinalen Daten werden zur Diskussion gestellt.
Herr Dr. Lars Beckmann
Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG)
Empirical evaluation of the implementation of the EMA guideline on missing data in confirmatory clinical trials: specification of mixed models for longitudinal data in study protocols (Sebastian Häckl, Florian Lasch, Armin Koch)
In confirmatory clinical trials, the pre-specification of the primary analysis model is a universally accepted scientific principle to allow strict control of the type-I-error. Accordingly both the ICH E9 guideline and the EMA guideline on missing data in confirmatory clinical trials require the explicit specification of the precise model settings to such an extent that the statistical analysis can be replicated. Especially, this applies to mixed models for longitudinal data, which implicitly handle missing data. To evaluate the compliance with the EMA guideline, we evaluated the specifications in clinical study protocols from development phase II and III submitted between November 2015 and October 2018 to the Ethics Committee at Hannover Medical School under the German Medicinal Products Act, which planned to use a mixed model for longitudinal data in the confirmatory testing strategy.

Overall, 39 trials from different types of sponsors and a wide range of therapeutic areas were evaluated. While nearly all protocols specify the fixed and random effects of the analysis model (95%), only 77% give the structure of the covariance matrix used for modelling the repeated measurements. Moreover, the testing method (36%), the estimation method (28%), the computation method (3%) and the fallback strategy (18%) are given by less than half the study protocols. Almost half of the analysed study protocols (46%) neither specified all of the most influential items (fixed and random effects, covariance matrix, testing method) nor planned to do so by an additional SAP. Subgroup analyses indicate that these findings are universal and not specific to clinical trial phases or size of company. However, major pharmaceutical companies markedly specified the three main items more often compared to minor sponsors (53% vs. 14%, p<0.05), indicating a higher guideline compliance rate for major sponsors. Altogether, our results show that guideline compliance is to various degrees poor and consequently, strict type-I-error rate control at the intended level is not guaranteed.
Herr Sebastian Häckl
Medizinische Hochschule Hannover
Tuesday
10 Sep 2019
10:15 - 12:45
WS10
Erst zum Arzt oder gleich die App
Die Verbreitung digitaler Angebote verändert das persönliche Gesundheitsverhalten und die Gesundheitsversorgung. BürgerInnen vermessen sich selbst, tracken ihr Bewegungs- oder Schlafverhalten; die Angewohnheit, bei Beschwerden und Symptomen erst einmal Dr. Google zu Rate zu ziehen, ist heutzutage kein ungewöhnliches Phänomen. Der Workshop bietet durch (max. 3) Impulsvorträge Einblicke in Felder der Gesundheitsversorgung, die schon heute Auswirkungen der Digitalisierung erleben. Angefragte ReferentInnen stammen z.B. aus der i) Patientenvertretung bzw. Selbsthilfe und ii) aus der „Do it yourself-Community“, die eine künstliche Pankreas selbst entwickelt. In einer anschließenden interaktiven Diskussionsphase sollen die Teilnehmenden verschiedene Perspektiven – wie u.a. PatientInnen/BürgerInnen, MedizinerInnen, Kostenträger, Forschende – einnehmen und vorgegebene technische oder ethische Fragen in diesem Spannungsfeld diskutieren. Eine abschließende, gemeinsame Paneldiskussion führt die verschiedenen Perspektiven wieder zusammen und synthetisiert die gewonnenen Erkenntnisse des Workshops.

Vorträge:
Birgit Dembski:App oder Arzt? Die Perspektive einer Patientenvertreterin zum Arztverhältnis in digitalen Zeiten
Pascal Meier: Digitale Versorgungsangebote - Eine Chance für den ländlichen Raum?
Silvia Woll: DIY Artificial Pancreas Systems selbstentwickelte Technologien für mehr Sicherheit und Gesundheit?

Weitere Informationen
Room: C.3.32 (Location: Emil-Figge-Str. 42, Number of seats: 30)
Chair(s): Martin Wiesner
Tuesday
10 Sep 2019
08:30 - 12:45
WS11
Health Technology Assessments
Der interdisziplinäre Workshop der AGs/AKs HTA, Methodik Systematischer Reviews, Gesundheitsökonomie und Medical Decision Making verfolgt zum einen die Entwicklungen im Bereich Health Technology Assessments (HTA) und der Entscheidungsfindung im Gesundheitsbereich auf europäischer Ebene; zum anderen werden methodische Weiterentwicklungen in der Nutzenbewertung im AMNOG-Verfahren beleuchtet. Es wird die Vereinbarkeit AMNOG versus EU-HTA, die zukünftige Rolle der anwendungsbegleitenden Datenerhebung und der Einbindung von Stakeholdern im HTA vorgestellt und diskutiert. Ziel des Workshops ist es, auf dem Kongress der GMDS allen an HTA beteiligten Bereichen über Gemeinsamkeiten und Unterschiede hinweg einen Platz zu bieten für aktuelle Informationen, Austausch, kritische Diskussion und methodischen Weiterentwicklung. Impulsvorträge informieren über den Stand verschiedener Entwicklungen von EU-HTA; die aktuellen Änderungen in der Nutzenbewertung im AMNOG durch den Entwurf des Gesetzes für mehr Sicherheit in der Arzneimittelversorgung (GSAV); und laden zur Diskussion zur Vereinbarkeit beider Systeme ein. Im Fokus des ersten Teils steht als übergreifendes Thema die Europäisierung des HTA-Prozesses und der neueste Stand des Entwurfs der Europäischen Kommission zu einer europäischen Gesetzgebung zur HTA-Kollaboration nach 2020. Ein Bericht aus dem zweiten Workshop der Task Force Ende Mai 2019 leitet über zu spezifischeren Fokusthemen wie der EUnetHTA Task Force HTA und Medical Device Regulation (MDR), wo Anknüpfungspunkte zwischen HTA und Regulation von Hochrisiko-Medizinprodukten für eine Verbesserung der Evidenz ins Visier genommen werden. Transdisziplinarität beinhaltet die Einbindung von Stakeholdern über die Integration verschiedener Fachrichtungen in interdisziplinärer Forschung hinaus. Die Partizipation der Bürger wird zum Abschluss des ersten Teils beleuchtet. Im zweiten Teil des Workshops folgt die Perspektive zu aktuellen Änderungen in Nutzenbewertungen im AMNOG: die Vereinbarkeit des EU-HTA mit dem deutschen Nutzenbewertungsverfahren wird diskutiert. Im Fokus stehen hierbei verfahrenstechnische Aspekte. Die anwendungsbegleitende Datenerhebung ist ein aktuelles Thema im deutschen Entscheidungsprozess im AMNOG. Diskussionen um Methodenstandards, Möglichkeiten und Grenzen dieser Daten- sollen hier auch an Beispielen aufgezeigt werden. 
Room: A.2.02 (Location: Emil-Figge-Str. 42, Number of seats: 124)
Chair(s): K H_Herrmann
Health Technology Assessments: Kann die europäische Zusammenarbeit fortgesetzt werden? Neuerungen im AMNOG System - Welche Rolle werden anwendungsbegleitende Datenerhebungen zukünftig spielen? (KH Herrmann, Petra Schnell-Inderst, Uwe Siebert, Katrin Jensen, Alric Rüther)
Interdisziplinärer Workshop der AG HTA, AG Methodik Systematischer Reviews, AK Gesundheitsökonomie, AG Medical Decision Making

K H Herrmann3, P Schnell-Inderst1,2, U Siebert2,4,5, K Jensen6, A Rüther7

1Ludwig-Boltzmann-Institut für HTA, Wien
2UMIT - University for Health Sciences, Medical Informatics and Technology, Hall i.T.
3Amgen GmbH, München
4ONCOTYROL - Center for Personalized Cancer Medicine, Innsbruck
5Harvard University, Boston
6Institut für Medizinische Biometrie und Informatik, Heidelberg
7IQWiG - Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen, Köln

Der interdisziplinäre Workshop der AGs/AKs HTA, Methodik Systematischer Reviews, Gesundheitsökonomie und Medical Decision Making verfolgt zum einen die Entwicklungen im Bereich Health Technology Assessments (HTA) und der Entscheidungsfindung im Gesundheitsbereich auf europäischer Ebene; zum anderen werden methodische Weiterentwicklungen in der Nutzenbewertung im AMNOG-Verfahren beleuchtet. Es wird die Vereinbarkeit AMNOG versus EU-HTA, die zukünftige Rolle der anwendungsbegleitenden Datenerhebung und der Einbindung von Stakeholdern im HTA vorgestellt und diskutiert.
Ziel des Workshops ist es, auf dem Kongress der GMDS allen an HTA beteiligten Bereichen über Gemeinsamkeiten und Unterschiede hinweg einen Platz zu bieten für aktuelle Informationen, Austausch, kritische Diskussion und methodischen Weiterentwicklung. Impulsvorträge informieren über den Stand verschiedener Entwicklungen von EU-HTA; die aktuellen Änderungen in der Nutzenbewertung im AMNOG durch den Entwurf des Gesetzes für mehr Sicherheit in der Arzneimittelversorgung (GSAV); und laden zur Diskussion zur Vereinbarkeit beider Systeme ein.
Im Fokus des ersten Teils steht als übergreifendes Thema die Europäisierung des HTA-Prozesses und der neueste Stand des Entwurfs der Europäischen Kommission zu einer europäischen Gesetzgebung zur HTA-Kollaboration nach 2020.
Ein Bericht aus dem zweiten Workshop der Task Force Ende Mai 2019 leitet über zu spezifischeren Fokusthemen wie der EUnetHTA Task Force HTA und Medical Device Regulation (MDR), wo Anknüpfungspunkte zwischen HTA und Regulation von Hochrisiko-Medizinprodukten für eine Verbesserung der Evidenz ins Visier genommen werden.
Transdisziplinarität beinhaltet die Einbindung von Stakeholdern über die Integration verschiedener Fachrichtungen in interdisziplinärer Forschung hinaus. Die Partizipation der Bürger wird zum Abschluss des ersten Teils beleuchtet.
Im zweiten Teil des Workshops folgt die Perspektive zu aktuellen Änderungen in Nutzenbewertungen im AMNOG: die Vereinbarkeit des EU-HTA mit dem deutschen Nutzenbewertungsverfahren wird diskutiert. Im Fokus stehen hierbei verfahrenstechnische Aspekte.
Die anwendungsbegleitende Datenerhebung ist ein aktuelles Thema im deutschen Entscheidungsprozess im AMNOG. Diskussionen um Methodenstandards, Möglichkeiten und Grenzen dieser Daten- sollen hier auch an Beispielen aufgezeigt werden.
  • AG Sitzung
  • HTA in Europa: Der Entwurf der Europäischen Kommission zu HTA in Europa nach 2020: eine kritische Darstellung, Alric Rüther, IQWiG
  • EUnetHTA Task Force HTA and Medical Device Regulation (MDR) – Mögliche Synergien zwischen HTA und Regulation von Hochrisiko-Medizinprodukten für eine Verbesserung der Evidenz, Petra Schnell-Inderst, Ludwig-Boltzmann-Institut, UMIT
  • Die Bedeutung von Transdisziplinarität für die Public Health-Forschung: Einbindung von Stakeholdern in HTA, Barbara Buchberger, RKI
Pause
  • Die Implementierung des EU-HTA in den deutschen Versorgungskontext,Verena Baecke, Ecker + Ecker GmbH
  • Anwendungsbegleitende Datenerhebung mit Registerdaten: Mehr Sicherheit in der Patientenversorgung?, Sebastian Werner, VFA; Kirsten H Herrmann; Amgen GmbH
  • Auswirkung der anwendungsbegleitenden Datenerhebung auf das AMNOG-Verfahren, Carsten Schwenke, SCO:SSiS
Frau Dr. KH Herrmann
Monday
09 Sep 2019
11:15 - 12:45
WS12
Einführung in das Thema „Open Access“
Die Öffnung der Wissenschaft wird in den letzten Jahren verstärkt nachgefragt, wobei insbesondere der freie Zugang zu wissenschaftlicher Literatur eine zentrale Rolle spielt. Für WissenschaftlerInnen bietet Open-Access eine Chance, die Sichtbarkeit ihrer Publikationen sowie deren Zitationsrate zu erhöhen, während gleichzeitig ein besserer Zugang zur Literatur gewährleistet wird. Vermehrt fordern auch Forschungsförderorganisationen, dass Publikationen, die aus von ihnen geförderten Projekten resultieren, im Open-Access veröffentlicht werden, wie es z.B. die EU im Rahmen von Horizon 2020 tut. Ziel des Workshops ist es, WissenschaftlerInnen, die sich aus persönlichem Interesse oder aufgrund von institutionellen oder organisatorischen Vorgaben zum Thema Open-Access informieren möchten, einen Überblick über die Grundlagen zum Thema Open-Access zu bieten und zentrale Begriffe zu klären. Aus diesem Grund möchte dieser Workshop zuerst erläutern, welche Gründe für Open-Access sprechen, welche Open-Access-Finanzierungsmodelle bestehen, wie die rechtlichen Rahmenbedingungen aussehen und welche offenen Lizenzen zu welchem Zweck verwendet werden können. Als Zweites soll auf die Open-Access-Publikationsmöglichkeiten in der Medizin eingegangen werden. Wie findet man entsprechende Zeitschriften? Was ist der Unterschied zwischen originären und hybriden Open-Access-Zeitschriften? Welche Möglichkeiten zur Realisierung einer nachträglichen Zweitveröffentlichung im Open-Access mittels des Grünen Weges gibt es? In diesem Zusammenhang werden auch die Open-Access-Angebote von ZB MED – Informationszentrum Lebenswissenschaften vorgestellt. Als Drittes möchte dieser Workshop zu den europäischen Initiativen zu Open-Access informieren. In diesem Zusammenhang sollen europäische Open-Access-Mandate vorgestellt werden. Dazu gehört die Open-Access-Verpflichtung für Forschungsergebnisse, die aus Horizon 2020-Mitteln der Europäischen Kommission finanziert wurden, sowie der „Plan S“, der von einer Koalition von 16 nationalen und internationalen Forschungsförderern sowie der Europäischen Kommission und dem Europäischen Forschungsrat verabschiedet wurde. Aus dem Bereich Forschungsdatenmanagement soll in die European Open Science Cloud (EOSC) eingeführt werden. Der Workshop soll drei Vorträge umfassen, die von den unten beteiligten Personen gehalten werden und die jeweils 20 bis 25 Minuten dauern. Im Anschluss besteht die Möglichkeit, Anmerkungen einzubringen sowie Fragen zu stellen.

Vorträge:
Britta Nölte: Grundlagen von Open Access
Jasmin Schmitz: Open-Access-Publikationsmöglichkeiten in der Medizin
Lena Dreher: Europäische Initiativen zu Open Access
Room: C.E.42 (Location: Emil-Figge-Str. 42, Number of seats: 15)
Chair(s): Britta Nölte
Einführung in das Thema „Open Access“ (Britta Nölte, Jasmin Schmitz, Lena Dreher)
Die Öffnung der Wissenschaft wird in den letzten Jahren verstärkt nachgefragt, wobei insbesondere der freie Zugang zu wissenschaftlicher Literatur eine zentrale Rolle spielt. Für WissenschaftlerInnen bietet Open-Access eine Chance, die Sichtbarkeit ihrer Publikationen sowie deren Zitationsrate zu erhöhen, während gleichzeitig ein besserer Zugang zur Literatur gewährleistet wird. Vermehrt fordern auch Forschungsförderorganisationen, dass Publikationen, die aus von ihnen geförderten Projekten resultieren, im Open-Access veröffentlicht werden, wie es z.B. die EU im Rahmen von Horizon 2020 tut.

Ziel des Workshops ist es, WissenschaftlerInnen, die sich aus persönlichem Interesse oder aufgrund von institutionellen oder organisatorischen Vorgaben zum Thema Open-Access informieren möchten, einen Überblick über die Grundlagen zum Thema Open-Access zu bieten und zentrale Begriffe zu klären. Aus diesem Grund möchte dieser Workshop zuerst erläutern, welche Gründe für Open-Access sprechen, welche Open-Access-Finanzierungsmodelle bestehen, wie die rechtlichen Rahmenbedingungen aussehen und welche offenen Lizenzen zu welchem Zweck verwendet werden können.

Als Zweites soll auf die Open-Access-Publikationsmöglichkeiten in der Medizin eingegangen werden. Wie findet man entsprechende Zeitschriften? Was ist der Unterschied zwischen originären und hybriden Open-Access-Zeitschriften? Welche Möglichkeiten zur Realisierung einer nachträglichen Zweitveröffentlichung im Open-Access mittels des Grünen Weges gibt es? In diesem Zusammenhang werden auch die Open-Access-Angebote von ZB MED – Informationszentrum Lebenswissenschaften vorgestellt.

Als Drittes möchte dieser Workshop zu den europäischen Initiativen zu Open-Access informieren. In diesem Zusammenhang sollen europäische Open-Access-Mandate vorgestellt werden. Dazu gehört die Open-Access-Verpflichtung für Forschungsergebnisse, die aus Horizon 2020-Mitteln der Europäischen Kommission finanziert wurden, sowie der „Plan S“, der von einer Koalition von 16 nationalen und internationalen Forschungsförderern sowie der Europäischen Kommission und dem Europäischen Forschungsrat verabschiedet wurde. Aus dem Bereich Forschungsdatenmanagement soll in die European Open Science Cloud (EOSC) eingeführt werden.

Der Workshop soll drei Vorträge umfassen, die von den unten beteiligten Personen gehalten werden und die jeweils 20 bis 25 Minuten dauern. Im Anschluss besteht die Möglichkeit, Anmerkungen einzubringen sowie Fragen zu stellen.
Frau Britta Nölte
Universität Konstanz
Frau Dr. Jasmin Schmitz
ZB MED - Informationszentrum Lebenswissenschaften
Frau Lena Dreher
Universität Konstanz
Monday
09 Sep 2019
09:45 - 12:45
WS13
Dataset Challenge
Die Teilnehmer werden im Vorfeld Zugang zu einem Datensatz erhalten und eine Aufgabe bekommen. In der Sitzung wird dann der Datensatz kurz vorgestellt, dann erhalten die Teilnehmer Gelegenheit ihre Lösungsansätze zu präsentieren. Zum Abschluss der Sitzung werden die verschiedenen Ansätze diskuitert.

Vorträge:
Herr Prof. Stefan Gold: A self-guided online fatigue intervention in multiple sclerosis: Trial results and effect heterogeneity
Room: C.3.32 (Location: Emil-Figge-Str. 42, Number of seats: 30)
Chair(s): Tim Friede
Wednesday
11 Sep 2019
08:00 - 10:45
WS14_1
Adaptierbarkeit und Zielorientierung bei der Anwendung von KIS-Reifegradmodellen
Die einrichtungsübergreifende Anwendbarkeit bestehender KIS-Reifegradmodelle stößt häufig an die Grenzen einer heterogenen KIS-Landschaft. Grund hierfür ist zum einen die zumeist starre Auswahl an Reifegradindikatoren, die sich nur selten auf alle Ebenen der KIS-Qualität beziehen und zudem durch einen hohen Abstraktionsgrad gekennzeichnet sind. Ein anderer Grund liegt in den Verrechnungslogiken, die der jeweiligen Reifegradzuordnung zugrunde liegt. Diese weisen entweder einen kumulativen Charakter auf („je mehr desto besser“) oder sie orientieren sich an einem normativen Goldstandard („One size fits all“).
Sowohl die festgelegte Auswahl und der hohe Abstraktionsgrad der Indikatoren, als auch deren Verrechnung führen dazu, dass die IT-bezogene Zieldiversität, die sowohl zwischen den Krankenhäusern vorherrscht, aber auch in den Einrichtungen zwischen Fachbereichen und Professionen auftritt, unberücksichtigt bleibt.
Vor diesem Hintergrund werden in dem mwmKIS-Workshop aktuelle KIS Reifegradmodelle vorgestellt und kritisch diskutiert. Ziel ist die Erarbeitung eines Lösungsansatzes, der bestehende KIS-Reifegradmodelle in einem adaptiven Verfahren integriert. Dieser integrierte Ansatz soll es Krankenhäusern ermöglichen, im Sinne eines modularen Baukastensystems eine einrichtungsspezifische KIS-Reifegradmodellierung vorzunehmen.

Vorträge:
Dr. Ben Illigens: Check IT - Das Analysetool zum digitalen Krankenhaus vom Marburger Bund und BVITG
Frank Dickmann: Der IT-Reifegrad von Krankenhäusern: Modell der KIT-CON für ein effizientes Krankenhaus-IT-Controlling
Dr. Sven Meister / Anja Burmann: Das Fraunhofer Reifegradmodell »Digitales Krankenhaus«
Katja Kümmel / Barbara Thorberger / Lena Frommer / Dr. Jan-David Liebe: Adaptives Reifegrad Assessment zur strategieorientierten Messung der KIS-Qualität am Beispiel des Universitätsklinikums Münster
Prof Dr. Horst Kunhardt: KIS Reifegradmodelle - Erfahrungen aus Sicht eines Krankenhaus CIOs
Moritz Esdar: Prozessorientierte Reifegradmessung mit dem Workflow Composite Score
Lena Frommer: Eine systematische Übersicht bestehender KIS Reifegradmodelle
Room: B.1.20 (Location: Emil-Figge-Str. 42, Number of seats: 25)
Chair(s): Jan-David Liebe and Franziska Jahn
Adaptierbarkeit und Zielorientierung bei der Anwendung von KIS-Reifegradmodellen (Jan-David Liebe, Franziska Jahn)
Kurzeschreibung

Die einrichtungsübergreifende Anwendbarkeit bestehender KIS-Reifegradmodelle stößt häufig an die Grenzen einer heterogenen KIS-Landschaft. Grund hierfür ist zum einen die zumeist starre Auswahl an Reifegradindikatoren, die sich nur selten auf alle Ebenen der KIS-Qualität beziehen und zudem durch einen hohen Abstraktionsgrad gekennzeichnet sind. Ein anderer Grund liegt in den Verrechnungslogiken, die der jeweiligen Reifegradzuordnung zugrunde liegt. Diese weisen entweder einen kumulativen Charakter auf („je mehr desto besser“) oder sie orientieren sich an einem normativen Goldstandard („One size fits all“). Sowohl die festgelegte Auswahl und der hohe Abstraktionsgrad der Indikatoren, als auch die Verrechnungslogiken führen dazu, dass die IT-bezogene Zieldiversität, die zum einen zwischen den Krankenhäusern vorherrscht, aber auch in den Einrichtungen zwischen Fachbereichen und Professionen auftritt, unberücksichtigt bleibt.
In dem mwmKIS-Workshop soll an einem Lösungsansatz gearbeitet werden, der bestehende KIS-Reifegradmodelle in einem adaptiven Verfahren integriert. Im Zentrum des Lösungsansatzes steht ein erweiterbares Inventar standardisierter Reifegradparameter. Das Inventar soll es Krankenhäusern ermöglichen, im Sinne eines modularen Baukastensystems eine einrichtungsspezifische KIS-Reifegradmodellierung vorzunehmen. Jedes Krankenhaus kann somit seinen angestrebten IT-Reifegrad festlegen. Gleichzeitig bleibt die Möglichkeit einrichtungsübergreifender Vergleiche auf Ebene der Einzelindikatoren bestehen.

Der Workshop ist so aufgebaut, dass als erstes ein umfassender und systematischer Überblick über bestehende nationale und internationale KIS-Reifegradmodelle gegeben wird. Hierbei soll insbesondere die Indikatorebene betrachtet werden. Anschließend wird ein aktueller Ansatz für eine adaptive Reifegradmessung in einem großen Universitätsklinikum vorgestellt. Im weiteren Verlauf soll gemeinsam mit den Teilnehmern über Potenziale und über die organisatorische und technische Umsetzbarkeit eines adaptiven Reifegrades diskutiert werden. Weiterhin soll ein erster Aufschlag für das Indikatoren-Inventar erarbeitet werden, wobei als übergeordneter Rahmen das EHR Quality Requirements Framework (EHR-QRF) [1] und Goal-Question-Metric (GQM) [2] dienen soll. Das EHR-QRF erlaubt die Einordnung von Indikatoren in die drei Dimensionen Ergebnis-, Prozess- und Strukturqualität des Informationsmanagements. GQM ermöglicht die zielorientierte Auswahl und Entwicklung von Qualitätsindikatoren.
Herr Jan-David Liebe
Hochschule Osnabrück
Wednesday
11 Sep 2019
09:00 - 14:30
WS15
Influence of Big Data and Artificial Intelligence in Biomedical Informatics!?
Workshop of GMDS working group “Biomedizinische Informatik”. Artificial Intelligence (AI) approaches are being increasingly explored. During this workshop, the influence of big data and artificial intelligence in biomedical informatics will be discussed.

Session 1: Workshop "Influence of Big Data and Artificial Intelligence in Biomedical Informatics!?":
09:00 - 09:05 Introduction (Tim Beißbarth, University Medical Center Göttingen, Ulrich Sax, University Medical Center Göttingen)
09:05 - 09:40 „Trans-Discipline Cooperation for Precision Oncology“ (Prof. Dr. Frank Ückert, DKFZ Heidelberg)
09:40 - 10:15 "Understanding cancer phenotypes through network integration" (Prof. Dr. Andreas Beyer, Universität Köln)
10:15 - 10:30 Discussions

10:30 - 13:00 Keynote, Lunch

Session 2: Workshop "Influence of Big Data and Artificial Intelligence in Biomedical Informatics!?" & Wahl AG-Leiter der GMDS-AG "Biomedizinische Informatik":
13:00 - 13:35  “Big data analysis in the de.NBI Cloud” (Dr. Alexander Sczyrba, Universität Bielefeld)
13:35 - 14:10 "KI – Herausforderungen bei der Einführung" (Heiko Löwe, Dell EMC)
14:10 - 14:20 Discussions
14:20 - 14:30 AG-Leiter-Neuwahlen der GMDS-AG "Biomedizinische Informatik"
 
Room: C.3.32 (Location: Emil-Figge-Str. 42, Number of seats: 30)
Chair(s): Tim Beißbarth
Influence of Big Data and Artificial Intelligence in Biomedical Informatics!? (Benjamin Löhnhardt, Tim Beißbarth, Ulrich Sax)
Workshop Description:
Increasing amounts of high-throughput data sets are collected during the examination of patients, in particular imaging data and data from genome-wide screening techniques like next-generation sequencing (NGS) or proteomics. The analysis of these complex data sets identifies new challenges for biomedical informatics, medical bioinformatics, biostatistics, and systems medicine. Therefore, artificial intelligence approaches are being increasingly explored. During this workshop, the influence of big data and artificial intelligence in biomedical informatics will be discussed.

Audiences
The workshop addresses a wide audience from the fields of bioinformatics, medical informatics, and systems biology to biostatistics as well as epidemiology. The workshop is supposed to give an overview of the field and specifically address the overlaps and interfaces between all the different research areas and scientific communities.

Methods
The demands, challenges, and potential solutions regarding big data and artificial intelligence (AI) and its influence on biomedical informatics will be presented in several talks, bridging the domains of biomedical informatics, medical bioinformatics, biostatistics, and systems medicine. Furthermore, a fruitful interdisciplinary discussion will be encouraged.

Agenda:
Hosts / Moderator:
- Prof. Dr. Ulrich Sax (University Medical Center Göttingen, Dept. of Medical Informatics)
- Prof. Dr. Tim Beißbarth (University Medical Center Göttingen, Dept. of Medical Statistics)

Planned speaker:
- Prof. Dr. Frank Ückert (DKFZ Heidelberg)
- Prof. Dr. Andreas Beyer (University of Cologne)
- Dr. Alexander Sczyrba (Bielefeld University)
- Heiko Löwe (Dell EMC)

Election Head(s) of GMDS-WG Biomedical Informatics
Herr Tim Beißbarth
Institut für Medizinische Bioinformatik, Universitätsmedizin Göttingen
Herr Prof. Dr. Ulrich Sax
Institut für Medizinische Informatik, Universitätsmedizin Göttingen
Tuesday
10 Sep 2019
08:00 - 10:00
WS16
FAIRe Dateninfrastrukturen für biomedizinische Fachcommunities
Dieser Workshop wird von der Anfang 2019 eingerichteten GMDS-Projektgruppe „FAIRe Daten-Infrastrukturen für die Biomedizinische Informatik“ organisiert. Ziel dieser Projektgruppe soll sein, die Aktivitäten in den verschiedensten Projekten sowie an den unterschiedlichen deutschen Forschungsstandorten im Hinblick auf Infrastrukturen für FAIRes (Finadable, Accessible, Interoperable, Re-usable) Datenmanagement vorzustellen. Hierzu soll ein gemeinsamer Erfahrungsaustausch erfolgen, um gemeinsame Konzepte (z.B. Verbreitung von FAIR, Koordinierung von Entwicklungen, Standards und Guidelines, etc.) im Bereich der Biomedizinischen Informatik und der zugrunde liegenden Daten zu planen und Umsetzungsstrategien zu erarbeiten.Dieser Workshop zielt darauf, die GMDS-Projektgruppe sowie Dateninfrastruktur-Ansätze bzw. entsprechende Initiativen und deren Plattformen (z.B. FAIRDOM, ELIXIR und nationale Knoten wie das deutsche Bioinformatik-Infrastruktur Netzwerk de.NBI, die Medizininformatik-Initiative, Konsortien einer zu bildenden nationalen Forschungsdateninfrastruktur (NFDI), sowie Entwicklungen in SFB-INF-Projekten, etc.,...) für die biomedizinische Grundlagen- und translationale Forschung vorzustellen, die sich an den FAIR Prinzipien für wissenschaftliches Datenmanagement  orientieren. Mit den Teilnehmern des Workshops soll eine Diskussion über die Anforderungen an solche Infrastrukturen geführt werden. Dazu sind zwei Impulsvorträge geplant (z.B. durch Prof. Carole Goble von der University of Manchester und dem Direktor des europäischen ELIXIR-Netzwerks), gefolgt von kurzen “Elevator-Pitches” aller Teilnehmer, um die Bandbreite der vertretenen Initiativen und Plattformen zu überblicken. Im Anschluss sollen gemeinsame Strategieansätze für FAIRes Datenmanagement umrissen werden als Grundlage für die weitere Arbeit der Projektgruppe.Die anvisierte Zielgruppe des Workshop beinhaltet Infrastrukturanbieter, die FAIRe Werkzeuge und Plattformen für die biomedizinische Forschung entwickeln und betreiben, Vertreter der einschlägigen Fachcommunities und Forschungsnetzwerke, die FAIRe Daten-Infrastrukturen nutzen bzw. nutzen möchten, sowie alle weiteren Interessierten an der Verbesserung und besseren Verbreitung von FAIRen Datenmanagement-Strategien

Agenda:
Wolfgang Müller: Introduction to FAIR
Marc Kirschner: EU-STANDS4PM - A European standardization framework for data integration and data-driven in silico models for personalised medicine
Juliane Fluck: NFDI4Health – The National Research Data Infrastructure for Personal Health Data
Short introductions of data management projects of several national, European and international life science consortia
Interactive discussions
Room: A.2.03 (Location: Emil-Figge-Str. 42, Number of seats: 42)
Chair(s): Benjamin Löhnhardt, Martin Golebiewski, Harald Kusch and Matthias Löbe
FAIRe Dateninfrastrukturen für biomedizinische Fachcommunities (Benjamin Löhnhardt, Harald Kusch, Matthias Löbe, Martin Golebiewski)
Dieser Workshop wird von der Anfang 2019 eingerichteten GMDS-Projektgruppe „FAIRe Daten-Infrastrukturen für die Biomedizinische Informatik“ organisiert. Ziel dieser Projektgruppe soll sein, die Aktivitäten in den verschiedensten Projekten sowie an den unterschiedlichen deutschen Forschungsstandorten im Hinblick auf Infrastrukturen für FAIRes (Finadable, Accessible, Interoperable, Re-usable) Datenmanagement vorzustellen. Hierzu soll ein gemeinsamer Erfahrungsaustausch erfolgen, um gemeinsame Konzepte (z.B. Verbreitung von FAIR, Koordinierung von Entwicklungen, Standards und Guidelines, etc.) im Bereich der Biomedizinischen Informatik und der zugrunde liegenden Daten zu planen und Umsetzungsstrategien zu erarbeiten.

Dieser Workshop zielt darauf, die GMDS-Projektgruppe sowie Dateninfrastruktur-Ansätze bzw. entsprechende Initiativen und deren Plattformen (z.B. FAIRDOM, ELIXIR und nationale Knoten wie das deutsche Bioinformatik-Infrastruktur Netzwerk de.NBI, die Medizininformatik-Initiative, Konsortien einer zu bildenden nationalen Forschungsdateninfrastruktur (NFDI), sowie Entwicklungen in SFB-INF-Projekten, etc.,...) für die biomedizinische Grundlagen- und translationale Forschung vorzustellen, die sich an den FAIR Prinzipien für wissenschaftliches Datenmanagement orientieren. Mit den Teilnehmern des Workshops soll eine Diskussion über die Anforderungen an solche Infrastrukturen geführt werden. Dazu sind zwei Impulsvorträge geplant (z.B. durch Prof. Carole Goble von der University of Manchester und dem Direktor des europäischen ELIXIR-Netzwerks), gefolgt von kurzen “Elevator-Pitches” aller Teilnehmer, um die Bandbreite der vertretenen Initiativen und Plattformen zu überblicken. Im Anschluss sollen gemeinsame Strategieansätze für FAIRes Datenmanagement umrissen werden als Grundlage für die weitere Arbeit der Projektgruppe.

Die anvisierte Zielgruppe des Workshop beinhaltet Infrastrukturanbieter, die FAIRe Werkzeuge und Plattformen für die biomedizinische Forschung entwickeln und betreiben, Vertreter der einschlägigen Fachcommunities und Forschungsnetzwerke, die FAIRe Daten-Infrastrukturen nutzen bzw. nutzen möchten, sowie alle weiteren Interessierten an der Verbesserung und besseren Verbreitung von FAIRen Datenmanagement-Strategien
Herr Benjamin Löhnhardt
Universitätsmedizin Göttingen
Herr Dr. Harald Kusch
Universitätsmedizin Göttingen, Georg-August-Universität, Institut für Medizinische Informatik
Herr Matthias Löbe
Universität Leipzig
Herr Martin Golebiewski
HITS gGmbH
Wednesday
11 Sep 2019
13:00 - 14:30
WS17
Assistierende Gesundheitstechnologien, Ambient Assisted Living und die Rolle des Social Entrepreneurship
Die GMDS-Arbeitsgruppe „AAL/AGT“ richtet einen Workshop zum Thema "Assistierende Gesundheitstechnologien, Ambient Assisted Living und die Rolle des Social Entrepreneurship" aus. Unter dem Schlagwort "Social Entrepreneurship" versteht man Unternehmen, die sich sozial engagieren und bei der Lösung sozialer Probleme beitragen wollen. In unserem Workshop möchten wir Finanzierungsmodelle vorstellen und Erfahrungen von solchen Unternehmen, die sich im Umfeld von assistierende Gesundheitstechnologien und Ambient Assisted Living bewegen, einfangen und mit den Teilnehmern teilen.
Room: A.3.03 (Location: Emil-Figge-Str. 42, Number of seats: 42)
Chair(s): Matthias Gietzelt
Assistierende Gesundheitstechnologien, Ambient Assisted Living und die Rolle des Social Entrepreneurship (Matthias Gietzelt, Marianne Behrends)

Hintergrund und Zielsetzung

In vielen Forschungsprojekten zu Assistierenden Gesundheitstechnologien wird von den Förderern der Nachweis tragbarer Nachhaltigkeitsstrategien gefordert. Und auch viele Forscher_innen wünschen sich eine langfristige Nutzung, der von ihnen entwickelten Produkte und Dienstleistungen durch eine geeignete Vermarktungsidee. In einem oftmals defizitären Bereich mit einer Klientel mit beschränkten finanziellen Ressourcen geraten marktwirtschaftlich orientierte Konzepte aber schnell an die Grenze der Machbarkeit. Ein sozial orientiertes Unternehmen ist daher im Bereich assistierender Gesundheitstechnologien und Ambient Assisted Living (AAL/AGT) wünschenswert und auch für viele Forscher der angemessene Weg, um innovative Angebote für viele Personengruppen nutzbar zu machen.
Als soziales Unternehmertum oder Social Entrepreneurship werden marktwirtschaftliche Aktivitäten verstanden, bei denen nicht das Erzielen von Profiten im Vordergrund steht, sondern das Erreichen sozialer Ziele. Im Sinne einer Skalierbarkeit der Erfolge geht es im Social Entrepreneurship nicht vorrangig um einen Wettbewerbsvorsprung, sondern darum, dass sich soziale Effekte gesamtgesellschaftlich durchsetzen. Für Start-Ups im Bereich AAL und AGT bietet die Idee des Social Entrepreneurship daher interessante Ansätze. In Deutschland existieren zudem verschiedene Fördermöglichkeiten für soziale Unternehmen. Der Workshop der gmds Arbeitsgruppe AAL/AGT greift das Thema Social Entrepreneurship auf, um junge Wissenschaftler_innen neue Perspektiven für Nachhaltigkeitskonzepte aufzuzeigen.

Methode und Zielgruppe

Anhand von kurzen Impulsvorträgen verschiedener Referenten führt der Workshop in das Thema Social Entrepreneurship ein, stellt Fördermöglichkeiten vor und bietet Austauschmöglichkeiten mit Start-Up-Gründer. Der Workshop richtet sich dabei an Gründungsinteressierte und lädt zum gemeinsamen Erfahrungsaustausch zu diesem Thema ein.
Herr Dr. Matthias Gietzelt
Medizinische Hochschule Hannover
Monday
09 Sep 2019
09:45 - 12:45
WS18
Vorstellung und Diskussion von technischen und organisatorischen Strategien zum standortübergreifenden Record Linkage
Vorstellung und Diskussion von technischen und organisatorischen Strategien zum standortübergreifenden Record Linkage. Datenschutzrechtliche Betrachtung der Strategien

Einleitung
Vor dem Hintergrund, dass im Bereich der medizinischen Forschung der Bedarf an einer datenschutzkonformen Kombination von Patientendaten verschiedener Kliniken und sonstiger Einrichtungen kontinuierlich steigt, müssen technisch-organisatorische Lösungen gefunden und etabliert werden, die es ermöglichen, z. B. klinische Daten eines Patienten (Befunde, Behandlungen) unterschiedlicher Einrichtungen über bestimmte Zeiträume zusammenzuführen und eventuell mit weiteren Daten, z. B. von molekularbiologischen Untersuchungen, zu verknüpfen. Für diese Fusionierung sensibler Patientendaten muss in bestimmten Fällen nachverfolgt werden, welche Datensätze aus unterschiedlichen Einrichtungen zu ein und demselben Patienten gehören (Record Linkage). Ein solcher Prozess muss hohen Qualitätsansprüchen genügen, so dass alle Patienten korrekt identifiziert werden.1 In dieser Prozedur kann der Einsatz einer elektronischen Datentreuhänderschaft relevant sein, welche die informationelle Gewaltenteilung im datenschutzrechtlichen Kontext garantieren soll. Der Datentreuhänder verwaltet als rechtliche, räumlich und personell selbstständige und unabhängige Instanz zentral die elektronisch geführte Patientenliste. Dabei dient eine solche Liste der Speicherung der Kopplung identifizierender Patientendaten (IDAT), die im Rahmen eines Forschungsprojekts unterschiedlicher Herkunft sein können, und den entsprechenden Pseudonymen (PID). 2 Um die Duplikaterkennung oder die eindeutige Identifizierung zu gewährleisten, können verschiedene technische Verfahren zum Record Linkage zum Einsatz kommen.
Ein anderer möglicher Ansatz zur Umsetzung des Secure Record Linkage wird in der Secure-Multi-Party-Computation-Strategie (SMPC) beschrieben, wo verschiedene Interessenten diverse Anforderungen auf gemeinsamen Daten berechnen können, ohne dass ein Austausch der Daten im Klartext erfolgen muss3 4. Im Gegensatz zu bisherigen Vorgehensweisen im Record Linkage könnte mithilfe von SMPC eine Implementierung des Abgleichs von IDAT mit der Herausgabe eindeutiger IDs erreicht werden, ohne dass die IDAT die beteiligten Institutionen verlassen. Der Einsatz dieses Verfahrens mit kryptographischer Sicherheit könnte somit auf IT-Infrastrukturen angewandt werden, die auf vertrauenswürdige Instanzen verzichten.

Angestrebte Diskussion und Ergebnisse
In dem Workshop sollen unterschiedliche Anbieter von Treuhänderdiensten sowie Vertreter von Forschungsgruppen die Gelegenheit erhalten, ihre Vorgehensweise zum standortübergreifenden Record Linkage der Forschungsgemeinschaft vorzustellen. Die Vortragenden werden im Zuge der Workshop-Vorbereitung gebeten, auf bestimmte Aspekte dieses Themenbereichs einzugehen, die es erlauben, die Dienste hinsichtlich der technischen und organisatorischen Hintergründe des Secure Record Linkage vergleichen und diskutieren zu können. Zu diesem Zweck wird den Referenten im Vorfeld ein Fragenkatalog übermittelt, der inhaltlich die gewünschten Themenfelder abdeckt. Im Ergebnis sollen die unterschiedlichen Strategien datenschutzrechtlich eingeordnet und diskutiert werden. Somit können Interessierte nicht nur detailliert informiert werden, sondern auch Kontakt mit den unterschiedlichen Treuhanddiensten vor Ort aufnehmen. Schlussendlich soll der Workshop auch klären helfen, ob ggf. für bestimmte Anwendungsfälle noch Angebote fehlen, bzw. wo Schwierigkeiten bei der Einbindung von Treuhanddiensten bestehen.

Vorträge:
K. Kaulke: Einführung in das Themengebiet

Vorstellung der Record Linkage Strategien:
C. Hampf: Unabhängige Treuhandstelle der Universitätsmedizin Greifswald
H. Hund: GECKO Institut Hochschule Heilbronn
F. Stampe: DKFZ Heidelberg
E. Rahm: Universität Leipzig
Alle: Datenschutzrechtliche Betrachtung und Diskussion
K. Kaulke, J. Drepper: Zusammenfassung und Handlungsbedarf
Room: A.3.03 (Location: Emil-Figge-Str. 42, Number of seats: 42)
Chair(s): Knut Kaulke and Johannes Drepper
Standortübergreifendes Record Linkage mit und ohne Treuhandservice (Knut Kaulke, Stefanie Schneider)
Einleitung
Vor dem Hintergrund, dass im Bereich der medizinischen Forschung der Bedarf an einer datenschutzkonformen Kombination von Patientendaten verschiedener Kliniken und sonstiger Einrichtungen kontinuierlich steigt, müssen technisch-organisatorische Lösungen gefunden und etabliert werden, die es ermöglichen, z. B. klinische Daten eines Patienten (Befunde, Behandlungen) unterschiedlicher Einrichtungen über bestimmte Zeiträume zusammenzuführen und eventuell mit weiteren Daten, z. B. von molekularbiologischen Untersuchungen, zu verknüpfen. Für diese Fusionierung sensibler Patientendaten muss in bestimmten Fällen nachverfolgt werden, welche Datensätze aus unterschiedlichen Einrichtungen zu ein und demselben Patienten gehören (Record Linkage). Ein solcher Prozess muss hohen Qualitätsansprüchen genügen, so dass alle Patienten korrekt identifiziert werden.[i] In dieser Prozedur kann der Einsatz einer elektronischen Datentreuhänderschaft relevant sein, welche die informationelle Gewaltenteilung im datenschutzrechtlichen Kontext garantieren soll. Der Datentreuhänder verwaltet als rechtliche, räumlich und personell selbstständige und unabhängige Instanz zentral die elektronisch geführte Patientenliste. Dabei dient eine solche Liste der Speicherung der Kopplung identifizierender Patientendaten (IDAT), die im Rahmen eines Forschungsprojekts unterschiedlicher Herkunft sein können, und den entsprechenden Pseudonymen (PID).[ii] Um die Duplikaterkennung oder die eindeutige Identifizierung zu gewährleisten, können verschiedene technische Verfahren zum Record Linkage zum Einsatz kommen.
Ein anderer möglicher Ansatz zur Umsetzung des Secure Record Linkage wird in der Secure-Multi-Party-Computation-Strategie (SMPC) beschrieben, wo verschiedene Interessenten diverse Anforderungen auf gemeinsamen Daten berechnen können, ohne dass ein Austausch der Daten im Klartext erfolgen muss[iii] [iv]. Im Gegensatz zu bisherigen Vorgehensweisen im Record Linkage könnte mithilfe von SMPC eine Implementierung des Abgleichs von IDAT mit der Herausgabe eindeutiger IDs erreicht werden, ohne dass die IDAT die beteiligten Institutionen verlassen. Der Einsatz dieses Verfahrens mit kryptographischer Sicherheit könnte somit auf IT-Infrastrukturen angewandt werden, die auf vertrauenswürdige Instanzen verzichten.

Referate
Thema - Referent
Einführung in das Themengebiet - K. Kaulke
Vorstellung der Record Linkage Strategien:
  • Unabhängige Treuhandstelle der Universitätsmedizin Greifswald - D. Stahl
  • GECKO Institut Hochschule Heilbronn - H. Hund
  • DKFZ Heidelberg – F. Stampe
  • Universität Leipzig – E. Rahm
Datenschutzrechtliche Betrachtung und Diskussion – alle
Zusammenfassung und Handlungsbedarf - K. Kaulke, S. Schneider

Angestrebte Diskussion und Ergebnisse
In dem Workshop sollen unterschiedliche Anbieter von Treuhänderdiensten sowie Vertreter von Forschungsgruppen die Gelegenheit erhalten, ihre Vorgehensweise zum standortübergreifenden Record Linkage vorzustellen der Forschungsgemeinschaft vorzustellen. Die Vortragenden werden im Zuge der Workshop-Vorbereitung gebeten, auf bestimmte Aspekte dieses Themenbereichs einzugehen, die es erlauben, die Dienste hinsichtlich der technischen und organisatorischen Hintergründe des Secure Record Linkage vergleichen und diskutieren zu können. Zu diesem Zweck wird den Referenten im Vorfeld ein Fragenkatalog übermittelt, der inhaltlich die gewünschten Themenfelder abdeckt. Im Ergebnis sollen die unterschiedlichen Strategien datenschutzrechtlich eingeordnet und diskutiert werden. Somit können Interessierte nicht nur detailliert informiert werden, sondern auch Kontakt mit den unterschiedlichen Treuhanddiensten vor Ort aufnehmen. Schlussendlich soll der Workshop auch klären helfen, ob ggf. für bestimmte Anwendungsfälle noch Angebote fehlen, bzw. wo Schwierigkeiten bei der Einbindung von Treuhanddiensten bestehen.
Herr Dr. Knut Kaulke
TMF - Technologie- und Methodenplattform für die vernetzte medizinische Forschung e.V.
Frau Stefanie Schneider
TMF - Technologie- und Methodenplattform für die vernetzte medizinische Forschung e.V.
Tuesday
10 Sep 2019
16:15 - 18:15
WS19
Machine Learning Neuronal Networks und innovative Technologien für die Arbeitsunterstützung und Qualitätssicherung in der Krebsregistrierung
Einleitung
Die Aufbauphase der klinischen Krebsregister nach KFRG ist nahezu abgeschlossen und in jedem Bundesland werden stetig mehr Leistungserbringer über Schnittstellen an die Krebsregister angeschlossen.
Die damit einhergehende Flut von Daten in Form von Meldungen definiert durch den onkologischen Basisdatensatz und strukturiert nach ADT GEKID muss entsprechend den definierten Bearbeitungszeiten, also innerhalb von 6 Wochen nach Eingang, bearbeitet werden.
Dies ist nur durch den Einsatz von personellen Ressourcen auch mit dem Hinblick auf qualitätsgesicherte Daten nicht zu bewältigen und bedarf innovativer Ansätze.

Methode
Der Workshop der AG Krebsregister möchte sich in diesem Jahr mit der Thematik Machine Learning/ Neuronal Networks und innovativer Technologien für die Arbeitsunterstützung und Qualitätssicherung in der Krebsregistrierung beschäftigen und konkrete Ansätze vorstellen. Es sind zwei 90minütige Sessions mit einer Pause geplant. In kurzen Beiträgen sollen konkrete Umsetzungen bzw. Umsetzungsideen vorgestellt werden. Die Teilnehmer des Workshops sollen im Anschluss jeder Vorstellung die Vor- und Nachteile der jeweiligen vorgestellten Idee festhalten und die Anwendbarkeit der Idee auf ihr Arbeitsfeld bewerten. Darüber hinaus sollen die Ideen und Ergebnisse aus dem Workshop aus dem Vorjahr, der sich mit Datenmodell und dem klinischen Best-Of in der Krebsregistrierung beschäftigt hatte, reflektiert werden.

Ergebnisse
Für den Workshop stehen Beiträge aus den folgenden Themengebieten zur Verfügung:
- Klassifizierung von Histologie Freitexten zu Histologie Codes mittels Support Vector Machines
- Klassifizierung von ICD10 Freitexten zu ICD10 Codes mittel Support Vector Machines
- Entscheidungsunterstützung bei der Zuordnung von Erkrankungen durch Deep Neuronal Networks
- Qualitätssicherung der automatisierten Erkennung von Erkrankungen durch Deep Neuronal Networks
- Texterkennung von Pathologischen Befunden hin zu strukturierten Datensets
- Monitoring Systeme für Krebsregister
- KPIs für Krebsregister

Diskussion:
Der Workshop hat einen Fokus auf die klinische Krebsregistrierung nach KFRG, soll aber auch andere Kongressteilnehmer ansprechen, die sich entweder mit klinischen Registern oder Machine Learning beschäftigen.
 
Room: 182 (Location: Emil-Figge-Str. 44, Number of seats: 72)
Machine Learning/ Neuronal Networks und innovative Technologien für die Arbeitsunterstützung und Qualitätssicherung in der Krebsregistrierung (Philipp Kachel, Tobias Hartz)
Machine Learning/ Neuronal Networks und innovative Technologien für die Arbeitsunterstützung und Qualitätssicherung in der Krebsregistrierung

Kachel*, Hartz+
*Krebsregister Rheinland-Pfalz
+Klinisches Krebsregister Niedersachsen

Einleitung

Die Aufbauphase der klinischen Krebsregister nach KFRG ist nahezu abgeschlossen und in jedem Bundesland werden stetig mehr Leistungserbringer über Schnittstellen an die Krebsregister angeschlossen.
Die damit einhergehende Flut von Daten in Form von Meldungen definiert durch den onkologischen Basisdatensatz und strukturiert nach ADT GEKID muss entsprechend den definierten Bearbeitungszeiten, also innerhalb von 6 Wochen nach Eingang, bearbeitet werden.
Dies ist nur durch den Einsatz von personellen Ressourcen auch mit dem Hinblick auf qualitätsgesicherte Daten nicht zu bewältigen und bedarf innovativer Ansätze.

Methode

Der Workshop der AG Krebsregister möchte sich in diesem Jahr mit der Thematik Machine Learning/ Neuronal Networks und innovativer Technologien für die Arbeitsunterstützung und Qualitätssicherung in der Krebsregistrierung beschäftigen und konkrete Ansätze vorstellen. Es sind zwei 90minütige Sessions mit einer Pause geplant. In kurzen Beiträgen sollen konkrete Umsetzungen bzw. Umsetzungsideen vorgestellt werden. Die Teilnehmer des Workshops sollen im Anschluss jeder Vorstellung die Vor- und Nachteile der jeweiligen vorgestellten Idee festhalten und die Anwendbarkeit der Idee auf ihr Arbeitsfeld bewerten. Darüber hinaus sollen die Ideen und Ergebnisse aus dem Workshop aus dem Vorjahr, der sich mit Datenmodell und dem klinischen Best-Of in der Krebsregistrierung beschäftigt hatte, reflektiert werden.

Ergebnisse

Für den Workshop stehen Beiträge aus den folgenden Themengebieten zur Verfügung:
  • Klassifizierung von Histologie Freitexten zu Histologie Codes mittels Support Vector Machines
  • Klassifizierung von ICD10 Freitexten zu ICD10 Codes mittel Support Vector Machines
  • Entscheidungsunterstützung bei der Zuordnung von Erkrankungen durch Deep Neuronal Networks
  • Qualitätssicherung der automatisierten Erkennung von Erkrankungen durch Deep Neuronal Networks
  • Texterkennung von Pathologischen Befunden hin zu strukturierten Datensets
  • Monitoring Systeme für Krebsregister
  • KPIs für KrebsregisterDiskussion
Der Workshop hat einen Fokus auf die klinische Krebsregistrierung nach KFRG, soll aber auch andere Kongressteilnehmer ansprechen, die sich entweder mit klinischen Registern oder Machine Learning beschäftigen.
Herr Philipp Kachel
Krebsregister Rheinland-Pfalz gGmbH
Herr Tobias Hartz
Klinisches Krebsregister Niedersachsen
Monday
09 Sep 2019
15:30 - 17:00
WS22
Methods & Statistics Workshop "Work in progress and late-breaking contributions"
Dieser neue Workshop der AG Epidemiologische Methoden der GMDS zu den Themenbereichen:
Methoden und Statistik für die Planung, Durchführung und Auswertung klinischer und epidemiologischer Studien sowie weiterer methodischer Aspekte:aus der Epidemiologie (Bias, Confounding, Kausalität), Entwicklung und Validierung von Erhebungsmethoden,Datenschutz, Datensicherheit, Datenaustausch Implementierung von Prozessen in Studien und Qualitätsmanagement,Berichtsqualität,methodische Aspekte besonderer Datenarten (z.B. Sekundärdaten, Daten-Linkage, Citizen Data) soll Wissenschaftlern und Forschungsgruppen verschiedener Institutionen eine Möglichkeit bieten, Work in progress oder late-breaking contributions aus dem Bereich Methodik und Statistik klinischer und epidemiologischer Studien vorzustellen und Anregungen aus der Diskussion für die weitere Arbeit nutzen zu können. Für den Workshop können auch methodische und statistische Beiträge aus anderen GMDS-AGs eingereicht werden, u. a. Beiträe aus unserer Partner-AG "Statistische Methodik in der klinischen Forschung".

Vorträge
Marcus Oswald: Macrolide combination therapy for hospitalized CAP patients? An individualized approach supported by machine learning
Rainer König: Use of IFNγ/IL10 ratio for stratification of hydrocortisone therapy in patients with septic shock

Weitere Beiträge des Workshops werden in Kürze im Online-Programm und auf https://twitter.com/ag_epi_meth angekündigt.
Room: B.1.20 (Location: Emil-Figge-Str. 42, Number of seats: 25)
Methods & Statistics Workshop "Work in progress and late-breaking contributions", Workshop der AG "Epidemiologische Methoden" der GMDS (Juliane Hardt, André Karch, Sebastian-Edgar Baumeister, Carsten Oliver Schmidt)
Dieser neue Workshop der AG Epidemiologische Methoden der GMDS zu den Themenbereichen:

Methoden und Statistik für die Planung, Durchführung und Auswertung klinischer und epidemiologischer Studien

sowie weiterer methodischer Aspekte:

- aus der Epidemiologie (Bias, Confounding, Kausalität),
- Entwicklung und Validierung von Erhebungsmethoden,
- Datenschutz, Datensicherheit, Datenaustausch
- Implementierung von Prozessen in Studien und Qualitätsmanagement
- Berichtsqualität
- methodische Aspekte besonderer Datenarten (z.B. Sekundärdaten, Daten-Linkage, Citizen Data)

soll Wissenschaftlern und Forschungsgruppen verschiedener Institutionen eine Möglichkeit bieten, Work in progress oder late-breaking contributions aus dem Bereich Methodik und Statistik klinischer und epidemiologischer Studien vorzustellen und Anregungen aus der Diskussion für die weitere Arbeit nutzen zu können.

Für den Workshop können auch methodische und statistische Beiträge aus anderen GMDS-AGs eingereicht werden, u. a. Beiträe aus unserer Partner-AG "Statistische Methodik in der klinischen Forschung".
Frau Juliane Hardt (Dipl.-Psych.)
AG Epidemiologische Methoden der GMDS
Wednesday
11 Sep 2019
13:00 - 14:30
WS14_2
Adaptierbarkeit und Zielorientierung bei der Anwendung von KIS-Reifegradmodellen
Die einrichtungsübergreifende Anwendbarkeit bestehender KIS-Reifegradmodelle stößt häufig an die Grenzen einer heterogenen KIS-Landschaft. Grund hierfür ist zum einen die zumeist starre Auswahl an Reifegradindikatoren, die sich nur selten auf alle Ebenen der KIS-Qualität beziehen und zudem durch einen hohen Abstraktionsgrad gekennzeichnet sind. Ein anderer Grund liegt in den Verrechnungslogiken, die der jeweiligen Reifegradzuordnung zugrunde liegt. Diese weisen entweder einen kumulativen Charakter auf („je mehr desto besser“) oder sie orientieren sich an einem normativen Goldstandard („One size fits all“).
Sowohl die festgelegte Auswahl und der hohe Abstraktionsgrad der Indikatoren, als auch deren Verrechnung führen dazu, dass die IT-bezogene Zieldiversität, die sowohl zwischen den Krankenhäusern vorherrscht, aber auch in den Einrichtungen zwischen Fachbereichen und Professionen auftritt, unberücksichtigt bleibt.
Vor diesem Hintergrund werden in dem mwmKIS-Workshop aktuelle KIS Reifegradmodelle vorgestellt und kritisch diskutiert. Ziel ist die Erarbeitung eines Lösungsansatzes, der bestehende KIS-Reifegradmodelle in einem adaptiven Verfahren integriert. Dieser integrierte Ansatz soll es Krankenhäusern ermöglichen, im Sinne eines modularen Baukastensystems eine einrichtungsspezifische KIS-Reifegradmodellierung vorzunehmen.

Vorträge:
Dr. Ben Illigens: Check IT - Das Analysetool zum digitalen Krankenhaus vom Marburger Bund und BVITG
Frank Dickmann: Der IT-Reifegrad von Krankenhäusern: Modell der KIT-CON für ein effizientes Krankenhaus-IT-Controlling
Dr. Sven Meister / Anja Burmann: Das Fraunhofer Reifegradmodell »Digitales Krankenhaus«
Katja Kümmel / Barbara Thorberger / Lena Frommer / Dr. Jan-David Liebe: Adaptives Reifegrad Assessment zur strategieorientierten Messung der KIS-Qualität am Beispiel des Universitätsklinikums Münster
Prof Dr. Horst Kunhardt: KIS Reifegradmodelle - Erfahrungen aus Sicht eines Krankenhaus CIOs
Moritz Esdar: Prozessorientierte Reifegradmessung mit dem Workflow Composite Score
Lena Frommer: Eine systematische Übersicht bestehender KIS Reifegradmodelle
Room: B.1.20 (Location: Emil-Figge-Str. 42, Number of seats: 25)
Chair(s): Jan-David Liebe and Franziska Jahn
Wednesday
11 Sep 2019
08:45 - 10:15
WS23
Women in Digital Health / SheHealth – Wege in Führungspositionen
Frauen im Bereich Digital Health sind nicht wegzudenken, aber vor allem in Führungspositionen weiterhin unterrepräsentiert. Welche Rahmenbedingungen sind nötig, um dies zu verändern? Wie sind die Karrierewege in Wissenschaft und Wirtschaft? Wie kommen Frauen in Leitungspositionen, Vorstände und Aufsichtsräte?

Teil 1 – Impulsreferate
Wege zur … Professorin (Sylvia Thun)
Wege zur … Aufsichtsrätin (Britta Böckmann)
Wege zur … CIO (Katja Kümmel)

Teil 2 – Breakout Sessions
Diskussion in Kleingruppen über Karrierewege, Netzwerke, sowie über die Rolle von Politik und Fachgesellschaften.
 
Room: A.2.02 (Location: Emil-Figge-Str. 42, Number of seats: 124)
Chair(s): Sylvia Thun and Brigitte Strahwald
Women in Digital Health / SheHealth – Wege in Führungspositionen (Brigitte Strahwald, Sylvia Thun)
Frauen im Bereich Digital Health sind nicht wegzudenken, aber vor allem in Führungspositionen weiterhin unterrepräsentiert. Welche Rahmenbedingungen sind nötig, um dies zu verändern? Wie sind die Karrierewege in Wissenschaft und Wirtschaft? Wie kommen Frauen in Leitungspositionen, Vorstände und Aufsichtsräte?

Teil 1 – Impulsreferate
Wege zur … Professorin (Sylvia Thun)
Wege zur … Aufsichtsrätin (Britta Böckmann, angefragt)
Wege zur … CIO (Katja Kümmel, angefragt)
Wege zur … StartUp-Gründerin (NN)

Teil 2 – Breakout Sessions
Diskussion in Kleingruppen über Karrierewege, Netzwerke, sowie über die Rolle von Politik und Fachgesellschaften.

Der Workshop wird von der SheHealth Community organisiert und durchgeführt.
Frau Brigitte Strahwald
LMU München
Frau Prof. Dr. Sylvia Thun
Hochschule Niederrhein Charite Berlin BIH
Wednesday
11 Sep 2019
13:00 - 14:30
WS28
MI Up2Date
Experten aus Medizininformatischen GMDS Arbeitsgruppen präsentieren die neuesten Entwicklungen des Fachs

Vorträge:
René Werner: KI in der Medizinischen Bildverarbeitung/Radiomics
Monika Pobiruchin, Veronika Strotbaum: National und international – Was läuft in Sachen Consumer Health Informatics?"
Philipp Bruland, Ann-Kristin Kock-Schopenhauer, Dennis Kadioglu: Dokumentierst Du noch oder nutzt Du schon?
 
Room: A.2.02 (Location: Emil-Figge-Str. 42, Number of seats: 124)
Wednesday
11 Sep 2019
08:45 - 10:15
WS30
Forschung mit nicht-einwilligungsfähigen Patienten in Notfallsituationen
Room: C.3.34 (Location: Emil-Figge-Str. 42, Number of seats: 30)
Wednesday
11 Sep 2019
08:45 - 10:15
WS31
IT-Sicherheit: Wo stehen wir?
Vorträge:
Prof. Dr. René Treibert: IT-Sicherheit 2019 – ein Update
Dr. Stefan Bücken: IT-Sicherheit aus dem Blickwinkel eines Universitätsklinikums
Florian Gottschalk: Das KRITIS Projekt der Universitätsmedizin Göttingen
Room: A.1.02 (Location: Emil-Figge-Str. 42, Number of seats: 124)
Chair(s): Hans-Ulrich Prokosch and Bernhard Breil
Tuesday
10 Sep 2019
14:45 - 16:15
WS32
Medical Device Regulation is coming
Room: A.2.02 (Location: Emil-Figge-Str. 42, Number of seats: 124)
Monday
09 Sep 2019
11:15 - 12:45
WS33
Update-Session: Montag
Room: A.1.03 (Location: Emil-Figge-Str. 42, Number of seats: 42)
Chair(s): Brigitte Strahwald
Tuesday
10 Sep 2019
11:15 - 12:45
WS34
Update-Session: Dienstag
Room: A.1.03 (Location: Emil-Figge-Str. 42, Number of seats: 42)
Chair(s): Brigitte Strahwald
Wednesday
11 Sep 2019
13:00 - 14:30
WS35
Update-Session: Mittwoch
Room: A.1.03 (Location: Emil-Figge-Str. 42, Number of seats: 42)
Chair(s): Brigitte Strahwald
Tuesday
10 Sep 2019
08:00 - 10:00
WS36
Veröffentlichen von Fachpublikationen in den GMDS-Fachgebieten: Was ist zu beachten?
Der Workshop richtet sich insbesondere an Wissenschaftler(inn)en der GMDS, die sich am Anfang ihrer wissenschaftlichen Karriere befinden (z.B. während oder kurz nach der Promotion) und die noch keine oder wenig Erfahrung bei dem Publizieren ihrer Forschungsergebnisse - insbesondere in internationalen Publikationsorganen - haben. In dem Workshop geht es zunächst um gute Forschung in diesen Fachgebieten, mit einem Schwerpunkt auf dem Gebiet der Medizinischen Informatik. Anschließend werden die Publikationsschritte aus Sicht von Autoren, aber auch aus Sicht von Gutachtern und Herausgebern beschrieben und diskutiert. Der Referent hat u.a. 15 Jahre lang die Zeitschrift Methods of Information in Medicine und 7 Jahre das IMIA Yearbook of Medical Informatics (mit) herausgegeben. Ähnliche Workshops wurden während der letzten Jahre von ihm bzw. unter seiner Beteiligung auf internationalen Kongressen abgehalten.
Room: A.1.03 (Location: Emil-Figge-Str. 42, Number of seats: 42)
Chair(s): Reinhold Haux
Monday
09 Sep 2019
15:30 - 17:00
WS37
KI - Hope or Hype?
Nach einer thematischen Einführung/Übersicht in aktuelle KI-Entwicklungen in der Medizin wird ein Vortrag zur Illustration von Chancen und Nutzen von KI-Anwendungen (Maschinellem Lernen/Deep Learning) im Gesundheitswesen gehalten; es folgt ein kritischer Vortrag, der eher Risiken oder fehlenden Nutzen darstellt. Abschließend folgt die Diskussion gemeinsam mit den Referenten und dem Publikum.

Vorträge
Andreas Leha: Einführender Übersichtsvortrag zu „KI in der Medizin“
Prof. Dr. Lars Kadereli: Chancen und Nutzen von KI-Anwendungen in der Medizin
Prof. Dr. Gerd Antes: Risiken und Probleme von KI-Anwendungen in der Medizin
Room: A.1.02 (Location: Emil-Figge-Str. 42, Number of seats: 124)
Chair(s): Hans-Ulrich Prokosch and Tim Friede
Wednesday
11 Sep 2019
08:00 - 10:30
WS38
Perspektiven der Elektronischen FallAkte (EFA)
Die Elektronische FallAkte (EFA) hat mit der Spezifikation 2.0 die technische Reife erzielt, um Leistungserbringern eine sichere und nachhaltige, intersektorale Kommunikation zu ermöglichen. Die EFA wird inzwischen in unterschiedlichen Versorgungsszenarien erfolgreich eingesetzt und wird daher auch von der Gesundheitspolitik als wichtiges Werkzeug der arztgeführten Kommunikation wahrgenommen.
Room: A.1.03 (Location: Emil-Figge-Str. 42, Number of seats: 42)
Monday
09 Sep 2019
10:45 - 12:45
WS39
Die Datenintegrationszentren des MIRACUM-Projekts - Ziele, Konzepte, Realisierungen und Ergebnisse
Ziel des Workshops ist es, die Fachöffentlichkeit über das BMBF-Förderprogramm „Medizininformatik“ zu informieren und Ergebnisse aus diesem vorzustellen. Im Rahmen dieses Programms soll eine deutschlandweite, gemeinsame, datenschutzgerechte Nutzung von Patientendaten aller Art zur Verbesserung der Patientenversorgung im Sinne eines lernenden Gesundheitssystems, zunächst ausgehend von der Universitätsmedizin, ermöglicht werden.MIRACUM (Medical Informatics in Research and Care in University Medicine, siehe auch www.miracum.de) ist eines von vier BMBF-geförderten Konsortien, das in der Zwischenzeit aus zehn Universitäten mit ihren Medizinischen Fakultäten und Universitätsklinika (Erlangen, Dresden, Frankfurt, Freiburg, Gießen, Greifswald, Magdeburg, Mainz, Mannheim, Marburg), zwei Hochschulen (Gießen, Mannheim) und einem Industriepartner (Averbis GmbH, Freiburg) besteht. An allen universitären Standorten des MIRACUM-Verbundprojektes werden Daten aus der Krankenversorgung und Forschung in Datenintegrationszentren effizient zusammengeführt, um diese mit Hilfe von innovativen IT-Lösungen für Forschungszwecke und Therapieentscheidungen in der Krankenversorgung zentral nutzen zu können. Dazu werden die Daten verdichtet und ausgewertet sowie ihre Ergebnisse visualisiert dargestellt. Während des Workshops werden u. a. das auf Open Source-Lösungen aufbauende Gesamtkonzept der Datenintegrationszentren, die Datenintegration mit ETL und FHIR, ferner die Erschließung von Daten zu COPD- und Asthmaerkrankungen sowie Lungenfunktionsstörungen präsentiert und ausführlich diskutiert. In diesem Zusammenhang wird auch verdeutlicht, welche Bedeutung Treuhandstellen für die Datenintegrationszentren haben. Zum Abschluss erfolgen eine Zusammenfassung der bisherigen Ergebnisse und eine kurze Reflexion der bisherigen Arbeiten im MIRACUM-Projekt unter Einbindung der Teilnehmer des Workshops.Der Workshop besteht einerseits aus mehreren Vorträgen, bietet andererseits aber auch umfangreiche Möglichkeiten zur Diskussion.
Room: B.1.20 (Location: Emil-Figge-Str. 42, Number of seats: 25)
Chair(s): Alfred Winter and Paul Schmücker
Tuesday
10 Sep 2019
08:15 - 09:45
AG24
Task Force Jahrestagungen
Room: A.E.02 (Location: Emil-Figge-Str. 42, Number of seats: 124)
Chair(s): Brigitte Strahwald
Tuesday
10 Sep 2019
14:45 - 18:45
WS41
Von EHR zu EHR-S mit patienten- und forschungszentrierten Anwendungen
Ziel dieses Workshops ist es, die aktuelle nationale Entwicklung von Aktensystemen (EHR-S) an europäischen bzw. internationalen Dienstangeboten in Bezug auf vorhandene und absehbare funktionale Eigenschaften bzw. an Standards wie HL7 EHR-S FM [1] zu spiegeln. Dabei sollen patienten- und forschungszentrierte Anwendungen, die Nutzung des Kontexts über Metadaten und der Inhalte durch semantische Annotation sowie die Integration mit Bestandssystemen betrachtet werden. Vom Ablauf her soll der Workshop zunächst nationale Lösungen (z.B. ELGA [2], Patientendossier [3], §291a Akte gemäß TI [4]) vorstellen und in Bezug auf die oben genannten Aspekte vergleichend diskutieren. Internationale Entwicklungen wie z.B. eHealth Digital Service Infrastructure (eHDSI) [5] oder Arbeiten zur International Patient Summary (IPS) von HL7 und CEN [6] ermöglichen Dienste auf europäischer bzw. internationaler Ebene, auch für länderübergreifende Anwendungen zur Patientenversorgung oder Forschung. Im Mittelpunkt aller Aktensysteme stehen Patientennutzen, Datenschutz und Datensicherheit und Interoperabilität. Falls Daten aus einrichtungsübergreifenden Akten aber auch für die medizinische Forschung nutzbar sein sollen, stellen sich zusätzliche Anforderungen. Lösungsansätze dafür sollen an Beispielen erläutert werden. So strebt die aktuelle Hightech-Strategie der Bundesregierung die Verfügbarkeit einer „forschungskompatiblen Patientenakte“ bis 2025 an [7]. Es wird erwartet, dass sich aus dem Workshop Impulse für die weitere Gestaltung von aktenbasierten Diensten ergeben, die u. a. die deutsche Telematikinfrastruktur, ihre Ausgestaltung und Akzeptanz positiv beeinflussen können. Ein weiteres Ziel ist die Etablierung und Förderung der Zusammenarbeit zwischen den beteiligten Organisationen und Akteuren.
 
Room: A.2.03 (Location: Emil-Figge-Str. 42, Number of seats: 42)
Von EHR zu EHR-S mit patienten- und forschungszentrierten Anwendungen (Martin Staemmler, Christof Gessner, Paul Schmücker)
Ziel dieses Workshops ist es, die aktuelle nationale Entwicklung von Aktensystemen (EHR-S) an europäischen bzw. internationalen Dienstangeboten in Bezug auf vorhandene und absehbare funktionale Eigenschaften bzw. an Standards wie HL7 EHR-S FM [1] zu spiegeln. Dabei sollen patienten- und forschungszentrierte Anwendungen, die Nutzung des Kontexts über Metadaten und der Inhalte durch semantische Annotation sowie die Integration mit Bestandssystemen betrachtet werden.
Vom Ablauf her soll der Workshop zunächst nationale Lösungen (z.B. ELGA [2], Patientendossier [3], §291a Akte gemäß TI [4]) vorstellen und in Bezug auf die oben genannten Aspekte vergleichend diskutieren. Internationale Entwicklungen wie z.B. eHealth Digital Service Infrastructure (eHDSI) [5] oder Arbeiten zur International Patient Summary (IPS) von HL7 und CEN [6] ermöglichen Dienste auf europäischer bzw. internationaler Ebene, auch für länderübergreifende Anwendungen zur Patientenversorgung oder Forschung.
Im Mittelpunkt aller Aktensysteme stehen Patientennutzen, Datenschutz und Datensicherheit und Interoperabilität. Falls Daten aus einrichtungsübergreifenden Akten aber auch für die medizinische Forschung nutzbar sein sollen, stellen sich zusätzliche Anforderungen. Lösungsansätze dafür sollen an Beispielen erläutert werden. So strebt die aktuelle Hightech-Strategie der Bundesregierung die Verfügbarkeit einer „forschungskompatiblen Patientenakte“ bis 2025 an [7].
Es wird erwartet, dass sich aus dem Workshop Impulse für die weitere Gestaltung von aktenbasierten Diensten ergeben, die u. a. die deutsche Telematikinfrastruktur, ihre Ausgestaltung und Akzeptanz positiv beeinflussen können. Ein weiteres Ziel ist die Etablierung und Förderung der Zusammenarbeit zwischen den beteiligten Organisationen und Akteuren.
Der Workshop soll 180 Minuten bzw. 240 Minuten dauern. Es besteht einerseits aus mehreren Vorträgen, bietet andererseits aber auch umfangreiche Möglichkeiten zur Diskussion nach den Vorträgen und in der Podiumsdiskussion.
Herr Prof.Dr.-Ing. Martin Staemmler
Hochschule Stralsund
Herr Dr. Christof Gessner
gematik Gesellschaft für Telematikanwendungen der Gesundheitskarte mbH
Wednesday
11 Sep 2019
10:45 - 12:15
WS42
Nichtparametrische und parametrische Methoden bei komplexen Datenstrukturen – ein anwendungsorientierter Vergleich II
Die AG Statistische Methodik in der klinischen Forschung richtet auf der diesjährigen GMDS einen Workshop zu komplexen Datenstrukturen aus. Im Rahmen unseres Workshops werden die zwei eingeladenen Redner Susanne Sehner(UKE, Hamburg) und Prof. Dr. Frank Konietschke(Charité, Berlin) zunächst einen Überblick sowohl über parametrische als auch über nichtmetrische Verfahren zur Analyse komplexer Datenstrukturen geben und dabei auf die Vor-und Nachteile der spezifischen Methoden eingehen.Eingereichte Vorträge werden den Workshop mit Beispielen bereichern.

Zu diesem Workshop wurden zwei Redner eingeladen:
Im ersten Abschnitt ist es Frau Susanne Sehner mit Parametrische Methoden zur Analyse komplexer Datenstrukturen – ein Überblick
Im zweiten Abschnitt Herr Frank Konietschke mit Nichtparametrische Methoden zur Analyse komplexer Datenstrukturen – ein Überblick


Weitere Informationen
Room: A.2.03 (Location: Emil-Figge-Str. 42, Number of seats: 42)
Chair(s): Daniela Adolf and Christel Weiß
Denominator Degrees of Freedom Approximations for Small Sample Stepped Wedge Cluster Randomized Trials (Philipp Mildenberger, Jochem König)

Stepped wedge cluster randomized trials (SWCRT) are a versatile alternative to parallel group cluster randomized designs and are becoming an increasingly popular tool in health services research for evaluation of complex interventions.
SWCRT are preferably used when logistical considerations make it feasible to implement the intervention
sequentially or when the intervention under investigation is belived to have a benign effect since all clusters receive said intervention in the course of the study.
Especially for small numbers of clusters, caution is required for preserving type one error. There are bias-corrected GEE approaches that are recently shown to maintain test size for even small cluster numbers without notable loss of power. Li & al. (1) cover marginal models for continuous as well as for binary data. They use the between-within method for the approximation of denominator degrees of freedom (DDF), which worked well in the examples Li & al. presented. This agrees well with the findings of Li, Redden (2) who considered various types of denominator degrees approximations for small sample cluster randomized trials. However the between-within method becomes unfeasible for SWCRTs with only one few clusters per sequence. We therefore aim to investigate DDF approximation options in settings with not more than three clusters per sequence.
Herr Philipp Mildenberger
Universitätsmedizin der Johannes Gutenberg-Universität Mainz Institut für Medizinische Biometrie, Epidemiologie und Informatik
Nonparametric multiple contrast tests for general multivariate factorial designs (Asanka Gunawardana, Frank Konietschke)
In many scientific fields, the most frequently used experimental or observational study designs rely on multivariate layouts. Such designs can have more than two possibly correlated response variables observed on each experimental unit and should allow comparisons across different treatment groups. Existing parametric tests in multivariate data analysis are based on the assumption that the observations follow multivariate normal distributions with equal covariance matrices across the groups. Such assumptions, however, are impossible to justify in real observations, e.g., for skewed data or ordered categorical data. In fact, existing methods that rely on the assumption of equal covariance matrices tend to be highly liberal or conservative when the covariance matrices of the different groups are actually different. In this study, we develop purely nonparametric multiple inference methods for general multivariate data that neither assume any specific data distribution nor identical covariance matrices across the treatment groups. Continuous, discrete, and even ordered categorical data could be analyzed with these procedures in a unified way. To test hypotheses formulated in terms of purely nonparametric treatment effects, we derive pseudo-rank based multiple contrast tests and simultaneous confidence intervals. Hereby, the simultaneous confidence intervals are compatible with multiple comparisons. The small-sample performance of the procedures is examined in a simulation study which indicates that the proposed procedures (i) control the family-wise error rate quite accurately and (ii) have a substantially higher power under non-normality than mean-based parametric competing methods. A real data example illustrates the application of the proposed tests.
Frau Asanka Gunawardana
Institut für Biometrie und klinische Epidemiologie, Charité – Universitätsmedizin Berlin
Tuesday
10 Sep 2019
11:45 - 12:45
AG1
Lehre und Didaktik in der Biometrie
Arbeitsgruppentreffen der AG Lehre und Didaktik. Offen für alle Interessierte an der Lehre in der Statistik oder Allgemein von Medizin bis Informatik. Wir freuen uns immer über neue Teilnehmer, die auch nur gerne mal reinschnuppern wollen.
Room: C.E.40 (Location: Emil-Figge-Str. 42, Number of seats: 15)
Chair(s): Jochen Kruppa
Tuesday
10 Sep 2019
12:00 - 12:45
AG2
Therapeutische Forschung
Room: A.1.02 (Location: Emil-Figge-Str. 42, Number of seats: 124)
Chair(s): Meinhard Kieser
Tuesday
10 Sep 2019
08:30 - 12:45
AG3
Datenschutz im Gesundheitswesen
Treffen der Arbeitsgruppe DIG zum Informationsaustausch und besprechen des weiteren Vorgehens, insbesondere Planung der Aktivitäten für das Jahr 2020
Room: C.3.34 (Location: Emil-Figge-Str. 42, Number of seats: 30)
Chair(s): Bernd Schütze
Tuesday
10 Sep 2019
14:45 - 16:15
AG4
Consumer Health Informatics
Die Leitung der AG – Monika Pobiruchin, Björn Schreiweis und Veronika Strotbaum – laden sowohl die Mitglieder der AG als auch Interessierte zum Jahrestreffen der AG CHI ein (für weitere Informationen zur AG siehe https://gmds.de/aktivitaeten/medizinische-informatik/arbeitsgruppenseiten/consumer-health-informatics-chi/  ).
Das Treffen soll zum Austausch von aktuellen Projekten und Forschungsvorhaben dienen. Im Rahmen des Treffens sollen die bisherigen Aktivitäten reflektiert werden und noch geplante Veranstaltungen und Arbeitstreffen diskutiert und festgelegt werden. Dabei soll es insbesondere darum gehen, die momentanen Schwerpunktaktivitäten der AG (Förderung des Forschungsfeldes „Consumer Health Informatics“ in Wissenschaft und Praxis, Erarbeitung eines gemeinsamen Begriffsverständnisses, Vernetzung innerhalb und außerhalb der GMDS mit anderen thematisch verwandten Arbeitsgruppen, Bereitstellung von zielgruppengerechten Informationsmaterialien zum Themenfeld CHI, Öffentlichkeitsarbeit) zu koordinieren.
Room: C.3.32 (Location: Emil-Figge-Str. 42, Number of seats: 30)
Chair(s): Monika Pobiruchin
Monday
09 Sep 2019
08:45 - 09:30
AG5
Medizinische Bild-und Signalverarbeitung
Treffen der Mitglieder und weitere Interessierte der GMDS/GI AG Medizinische Bild- und Signalverarbeitung. Es werden u.a. künftige Arbeitsschwerpunkte der AG besprochen
Room: A.E.03 (Location: Emil-Figge-Str. 42, Number of seats: 42)
Chair(s): Christoph Palm
Monday
09 Sep 2019
15:30 - 17:00
AG6
Technologiegestütztes Lehren und Lernen in der Medizin
Turnusgemäße AG-Sitzung mit:
Bericht der AG-Leitung
Wahl der AG-Leitung
Planung zukünftiger Aktivitäten der AG
Room: C.E.40 (Location: Emil-Figge-Str. 42, Number of seats: 15)
Chair(s): Martin Haag
Monday
09 Sep 2019
15:30 - 17:00
AG7
AK Humangenetik
Sitzung des Arbeitskreises Humangenetik, mit Neuwahlen des Sprecherteams
Room: C.E.41 (Location: Emil-Figge-Str. 42, Number of seats: 15)
Chair(s): Dmitriy Drichel
Tuesday
10 Sep 2019
11:15 - 12:45
AG9
Informationsverarbeitung in der Pflege
Sitzung der GMDS AG “Informationsverarbeitung in der Pflege“ www.nursing-informatics.de
Room: A.E.03 (Location: Emil-Figge-Str. 42, Number of seats: 42)
Chair(s): Björn Sellemann
Tuesday
10 Sep 2019
11:15 - 12:45
AG10
Orthopädie und Unfallchirurgie
Jährliches Treffen der AG Orthopädie und Unfallchirurgie
Room: C.E.41 (Location: Emil-Figge-Str. 42, Number of seats: 15)
Chair(s): Christian Juhra
Monday
09 Sep 2019
15:30 - 17:00
AG11
Telemedizin
Jährliches Treffen der AG Telemedizin
Room: C.3.34 (Location: Emil-Figge-Str. 42, Number of seats: 30)
Chair(s): Christian Juhra
Monday
09 Sep 2019
15:30 - 17:00
AG12
Infektionsepidemiologie
Das jährliche Treffen der AG Infektionsepidemiologie, eine Arbeitsgruppe in der gmds und DGEpi, soll dieses Jahr auf der gmds Jahrestagung stattfinden.
Room: 122 (Location: Emil-Figge-Str. 38, Number of seats: 20)
Chair(s): Ralf Krumkamp
Monday
09 Sep 2019
11:15 - 12:45
AG13
Wissensbasierte Systeme
Auf der turnusgemäßen Sitzung der AG werden die AG-Aktivitäten seit der letzten GMDS-Jahrestagung vorgestellt und diskutiert. Die Planungen der nächsten Workshops werden vorbereitet. Insbesondere soll eine vertiefte Zusammenarbeit mit der GMDS-Projektgruppe „Software as a Medical Device“ geplant werden mit dem Ziel, hinsichtlich der MDR-konformen Implementierung wissensbasierter Systeme methodisch, aber auch politisch aktiv zu werden.
Im Rahmen der Sitzung findet die Wahl zur AG-Leitung statt.
Room: 123 (Location: Emil-Figge-Str. 38, Number of seats: 20)
Chair(s): Cord Spreckelsen
Tuesday
10 Sep 2019
08:00 - 08:30
AG14
AG HTA, AG Gesundheitsökonomie, AG Medical Decision Making, AG Methodik Systematischer Reviews (alle zusammen)
Room: A.2.02 (Location: Emil-Figge-Str. 42, Number of seats: 124)
Chair(s): K H_Herrmann
Monday
09 Sep 2019
08:45 - 10:15
AG15
Informationssysteme im Gesundheitswesen (KIS), Klinische Arbeitsplatzsysteme
Im Hauptteil der Sitzung soll betrachtet werden, wie Klinische Informationssysteme, die bisher primär auf die Patientenversorgung ausgerichtet sind, in die klinische Forschung eingebunden werden können. Die Generierung, Dokumentation, Verknüpfung und Auswertung von Daten im Forschungsumfeld ist eine aktuelle Herausforderung für die IT-Systeme im Gesundheitswesen. Die Chancen und aktuellen Entwicklungen einer Forschungsunterstützung durch kommerzielle Produkte und Eigenentwicklungen werden diskutiert und anhand erster Lösungsansätze vorgestellt.
Außerdem sollen die weiteren Aktivitäten der Arbeitsgruppe besprochen und Wahlen der Arbeitsgruppenleiter durchgeführt werden.
Room: B.1.20 (Location: Emil-Figge-Str. 42, Number of seats: 25)
Chair(s): Paul Schmücker
Monday
09 Sep 2019
10:45 - 12:45
AG16
Sektionsausschuss (nicht-öffentlich)
Treffen des Sektionsausschusses im Rahmen der GMDS Jahrestagung
Room: C.E.40 (Location: Emil-Figge-Str. 42, Number of seats: 15)
Chair(s): Susanne Stolpe
Tuesday
10 Sep 2019
11:15 - 12:45
AG17
Sitzung des Beirats (Editorial Board) der Zeitschrift MIBE
Diskussion des Status und der weiteren Pläne für die Zeitschrift GMS Medizinische Informatik, Biometrie und Epidemiologie
Room: 122 (Location: Emil-Figge-Str. 38, Number of seats: 20)
Chair(s): Alfred Winter
Wednesday
11 Sep 2019
08:45 - 10:15
AG18
Ambient Assisted Living und Assistierende Gesundheitstechnologien
Sitzung der GMDS-Arbeitsgruppe „Ambient Assisted Living und Assistierende Gesundheitstechnologien (AAL)“
Room: C.E.40 (Location: Emil-Figge-Str. 42, Number of seats: 15)
Chair(s): Matthias Gietzelt
Tuesday
10 Sep 2019
14:45 - 16:15
AG19
Nutzung von elektronischen Patientenakten für die klinische Forschung
In der diesjährigen AG Sitzung wollen wir über die Mappathon-Challenge von 2018 berichten und das weitere Vorgehen festlegen. Die eingereichten Ergebnisse des Mappathon wollen wir systematisch nachvollziehen und die Mappings der etablierten Notfallmedizindatensätze evaluieren. Des weiteren soll im Rahmen eines geplanten Review Papers das Expertengremium nach seiner Einschätzung zur Etablierung von Kategorien für den „Secondary Use“ befragt werden.
Room: C.3.34 (Location: Emil-Figge-Str. 42, Number of seats: 30)
Chair(s): Ann-Kristin Kock-Schoppenhauer
Monday
09 Sep 2019
15:30 - 16:30
AG20
FA Biometrie
Room: C.E.42 (Location: Emil-Figge-Str. 42, Number of seats: 15)
Chair(s): Antonia Zapf
Monday
09 Sep 2019
08:45 - 10:15
AG21
FA Epidemiologie (private)
Sitzung des Fachausschuss Epidemiologie
Room: C.E.42 (Location: Emil-Figge-Str. 42, Number of seats: 15)
Chair(s): Irene Schmidtmann
Wednesday
11 Sep 2019
12:30 - 14:30
AG22
MII Audit
Room: A.2.03 (Location: Emil-Figge-Str. 42, Number of seats: 42)
Chair(s): Ulrich Mansmann
Tuesday
10 Sep 2019
08:30 - 12:00
SV1
Symposium der AG Medizinische Dokumentation und Klassifikation:
Die AG Medizinische Dokumentation und Klassifikation, der AK Chirurgie und der AK Orthopädie und Unfallchirurgie veranstalten dieses Jahr zum 30ten Mal dieses gemeinsame Symposium. Im Fokus stehen die Bedeutung, die Methodik und die Anwendungsfelder von medizinischen Klassifikationen, Terminologien und Standards in den verschiedenen Bereichen des Gesundheitssystems in Deutschland (D) und in den deutschsprachigen Nachbarländern Österreich (A) und Schweiz (CH). Als Ergänzung gibt es eine kurze Information zu den wichtigen Aktivitäten der WHO und ein Vortrag über die notwendige Zusammenarbeit bei der Kodierung von seltenen Krankheiten.
Weiter vorgesehen ist ein Workshop zur werkzeuggestützten semantischen Annotierung von medizinischen Daten und Dokumenten mit Hilfe des Medical-Data-Models (MDM) der Universität Münster mit Konzepten aus dem UMLS-Thesaurus.

Information:
In diesem Workshop werden Teilnehmer aufgefordert, mit ihrem eigenen Notebook (bitte mitbringen) Inhalte des MDM-Portals in Münster (https://medical-data-models.org/) mit Konzepten aus dem UMLS-Metathesaurus zu annotieren. Es soll herausgearbeitet werden, wie mit Verwendung von Anleitungen und Werkzeugen zur Unterstützung der Annotierung eine möglichst hohe Interrater-Reliability erreicht werden kann und welche Mehrwerte sich mit semantischer Annotierung von medizinischen Daten und Metadaten erzielen lassen.
Room: 150 (Location: Emil-Figge-Str. 44, Number of seats: 72)
Chair(s): Albrecht Zaiß, Josef Ingenerf and Bernd Graubner
Wednesday
11 Sep 2019
13:00 - 14:30
SV2
Mentoring Programm
Einführung in das Mentoring Programme 2019 – 2020:
Vorstellung der Teilnehmenden und des Programmverlaufes
Room: C.3.34 (Location: Emil-Figge-Str. 42, Number of seats: 30)
Chair(s): Maria Blettner
Wednesday
11 Sep 2019
13:00 - 14:30
SV5
Preisverleihung Friedrich-Wingert-Stiftung
Stipendiaten der Friedrich-Wingert-Stiftung stellen ihre geförderten Projekte vor.

Die Friedrich-Wingert-Stiftung fördert seit vielen Jahren wissenschaftliche Forschungsprojekte auf dem Gebiet der Medizinischen Informatik, Linguistik und der Medizin, insbesondere, soweit diese der medizinischen und pflegerischen Dokumentation und der Weiterentwicklung von Methoden und Algorithmen zur rechnergestützten Analysen von medizinischen Texten dienen.
Aufgrund eines hohen Mangels an qualifiziertem Nachwuchs im Bereich IT im Gesundheitswesen hat die Stiftung ein Förderkonzept für Studierende und junge Nachwuchswissenschaftler an Hochschulen, Universitäten und sonstigen akademischen Bildungseinrichtungen ins Leben gerufen. Dieses sieht die jährliche Vergabe von bis zu 10 Stipendien vor. Vier Stipendiaten des aktuellen Förderjahrgangs stellen im Rahmen der gmds-Tagung Ihre Studienprojekte vor.

Stipendiaten/Referenten: Pauline Gieseler (Technische Hochschule Brandenburg), Niklas Reimer (Universität zu Lübeck), Kathrin Pia Riech, (Universität zu Lübeck), Laurin Wünsch (Universität Leipzig)
Room: A.E.03 (Location: Emil-Figge-Str. 42, Number of seats: 42)
Chair(s): Sven Hoffmann
Wednesday
11 Sep 2019
08:00 - 10:30
SV7
Preisträger-Session: GMDS Preise / Jahrestagung Beste Abstracts
Room: E24 (Location: Emil-Figge-Str. 40a, Number of seats: 236)
Tuesday
10 Sep 2019
11:15 - 12:45
SV8
Science Slam
Wissenschaft mal anders: beim diesjährigen Science Slam, moderiert von Sebastian 23, treten an:

Annette Aigner: Differential participation bias or why I love science and should win the science slam
Frederico Marini: iSEEing is believing: exploration of sequencing data, made easy and efficient
Andre Sander: Die Anwendung von medizinischen Terminologien auf Freitext in Routinedatenbanken am Beispiel von Strategien zur Reduktion der Säuglingssterblichkeit
Jens Allmer: Das Internet der Wissenschaften
Linda Krause: TBA
Room: A.E.02 (Location: Emil-Figge-Str. 42, Number of seats: 124)
Chair(s): Julia Volmerg
Monday
09 Sep 2019
10:00 - 10:30
SV10
Begrüßung der neuen Mitglieder
Room: EF40a Foyer (Location: Emil-Figge-Str. 40a)
Chair(s): Beatrix Behrendt
Sunday
08 Sep 2019
10:00 - 18:00
Tu1
Monte-Carlo-Simulationen in methodischer Forschung und Studienplanung
In diesem Kurs werden die mathematischen Grundlagen und die Idee von Monte-Carlo Simulationen vermittelt. Zunächst werden das Prinzip des Zufalls-Experiments und die gesetzte der großen Zahlen wiederholt. Im Anschluss wird die Konstruktion von Zufallszahlen in Theorie und Praxis erläutert (Pseudo Random Number Generators) und die Bedeutung und Wahl geeigneter Startwerte diskutiert. Um die Anwendung von Monte-Carlo Simulationen in der medizinischen Biometrie zu verdeutlichen, werden außerdem Markov-Chain-Monte-Carlo-Verfahren (MCMC) eingeführt. Alle Methoden werden an kurzen Beispielen in der Software R illustriert. Ein wesentlicher Teil des Kurses befasst sich mit der selbstständigen programmiertechnischen Lösung von offenen Fragen zur Studienplanung und der Bewertung statistischer Testverfahren durch Monte-CarloSimulationen. Hierzu sollte jeder Teilnehmer einen Laptop mitbringen auf dem die Software R installiert ist. Es werden eine Reihe verschiedener Aufgaben gestellt, wie z.B. Fallzahlberechnungen für komplexere Analysen und Studiendesigns, Abschätzungen zur Einhaltung des Fehlerniveaus, komplexere Integralberechnungen, Simulation von binären Daten mit einem genetischen Algorithmus. Die Teilnehmer können Aufgaben entsprechend Ihrem Niveau und Ihrem Interesse wählen. Die Dozenten geben dabei aktive Hilfestellung. Beispiellösungen werden am Ende der Kurseinheit besprochen und verteilt. Im letzten Teil des Kurses werden verschiedene komplexe Beispiele zur Anwendung von MonteCarlo-Simulationen in der Studienplanung und in der methodischen Forschung vorgestellt. Die Beispiele umfassen u.a. die Simulation von rekurrenten Ereignisprozessen, die Simulation von adaptiven Studiendesigns und Simulationen in der statistischen Bioinformatik. Das Tutorial richtet sich auch explizit an Einsteiger, die mehr über Monte-Carlo-Simulationen wissen

Weitere Informationen
Room: A.1.03 (Location: Emil-Figge-Str. 42, Number of seats: 42)
Chair(s): Jochen Kruppa
10:30 - 11:00
Monte-Carlo-Simulationen in methodischer Forschung und Studienplanung (Jochen Kruppa, Ann-Kathrin Ozga, Miriam Sieg)
In diesem Kurs werden die mathematischen Grundlagen und die Idee von Monte-Carlo Simulationen vermittelt. Zunächst werden das Prinzip des Zufalls-Experiments und die gesetzte der großen Zahlen wiederholt. Im Anschluss wird die Konstruktion von Zufallszahlen in Theorie und Praxis erläutert (Pseudo Random Number Generators) und die Bedeutung und Wahl geeigneter Startwerte diskutiert. Um die Anwendung von Monte-Carlo Simulationen in der medizinischen Biometrie zu verdeutlichen, werden außerdem Markov-Chain-Monte-Carlo-Verfahren (MCMC) eingeführt. Alle Methoden werden an kurzen Beispielen in der Software R illustriert.

Ein wesentlicher Teil des Kurses befasst sich mit der selbstständigen programmiertechnischen Lösung von offenen Fragen zur Studienplanung und der Bewertung statistischer Testverfahren durch Monte-CarloSimulationen. Hierzu sollte jeder Teilnehmer einen Laptop mitbringen auf dem die Software R installiert ist. Es werden eine Reihe verschiedener Aufgaben gestellt, wie z.B. Fallzahlberechnungen für komplexere Analysen und Studiendesigns, Abschätzungen zur Einhaltung des Fehlerniveaus, komplexere Integralberechnungen, Simulation von binären Daten mit einem genetischen Algorithmus. Die Teilnehmer können Aufgaben entsprechend Ihrem Niveau und Ihrem Interesse wählen. Die Dozenten geben dabei aktive Hilfestellung. Beispiellösungen werden am Ende der Kurseinheit besprochen und verteilt.

Im letzten Teil des Kurses werden verschiedene komplexe Beispiele zur Anwendung von MonteCarlo-Simulationen in der Studienplanung und in der methodischen Forschung vorgestellt. Die Beispiele umfassen u.a. die Simulation von rekurrenten Ereignisprozessen, die Simulation von adaptiven Studiendesigns und Simulationen in der statistischen Bioinformatik.

Das Tutorial richtet sich auch explizit an Einsteiger, die mehr über Monte-Carlo-Simulationen wissen wollen. Im weiteren Kursverlauf steigt das Niveau an, es wird aber auf Verständlichkeit sehr viel wert gelegt.
Herr Dr. Jochen Kruppa
Frau Ann-Kathrin Ozga
Institut für Medizinische Biometrie und Epidemiologie, Universitätsklinikum Hamburg-Eppendorf
Frau Miriam Sieg
Charité - Universitätsmedizin Berlin Institut für Biometrie und Klinische Epidemiologie
Sunday
08 Sep 2019
10:00 - 14:30
Tu2
Datenschutz in der medizinischen Forschung
Tutorial zum Datenschutz in der medizinischen Forschung. Einführung in Rechtsgrundlagen, Konzepte, Einwilligung, Pseudo- und Anonymisierung

Weitere Informationen
Room: B.1.20 (Location: Emil-Figge-Str. 42, Number of seats: 25)
Chair(s): Johannes Drepper
Datenschutz in der medizinischen Forschung (Johannes Drepper, Klaus Pommerening)
Inhalt:
1. Szenario und Anwendungsfälle
2. Rechtliche Grundlagen:
3. Anonymisierung und Pseudonymisierung
4. Patienteninformation und Einwilligungserklärung
5. Das Datenschutzkonzept der TMF
6. Praktisches Vorgehen bei der Erstellung eines Datenschutzkonzepts

Kurzdarstellung
Zunächst werden verschiedene Typen von Forschungsprojekten mit ihren unterschiedlichen Anwendungsfällen vorgestellt. Fokussiert werden Projekte aus dem Umfeld der klinischen Forschung, in denen das Recht auf informationelle Selbstbestimmung der Teilnehmer (Patienten oder gesunde Probanden) zu wahren ist. Ausgenommen sind Projekte aus der Grundlagenforschung ohne Einbeziehung von Patienten oder gesunden Vergleichsprobanden.

Anschließend werden die aktuellen rechtlichen Grundlagen des Datenschutzes in der Forschung in Deutschland auf Basis der EU-Datenschutzgrundverordnung und entsprechend angepasster Bundes- oder Landesgesetze erörtert. U.a. werden die folgenden Fragen beantwortet: Warum gibt es Datenschutzgesetze auf Landes-, Bundes- und europäischer Ebene? Welches Datenschutzrecht ist in einem konkreten Projekt zu berücksichtigen? Wann benötige ich eine Einwilligung der Probanden? Wie lange darf ich die Daten aufbewahren? Was darf ich mit den in einem Projekt erhobenen Daten alles machen? Welcher Datenschutzbeauftragte ist für mich zuständig? Muss ich mich im Vorfeld eines Projekts mit einem Datenschutzbeauftragten abstimmen? Wann darf ich Daten aus der Routineversorgung für die Forschung verwenden [1]? Was muss ich in Bezug auf den Datenschutz in klinischen Studien nach AMG oder MPG beachten?
Die Begriffe der Anonymisierung und Pseudonymisierung werden häufig missverständlich interpretiert und nicht korrekt voneinander unterschieden. Selbst Experten sind sich hinsichtlich der Einordnung von Daten als anonym oder pseudonym nicht in allen Fällen einig. Der Workshop gibt einen Überblick über gängige Definitionen, geht auf die Grenzfälle ein und stellt technische Maßnahmen zur Umsetzung vor. Dabei wird auch der immer häufiger in der Literatur auftauchende Begriff der k-Anonymität erklärt.
Ein zentraler Bestandteil der meisten Datenschutzkonzepte in Forschungsprojekten ist die informierte Einwilligungserklärung. In dem Tutorial wird erörtert, wann von einer „informierten“ Einwilligung ausgegangen werden kann und welche Rahmenbedingungen bei der Formulierung einer solchen Erklärung zu berücksichtigen sind. Gerade bei langfristigen Daten- und Probensammlungen (Biobanken) wird immer häufiger die Frage diskutiert, wie spezifisch der Zweck der Erhebung und Verarbeitung personenbezogener Daten in der Einwilligungserklärung formuliert werden muss. Aus der Forscherperspektive wird entsprechend ein „broad consent“ gefordert. Entsprechend werden die Hintergründe, die vorgeschlagenen Konzepte und deren Grenzen diskutiert.

Die TMF unterstützt Forscher seit vielen Jahren bei der datenschutzgerechten Umsetzung von Forschungsprojekten in der Medizin. Um auch Verbundforschungsprojekte in mehreren Bundesländern mit ihren je eigenen Datenschutzgesetzen und Aufsichtsbehörden umsetzen zu können, hat die TMF generische Datenschutzkonzepte mit den Datenschutzbeauftragten aller 16 Bundesländer und des Bundes abgestimmt. Diese als Blaupause oder Vorlagen benutzbaren Konzepte fokussieren dabei gerade langfristig und vergleichsweise wenig eingeschränkt nutzbare Datensammlungen und Biobanken [2]. Die Konferenz der Datenschutzbeauftragten des Bundes und der Länder hat in ihrer Sitzung im März 2014 allen medizinischen Forschungseinrichtungen und -verbünden die Nutzung des TMF-Leitfadens als Basis zur konkreten Ausgestaltung eigener Datenschutzkonzepte empfohlen [3].

Abschließend werden die aktuell zur Verfügung stehenden Angebote zur Unterstützung von Forschern bei der datenschutzgerechten Umsetzung ihrer Forschungsprojekte vorgestellt.
Herr Dr. Johannes Drepper
TMF e.V.
Herr Prof. Dr. Klaus Pommerening
IMBEI
Sunday
08 Sep 2019
10:00 - 18:00
Tu3
Accelerating data science in healthcare with Python and R
Conventional database systems are not designed for Data science applications. For instance, data visualization is beyond the capacity of the conventional tools. This tutorial will open the door to the participants to learn how to leverage data science with Python and R as they are known as suitable tools for data science application.

Weitere Informationen
Room: A.E.03 (Location: Emil-Figge-Str. 42, Number of seats: 42)
Chair(s): Hee Kim
Accelerating data science in healthcare with Python and R (Hee Kim, Michael Hagmann)
Target audience
Data analysts who want to learn R and Python and ultimately transform their career path to be a data scientist

Tutorial description
Conventional analytics tools (e.g. SAS, SPSS) and database systems (e.g. MySQL, Oracle, SAP) are designed neither for data visualization nor for most recent data science application. This tutorial will open the door to learn Python and R and will offer a gentle guideline on how to integrate these languages to their daily work with a handful of motivating examples. The participant will implement the examples on their laptop.

Data
MIMIC-III demo is a publicly available de-identified clinical dataset consisting of 100 of Intensive Care Unit (ICU) patients. It includes demographics, vital signs, laboratory tests, medications, and more. (link: https://mimic.physionet.org/gettingstarted/demo/)

Timetable
Time Topic Description
09:00-09:30 Set the scene
  • Introduction of data analysis tools in data science ecosystem
  • Docker introduction
09:30-10:30 Set the environment
  • Install Docker client
  • Set Docker drive to store data permanently
  • Download and run containers
  • Access the tools in the containers
10:30-11:00 Break
11:00-12:30 Explore the features of Jupyter notebook
  • Launch the Jupiter notebook
  • Bring R and Python together
  • Access data from DB and local directory
  • Demonstration of a complex report generation using markdown language
12:30-13:30 Lunch
13:30-14:00 Data profiling (pandas-profiling, missingno)
  • Automate the data profiling
  • Visualize missing value
14:00-14:30 Create word-cloud (wordcloud)
  • Text data understanding and Visualization
14:30-15:00 Data visualization (ggplot2)
  • Generate numerous high quality plots
15:00-15:30 Break
15:30-16:00 Machine learning Introduction
  • Algorithm type
  • Model validation
16:00-17:00 Machine learning implementation
  • Predictive modeling of Sepsis
17:00-17:10 Closing
  • Take away messages and outlook
Frau Hee Kim
Heidelberg University Faculty of Medicine in Mannheim
Herr Michael Hagmann
Department of Biomedical Informatics of the Heinrich-Lanz-Center at Ruprecht-Karls-University Heidelberg
Sunday
08 Sep 2019
10:00 - 12:30
Tu4
Einrichtung und Einsatz der Open Source Software ConQuery zur schnellen und einfachen Datenanalyse
Im Rahmen des Workshops soll gezeigt werden, wie die Software ConQuery mit einem eigenen Datensatz aufgesetzt wird. Als Beispieldatensatz wird dazu ein generierter Datensatz aus dem Gesundheitswesen verwendet, der Patientenhistorien mit Diagnosen, Verschreibungen, usw. über mehrere Jahre umfasst. Auf dem Datensatz werden dann verschiedene Anfragetypen demonstriert. Im zweiten Teil des Workshops wird demonstriert wie ConQuery direkt über die Backend-API via JSON abgefragt werden kann. Zusätzlich wird gezeigt wie ConQuery eigenständig um Anfragefunktionalität erweitert und für eigene Daten angepasst werden kann. Die Teilnehmer lernen dabei: Installation der Open Source Software ConQuery. Konfiguration der Software für das Importieren, Filtern und Aggregieren des Beispieldatensatz mittels JSON-Dateien. Erweiterung der vorhanden Filterfunktionalität (JAVA-Programmierung)

Weitere Informationen
Room: C.E.40 (Location: Emil-Figge-Str. 42, Number of seats: 15)
Chair(s): Jochen Walker
Einrichtung und Einsatz der Open Source Software ConQuery zur schnellen und einfachen Datenanalyse mit einem Beispieldatensatz (Jochen Walker, Alexander Albrecht, Manuel Hegner, Maximilian von Knobloch)
Hintergrund: Die Analyse großer patientenbezogener Datenbestände (z.B. Krankenhausdaten, Leistungsdaten von Krankenkassen, Registerdaten) besitzt enormes Potenzial für eine fundierte Entscheidungsfindung. Der Zeit- und Ressourcenaufwand für derartige Auswertungen ist jedoch hoch und es bedarf fortgeschrittener analytischer Kenntnisse sowie einer engen Abstimmung zwischen Mitarbeitern, die die inhaltliche Bewertung der Ergebnisse vornehmen und Experten auf dem Gebiet der Analytik. Um einfacher und schneller zu datenbasierten Entscheidungen zu kommen, wurde von uns die webbasierte Softwarelösung EVA (http://www.ingef.de/gesundheitsforschung/self-service-analytics/) entwickelt und im Projekt „ConQuery“ (https://github.com/bakdata/conquery) Open-Source gestellt.

Inhalt des Tutorials: Im Rahmen des Workshops soll gezeigt werden, wie die Software ConQuery mit einem eigenen Datensatz aufgesetzt wird. Als Beispieldatensatz wird dazu ein generierter Datensatz aus dem Gesundheitswesen verwendet, der Patientenhistorien mit Diagnosen, Verschreibungen, usw. über mehrere Jahre umfasst. Auf dem Datensatz werden dann verschiedene Anfragetypen demonstriert.

Im zweiten Teil des Workshops wird demonstriert wie ConQuery direkt über die Backend-API via JSON abgefragt werden kann. Zusätzlich wird gezeigt wie ConQuery eigenständig um Anfragefunktionalität erweitert und für eigene Daten angepasst werden kann.
Die Teilnehmer lernen dabei:
  • Installation der Open Source Software ConQuery
  • Konfiguration der Software für das Importieren, Filtern und Aggregieren des Beispieldatensatz mittels JSON-Dateien
  • Erweiterung der vorhanden Filterfunktionalität (JAVA-Programmierung)
Ziel des Workshops: Teilnehmer sollen in die Lage versetzt werden ConQuery mit eigenen Daten aufzusetzen und zu adaptieren.

Anforderungen an Teilnehmer: Im Idealfall eigener Laptop und JAVA-Kenntnisse
Herr Dr. Jochen Walker
InGef - Institut für angewandte Gesundheitsforschung Berlin GmbH
Sunday
08 Sep 2019
10:00 - 12:30
Tu6
Datenqualität in Beobachtungsstudien. ein konzeptioneller Ansatz mit der Programmiersprache R
Zielgruppe: Dieses Tutorial richtet sich an Personen, welche die Qualität von Studiendaten in der täglichen Routine oder zur Bearbeitung einer wissenschaftlichen Fragestellung beurteilen. Vorkenntnisse in R sind erforderlich.
Eine allgemeingültige Auffassung von Datenqualität über unterschiedliche Studientypen und Studiendaten hinweg ist nicht existent (1,2). Dieses Tutorial leistet eingangs eine konzeptionelle Abgrenzung von Beobachtungsstudien mit primärer Datengenerierung von administrativen Datenquellen und Routinedaten in Hinblick auf Anforderungen der Datenqualität. Im Fokus steht dann die Adressierung von drei wesentlichen Dimensionen der Datenqualität mit der Programmiersprache R (3). Hierfür wird ein simulierter Datensatz bereitgestellt, der unterschiedliche Beispiele von Verzerrungen abbildet: design-bedingt und zufällig fehlende Daten, widersprüchliche Daten, unplausible Daten, Untersuchereffekte, unerwartete Zeittrends und inkonsistente Messungen. Die Qualität dieser Daten wird mit R-Funktionen untersucht, die im Rahmen eines DFG-Projekts entwickelt wurden. Den Teilnehmern werden der strukturelle Aufbau dieser R-Funktionen inkl. notwendiger Hilfsfunktionen sowie die Voraussetzungen zu deren Anwendung erläutert, um einen Transfer auf andere Studiendaten zu ermöglichen. Hierfür erhalten sie Zugang zu einer projektspezifischen Dokumentation der R-Funktionen, welche aus Anwender- und nicht aus Programmiererperspektive mit R-markdown (4) erstellt wurde. Jede einzelne Dokumentation einer R-Funktion, enthält Beispieldaten sowie notwendige Metadaten, erläutert die Argumente der R-Funktionen, enthält ein Anwendungsbeispiel, die Interpretation der Ergebnisse und notwendige Literaturangaben.  Das gesamte Tutorial wird von einer im Rahmen des DFG-Projekts erstellten Website begleitet, welche alle konzeptionellen Betrachtungen, Beispieldaten und die Dokumentation der R-Funktionen bereitstellt.

Weitere Informationen
Room: C.E.42 (Location: Emil-Figge-Str. 42, Number of seats: 15)
Chair(s): Adrian Richter
Sunday
08 Sep 2019
10:00 - 16:00
Tu7
FHIR für Spezifizierer
Einführung in Grundlagen, Methodik und Tooling von Spezifikationen auf Basis von FHIR.

Weitere Informationen
Room: A.3.03 (Location: Emil-Figge-Str. 42, Number of seats: 42)
Chair(s): Stefan Lang
FHIR für Spezifizierer (Stefan Lang, Simone Heckmann, Patrick Werner)

Thema

FHIR ermöglicht die Erstellung von Spezifikationen in sowohl menschenlesbarer als auch maschinenverarbeitbarer Form.
Das Tutorial führt zunächst in die Grundlagen der für Spezifikationen relevanten Teile von FHIR ein, namentlich in die Conformance- und Terminologie-Ressourcen und -Mechanismen.
Im Weiteren erfolgt dann eine Vertiefung anhand von konkreten Beispielen zur Erstellung, Publizierung und Validierung von FHIR-Profilen und -Implementierungsleitfäden.

Ziel ist die Vermittlung folgender Inhalte:
  • Grundprinzipien von FHIR-Profilen und -Terminologien
  • Kenntnis gängiger Methoden und Werkzeuge zur Profilierung, Veröffentlichung und Validierung von FHIR-basierten Spezifikationen
Alle Materialien werden den Teilnehmern zur weiteren Vertiefung zur Verfügung gestellt.

Zielgruppe

Spezifizierer von Implementierungsleitfäden und Softwaresystemen sowie andere Personen aus der medizinischen Informatik. Grundkenntnisse im Umgang mit FHIR sind wünschenswert, aber nicht notwendigerweise erforderlich.

Voraussetzungen

Zur aktiven Teilnahme am Tutorial ist ein eigener Laptop sinnvoll. Im Tutorial wird der unter Windows laufende Profil-Editor Forge genutzt (ggf. mittels WINE auch unter anderen Betriebssystemen nutzbar). Weiterhin wird ein beliebiger Text-Editor benötigt. Alle weiteren vorgestellten Tools sind plattformübergreifend bzw. webbasiert.

Inhalt

Der neue Standard “FHIR” wurde von HL7 International ins Leben gerufen [1]. Der Standard unterstützt den Datenaustausch zwischen Softwaresystemen im Gesundheitswesen. Er vereinigt die Vorteile etablierter HL7-Standard-Produktlinien Version 2, Version 3 und CDA mit jenen aktueller Web-Standards.

Das Design von FHIR basiert auf den folgenden Prinzipien:
  • Fokus auf Implementierer
    FHIR ist für Software-Entwickler leicht zu erlernen. Es gibt zahlreiche Tools, API-Bibliotheken und Beispiele, die die Implementierung vereinfachen und beschleunigen.
  • Fokus auf weitverbreitete Use Cases
    jedoch mit Option zur Erweiterung
  • Fokus auf erprobte Web-Technologien
    FHIR verwendet Technologien, die aus Applikationen wie Google, Twitter und Facebook bekannt sind (z.B. XML, JSON, ATOM, HTTPS, OAuth)
  • Fokus auf menschenlesbare Information
    als Basis der Interoperabilität. Daten können immer in menschenlesbarer Form ausgetauscht und dargestellt werden, selbst wenn jegliche maschinenlesbare Interoperabilität fehlschlägt.
  • Fokus auf freie Verfügbarkeit
    FHIR basiert auf einer Open Source Lizenz
  • Unterstützung multipler Paradigmen und Architekturen
    FHIR unterstützt gleiche Datenmodelle und Profile unabhängig vom Integrations-Ansatz (REST, Dokumente, Nachrichten, Services). Dies ist eine Konsequenz aus den Erfahrungen mit HL7 Version 3, wo sich die Datenmodelle abhängig vom Integrationsansatz unterscheiden und damit die Implementierung erschweren.
Dieses Tutorial vermittelt in den folgenden drei Teilen Einblicke in die Praxis der Spezifikation von FHIR-Implementierungsleitfäden:

Teil 1: Einführung in FHIR Conformance und Terminologie

  • FHIR Conformance
    • Strukturen: Profile und Extensions
    • RESTful API: Suchparameter und Operationen
  • FHIR Terminologie
    • Codesystem
    • Value Set
    • Namensräume
    • Zusammenspiel von Conformance- und Terminologie-Ressourcen sowie Ressourcen-Instanzen
    • Mapping

Teil 2: FHIR-Spezifikationen erstellen und publizieren (Praxis-Demonstration / Übung)

  • Erstellung von FHIR-Profilen mittels des Profil-Editors Forge
  • Erweiterung mittels Extensions
  • Erstellung von Terminologie-Ressourcen
  • Veröffentlichung auf der FHIR-Registry Simplifier
  • Erstellung eines Implementierungsleitfadens mittels Simplifier
  • Exkurs: FHIR IG Publisher

Teil 3: FHIR-Validierung, FHIR-Packaging (Praxis-Demonstration / Übung)

  • Validierung von FHIR-Ressourcen mittels verschiedener Werkzeuge:
    • FHIR-Server
    • Java Validator
    • Simplifier
  • Erstellung und Nutzung von FHIR-Paketen

Referenten

  • Simone Heckmann (HL7 Deutschland e.V., Leiterin Technisches Komitee FHIR; DMI GmbH & Co. KG; Gefyra GmbH)
  • Stefan Lang (HL7 Deutschland e.V., Stellvertretender Leiter Technisches Komitee FHIR; Lang Health IT Consulting; Gefyra GmbH)
  • Patrick Werner (HL7 Deutschland e.V., Technisches Komitee FHIR; Hochschule Heilbronn; Molit Institut gGmbH)

Dauer

je 90 Minuten pro Teil zzgl. 2 Pausen
Herr Dipl.-Ing. (FH) Stefan Lang
Lang Health IT Consulting
Sunday
08 Sep 2019
14:30 - 16:00
Tu8
ToolPool Gesundheitsforschung
Tutorial zum IT-Portal ToolPool Gesundheitsforschung
Vorstellung der Hintergründe, des Qualitätsmanagements und der Nutzung des Portals
Erläuterung der Produkteintragung im ToolPool

Weitere Informationen
Room: B.1.20 (Location: Emil-Figge-Str. 42, Number of seats: 25)
Chair(s): Knut Kaulke
Tutorial zum IT-Portal ToolPool Gesundheitsforschung (Knut Kaulke, Sophie Haderer)
Inhalt
  1. Einführung und Hintergründe des Portals ToolPool Gesundheitsforschung
  2. Rolle der Taskforce ToolPool und der TMF-AG ITQM
  3. Nutzung der Seite
    • Navigation im Portal
    • Infokorb und Abonnements
    • Produktvergleich
    • Erfahrungsberichte verfassen
  4. Eintragung von Produkten
    • Aufnahmekriterien
    • Produkteintragung im Back-End und Qualitätskontrolle
  5. Feedback zum Portal

Zielsetzung
Das im März 2017 gelaunchte Portal ToolPool Gesundheitsforschung[i] der TMF ist ein Angebot zur Unterstützung der Planung und des Aufbaus komplexer IT-Infrastrukturen[ii]. Es bündelt den Zugang zu IT-Werkzeugen und anderen Hilfestellungen und Beratungsangeboten, die unter dem Dach der TMF wie auch in anderen Organisationen und Forschungseinrichtungen erarbeitet und für die Nutzung in der Community und darüber hinaus zur Verfügung gestellt werden. Inhaltlich ist das Portal eng mit dem IT-Report[iii] verknüpft, welcher seit 2013 eine kontinuierliche Bestands- und Bedarfsanalyse als Grundlage für die strategische Weiterentwicklung der Forschungsdateninfrastrukturen in der Medizin repräsentiert. Informationen zum Einsatz der Produkte in konkreten Projekten sowie interaktive Angebote wie Erfahrungsberichte von Nutzern sollen dazu beitragen, das richtige Tool zu finden und die Vernetzung unter den Anwendern zu erleichtern. Besonders Nutzern mit geringen IT-Fachkenntnissen hilft das Portal, das geeignete Produkt für ihr Forschungsprojekt zu finden. Zu den Produktkategorien gehören Software, eServices, Gutachten, Checklisten sowie Beratungsangebote und Schulungen.
Im Tutorial wird zunächst über die Hintergründe der Entstehung dieses Portals referiert und die Einbettung dessen in die IT-Landschaft der medizinischen Forschung dargelegt. Darüber hinaus wird auf die Rolle der TMF-AG IT-Infrastruktur und Qualitätsmanagement sowie der dazugehörigen Taskforce ToolPool als Kontrollinstanzen des Portals eingegangen. Anschließend sollen die Teilnehmer schrittweise die Funktionen und Möglichkeiten der Website erfahren. In dem Zusammenhang wird ihnen gezeigt, wie Produkte gesucht, markiert und kommentiert werden können. Im letzten Themenblock des Tutorials wird detailliert beschrieben, wie Produkte eingetragen werden können. Dafür werden zunächst die verschiedenen Produktkategorien der ToolPool-Einträge vorgestellt und deren Aufnahmekriterien für das Portal erklärt. Im Anschluss daran werden der Umgang mit dem Back-End und die Qualitätskontrolle der Einträge erläutert und abschließend Vorschläge zur Weiterentwicklung des Portals aufgenommen.

Herr Dr. Knut Kaulke
TMF - Technologie- und Methodenplattform für die vernetzte medizinische Forschung e.V.
Frau Sophie Haderer
TMF – Technologie- und Methodenplattform für die vernetzte medizinische Forschung e.V.
Sunday
08 Sep 2019
10:00 - 18:00
Tu9
NGS data analysis with Galaxy for clinical applications
RNA-Sequencing (RNA-Seq) has become a widely used approach to study quantitative and qualitative aspects of transcriptomic data. The variety of RNA-Seq protocols, experimental study designs and the obtained data processing strategies greatly affect downstream and comparative analyses. Unless the low entrance barriers and easy-to-use experimental protocols, the challenge of proper, transparent, and reproducible data analyses are still a bottleneck. In this joint GMDS and de.NBI (German Network for Bioinformatics Infrastructure) tutorial, we will give a short summary for the current use and possible future applications of the Next Generation Sequencing (NGS) technology in the clinical context. This will be followed by basic NGS/RNA-Seq data analysis procedures (quality control, alignment, quantification) and a showcase project, which will demonstrate the semi-automatized data analysis of a clinical NGS dataset with the help of an analysis workflow. Utilizing the Galaxy environment, we will teach and show all relevant steps during the computational data analysis as well as giving further suggestions to link the obtained results to current gene-disease related databases or other relevant resources to promote the clinical impact of the technology. Finally, we would like to discuss ongoing or planned NGS experiments of the participants to give specific advice in their NGS data analysis.

Weitere Informationen
Room: C.3.32 (Location: Emil-Figge-Str. 42, Number of seats: 30)
Chair(s): Markus Wolfien
Sunday
08 Sep 2019
14:30 - 17:30
Tu11
Advanced Methods for Survival Data
Die klassische Analyse von Ereigniszeiten umfasst in der Regel eine Schätzung der Überlebenswahrscheinlichkeit mithilfe des Kaplan-Meier Schätzers und die Untersuchung von Risikofaktoren basierend auf dem Cox Regressions Modell. Oftmals liegt allerdings eine komplexere Datenstruktur vor und die naïve Verwendung dieser Methoden führt zu verzerrten Schätzungen und falschen Schlüssen. Multistadienmodelle haben sich zu einem hilfreichen Konzept entwickelt um komplexe Ereigniszeitprozesse korrekt zu analysieren und solche Verzerrungen zu vermeiden. In diesem Tutorium vermitteln wir ein Grundverständnis für die Analyse von Daten mit konkurrierenden Risiken und zeitabhängigen Expositionen mithilfe von Multistadienmodellen ([1]). Als Anwendungsbeispiel dient die Untersuchung von Krankenhausinfektionen und deren Einfluss auf Krankenhausmortalität. Es werden beispielhaft die möglichen Verzerrungen bei naiver Anwendung der klassischen Methoden erklärt ([2,3]), außerdem werden Alternativen zur unverzerrten Schätzung der Zielparameter erläutert (u.a. Aalen-Johansen Schätzer, Subdistribution Hazard Ratio, Cox Regression für eine binäre zeitabhängige Exposition). Die Seminarteilnehmer sind eingeladen ihren eigenen Laptop mitzubringen um verschiedene Übungsaufgaben selbst in R durchzuführen. Vorkenntnisse in R sind von Vorteil, aber nicht notwendig.

Weitere Informationen
Room: C.E.41 (Location: Emil-Figge-Str. 42, Number of seats: 15)
Sunday
08 Sep 2019
14:30 - 18:30
Tu13
Deep Learning für das Computersehen in der Medizin – ein Hands-on Kurs
In dem Hands-on Kurs werden die Grundlagen des Deep Learnings für das Computersehen in der Medizin zunächst in seminaristischer Form erklärt (ca. eine Stunde). Im Anschluss wird an lokalen Rechnern die Lösung für einen medizinischen Datensatz zur Körperregionserkennung aus radiologischen Bildern browserbasiert von den Teilnehmern erarbeitet. Hierzu wird auch mit Jupyter-Notebooks Software in Python ausgeführt, tiefgehende Programmierkenntnisse werden nicht erwartet, aber die Aufgeschlossenheit einfache Code Änderungen durchzuführen. Die Teilnehmer werden bei der Arbeit von erfahrenen Tutoren unterstützt.

Weitere Informationen
Room: B.1.23 (Location: Emil-Figge-Str. 42)
Chair(s): Christoph M. Friedrich
Sunday
08 Sep 2019
13:00 - 15:30
Tu15
Gemeinsame Datennutzung – Datenschutzrechtliche Rahmenbedingungen
Daten sind die Grundlage jeder medizinischen Forschung. Dabei sind bei einer gemeinsamen Verarbeitung einige Punkte zu beachten: arbeitet man gemeinsam im datenschutzrechtlichen Sinne oder nicht? Und wie kommt man eigentlich an Daten heran? Kaufen? Oder Sekundärnutzung?
Im Seminar wird u.a. anderem eingegangen auf:Hinweise bzgl. des Nachweises des „erheblich“ überwiegendes Forschungsinteresses, „Dateneigentum“ vs. „Datenhandel“, Einführung in das Thema „Gemeinsame Verarbeitung“ nach Art. 26 DS-GVO, Vertragsgestaltung inkl. Vorstellung des GMDS-Mustervertragstext für die gemeinsame Verarbeitung

Weitere Informationen
Room: C.3.34 (Location: Emil-Figge-Str. 42, Number of seats: 30)
Chair(s): Bernd Schütze
Tuesday
10 Sep 2019
11:45 - 12:45
PS1
Epidemiologie
Room: EF40 Foyer Anordnung 1 (Location: Emil-Figge-Str. 40)
Chair(s): Sven Tiews and Carsten Oliver Schmidt
Putting Digital Epidemiology into Practice: Prospective Assessment of Incident Health Events within the German National Cohort (Jana-Kristin Heise, Marcelo Emmerich, Adrian Karsten, Yvonne Kemmling, Sabrina Wieghold, Andrea Maulhardt, Sven-Ove Wähling, Gérard Krause, Stefanie Castell)
Background: Epidemiological data collection is often challenged by low response and poor compliance [1]. For the recording of incident or recurring transient health events, gathering data during the event and immediate response of the participants is crucial to retain good data quality, when biosampling is included it is strictly necessary. To meet these needs, we developed an eResearch system for prospective assessment of incident health events (PIA). The aim was to create a tool that fits into already existing IT structures of the German National Cohort (GNC) is easy to use and flexible to adapt to different research questions and contents. Existing tools do not offer the necessary technical flexibility and thematic modularity either (e.g. “GrippeWeb” [2]) or are not suitable for study management such as documentation of biospecimen, vaccination cards (photograph) or study specific individual feedback (e.g. laboratory results via interface with laboratory and data exchange based on HL7, questionnaire completion proportion). In PIA, such feedback for participants should ensure that participants are willing to use the app for a longer period. Electronic Case Report Form- applications such as SecuTrial® or RedCap offer comprehensive study and participant management and simplify the collection of clinical data [3,4]. However, they do not offer all the specifics mentioned above.

Methods: Study participants can use PIA as iOS/Android or web-application. PIA includes complete study management with five different roles: system administrator, research team, participant management, study nurses and participants. Each role has a specific interface, so that different functions e.g. implementation of new questionnaires, administration of biosamples or management of participant contacts can be performed by different personae. For the research team PIA provides flexible adaption of questions and questionnaires to develop an algorithm for displaying a network of conditional questionnaires at specific times and after specific data entry events. It offers the opportunity of biosample collection if a certain case definition applies. A particularly important feature of PIA is the implementation of spontaneous reporting, which enables real-time recording of health events and reduces recall bias.

Discussion: PIA is developed for add-on studies of the German National Cohort (GNC) and will be used for the first time in 2019 at the Clinical Research Center (CRC) Hannover [5]. A particular challenge was to create a stand-alone eResearch system that also integrates with the IT and procedural standards and high data protection requirements of an ongoing study like the GNC. In the future, user experience and performance indicators will be evaluated and elements like gamification will be further developed.
Frau Jana-Kristin Heise
Helmholtz-Zentrum für Infektionsforschung
Kardiovaskuläre und endokrine Parameter bei Jugendlichen aus künstlicher Zeugung (ICSI) (Nora Eisemann, Susanne Elsner, Barbara Sonntag, Annika K. Ludwig, Michael Ludwig, Alexander Katalinic)
Einleitung
Bei unerfülltem Kinderwunsch ist die häufigste Methode der künstlichen Befruchtung die Intrazytoplasmatische Spermieninjektion (ICSI). Bei durch ICSI gezeugten Kindern ist das Risiko für Fehlbildungen und Schwangerschaftskomplikationen erhöht. Mögliche Ursachen sind die elterliche Subfertilität und die Methode selbst. Es gibt zudem Hinweise auf ein späteres erhöhtes Risiko für kardiovaskuläre Krankheiten, und insbesondere bei männlichen ICSI Nachkommen wird ein erhöhtes Risiko für Subfertilität diskutiert.

Methoden
Die ICSI-Studie ist eine prospektive kontrollierte Studie. In der dritten Beobachtungswelle befinden sich die Kinder bereits im Jugendalter (14-17 Jahre). Zwei Themen-Schwerpunkte dieser Erhebung sind Parameter zur kardiovaskulären Gesundheit und zu reproduktiven Hormonen. Daten hierzu wurden in ärztlichen Untersuchungen, Blutuntersuchungen und Fragebögen bei Jugendlichen und ihren Müttern erhoben. Mehrlinge wurden ausgeschlossen.
Der Vergleich der ICSI-Gruppe mit der Kontroll-Gruppe wurde mittels linearer Regressionsmodelle mit unterschiedlichen Adjustierungen für potentielle Störgrößen (Alter, BMI, mütterlicher und väterlicher BMI, körperliche Aktivität, Diabetes bei Mutter oder Vaters, Blutdruck der Mutter, Bluthochdruck bei Mutter oder Vaters, Taillen-Hüft-Verhältnis, hormonelle Kontrazeption, Rauchen, Alkoholkonsum, Alter bei Menarche) durchgeführt. Alle Vergleiche wurden separat für weibliche und männliche Jugendliche durchgeführt.

Ergebnisse
Von 992 angeschriebenen ICSI-Einlingen und ihren Müttern nahmen 274 Mutter-Kind-Paare an der medizinischen Untersuchung inkl. Fragebogen und davon 272 an der Blutuntersuchung teil (Kontrollen: beides 273 von 4125).
Die ICSI- und die Kontrollgruppe sind in ihrer Alters- und Geschlechtsverteilung sehr ähnlich. In den Lebensstilfaktoren gibt es signifikante Unterschiede: die weiblichen Jugendlichen der ICSI-Gruppe nehmen signifikant häufiger hormonelle Verhütungsmittel, und die männlichen Jugendlichen der ICSI-Gruppe trinken mehr Alkohol und treiben mehr Sport als die Jugendlichen aus der Kontrollgruppe.
Die Parameter der allgemeinen körperlichen Entwicklung (Körpergewicht und -größe, BMI, Taillen- und Hüftumfang, Taillen-Hüft-Verhältnis) der weiblichen ICSI- bzw. Kontroll-Jugendlichen unterscheiden sich nicht signifikant. Die männlichen ICSI-Jugendlichen hingegen haben im Mittel einen signifikant höheren BMI, einen signifikant größeren Hüft- und Taillenumfang und ein signifikant ungünstigeres Taillen-Hüft-Verhältnis als die Kontrollen.
Hinsichtlich kardiovaskulärer Meßwerte sind der mittlere diastolische Blutdruck bei männlichen ICSI-Jugendlichen signifikant, und der systolische Blutdruck tendenziell niedriger als in der Kontrollgruppe.
Im Glukose-Insulin-Stoffwechsel (c-Peptid, Glukose, HbA1c), Lipidstoffwechsel (Cholesterin gesamt, HDL-Cholesterin, LDL-Cholesterin, Triglyzeride) sowie bei der Leberfunktion (ASAT, ALAT, alkalische Phosphatase) finden sich kaum Unterschiede. Allein die mittleren HDL-Cholesterin-Werte der weiblichen ICSI-Jugendlichen sind signifikant niedriger als bei ihren Kontrollen.
Die Hormonlevel (Östrogen, Testosteron, Testosteron-Östrogen-Quotient, LH, FSH, SHBG, FAI, Inhibin-B, AMH) zeigen bei den weiblichen Jugendlichen keine signifikanten Unterschiede zwischen den Gruppen, wobei die Varianz der Beobachtungen aufgrund der Zyklusabhängigkeit der Hormone sehr groß ist. Bei den männlichen ICSI-Jugendlichen ist der Östrogenspiegel tendenziell erhöht und der Testosteron-Östrogen-Quotient signifikant niedriger als bei ihren Kontrollen.

Diskussion
Die Unterschiede in den kardiovaskulären und hormonellen Parametern von ICSI-gezeugten versus spontan gezeugten Kindern sind nach Adjustierung gering. Signifikante Unterschiede wurden bei den männlichen Jugendlichen nur für die gewichtsbezogenen Parameter (zugunsten der Kontrollgruppe) sowie den diastolischen Blutdruck (niedriger in ICSI-Gruppe) und den Testosteron-Östrogen-Quotienten (niedriger in ICSI-Gruppe), und bei den weiblichen Jugendlichen für die HDL-Cholesterin-Werte (niedriger in ICSI-Gruppe) gefunden. Inwieweit die Unterschiede für die spätere kardiovaskuläre Gesundheit und für die Fertilität klinisch relevant sind, muss noch weiter spezifiziert werden.
Frau Dr. Nora Eisemann
Universität zu Lübeck
2004-2010 Studium der Statistik an der TU Dortmund seit 2010 Wissenschaftliche Mitarbeiterin an der Universität zu Lübeck
Evaluation der Anteile neudiagnostizierter Patienten hinsichtlich systemischer anti-Multipler Myelom Behandlungen bzw. Watch & Wait (Romy Heymann, Dietrich Potthoff, Christopher Maas, Christian Jacob)
Hintergrund
Das Multiple Myelom (MM) gehört zu den hämatologischen Neoplasien (1). Es gibt verschiedenen Therapieansätze zur Behandlung des MM, dabei wird insbesondere dahin gehend unterschieden, ob die Patienten für eine autologe Stammzelltransplantation (ASZT) in Frage kommen oder nicht.

Fragestellung
Im Rahmen einer Krankenkassendaten Analyse wurde der Fragestellung nachgegangen wie groß der Anteil der ASZT geeigneten bzw. ASZT ungeeigneten Patienten beim neudiagnostizierten MM (NDMM) ist. Aufgrund der interessanten Ergebnisse hinsichtlich unbehandelter NDMM-Patienten wurde anschließend eine vertiefende Analyse durchgeführt, um genauer zu differenzieren, warum diese Patienten nicht behandelt wurden und welcher Anteil tatsächlich zur Gruppe der watch & wait Patienten zählt.

Methoden
Auf Basis von Abrechnungsdaten der Gesetzlichen Krankenversicherung (GKV) wurde eine retrospektive Datenanalyse der InGef Forschungsdatenbank durchgeführt. Patienten mit NDMM wurden anhand von ICD-10-GM Codes im Zeitraum 01. Januar 2013 bis 31. Dezember 2014 identifiziert. Zur Identifizierung der Erstdiagnose der NDMM Patienten wurde ein Vorbeobachtungszeitraum von zwei Kalenderjahren gewählt (Wash-out Periode). Die Analyse der MM-Patienten hinsichtlich ihrer Erstlinientherapie (ASZT geeignet vs. ungeeignet), Alters und Geschlechtsverteilung sowie Zeit bis zum Tod nach Diagnosestellung erstreckte sich auf einen individuellen Nachbeobachtungszeitraum von zwei Jahren.
Die weitere Analyse der unbehandelten MM-Patienten erfolgt in drei Analyseschritten (Patienten ohne Ausschlussdiagnose, Patienten mit mehreren MM Diagnosen und nicht-verstorben innerhalb der Nachbeobachtungszeit), so dass nur noch Patienten in der Analyse verbleiben, die nach Meinung der Autoren auch tatsächlich als Watch & Wait Patienten gezählt werden können. Im Rahmen dieser erweiterten Untersuchung wurde für jede Analysepopulation unter anderem untersucht, welche weiteren onkologischen Erkrankungen die Patienten haben, welche Arztgruppe die MM-Diagnose gestellt hat und Zeit bis zum Tod nach Diagnosestellung.

Ergebnisse
Insgesamt wurden im Studienzeitraum 1.101 NDMM Patienten identifiziert. Von diesen waren 57,1% Männer und 42,9% Frauen. 39,3% (n=433) der analysierten Patienten erhielten eine systemische anti-MM-Behandlung. In 83,8% der Fälle (n=363) konnte aufgezeigt werden, dass die Patienten entweder nur eine systemische anti-MM-Therapie oder zusätzlich auch eine ASZT-Therapie erhielten. Von den 363 Patienten erhielten 34,2% eine ASZT- und 65,8% keine ASZT-Behandlung. Bei 16,2% der Patienten war keine spezifische Zuordnung zu einer ASZT- bzw. keiner ASZT-Behandlung möglich, da sie im Beobachtungszeitraum verstarben, oder die Nachbeobachtungzeit zu kurz war um eine gesicherte Aussage zu treffen. 60,7% der NDMM Patienten erhielten keine systemische anti-MM-Behandlung. 33,3% der therapierten Patienten erhielten eine MM-Erstdiagnose im stationären Setting, 20,1% bzw. 14,8% der Patienten erhielten diese durch den Hausarzt bzw. einen Onkologen, alle weiteren von anderen Arztgruppen. Die durchschnittliche Mortalität der NDMM Patienten betrug 27,4% in den ersten zwei Jahren nach Diagnosestellung, wobei sich zwischen den Analysepopulationen jedoch deutliche Unterschiede zeigten. Nach den drei Analyseschritten der unbehandelten Patienten können 318 von 668 Patienten als W&W eingestuft werden. Die mediane Zeit bis zum Tod der Patienten ohne eine systemische anti-MM-Behandlung, betrug 193 Tage.

Diskussion
Die Aussagekraft von Krankenkassendaten ist eingeschränkt, da diese Daten zu Abrechnungszwecken und nicht zu Analysezwecken erhoben werden. Dennoch bieten diese Daten Einblicke, um ein tieferes Verständnis hinsichtlich der Patientencharakteristik.
Die Analyse zeigt, dass der Anteil an nicht unmittelbar mit einer anti-Myelom Therapie behandelbaren Patienten höher ist als in der gängigen Literatur bisher beschrieben (2,3).
Frau Romy Heymann
Herr Dietrich Potthoff
Janssen-Cilag GmbH
Herr Christopher Maas
Xcenda GmbH
Herr Christian Jacob
Xcenda GmbH
Associations Between Sleep Characteristics And Mild Cognitive Impairment in The Heinz Nixdorf Recall Cohort Study (Christian Brachem, Angela Winkler, Sarah Tebrügge, Christian Weimar, Karl-Heinz Jöckel, Raimund Erbel, Susanne Moebus, Andreas Stang, Nico Dragano, Martha Jokisch, Bernd Kowall)
Introduction: Poor sleep is known to be associated with prevalence of mild cognitive impairment (MCI) and dementia. However, these associations are largely based on cross-sectional studies. This study presents longitudinal associations between self-reported sleep characteristics (sleep quality, sleep disturbances, total and nocturnal sleep duration) and incident MCI.

Methods: Participants were selected as complete cases (N = 1890) from the first and second follow-up of the Heinz Nixdorf Recall study, a population-based cohort study in Germany (age at first follow-up 50 to 80 years, without history of cancer, stroke or cardiovascular diseases at baseline, mean duration of follow-up 5.2 years). Additionally, we performed multiple imputation on the extensive dataset and compared complete case and imputation results. MCI was assessed with extensive cognitive test during at both examinations, sleep characteristic were measured at the first examination using standardised questionnaires. Estimates of relative risks (RR) with 95% confidence intervals (CI) were obtained from a log-linear model with a Poisson working likelihood and robust standard errors (unadjusted and adjusted for sociodemographic and cardiovascular risk factors). We examined how different definitions of nocturnal sleep duration affected the results.

Results: We found that the risk of MCI is associated with poor sleep quality (Pittsburgh Sleep Quality Index > 5) (RR = 1.49, 95% CI: 1.21 to 1.82, fully adjusted, multiple imputation) and sleep disturbances (e.g. difficulties initiating sleep (almost nightly versus never) RR = 1.43 (1.06 to 1.93)). When nocturnal sleep duration did not explicitly exclude time awake in bed, we found a U-shaped association between sleep duration and MCI risk. When nocturnal sleep duration explicitly excluded time awake, MCI risk was only increased for short sleep (≤ 5 hours) (RR = 1.24 (0.93 to 1.66), reference 7 to < 8 hours).

Conclusion: We found positive associations between poor sleep and risk for MCI. In assessment of sleep duration, explicit exclusion of time awake in bed strongly affected associations with incident MCI.
Herr Christian Brachem
Visualisierung alters- und geschlechtsspezifischer Neuerkrankungsraten an Speiseröhrenkrebs im Saarland von 1970 bis 2014 (Nicolette Suchorski, Bernd Holleczek, Iris Zöllner)
Einleitung
Erkrankungen an Speiseröhrenkrebs (Ösophaguskarzinom) gehören zu den Krebserkrankungen mit einer relativ ungünstigen Prognose (5-Jahres-Überlebensrate 21 %). Zu den Hauptrisikofaktoren zählen Alkohol- und Tabakkonsum. Auch das Trinken von heißen Getränken wird als möglicher Risikofaktor für Speiseröhrenkrebs gesehen.
Methoden
Die Daten für die graphische Aufbereitung stammen aus der Datenbank des Saarländischen Krebsregisters, das über eine fortlaufende Sammlung von Daten zu Krebserkrankungen mehreren Jahrzehnten verfügt. Das Einzugsgebiet des Registers umfasst das Saarland mit einer Bevölkerung von etwa einer Million Einwohnern. Durch Visualisierung von Inzidenzraten aus dem Zeitraum 1970 – 2014 sollte ein Überblick über Schwankungen im alters- und geschlechtsspezifischen Verteilungsmuster von Speiseröhrenkrebs im Saarland ermöglicht werden. Die alters- und geschlechtsspezifische Inzidenzraten zum ICD-9-Code 150 („Speiseröhre“) wurden aus der Datenbank für die Jahre 1970, 1975, 1980, 1985, 1990, 2000, 2010 und 2014 ermittelt und getrennt in Abbildungen dargestellt.
Ergebnisse
Die vorliegenden alters- und geschlechtsspezifischen Verteilungsmuster bei Erkrankungen an Speiseröhrenkrebs im Saarland zeigen insbesondere bei Männern eine mit dem Alter zunehmende Tendenz. Die Neuerkrankungsraten bei Männern lagen im gesamten Zeitraum deutlich höher als bei Frauen (insgesamt etwa 4-5faches Risiko). In den Altersgruppen zwischen 50 und 69 Jahren stiegen die Neuerkrankungsraten von 1970 bis 2014 an, wobei diese Tendenz bei den Männern ebenfalls stärker ausgeprägt war. In den höheren Altersgruppen unterlagen die Inzidenzraten stärkeren Schwankungen, ein Anstieg über den betrachteten Zeitraum ließ sich hier jedoch nicht erkennen. Neuerkrankungsraten bei Frauen in den Altersgruppen über 75 Jahren zeigten eine eher sinkende Tendenz.
Schlussfolgerung
Die Visualisierung von Krebsregisterdaten in Grafiken hilft, einen ersten Überblick über alters- und geschlechtsspezifische Inzidenzverteilungen zu gewinnen und gegebenenfalls Tendenzen über größere Zeiträume zu erkennen.
Frau Dr. Iris Zöllner
Landesgesundheitsamt Baden-Württemberg, RP Stuttgart
Zum Mortalitätsrisiko durch Stickstoffdioxid - Eine kritische Bewertung aus epidemiologisch-statistischer Sicht (Matthias Möhner)
Zielstellung:
In einer Reihe deutscher Städte wird der Immissionsgrenzwert für den Jahresmittelwert der Stickstoffdioxid-Exposition (NO2) von 40 µg/m³ nicht eingehalten, was teilweise schon Fahrverbote für bestimmte Diesel-PKW zur Folge hat. Auf der Basis von aus umweltepidemiologischen Studien abgeleiteten Risikoschätzern wurden zudem Schätzungen der Zahl vorzeitiger Todesfälle in Deutschland, welche auf NO2 zurückzuführen sind, von jährlich 6.000 – 45.000 berechnet. Ziel dieses Beitrages ist es, die Validität dieser Abschätzungen aus epidemiologisch-statistischer Sicht zu überprüfen.

Methoden:
Wegen der Vielzahl von Studien zu der Problematik werden hier nur die Studien zur kardiovaskulären Mortalität betrachtet, die nach Ansicht der Autoren eines im Auftrag des Umweltbundesamtes erstellten Berichtes (1) eine starke Evidenz für den Zusammenhang zur NO2-Exposition ergeben. Ergänzend dazu wird ein kürzlich publiziertes Review (2) zur Bewertung herangezogen.

Ergebnisse:
Die Risikoschätzer für NO2 aus den betrachteten Studien fallen sehr heterogen aus. Es zeigt sich, dass die zur Expositionsabschätzung verwendeten Methoden die starke räumliche Heterogenität, die NO2 insbesondere im urbanen Raum aufweist, nicht genügend gut wiederspiegeln. Die fehlende Berücksichtigung von Indoor-Expositionen (Gasherde und Gasboiler), die starke Korrelation zwischen NO2 und anderen Luftschadstoffen sowie residual confounding schränken die Aussagekraft dieser Studien erheblich ein. Es kann lediglich der Schluss gezogen werden, dass für Personen, die an verkehrsreichen Straßen wohnen, eine erhöhte Mortalität zu beobachten ist. Ob die Ursachen dafür das NO2, ein anderen Luftschadstoff, der Straßenlärm oder fast ausschließlich die Unterschiede in den lebensstilbezogenen Faktoren sind, lässt sich auf Basis der vorliegenden Studien nicht zweifelsfrei abklären.

Schlussfolgerungen:
Die Studien bieten keine valide Grundlage für eine bevölkerungsbezogene Abschätzung von verlorenen Lebensjahren durch NO2. Angesichts der nur als schwach einzuschätzenden Evidenz und der globalen Nebenwirkungen auf Umwelt und Ressourcen ist die Verhältnismäßigkeit von Fahrverboten für dieselbetriebene Fahrzeuge zu hinterfragen (3). Methoden der Meta-Regression unter Berücksichtigung der Effektschätzer für alle Modellparameter sowie weiteren die Studienpopulation beschreibenden Variablen könnten dabei behilflich sein, die Heterogenität in den Effektschätzern aufzuklären.
Herr Dr. Matthias Möhner
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin
Eigenschaften von Intervallkarzinomen im Mammographie-Screening-Programm in Abhängigkeit vom zeitlichen Abstand zwischen Screening-Untersuchung und Diagnosestellung (Laura Khil, Ina Wellmann, Stefanie Weigel, Walter Heindel, Andreas Stang, Hans-Werner Hense)
Seit 2005 wird ein bundesweites Mammographie-Screening-Programm (MSP) auf Grundlage der Europäischen Richtlinien durchgeführt. Frauen im Alter von 50-69 Jahren werde alle 24 Monate zu einer Screeninguntersuchung eingeladen [1]. Folgeuntersuchungen, die innerhalb eines Toleranzbereiches von weiteren sechs Monaten stattfinden, gelten aber noch als reguläre Teilnahme, so dass der zeitliche Abstand zwischen zwei regulären Screeninguntersuchungen maximal 30 Monate beträgt.
Intervallkarzinome sind Mammakarzinome, die außerhalb des MSP nach einem unauffälligen Screeningergebnis im Intervall bis zur potentiell nächsten regulären Screeninguntersuchung diagnostiziert werden. Durch einen Datenabgleich der MSP-Teilnehmerinnen mit den Inzidenzdaten des zugehörigen Landeskrebsregisters können Intervallkarzinome identifiziert werden [2]. In dieser Studie wurde im MSP in Nordrhein-Westfalen untersucht, ob sich die Tumoreigenschaften von Intervallkarzinomen in Abhängigkeit vom zeitlichen Abstand zwischen Screeninguntersuchung und Diagnosestellung unterschieden.
Dazu wurden alle Intervallkarzinome nach ihrem Abstand zur letzten unauffälligen Screeninguntersuchung kategorisiert (Monat 1-6, 7-12, 13-18, 19-24 und 25-30). Nach Ausschluss fehlender Angaben (paarweiser Fallausschluss) wurde für jede zeitliche Kategorie der Anteil von In-situ (ICD-10: D05) und invasiven Karzinomen (ICD-10: C50) sowie der Karzinome im Stadium T2+, mit einer histologischen Differenzierung in Grad III oder mit Lymphknotenbeteiligung (ja vs. nein) bestimmt. Daraus wurden alters­standardisierte Prävalenz Ratios (PR) mit zugehörigen approximierten 95% Konfidenzintervallen berechnet, um zu prüfen, ob es Unterschiede im Anteil dieser Tumoreigenschaften zwischen den Kategorien gab.
Zwischen 2006 und 2012 wurden 8.434 Intervallkarzinome aus 3.330.985 Screeninguntersuchungen identifiziert. Von diesen traten 938 (11 %) nach Monat eins bis sechs auf, 1.553 (18 %) nach Monat 7-12, 2.224 (26 %) nach Monat 13 bis 18, 2.488 (29 %) nach Monat 19-24 und 1.231 (15 %) nach Monat 25 bis 30. Zwischen den drei Gruppen Monat 7-12, Monat 13-18 und Monat 19-24 gab es keine auffälligen Unterschiede in der Verteilung der Tumoreigenschaften, die Gesamtgruppe (Monat 7-24) wurde deshalb in den weiteren Analysen als Referenzgruppe benutzt.
Intervallkarzinome in den Monaten 1-6 bzw. 25-30 waren im Vergleich zu den Monaten 7-24 häufiger In-situ Karzinome (PR1-6 = 1,78; 95%KI [1,34-2,35]; PR25-30 = 1,36; 95%KI [1,04-1,79]), seltener im Stadium T2+ (PR1-6 = 0,87; 95%KI [0,80-0,95]; PR25-30 = 0,92; 95%KI [0,85-0,99]) und wiesen seltener den Differenzierungsgrad III auf (PR1-6 = 0,89; 95%KI [0,80-0,99]; PR25-30 = 0,91; 95%KI [0,83-1,00]). Intervallkarzinome der Gruppe 25-30 wiesen zudem seltener Lymphknotenbeteiligung auf (PR25-30 = 0,87; 95%KI [0,80-0,97]). Sensitivitätsanalysen schlossen Tumoren mit einer neoadjuvanten Therapie (Staging ist therapiebeeinflusst) bzw. Frauen im Alter 67+ (für die nächste Screeninguntersuchung nicht mehr anspruchsberechtigt) aus: dies zeigte keine substantiellen Änderungen in den Ergebnissen.
Zusammenfassend stellt sich bei den insgesamt prognostisch günstigen Intervallkarzinomen der Gruppe Monat 1-6 die Frage, ob es sich um Tumoren handeln könnte, die zwar durch das MSP als ‚screening-typische‘ Verdachtsfälle entdeckt wurden, die dann aber außerhalb des MSP abgeklärt worden sind. Intervallkarzinome, die zwischen den Monaten 25 bis 30 auftraten, könnten insgesamt relativ langsam wachsende Tumoren gewesen sein, so dass es möglich erscheint, dass sich diese Frauen gegen eine weitere Teilnahme am MSP entschieden, sie aber an einem ‚grauen Screening‘ außerhalb des MSP teilnahmen, bei dem der Tumor dann entdeckt wurde.
Frau Dr. rer. medic. Laura Khil
Landeskrebsregister NRW gGmbH
Tuesday
10 Sep 2019
14:45 - 15:45
PS2
Public Health & Versorgungsforschung 1
Room: EF40 Foyer Anordnung 1 (Location: Emil-Figge-Str. 40)
Chair(s): Iris Zöllner
Cardiovascular risk in persons with antihypertensive medication recommendation based on recent and previous American, European and International arterial hypertension guidelines in the German general population (Janine Gronewold, Rene Kropp, Nils Lehmann, Andreas Stang, Amir Mahabadi, Klaus Berger, Christian Weimar, Martin Dichgans, Susanne Moebus, Knut Kröger, Barbara Hoffmann, Karl-Heinz Jöckel, Raimund Erbel, Dirk Hermann)
Background: Arterial hypertension guidelines strongly differ between societies. The recommendation for antihypertensive treatment of the current American College of Cardiology/American Heart Association (ACC/AHA) guideline are wider than of previous and recent American, European and international guidelines. How cardiovascular risk differs between persons with and without antihypertensive medication recommendation has not been examined for different guidelines.

Methods: In the population-based Heinz Nixdorf Recall study comprising 4814 participants aged 45-75 years, we compared the prevalence of antihypertensive medication recommendation according to American (Joint National Committee 7 [JNC7], ACC/AHA 2017), European (European Society of Hypertension [ESH]/European Society of Cardiology [ESC] 2013/2018), and World Health Organization (WHO) 2003 guidelines. We furthermore compared prevalence and progression of subclinical atherosclerosis, assessed by baseline coronary artery calcification (CAC) and rapid CAC progression during 5-year follow-up, as well as incident cardiovascular events during 5-year follow-up between participants with and without antihypertensive medication recommendation.

Results: ACC/AHA 2017 recommended the highest percentage of participants that hitherto did not take antihypertensive medication for antihypertensive medication (45.8%) compared to JNC7 (37.2%), ESH/ESC 2013 (17.8%), ESC/ESH 2018 (26.7%) or WHO (20.3%) guidelines. The recommendation to receive vs. not receive antihypertensive medication discriminated cardiovascular events during 5-year follow-up better using ACC/AHA 2017 (2.5% vs. 1.1%, p=0.003) than other guidelines. Baseline CAC (median:31.4[Q1;Q3:1.0;173.9] vs. 1.3[0.0;30.6], p<0.001), but not rapid CAC progression during 5-year follow-up (19.5% vs. 17.9%, p=0.310) was increased in participants with vs. without antihypertensive medication recommendation.

Conclusions: Although its antihypertensive medication recommendation is widest, ACC/AHA 2017 discriminated cardiovascular risk better than the other guidelines.
Frau Dr. Janine Gronewold
Visualisierung von Daten aus der amtlichen Todesursachenstatistik für die Mortalitätssurveillance in Deutschland (Iris Zöllner, Rahel Bauer)
Hintergrund
Zu den Aufgaben des öffentlichen Gesundheitsdienstes (ÖGD) gehört die Beobachtung der gesundheitlichen Situation der Bevölkerung sowie die Surveillance langfristiger und aktueller Trends in der Sterblichkeit. Die Visualisierung von umfangreichen Datensätzen in leicht verständlichen und gut interpretierbaren graphischen Darstellungen dient der Nutzung dieser Daten für die Praxis des ÖGD. Ziel dieser Untersuchung war die Entwicklung geeigneter graphischer Darstellungen zur Visualisierung von geschlechtsspezifischen Mortalitätsraten aller Bundesländer über den Zeitraum 1980 – 2016.
Methoden
Ziel dieser Untersuchung war die Entwicklung geeigneter graphischer Darstellungen zur Visualisierung von geschlechtsspezifischen Mortalitätsraten aller Bundesländer im Zeitraum von 1980 bis 2016. Dabei wurden deskriptive Methoden mit Ansätzen aus der Qualitätskontrolle verknüpft. In den Surveillance-Graphiken zur Gesamtsterblichkeit und zu den häufigsten Todesursachengruppen werden die Sterbeziffern der sechzehn Bundesländer von 2016 vor dem Hintergrund der Streubereiche der entsprechenden Sterbeziffern im Zeitraum von 1980-2015 dargestellt. Der Vergleich mit der Streubreite ermöglicht eine Einordnung der aktuellen Sterblichkeit im Hinblick auf die historischen Daten.
Ergebnisse
Die Graphiken zur Gesamtmortalität bei Frauen und Männern zeigen neben den Unterschieden zwischen den Bundesländern in der Sterblichkeit 2016 auch die Unterschiede in den Schwankungsbreiten über den Zeitraum 1980-2015. Bei der Sterblichkeit durch Krankheiten des Kreislaufsystems ist erkennbar, dass in fast allen Bundesländern die Sterblichkeit im Jahr 2016 am unteren Rand der Streubereiche oder sogar darunter lag. Das heißt, bei dieser Todesursachengruppe geht die Mortalität generell weiter zurück. Dieser Trend ist seit den 1990er Jahren zu beobachten und hält bis 2016 an. Anders sieht es bei der Mortalität durch bösartige Neubildungen aus. Hier ist die Streubreite der Mortalitätsraten in den Bundesländern geringer und die Mortalität im Jahr 2016 lag bei den Männern in vierzehn Bundesländern und bei den Frauen in neun Bundesländern im oberen Teil der Schwankungsbreite von 1980-2015. Bei den anderen Todesursachengruppen zeigen die Graphiken z.T. unterschiedliche Trends bei Frauen und Männern: Die Mortalität durch äußere Ursachen bei Männern lag in allen Bundesländern höher als bei Frauen, zeigte aber im Vergleich der Sterblichkeit von 2016 gegenüber den Vorjahren eine eher sinkende Tendenz, die bei den Frauen nicht erkennbar war.
Zusammenfassung und Schlussfolgerung
Die Mortalitätssurveillance wird durch die hier vorgestellten Graphiken zu todesursachen- und geschlechtsspezifischen Mortalitätsraten unterstützt und erlaubt einen guten Überblick für Vergleiche. Da das Visualisierungskonzept auch auf altersspezifische Raten anwendbar ist, kann damit auch die Sterblichkeit in verschiedenen Altersgruppen verglichen und beobachtet werden. Durch das vorgestellte Visualisierungskonzept wird die Surveillance der Mortalität in Deutschland maßgeblich erleichtert und damit auch für größere Gruppen von Entscheidungs- und Handlungsträgern im Gesundheitswesen zugänglich.
Frau Dr. Iris Zöllner
Landesgesundheitsamt Baden-Württemberg, RP Stuttgart
Sensibilisierung gegen ambrosiaspezifisches Allergen bei Erwachsenen in Baden-Württemberg 2010/11 und 2016/17 (Iris Zöllner, Gabriele Horras-Hun, Rahel Bauer, Ursula Hack, Margarita Beresowski, Guido Fischer)
Einleitung
Einflüsse von Umweltbelastungen auf die menschliche Gesundheit stellen nach wie vor ein vieldiskutiertes Thema dar. So hat die Ausbreitung von Ambrosiapflanzen (auch: beifußblättriges Traubenkraut, engl.: ragweed) in Europa wegen des hohen Allergenpotentials der Pollen dieser Pflanze zu der Annahme geführt, dass die Sensibilisierung gegen ambrosiaspezifische Allergene zunehmen wird. Zu Sensibilisierungen und Allergien bei Erwachsenen in Deutschland liegen bisher kaum Längsschnittdaten vor. Aus diesem Grund hat das Landesgesundheitsamt (LGA) im Auftrag des Sozialministeriums untersucht, ob sich bei Erwachsenen in Baden-Württemberg in den vergangenen Jahren ein Anstieg bei Sensibilisierungen gegen ein ambrosiaspezifisches Allergen (Amb a 1) erkennen lässt.
Frühere Untersuchungen von Schulkindern in Baden-Württemberg im Alter von 10 Jahren ergaben Sensibilisierungsraten gegen das ambrosiaspezifische Allergen Amb a1 in Höhe von 2 % der untersuchten Kinder.
Methoden
Im Rahmen einer Kohortenstudie, die in Kooperation mit zehn Gesundheitsämtern in Baden-Württemberg an Landratsämtern seit 2010 durchgeführt wird und die sich im Rekrutierungskonzept an die WHITEHALL-Studien anlehnt, haben 2010/11 insgesamt 1398 Untersuchungsteilnehmer freiwillig Blutproben abgegeben, die mit Hilfe entsprechender Labormethoden auf Sensibilisierung gegenüber dem Majorallergen von Ambrosia artemisiifolia (Amb a 1) untersucht wurden. 2016/17 konnten davon insgesamt noch 724 Personen erreicht und für eine Teilnahme und Blutabnahme gewonnen werden. Die Untersuchung wurde von den Gesundheitsämtern in Aalen, Böblingen, Heilbronn(Land), Konstanz, im Hohenlohekreis, in Lörrach, Ludwigsburg, im Ortenaukreis, in Ravensburg und Waldshut in den jeweiligen Landratsämtern bisher in den Jahren 2010/11 und 2016/17 durchgeführt. Die Analyse der Blutproben (d.h. die entsprechende IgE-Bestimmung) erfolgte im Labor des Landesgesundheitsamtes Baden-Württemberg in Stuttgart.
Ergebnisse
In der Untersuchung 2010/11 wurde bei 1,1 % der untersuchten Personen im Alter zwischen 18 und 65 Jahren eine Sensibilisierung gegen das ambrosiaspezifische Majorallergen (Amb a 1) beobachtet. Bei den Personen, die sowohl an der ersten und an der zweiten Untersuchung teilgenommen hatten, lag dieser Anteil in der ersten Untersuchung bei 1,2 % und in der zweiten Untersuchung bei 1,1 %. Demnach konnte in dieser Gruppe keine Zunahme von Sensibilisierungen gegen das ambrosiaspezifische Allergen festgestellt werden.
Die Ergebnisse zur Sensibilisierung gegen das ambrosiaspezifische Allergen Amb a 1 bei den in beiden Erhebungen 2010/11 und 2016/17 untersuchten Personen zeigen, dass in den meisten Fällen die Laborergebnisse von 2010/11 und 2016/17 übereinstimmen (99,3%) und nur bei wenigen Personen eine Sensibilisierung 2016/17 hinzugekommen ist (0,3 %). Bei 0,4 % der untersuchten Personen war 2010/11 eine Sensibilisierung festgestellt worden und 2016/17 nicht mehr.
Schlussfolgerung
Da sich Ambrosiapflanzen auch weiterhin in Baden-Württemberg ausbreiten, bleibt es interessant, die Sensibilisierungsraten gegen das ambrosiaspezifische Allergen Amb a 1 weiter zu beobachten, auch wenn bisher keine Zunahme erkennbar war. Dies ist für die nächste Untersuchung dieser Erwachsenenkohorte im Jahr 2020 auch vorgesehen.
Frau Dr. Iris Zöllner
Landesgesundheitsamt Baden-Württemberg, RP Stuttgart
Anwendung der INTEGRATE-HTA-Methodik im ThemenCheck Medizin am Beispiel der Videorasterstereographie zum Monitoring bei idiopathischer Skoliose (Barbara Buchberger, Kaya Jastrzebski, Laura Krabbe)
In vollständigen Health Technology Assessment(HTA)-Berichten werden neben Sicherheit und Wirksamkeit einer Technologie auch ökonomische, ethische, juristische, sozio-kulturelle und organisatorische Aspekte dargestellt und diskutiert.
INTEGRATE-HTA ist ein abgeschlossenes EU-Projekt zur Entwicklung von Konzepten und Methoden für eine patientenzentrierte integrierte Bewertung komplexer Technologien [1]. Als komplex gelten Technologien, die insbesondere durch eine erhöhte Anzahl interagierender Komponenten, verschiedene Verhaltensweisen von Stakeholdern, Variabilität von Outcomes sowie den Grad von Flexibilität charakterisiert sind.
Im Gegensatz zur üblichen linearen Vorgehensweise durch partielles Abhandeln der einzelnen Domänen beruht die INTEGRATE-HTA-Methodik auf der Annahme von Interaktionen verschiedener Aspekte der Domänen. Von Beginn des HTA-Prozesses an werden die Interaktionen mithilfe verschiedener Tools systematisch erfasst und mit Stakeholdern diskutiert. Das Verfahren kann durch anhaltende Reflexion und Verdichtung der Relationen zur Erweiterung der Perspektive auf eine Technologie führen. Im Ergebnis sollen sich Komplexität und Wirkmechanismen auf verschiedenen Ebenen erschließen sowie eine gesellschaftliche Diskussion und Implementierung gebahnt werden.
Die Videorasterstereographie ist ein rein lichtoptisches Verfahren ohne Freisetzung ionisierender Strahlung und in Deutschland eine Selbstzahlerleistung. Als idiopathische Skoliose, die mit einer Inzidenz von mehr als 1% eine relativ häufige Fehlbildung ist, wird eine dreidimensionale Achsabweichung der Wirbelsäule ohne bekannte Ursache bezeichnet. Mädchen sind deutlich häufiger betroffen als Jungen. Je nach Ausprägung wird die Erkrankung konservativ durch Physio- oder Korsett-Therapie, aber auch durch operative Maßnahmen behandelt. Wesentlich ist eine regelmäßige Verlaufskontrolle zur Therapieanpassung bei Progredienz.
Untersucht wurde die Frage, ob die Anwendung der INTEGRATE-HTA-Methodik für den Vergleich der Videorasterstereographie mit konventionellem Röntgen zum Monitoring bei idiopathischer Skoliose zur Verbesserung des Verständnisses der einzelnen Domänen und ihrer Interaktionen dienen kann.
Gemäß INTEGRATE-HTA-Methodik [2] wurde ein initiales logisches Modell erarbeitet und im Prozess erweitert. Dazu dienten eine Übersichtstabelle zur multiplen Zuordnung von Aspekten zu Domänen sowie eine aus der Literatur abgeleitete Komplexitätscheckliste. Zur Einbindung von Stakeholdern in den HTA-Prozess fand ein Präsenztreffen mit Betroffenen statt. Darüber hinaus erfolgten eine Umfrage unter niedergelassenen Orthopäden zur Verbreitung der Technologie sowie eine Anfrage bei der Asklepios Katharina-Schroth-Klinik Bad Sobernheim nach Daten zur Adhärenz bei Korsett-Therapie. Als Ergänzung beschriebener Tools wurden Harvest Plots erstellt und die sozio-kulturelle Bedeutung der Erkrankung als semantischer Komplex hervorgehoben. Das finale logische Modell sowie eine graphische Darstellung der Interaktionen wurden zur Einleitung des Diskussionsprozesses erstellt.
Die zu Beginn des HTA-Prozesses als geringgradig komplex eingestufte Technologie stellte sich nach Verwendung vielfältiger Tools und graphischer Darstellung als hoch komplex heraus: die mehrfache Zuordnung einzelner Aspekte zu den Domänen ergab eine hohe Dichte von Interaktionen. Aufgrund der fehlenden Kostenerstattung waren z.B. ökonomische Aspekte hinsichtlich einer gerechten Ressourcenallokation mit ethischen und sozio-kulturellen Aspekten verbunden. Darüber hinaus war der Leistungs- und Informationszugang an den sozioökonomischen Status (SES) geknüpft, und der Leistungszugang mit dem SES in Bezug auf organisatorische Aspekte wie Anfahrts- und Wartezeiten verbunden sowie in Bezug auf den ethischen Aspekt der Selbstbestimmung.
Die Anwendung der INTEGRATE-HTA-Methodik trägt dazu bei, Interaktionen zwischen Domänen zu identifizieren und die Perspektive auf eine Technologie deutlich zu erweitern. Sie verbessert ein patientenzentriertes Verständnis und erleichtert die Diskussion von Aspekten unterschiedlicher Domänen.
Frau Dr. Barbara Buchberger
Robert Koch-Institut
Walkability and its association with prevalent and incident diabetes among adults in different regions of Germany: Results of pooled data from five German cohorts (Nadja Kartschmit, Robynne Sutcliffe, Mark Patrick Sheldon, Susanne Moebus, Karin Halina Greiser, Saskia Hartwig, Detlef Thürkow, Ulrike Stentzel, Neeltje van den Berg, Kathrin Wolf, Werner Maier, Annette Peters, Salman Ahmed, Corinna Rahe, Rafael Mikolajczyk, Andreas Wienke, Alexander Kluttig, Gavin Rudge)
Background and aim: Walkable neighbourhoods, characterized by high land-use mix and street connectivity, may increase physical activity and hence decrease the risk for type 2 diabetes (T2D). We aimed to investigate the association between walkability and prevalent and incident T2D in a pooled sample from five German cohorts in different regions of the country (city of Halle (CARLA), Western Pomerania (SHIP), cities of Ruhr Area (Heinz Nixdorf Recall), Augsburg and environs (KORA), and city of Dortmund (DO-GS)).

Methods: ArcGIS Geoinformation System in ESRI version 10.1 and 10.4 and OpenStreetMap data of 2016 were used to derive three walkability measures. The following measures were assigned to participants' addresses: number of transit stations, points of interest (POI, including cash machines, bank, bar, beer gardens, cafés, fast food restaurants, pharmacies, pubs, restaurants, and post offices), and impedance (restrictions to walking, e.g. due to physical barriers such as rivers or the absence of intersections and pathways) within a radius of 640 meters. We chose 640 m because of research showing that the propensity to walk to access public transport decreases after 640 meters.

We estimated associations between walkability and prevalent and incident T2D with modified Poisson regressions and adjusted for education, sex, body mass index at baseline, age at baseline, and cohort.

Results and Discussion: Of the baseline 15,936 participants, 1,252 participants had prevalent T2D. Participants free from T2D at baseline were followed over a mean of 9.1 years (SD: 3.5, minimum: 1.6, maximum: 14.8 years). Of these, 1,024 participants developed T2D. Overall, we found no associations between walkability measures and prevalent and incident T2D with all estimates close to one (e.g. Relative Risk (RR) per one standard deviation (SD) for impedance and prevalent T2D: 1.01, 95 % Confidence Interval (CI): 0.98, 1.04). Surprisingly, we have found an association of higher number of POI and prevalent T2D (RR per one SD: 1.07, 95% CI: 1.02, 1.13). However, the variety of POI was not explicitly taken into account and (fast food) restaurants were included as POI, which may explain this finding. On the whole, the effect of relatively homogeneous walkability in our population might not be strong enough to find an effect on T2D.
Frau Nadja Kartschmit
Institut für Med. Epidemiologie, Biometrie und Informatik Martin-Luther-Universität Halle-Wittenberg
A Delphi Study to Derive Barriers against Prevention Programs for Iodine Deficiency Disorders in Europe (Monika Schaffner, Ursula Rochau, Igor Stoikov, Vjollca Qerimi Rushaj, Henry Völzke, Christa Them, Wilhelm Oberaigner, Petra Schnell-Inderst, Uwe Siebert)
Background: Iodine deficiency is one of the most prevalent causes of mental development disorders in children and can lead to impaired thyroid function and other iodine deficiency disorders (IDDs). Although substantial progress has been made in the last decades in eliminating iodine deficiency, IDDs are still prevalent in European countries. Challenges remain due to fragmentation and diversity of prevention and monitoring programs and differences between countries. Additionally, already initiated IDD prevention and monitoring programs may not remain effective, for example, because of changes in the health care policy or high costs. However, the barriers against the implementation and continuation of the prevention and monitoring of IDD remain unclear. Therefore, the objective of our study was to identify potential barriers for implementing pan-European IDD prevention and monitoring programs and to find solutions for the different barriers.
Methods: We applied a modified Delphi method (RAND/UCLA Appropriateness Method), including the possibility to discuss given answers within the different Delphi rounds. We selected potential participants with expertise and experience in relevant fields including policy makers, healthcare professionals, health scientists, and patient representatives from all European countries. The Delphi method was conducted with open-ended questions and item ranking to achieve group consensus on potential barriers against pan-European IDD prevention and monitoring programs and related solutions to overcome those barriers. The answers of the Delphi rounds were analyzed using qualitative content analysis and descriptive statistical analysis methods. In addition, we conducted two expert interviews to analyze and discuss the results of the Delphi study.
Results: 80 experts from 36 countries and different fields of work participated in the first Delphi round, 52 in the second and 46 in the third Delphi round. The work field-specific response rate in the first Delphi round ranged from five to 38 percent. More than 90 percent of the experts rated national and pan-European IDD prevention and monitoring programs important or very important. Potential barriers for the implementation of national prevention and monitoring programs include challenges in the fields of knowledge and information, implementation and management, and communication and cooperation. Mentioned barriers for the implementation of a pan-European prevention program were differences between the countries, lack of political support and challenges in the field of implementation and management. Solutions addressing these barriers were suggested by the experts and include cooperation with different stakeholders, gaining knowledge, sharing information, as well as the development of a European program with national specification, European guidelines/recommendations and European monitoring.
Conclusion: In our study, we derived key information and first insights with regard to barriers against IDD prevention programs from a broad range of stakeholders. The Delphi technique is an innovative approach to gain a broad overview of possible barriers and to involve experts from different countries and fields of work. The results raise awareness of challenges and potential solutions for the implementation of national and pan-European IDD prevention and monitoring program. This information may help decision makers in health policy for the development IDD prevention strategies.
Frau Dr. Ursula Rochau
UMIT - Private Universität für Gesundheitswissenschaften, Medizinische Informatik und Technik, Hall i.T., Austria
Analyzing Relations between Antidiabetic Drugs using the Diagnostic Spectrum of the Related Patients with a Graph Theoretic Method and a Markov Model (Reinhard Schuster, Marc Heidbreeder, Timo Emcke, Martin Schuster)
We consider a neighborhood relation between antidiabetic drugs classified with respect to the international ATC (Anatomic-Therapeutic-Chemical) system and the related therapeutic spectrum. In order to determine increased patient risks we use those diagnoses on three digit ICD-10 level (International Statistical Classification of Diseases and Related Health Problems) which occur more often for diabetes patients compared to the whole population in the dataset. We analyze all treatments and prescriptions of physicians for patients of the statutory health insurance (SHI) by SHI physicians in Schleswig-Holstein in the first and second quarter of 2018. The largest increase of relative risks for diabetes patients in comparison with all patients of the population are given for “Polyneuropathy in diseases classified elsewhere” (G63), “Obesity” (E66), “Disorders of purine and pyrimidine metabolism” (E79), “Chronic ischaemic heart disease” (I25) and “Disorders of lipoprotein metabolism and other lipidaemias” (E78). Multimorbidity and polypharmacy are a major problem for elderly patients. Above 70 years one has more than seven drug groups at four digit ATC level on average. Using the vector of the fraction of patients with those diagnoses with respect to the related antidiabetic drug we use the Manhattan distance in order to determine the therapeutic most similar drugs. The drugs are used as nodes of a graph and edges are given by therapeutic neighborhood. We determine graph clusters using the modularity method. The related algorithm lead to an ILP (integer linear program) which is in general NP-hard (NP: no computations are possible in polynomial time). Using a related LP (linear program) and post processing applying Mathematica (Wolfram Research) we get graph communities with different levels of resolution. Community structures of graphs give new insights in therapeutic backgrounds of prescribed drugs. This offers the possibility for improved health care decisions at the negotiation level, improved medical decisions from a patient centered point of view and adapted national and international guidelines from a unified point of view. We consider changes of drug therapy between 2013 and 2018 and analyze the time stability of the drug therapy in 2018 the by a Markov equilibrium using data of successive quarters.
Herr Prof.Dr. Reinhard Schuster
MDK Nord
Tuesday
10 Sep 2019
08:45 - 09:45
PS3
Medizinisches Informationsmanagement
Room: EF40 Foyer Anordnung 2 (Location: Emil-Figge-Str. 40)
Chair(s): Markus Stein and Peter Kuhn
The Classification of Causality in Adverse Drug Reactions Reporting: consistent with Verbal Probability Ratings? (Hannah Vogel, Sebastian Appelbaum, Reinhard Schuster, Thomas Ostermann)
Verbal probability expressions such as ‘good chance’ or ‘likely’ are commonly used in physician-patient-communication to describe uncertainty and risk as for example in the context of adverse drug causality appraisal. The WHO for instance suggests four verbal expressions ‘certain’, ‘probable’, ’possible’, and ‘unlikely’ for classifying the probability of adverse drug reactions (ADRs) [1]. According to [1] the numerical range for these verbal probabilities is given by 0-5% for ‘unlikely’, 5-50% for ‘possible’, 50-95% for ‘probable’ and 95-100% for ‘certain’. However, there is insufficient evidence of this numerical interpretation. Moreover this interpretation might also differ from the numerical values assigned to those verbal expressions in [1]. We therefore aimed at answering these questions by asking a sample of N = 476 individuals above the age of 18 (mean age 29.45 ± 14.47; median: 23 years) to numerically rate the set of four verbal probability expressions on a visual analogue scale from 0-100. The format of the question for the numerical rating task was given in the form “An event is …” in which “…” was replaced by the verbal probabilities. As a result, numerical probability ratings of the sample differed notably from the proposed numerical values in [1] with values of ‘unlikely’ of 24.99 ± 17.28 (Mean ± SD), ’possible’ of 62.03 ± 24.72, ‘probable’ of 70.75 ± 18.69 and ‘certain’ of 84.21 ± 26.8 indicating a lack of agreement between the originally intended and perceived probability assessment. However, in order to substantiate the need to adapt the WHO classification system, further research based on larger sample sizes should be taken into consideration with a stronger focus on ADRs.
Herr Prof. Dr. Thomas Ostermann
Universität Witten/Herdecke
Testung der erweiterten Alpha-ID-SE zur Kodierung von seltenen Erkrankungen (Sarah Romahn, Kurt Kirch, Stefanie Weber)
Hintergrund
Die Europäische Union definiert eine Erkrankung als selten, wenn nicht mehr als 5 von 10.000 Menschen an ihr erkrankt sind. Allein in Deutschland leiden Expertenschätzungen zufolge etwa 4 Millionen Menschen, darunter vor allem Kinder, an einer Seltenen Erkrankungen (SE). EU-weit sollen circa 30 Millionen betroffen sein [1,2]. Trotz dieser geschätzten verhältnismäßig hohen Zahlen sind SE aus epidemiologischer Perspektive kaum sichtbar und eine Beurteilung der Bedeutung in Gesundheitssystemen nicht umfänglich möglich[3], da eine einheitliche spezifische und eindeutige Kodierung bisher nicht etabliert ist.
In Deutschland erfolgt die Routinekodierung durch die ICD-10-GM, die nur wenige spezifische Kodes für SE enthält. Die Spezifität in der Kodierung soll daher über eine Verknüpfung der Klassifikationen ICD-10-GM und Orpha-Kennnummer erreicht werden [4]. Orphanet, ein europäisches Referenzportal mit Informationen über SE und Orphan Drugs, ordnet jeder SE eine spezifische Orpha-Kennnummer (Orphacode) zu. Durch diesen Orphacode könnte eine eindeutige Kodierung von SE erfolgen [5].
Im Rahmen der vom Bundesgesundheitsministerium finanzierten DIMDI-Projekte „Kodierung von Seltenen Erkrankungen I&II“ wurde zunächst das notwendige Kodier-Werkzeug, also die Verknüpfung der Klassifikationssysteme durch eine Erweiterung der Alpha-ID[6], entwickelt. Anschließend wurde die Implementierung in ausgewählten Zentren für Seltene Erkrankungen (ZSE) getestet.
Projektziele
Ziel des Projektes „Kodierung von Seltenen Erkrankungen II“ ist es, eindeutige Aussagen zur SE-Patientenzahl durch Verbesserung der Kodierung von SE zu ermöglichen. Ausgewählte ZSE sollen die Implementierung der erweiterten Alpha-ID in der Routineanwendung testen und anschließend eine Empfehlung für das langfristige Vorgehen zur Kodierung entwickeln. Darüber hinaus sollen Schulungsmaterialien erarbeitet werden, die zu standardisierten Kodier-Abläufen sowie einer anwenderfreundlichen Nutzung der erweiterten Alpha-ID-SE führen sollen.
Methodik
In vier Referenzzentren wird die Implementierung der erweiterten Alpha-ID-SE in die bestehenden IT-Strukturen getestet. In enger Zusammenarbeit mit dem DIMDI wurden Ergebnisse, wie beispielsweise der Vergleich der Implementierungswege, zusammengetragen. Auf Grundlage dieser Ergebnisse und Erfahrungen der Testzentren wurde eine Empfehlung zur langfristigen Verwendung des Datensatzes und Schulungsmaterialien für Kodierende und Softwarehersteller entwickelt.
Diskussion und Ausblick
Aus technischer Sicht war die Implementierung der erweiterten Alpha-ID in das Krankenhausinformationssystem des jeweiligen ZSE möglich und das zur Verfügung gestellte Dateiformat für den Anwendungszweck strukturell gut geeignet. Die Vertreterinnen und Vertreter der Testzentren sind sich über Chancen und Nutzen, die die spezifische Kodierung von SE bietet, einig: die hiermit erreichte Sichtbarkeit von SE führt zu repräsentativen Fallzahlen, welche die Grundlage für epidemiologische Forschung darstellen können. Weiterhin wäre die Rekrutierung geeigneter Probanden und Probandinnen zu SE-Studien gezielter auch zentrumsübergreifend möglich, wodurch die Erforschung von Diagnostik und Therapie verbessert werden könnte. Zusätzlich wird die internationale Interoperabilität bei der Erfassung von SE ermöglicht. Nicht zuletzt wäre die Durchführung von Analysen zur Kostenverteilung auf verschiedene SE zentrumsintern denkbar, welche im Einzelfall von erheblicher Bedeutung für eine Zentrumsfinanzierung sein könnten.
Die teilnehmenden Zentren empfehlen eine verpflichtende Anwendung der Kodierung von SE mittels ICD-10-GM und Orpha-Kennnummer für ZSE. Eine Vervollständigung der Alpha-ID-SE sowie die konsequente Verwendung von Orpha-Kennnummern zur Kodierung sind in diesem Zusammenhang von hoher Relevanz und werden von den Zentren ausdrücklich gewünscht.
In Zusammenarbeit mit den Testzentren hat das DIMDI eine Schulungspräsentation, Flyer für Kodierende und Softwarehersteller sowie eine Empfehlung zur weiteren Anwendung der Alpha-ID-SE entwickelt.
Frau Sarah Romahn
Deutsches Institut für Medizinische Information und Dokumentation (DIMDI)
Vergleich von Diagnosen aus der ambulanten und stationäre Versorgung in Schleswig-Holstein (Dirk Melcher, Reinhard Schuster, Timo Emcke)
Einleitung
In dieser Arbeit wird das Diagnosespektrum aus der ambulanten und der stationäre Versorgung miteinander verglichen. Untersucht wurden Daten aus dem 1. Quartal 2018 aus Schleswig-Holstein in Form von ICD 3-Stellern und Alter und Geschlecht des/der Versicherten. Die Untersuchung soll zur besseren Vernetzung des ambulanten und stationären Sektors beitragen.

Ergebnisse
Für den stationären Sektor lagen die Diagnosen der Fälle aus Schleswig-Holstein vor, die dem MDK Nord zur Begutachtung stationärer Aufenthalte übermittelt wurden (219.871 Datensätze). Diese machen ca. 15% der gesamten stationären Fälle aus und stellen daher eine brauchbare Stichprobe für das Diagnosespektrum dar. Für den ambulanten Bereich stand die komplette Grundgesamtheit zur Verfügung (15.587.451 Datensätze). Diagnosen aus den Kapiteln V01-Y84, Z00-Z99 und U00-U99 wurden aus den Daten entfernt, da sie keine medizinische Aussagekraft besitzen.
Für einen ersten Vergleich wurden die relativen Häufigkeiten der ICD 3-Steller aus dem ambulanten und dem stationären Bereich in Beziehung gesetzt. Bei einer einfachen linearen Regression ergibt sich mit einem R^2 von 0,37 eine mäßige Korrelation. Verwendet man die Spearmansche Rank-Korrelation, wo ergibt sich ein rho von 0,64. Beide Werte sind signifikant auf dem 0,01%-Niveau. Sowohl bei den ambulanten als auch bei den stationären Diagnosen erschien die Essentielle Hypertonie (I10) mit Abstand am häufigsten.
Aggregiert man die ICD 3-Steller auf ICD-Kapitel, so erhält man relative Häufigkeiten für 19 Kapitel. Bei einer linearen Regression ergibt sich hier ein Bestimmtheitsmaß von 0,50 und bei der Spearmanschen Rank-Korrelation ein rho von 0,77 (beide signifikant auf dem 0,1%- bzw. 1%-Niveau).
Im stationären Sektor werden die meisten Diagnosen aus dem Kapitel
I00-I99 (Krankheiten des Kreislaufsystems) kodiert (18,6%), im ambulanten Sektor stammen die meisten Diagnosen mit 14,6% aus dem Kapitel M00-M99 (Krankheiten des Muskel-Skelett-Systems und des Bindegewebes). F-Diagnosen kommen im ambulanten Sektor mit 8,0% deutlich häufiger vor als im stationären Sektor (4,9%). Daher ist zu vermuten, dass die meisten psychischen Erkrankungen im ambulanten Sektor behandelten werden können.

Diskussion
Es zeigt sich, dass es sowohl auf der Ebene der ICD 3-Steller als auch der ICD-Kapitel eine deutliche Korrelation im Diagnosespektrum gibt. Bedacht werden muss allerdings, dass die Kodierung der Diagnosen im Krankenhaus im Gegensatz zum niedergelassenen Bereich unmittelbar erlösrelevant ist. Im DRG-System sind aber – zum Teil abhängig von der Hauptdiagnose – nur bestimmte Diagnosen erlösrelevant. Es wäre denkbar, dass nicht-abrechenbare Diagnosen häufig nicht mit kodiert werden. Im ambulanten Bereich wird sich der niedergelassene Arzt vermutlich eher auf Diagnosen konzentrieren, die unmittelbar mit den Symptomen seiner Patienten zu tun haben.
Interessant wäre es außerdem noch, zu untersuchen, ob sich die Korrelationen im Diagnosespektrum alters- und geschlechtsbezogen ändern.
Schließlich wäre es noch wünschenswert, wenn anhand eines kompletten §301-Datensatzes überprüft werden könnte, ob das Diagnosespektrum aus den stationären Begutachtungsdaten tatsächlich repräsentativ für die Grundgesamtheit aller Krankenhausaufenthalte ist.
Herr Dr. Dirk Melcher
Medizinischer Dienst der Krankenversicherung NORD
KI zur Optimierung stationärer Abrechnung (Frank-Oliver Dr. Heemeyer)
Einleitung: Trotz der jüngsten Neugestaltung des Prüfverfahrens nach §275 SGB V durch den Gesetzgeber ist die - mit Einführung des DRG-Systems einsetzende - Flut an MDK-Anfragen (1) in den Krankenhäusern z.T. dramatisch gestiegen, wobei Prüfquoten von mehr als 20% der stationären Fälle inzwischen keine Seltenheit mehr sind (2). Um die ansteigenden Verluste durch erfolgreiche MDK-Prüfanfragen einzudämmen, müssen immer größere Anstrengungen in Verwaltung und Klinik unternommen werden. Die gängige Praxis ist dabei, durch den zunehmenden Einsatz von Dokumentationsassistenten, MedControllern sowie IT-Dokumentations- und Kodierunterstützungssystemen eine möglichst genaue und damit MDK-sichere Dokumentation und Kodierung im Sinne der DKR zu gewährleisten. Einen Weg aus dieser Kostenspirale zu finden ist Ziel des hier vorgestellten Forschungsprojekts: Durch den gezielten Einsatz von Methoden des Maschinellen Lernens bzw. von KI im Bereich der Krankenhausabrechnung soll gezeigt werden, ob sich Muster erkennen lassen, die eine verlässliche Vorhersage gestatten, welche abgerechneten Fälle eines Krankenhauses mit hoher Wahrscheinlichkeit MDK-Prüffälle werden.

Material und Methoden: Die Basis für den beschriebenen KI-Ansatz stellen die Abrechnungsdaten eines Krankenhauses der Maximalversorgung aus Westdeutschland mit einer MDK-Prüfquote von 30% dar. Die anonymisierten Daten, die den Firmen conGane (Berlin, Medizincontrolling-Beratung) und Dr. Hornecker Softwareentwicklung (Freiburg) für den Forschungsansatz zur Verfügung stehen, umfassen die anonymisierten §21-Datensätze der Jahre 2016-2018, Detaildaten zu den MDK-Anfragen des gleichen Zeitraums sowie ergänzende Kodieränderungsdaten. Die Daten wurden über einen Zeitraum von 6 Wochen bereinigt und konsolidiert und anschließend unterschiedlichen Methoden des maschinellen Lernens unterworfen (u.a. support-vektor-machines, n-nearest-neighbours, logistische Regression, random forest, decision-trees).

Ergebnisse: Die erzielten Ergebnisse mit Methoden maschinellen Lernens fielen je nach gewählter Prüfkategorie hinsichtlich der falsch negativen Fälle unterschiedlich aus, während der Anteil der falsch-positiven Vorhersagen über alle Kategorien/Subkategorien bei ca. 5% lag. Für die Kategorie "Primäre Fehlbelegung" konnten 92,5% der MDK-Prüffälle vorhergesagt werden, in der Kategorie "Sekundäre Fehlbelegung" sogar 95% (Subkategorie "ObereGrenzverweildauer (OGVD)" bzw. 94% (Subkategorie "Untere Grenzverweildauer (UGVD)". Das jeweils ermittelte Gütemaß (Cohen's Kappa) von 0,7 bei der primären bzw. 0,9 bei der sekundären Fehlbelegung wies dabei einen starken bis sehr starken statischen Zusammenhang aus. Die Ergebnisse in der Kategorie "Kodierung" fielen mit 80% für die Subkategorie "Prozeduren" und 60% für die Subkategorie "Hauptdiagnose" geringer aus (Cohen's Kappa 0,6 bzw. 0,4).

Diskussion: Die Hypothese dieser Arbeit, dass sich MDK-Prüffälle mit Hilfe von Methoden des maschinellen Lernens bei geeigneter Datengrundlage mit hoher Wahrscheinlichkeit vorhersagen lassen, konnte für die Kategorien primäre und sekundäre Fehlbelegung vollumfänglich bestätigt werden, während die Ergebnisse in der Kategorie Kodierung noch nicht so überzeugend ausfielen. Grund für die vergleichsweise schwächeren Resultate ist die hohe Diversität bei Prozeduren und Diagnosen, die ein sinnvolles Clustering oder Binning erfordern, um ausreichend viele Beispiele pro Subkategorie für den Algorithmus zum Lernen zur Verfügung zu stellen. Hier ist weitere Forschung im geplanten Folgeprojekt notwendig, welches auch die Anwendung von "deep-learning" einschließt, das als Verfahren aus Zeitgründen bisher nicht zum Einsatz kam. Im Rahmen des Folgeprojekts werden dann auch Vorhersagen zu den Subkategorien "Nebendiagnosen" und "Fallzusammenführungen" untersucht. Weiteres Ziel des Folgeprojekts ist die Überprüfung der These, ob sich durch Anpassungen im Kodier-und Dokumentations-Workflow im Hinblick auf die Nutzung der Vorhersagen finanzielle Vorteile erwirtschaften lassen.
Herr Frank-Oliver Dr. Heemeyer
Nutzung von Daten eines flächendeckenden kassenärztlichen Nachsorgesystems für onkologische Erkrankungen im Rahmen der klinischen Krebsregistrierung (Tobias Hartz, Birgit Dlugosch, Elwira Garzosch, Mark Höftmann, Dörthe Sambach-Touré, Daniel Dettmer, Tonia Brand, Sven Meyer)
Hintergrund
Mit dem Krebsfrüherkennungs- und -registergesetz (KFRG) wurde die Einrichtung klinischer Krebsregister in § 65c SGB V gesetzlich verankert [1]. In Niedersachsen existierte bereits ein etabliertes System von Nachsorgeleitstellen der Kassenärztlichen Vereinigung Niedersachsen (ONkeyLINE), in dessen Rahmen auch eine umfassende Tumordokumentation und Auswertungen [2, 3] erfolgten. Beschrieben wird hier die Integration der dort vorgehaltenen Datenbestände in das Klinische Krebsregister Niedersachsen (KKN).

Methoden
Das KKN wurde zum 01.12.2017 als Anstalt öffentlichen Rechts gegründet. Seit dem 01.07.2018 gilt eine Meldepflicht für alle Ärztinnen/Ärzte und Zahnärztinnen/Zahnärzte in Niedersachsen, die eine Person wegen einer bösartigen Tumorerkrankung einschließlich Frühstadien oder wegen eines gutartigen Tumors des zentralen Nervensystems in Niedersachsen diagnostizieren oder behandeln. Die Meldeanlässe umfassen dabei die Diagnose einschließlich -sicherung, Therapiebeginn- und -abschlussdaten, Verlaufsmeldungen einschließlich tumorbedingten Todes und Pathologiemeldungen. Aufgrund der Finanzierung der klinischen Krebsregister gemäß § 65c SGB V zu 90 % aus Mitteln der gesetzlichen Krankenversicherung wurden die bisherigen Vereinbarungen für die Vergütung der Dokumentation in der onkologischen Nachsorge aufgekündigt und mit Aufnahme des Regelbetriebes des KKN die Datenerfassung bei ONkeyLINE beendet. Die Daten von ONkeyLINE konnten gemäß § 33 des Gesetzes über das Klinische Krebsregister Niedersachsen (GKKN) durch das KKN in pseudonymisierter Form übernommen werden und werden für die im KKN gespeicherten Patientinnen/Patienten den Datensätzen zugespielt, soweit sie dem einheitlichen Datenformat das ADT/GEKID-Datensatzes entsprechen und soweit aktuelle Meldeanlässe für die Patientinnen/Patienten vorliegen.

Ergebnisse
Insgesamt konnten Krebsmeldungen für etwa 634.300 Patientinnen/Patienten übernommen werden. Neben der am häufigsten gemeldeten Tumorart – dem Hauttumor (ohne Melanom) mit rund 265.000 Fällen – gehören das invasive Mamma-Ca. mit 134.384 Fällen, das Prostata-Ca. mit 90.666 Fällen sowie kolorektale Ca. mit 69.471 erfassten Fällen zu den häufigsten Tumorentitäten. Aus den identifizierenden Daten wurden Kontrollnummern generiert. Wenn ein in ONkeyLINE erfasster Patient mit einem aktuellen Meldeanlass nach dem 01.07.2018 gemeldet wird, erfolgt mittels des in der Krebsregistrierung etablierten Record-Linkage-Verfahrens eine Verknüpfung zwischen neuer Meldung und dem in ONkeyLINE erfassten Patienten. Die bereits vorhandenen Alt-Daten werden in diesem Fall über das webbasierte Melderportal als PDF-Synopse für die Melder bereitgestellt.

Diskussion
Aufgrund der Neugründung der klinischen Krebsregister fehlen diesen häufig Daten aus zurückliegenden Zeiträumen der Tumorbehandlung, um im Registerbereich eine valide Einschätzung der medizinischen Situation und eine adäquate Bildung eines Best-of vornehmen zu können. Durch die Verwendung von vollständigen Diagnose-, Verlaufs- und Behandlungsketten aus ONkeyLINE besteht für das KKN die Möglichkeit, für bereits gemeldete Patienten bei Vorliegen neuer Meldeanlässe umfassende Tumorhistorien abbilden und den Meldern im Melderportal zurückspiegeln zu können. Daraus ergibt sich die Chance, kurzfristig aussagekräftige Auswertungen aus den Registerdaten für melderbezogene Rückmeldungen, für regionale Qualitätskonferenzen, zum Zwecke der onkologischen Qualitätssicherung und der Versorgungsforschung sowie für die sektorenübergreifende datengestützte Qualitätssicherung gemäß § 137 SGB V zu generieren. Für Externe besteht die Chance, im Rahmen der gesetzlichen Möglichkeiten einen entsprechenden Antrag zur Nutzung der Daten zu stellen.
Herr Tobias Hartz
Klinisches Krebsregister Niedersachsen
Durchführung einer Kosten-Nutzen-Analyse innerhalb des Projektes eVent@home – Optimierte ganzheitliche Versorgung von Menschen mit außerklinischer Beatmung durch eHealth (Alexander Agatz, Simon Roschu, Sylvia Thun)
Hintergrund
Die in der außerklinischen Beatmung überwiegend papierbasierte Dokumentation der Versorgungsprozesse und Kommunikationsaktivitäten zwischen den Behandlern über Telefon und Telefax beinhaltet unter anderem das Risiko, dass wichtige medizinische und pflegerische Inhalte verloren gehen und dadurch negative Einflüsse auf den Versorgungskontext entstehen.
In dieser Arbeit wird das Potential einer unterstützenden digitalen Dokumentations- und Kommunikationssoftware analysiert, und innerhalb einer Kosten-Nutzen-Analyse mit den herkömmlichen Prozessabläufen verglichen.

Methodik
Für die Kosten-Nutzen-Analyse wurde die im Projekt entwickelte eVent@home Dokumentations- und
Kommunikationssoftware bei einer Interventionsgruppe (n=16) eingesetzt und mit einer Kontrollgruppe (n=16) hinsichtlich derer Kosten- und Nutzeneffekten verglichen. Die eingesetzte Software bietet unter anderem eine digitalisierte und standardisierte Dokumentation, welche die papierbasierte Variante ersetzen soll. Gleichzeitig wird eine schnellere und übersichtlichere Verlaufskontrolle der Beatmungsparameter eines Patienten garantiert. Als Analyseinstrument wurde das gesundheitsökonomische Evaluationsprogramm ASSIST gewählt, mit welchem sich direkte, indirekte und intangible Kosten- und Nutzenindikatoren, beispielsweise die sozioökomische Rendite,
umfangreich analysieren lassen. Darüber hinaus bietet es die Möglichkeit, die Entwicklung der Kosten-NutzenRelation über einen Zeitraum von bis zu sechs Jahren darzustellen. Alle beteiligten Stakeholder können hierbei detailliert erkennen, in welchen Aspekten ihre Einsparpotentiale liegen und wie hoch diese sind.
Ein objektiver Vergleich der entwickelten Software mit herkömmlichen, größtenteils analogen, Dokumentations- und Kommunikationsmethoden wurde hierzu durch Festlegung und Integration spezifischer Indikatoren ermöglicht. Im Detail wurden dabei insbesondere die Qualitätsindikatoren der Deutschen Interdisziplinären Vereinigung für Intensiv- und Notfallmedizin (DIVI) genutzt [1]. Weiterhin wurden monetäre und tangible Kostenindikatoren, sowie monetäre und intangible Nutzeneffekte im Projekt eVent@home identifiziert und bewertet.

Ergebnis
Die Ergebnisse, berechnet durch ASSIST, zeigen, dass die eVent@home Softwarelösung sowohl monetäre
Einsparpotentiale, als auch nicht-finanzielle Nutzeneffekte, wie z.B. Steigerung der Arbeitszufriedenheit für alle Anwender, beinhaltet. Werden diese beschriebenen Kosteneinsparungen kumuliert, so besteht bis zum Jahr 2024, in diesem Anwendungsfall, ein Kosteneinsparpotential von 252.033 €. Diese Einsparung kann in Relation zu dem Bruttojahresumsatz des Intensivpflegedienstes in Szenario 1 betrachtet werden, welcher bei ungefähr 9.460.800 € liegt (24h x 18€ Stundensatz gezahlt von der Krankenkasse x 365 Tage x 60 Patienten). Im analysierten Zeitintervall von sechs Jahren könnten somit Kosten in Höhe von 42.005,50 € pro Jahr durch die Intervention eVent@home eingespart werden.
Für alle involvierten Stakeholder im Versorgungsprozess liegt demnach ein hohes Einsparpotential vor. Da
Situationen, wie z.B. die Überleitung eines Patienten aus dem Krankenhaus zurück in das häusliche Umfeld, in der einjährigen Implementierungsphase nicht vorkamen, wurden an dieser Stelle Erfahrungswerte der aktuell durchgeführten Prozesse in die Analyse miteinbezogen, um diese anschließend zu vergleichen, mit den optimierten Prozessabläufen, welche durch die eVent@home Software ermöglicht werden.
Herr Alexander Agatz
Hochschule Niederrhein
Tuesday
10 Sep 2019
14:45 - 15:45
PS4
Wissensverarbeitung & Entscheidungsunterstützung 1
Room: EF40 Foyer Anordnung 3 (Location: Emil-Figge-Str. 40)
Chair(s): Peter Haas and Cord Spreckelsen
Prototypische Umsetzung eines entscheidungsunterstützenden Systems zur operativen Brustkrebstherapie (Michael Dück, Thomas Schossau, Eberhard Beck)
Jedes Jahr erkranken in Deutschland rund 70.000 Frauen neu an Brustkrebs.1, 2 Dem nach wie vor weitgehend paternalistischen Beratungsverhalten der Ärzteschaft wird in den letzten Jahren zunehmend das Konzept des Shared decision making gegenübergestellt. Dies setzt jedoch eine hinreichend detaillierte Information der Betroffen auf der Basis evidenzbasierter Entscheidungshilfen voraus. In einem vorangegangenen Pilotprojekt wurde daher das Suchverhalten von Brustkrebspatientinnen und Nicht-Betroffenen Personen während einer Internetrecherche zu den therapeutischen Möglichkeiten bei Brustkrebs analysiert. Diese Analyse ergab, dass vorwiegend unsichere Quellen (Foren, Artikel aus der Laienpresse und Erfahrungsberichte) verwendet wurden3.
Die S3-Leitlinie für die Früherkennung, Diagnostik, Therapie und Nachsorge des Mammakarzinom gibt zwar der Ärzteschaft einen engen Korridor für die individuelle Entscheidungsfindung vor, seitens der Betroffenen wird jedoch schon seit Jahren eine laienverständliche, aber dennoch evidenzbasierte Version der Leitlinie eingefordert.
Als erster Schritt zur Entwicklung eines webbasierten, entscheidungsunterstützenden Systems wurden auf Basis der Leitlinie Prozessmodelle zur operativen Brustkrebstherapie in BPMN modelliert und hinsichtlich der erforderlichen Entscheidungsknoten analysiert. Die daraus entstandenen Prototypen können auf Basis der S3-Leitlinie zum Mammakarzinom Empfehlungen zur operativen Behandlung vorschlagen. Die Empfehlungen basieren auf der TNM Klassifikation, des Gradings und der Brust-Tumor-Relation. Der erste Prototyp ist eine mobile Applikation, die außer dem Empfehlungsprozess keine weitere Funktion hat. Für die zweite Entwicklungsstufe ist eine webseiten basierte Informationsplattform, welche den Verlauf einer Brustkrebstherapie nachbildet und Informationen zu den einzelnen Therapiemaßnahmen anbietet, geplant.
Die Informationsplattform wird nach der Vorgabe der „Guten Praxis Gesundheitsinform-ation“4 entwickelt. Folgende Werkzeuge werden zur Erstellung der webbasierten Anwendung ver-wendet: das Prozessmodellierungs-Tool Signavio, HTML, CSS und JavaScript. ​Ein entscheidungs-unterstützendes System ist aus der S3-Leitlinie zwar ableitbar, aber ohne die Überprüfung durch erfahrene, praktizierende Onkologen ist dieses System nur eine vorläufige theoretische Unterstützung. Es erscheint jedoch möglich durch ein so abgeleitetes entscheidungsunterstützendes System, Patienten in die Entscheidungsfindung einzubinden.
Dies entspricht dem Grundsatz des Patient Empowerments, dass die Patientinnen künftig zu mündigen und aktiven Beteiligten an ihrer medizinischen Behandlung macht (“No descision about me without me“!). Für die behandelnden Ärzte kann die Anwendung als Unterstützung bei der Beratung und der Betreuung von Patienten zum Einsatz kommen. Um die beiden Anwendungen evaluieren zu können, werden für die mobile Anwendung Fallakten und die Erfahrungen von Behandlern benötigt, um zu prüfen, ob die Empfehlungen den Goldstandart erfüllen. Die webbasierte Anwendung soll durch die Einbeziehung von Betroffenen angepasst und erweitert werden, um Fragen und mögliche Anregungen zu den Behandlungspfaden und weiteren Inhalten zu klären und umzusetzen.
Herr Michael Dück
Technische Hochschule Brandenburg Fachbereich Informatik und Medien
Data Recording System for Anesthesiology, Patient Monitor and Surgical devices in Operating Rooms (Tamer Abdulbaki Alshirbaji, Nour Aldeen Jalal, Lars Mündermann, Knut Möller)
Integrated operating rooms typically connect medical devices providing the clinical user a complete control over environment, device setting and digital management of intervention-related data. Consequently, the opportunity to analyze and present data from different perspectives and with different objectives has arisen. The available integrated ORs are so far designed as closed systems, thus connecting co-existing systems from different manufactures e.g. anesthesia machines and surgical devices is demanding. The purpose of this project is to facilitate data collection from anesthesiology, patient monitoring and surgical devices. The main goal is to explore if and how surgical actions affect the physiological situation of patients and how to employ this knowledge for assisting the surgical team and improve patient safety. The study is performed on laparoscopic procedures, and the data are going to be recorded at the Schwarzwald-Baar Klinikum (SBK) in Villingen-Schwenningen (Germany). Therefore, this part of the project focuses on the overall architecture for collecting data in the operating theater at the SBK. In this work, (i) the system architecture (i.e. hardware components), (ii) software architecture and (iii) required protocols for synchronous recording of data in the OR are described. The proposed framework allows to synchronously record all data available in the OR and subsequently to analyze “big data” obtained with machine learning approaches.
Herr Tamer Abdulbaki Alshirbaji
Hochschule Furtwangen
Expertensystem zur Unterstützung der Abstoßungsdiagnostik nach NTx (Christina Valtin, Jana-Elena Michaelis, Nina Kirstein, Joelle Naim, Nina Wattenberg, Jonathan Züger, Matthias Katzensteiner, Wolfram Ludwig)

Hintergrund
Derzeit warten ca. 8.000 Patienten in Deutschland auf eine Nierentransplantation (Stand 2017) [1]. Während die Prävalenz der terminalen chronischen Niereninsuffizienz stetig zunimmt, geht die Zahl der Organspender jedoch zurück [2]. Aufgrund dieses Engpasses ist es umso wichtiger eine Abstoßungsreaktion möglichst früh zu erkennen. Derzeit ist für die Diagnose eine Biopsie des Transplantats notwendig, bei der jedoch Komplikationen wie beispielsweise Hämatome oder Fisteln auftreten können [3] [4].
Im Rahmen des Verbundprojekts “Screen-Reject: Ein Lateral-Flow-Test zur Abstoßungsdiagnostik” soll daher ein nicht-invasives Diagnostikum entwickelt werden um die Früherkennung zu unterstützen [5].

Zielsetzung
Das übergeordnete Ziel des Verbundprojekts besteht in der Optimierung der Nierenabstoßungsdiagnostik. Neben dem Lateral-Flow-Test soll zudem ein Expertensystem entwickelt werden, welches die Behandelnden bei Diagnostik und Behandlung unterstützt. Das hier dargestellte Masterprojekt verfolgte das Ziel einen Anforderungskatalog für dieses Expertensystem zu konzipieren und geeignete Software auf dem Markt zu identifizieren.

Methode
Um Softwareanforderungen zu erarbeiten wurden mithilfe eines vorher entwickelten Interview-Leitfaden technische und medizinische Experten befragt. Anhand der Ergebnisse aus diesen Gesprächen wurde ein Anforderungskatalog entwickelt, der die geforderten Funktionen des Expertensystems nach ihrer Priorität für die medizinischen bzw. technischen Experten darstellte.
Zeitgleich wurden anhand einer Internetrecherche alle auffindbaren Expertensysteme sowie Tools zur Entwicklung von Expertensystemen identifiziert und in einer Timeline visualisiert. Anschließend wurden die Systeme herausgefiltert, die nicht mehr am Markt eingesetzt werden oder bei denen keine Hersteller- oder Kontaktinformationen hinterlegt sind. Zu den Herstellern der übrigen acht Systeme wurde Kontakt aufgenommen.
Ergebnisse
Die auf den Interviews basierende Anforderungsanalyse hat gezeigt, dass insbesondere visuelle Funktionen, wie die Anzeige von Labor- und Verlaufsdaten, sowie die Möglichkeit einer Integration des Systems in das KIS[1] als wichtig eingeschätzt werden. Bei bestimmten Funktionen zeigten sich jedoch Unterschiede zwischen medizinischen und technischen Experten. So legen Mediziner mehr Wert auf Hilfsfunktionen, wie beispielsweise ein Tutorial zur optimalen Nutzung. Von der technischen Seite wurde hingegen das Ausgeben von Handlungsempfehlungen als besonders wichtig eingeschätzt, während Ärzte aufgrund der Individualität jedes Patienten lieber eigene Entscheidungen treffen möchten und dieser Funktion keine Priorität beimessen.
Während der Gespräche haben sich zudem einige zusätzliche Bedingungen für das Expertensystem ergeben. So dürften die Quelldaten innerhalb des Systems nicht mehr verändert werden. Zusätzlich muss eine gute Softwareergonomie gegeben sein.
Nach Erarbeitung dieser Anforderungen wurde der Markt hinsichtlich eines passenden Systems analysiert. Aufgrund zögerlicher Rückmeldung der Hersteller, konnte jedoch keine Nutzwertanalyse durchgeführt werden. Stattdessen erfolgte eine Einschätzung, inwieweit ein System den Anforderungen entsprechen könnte. Diese Analyse ergab, dass zwei von acht Systemen eventuell entsprechend individualisiert werden könnten, jedoch ein weiterer intensiver Kontakt zum Hersteller aufgenommen werden muss.

Diskussion und Ausblick
Auf dem Markt gibt es derzeit kein Expertensystem, das den Anforderungen exakt entspricht.
Eine Individualisierung der Software erscheint daher unerlässlich. Dieser Aufwand entspräche dem einer Neuentwicklung. Die Marktanalyse zeigte, dass auf dem Markt verschiedene Tools zur Eigenentwicklung eines Expertensystems existieren, die für eine Neuentwicklung verwendet werden könnten. Dabei sollte zudem eine MPG-Lizensierung angestrebt werden.

1 Krankenhaus Informationssystem
Herr Jonathan Züger
Hochschule Hannover - University of Applied Sciences and Arts
Zusammenführung klinischer Daten im Screen Reject Datawarehouse zur Optimierung der Abstoßungsdiagnostik nach Nierentransplantation (Matthias Katzensteiner, Maximilian Zubke, Cornelia Blume, Stephan Immenschuh, Svetlana Gerbel, Norman Schönfeld, Michael Marschollek, Hermann Haller, Wolfram Ludwig, Oliver J. Bott)

Hintergrund

Für die medizinische Forschung nimmt die Bedeutung der Zusammenführung von Routinedaten von Patienten stetig zu und erhöht den Bedarf an Lösungen zur Konsolidierung der dazu benötigten Datenstrukturen. [1] Voraussetzung hierfür respektive für Datenanalysen im Kontext klinischer Anwendungsfälle zusammengeführter Routinedaten ist die Entwicklung den jeweiligen Anwendungsfall hinreichend umfassender klinischer Datenmodelle.
Im Rahmen des Verbundprojektes Screen-Reject (SR) soll im ersten Schritt ein Data Warehouse (DWH) zur Unterstützung der Nierenabstoßungsdiagnostik [2] erarbeitet werden. Darauf aufbauend soll im zweiten Schritt ein hoch spezialisiertes klinisches Expertensystem zur Entscheidungsunterstützung bei der Nierentransplantatsabstoßungsdiagnostik entwickelt werden.

Zielsetzung

Behandlungsrelevante Patientendaten stammen größtenteils aus klinischen Primärsystemen, die eine auf den jeweiligen Anwendungsfall angepasste Programm- und Datenstruktur aufweisen. Diese Vielzahl an heterogenen Datenstrukturen führen bei der Datenzusammenführung zu Herausforderungen bei der adäquaten Konsolidierung in ein einheitliches Datenmodell. Die hierauf bezogene Zielsetzung im SR-Projekt ist die Identifikation und Umsetzung automatisierbarer Datenintegrationsprozesse, um eine valide Datenzusammenführung und Konsolidierung auf Basis eines abgestimmten Datenmodells zu erreichen.

Methode

Basierend auf Interviews mit klinischen Experten sowie einer Literaturrecherche [3] wurde ein auf die Abstoßungsdiagnostik fokussiertes SR-Datenmodell entwickelt, das alle hierfür klinisch relevanten Informationen umfasst. Darauf aufbauend wurde eine Systemanalyse der Primärsysteme des klinischen Projektpartners (MHH) durchgeführt, die zur Behandlung der nierentransplantierten Patient*innen genutzt werden. In Bezug auf das Datenmodell wurden relevante Datenquellen (und Datenfelder) sowie vorhandene Schnittstellen identifiziert. Ausgehend vom SR-Datenmodell werden sukzessive alle relevanten klinischen Datenquellen mit generisch gestalteten ETL(Extract, Transform, Load)-Prozessen an das Data-Warehouse-System (SR-DWH) angebunden mit dem Ziel, auch in einem Systemkontext einer anderen Klinik aufwandsarm eine Datenintegration erreichen zu können.

Ergebnisse

Eine Systemanalyse der klinischen Primärsysteme lieferte eine Liste aller relevanten Datenquellen und Datenfelder, die die Auswahl klinisch relevanter Informationen ermöglichte. Das SR-Datenmodell des SR-DWH wurde im Umfeld des Enterprise Clinical Research Data Warehouse (ECRDW) der MHH [4] umgesetzt. Das ECRDW wird zudem als Quelle bereits konsolidierter klinischer (Patienten-)Daten genutzt. Die vorhandenen klinischen Daten werden sukzessive durch weitere Daten aus anderen Quellsystemen erweitert, um das Zielsystem zu füllen. Von insgesamt acht für die Nierenabstoßungsdiagnostik als relevant identifizierten klinischen Fragestellungen konnten fünf (Pathologie, Operationen, Diagnosen, Virologie, Kreatinin) bereits erfolgreich mithilfe der ETL-Prozesse im SR-DWH integriert werden. Die Datenintegration drei weiterer Bereiche (HLA, Medikation, Spenderdetails) ist aktuell in Bearbeitung.

Diskussion und Ausblick

Durch eine große Heterogenität der klinischen Quellsysteme insb. transplantationsspezifischer Spezialdokumentationssysteme und teilweise unstrukturierter (Befund-)Daten stellte sich die Datenintegration als herausfordernd dar. Für die Integration der narrativ dokumentierten Informationen sollen Methoden des Natural Language Processing Inhalte automatisiert extrahieren und für die Weiterverarbeitung in ein strukturiertes, maschinenlesbares Format überführen.[5,6]

Deutlich wurde, dass definierte Data Governance-Prozesse Datenintegrationsprojekte für Forschende beschleunigen können, wenn durch festgelegte Regeln die Datenfreigabe durch Systemverantwortliche verschiedener Systeme einheitlichen Regeln folgt.

Auf der gewonnenen Datenbasis sollen zukünftig Datenauswertungen und Vorhersagen zu Abstoßungsverläufen ermöglicht werden. Mit dem Ziel einer semantischen Interoperabilität des SR-Datenmodells wird eine Abbildung der entwickelten Datenstrukturen in den Interoperabilitätsstandard openEHR verfolgt (vgl. [7]). Dadurch soll die Implementierung des SR-DWH in weiteren Umgebungen (insb. [8]) erleichtert werden.

Das Projekt wird im Rahmen des EFRE-Förderprogramms mit Mitteln der EU und des Landes Niedersachsen gefördert. (Laufzeit bis 04/2020)
Herr Matthias Katzensteiner
Hochschule Hannover
Tuesday
10 Sep 2019
14:45 - 15:45
PS5
Lehre, Weiterbildung & Wissenschaftskommunikation
Room: EF40 Foyer Anordnung 4 (Location: Emil-Figge-Str. 40)
Chair(s): Brigitte Strahwald
DiffPro-ML: Unterstützung differenzierter, projektorientierter Lehre für maschinelles Lernen (Raphael Brüngel, Johannes Rückert, Christoph M. Friedrich)
Einleitung: Hochschullehre technischer Disziplinen wird klassischerweise in strukturierten Vorlesungs-, Übungs- und Praktikumseinheiten organisiert [1]. Theoretischer und praktischer Kontakt mit relevanten Methoden und Technologien ist hierbei gegeben. Studierende werden jedoch oftmals nicht mit Fragestellungen konfrontiert, welche hochaktuell, praxisrelevant und studiengangsspezifischer Natur sind. Das vom BMBF geförderte Projekt DiffPro-ML hat die Absicht die Lehre maschinellen Lernens in einem Modellvorhaben mit externen Partnern stärker projektorientiert und studiengangsdifferenzierter zu organisieren. Hintergrund ist die Heterogenität der an der Fachhochschule Dortmund angebotenen Informatikstudiengänge Medizinische Informatik, Wirtschaftsinformatik und Praktische/Technische Informatik. Ziel ist der Wissenstransfer an Studierende und über diese in vorrangig regionale Unternehmen. Kooperationspartner aus Wirtschaft, Industrie, Forschung und Kliniken stellen als Projektpaten Aufgaben kleinen Umfangs, sogenannte Miniprojekte, zu aktuellen, mit maschinellem Lernen adressierbaren Problemen. Projektpaten erhalten Einblick in Lösungen, Studierende im Rahmen der Zusammenarbeit Praxiswissen.

Methoden: Einbindung von Projektarbeiten in die Lehre ist eine etablierte Form projektbasierten Lernens [1,2] und umfasst empfohlene Aspekte der zehn Europäischen Prinzipien zur Verbesserung des Lernens und Lehrens in der Hochschulbildung [3]. Dies geschieht am Fachbereich Informatik der Fachhochschule Dortmund derzeit im Rahmen des studiengangsübergreifend angebotenen und zuvor klassisch gelehrten Moduls Maschinelles Lernen. Kleingruppen von 2-3 Studierenden bearbeiten über das Semester hinweg Miniprojekte von etwa 30 Stunden Arbeitsaufwand, parallel zu Vorlesungen und Praktika. Miniprojekte werden von Projektpaten gestellt, die thematischen Ausrichtungen sind vielfältig. Bisher durchgeführte Miniprojekte [4] aus der Medizin sind beispielsweise im Bereich des Deep Learning Objekterkennung zur sensorischen Substitution für visuell Beeinträchtigte, Knochenalter-Regression in pädiatrischen Röntgenaufnahmen und Anomalie-Klassifikation in muskuloskeletalen Röntgenaufnahmen. Neben modernen Ansätzen werden ebenso klassische maschinelle Lernverfahren adressiert, wie etwa Bayesische Netze für die Früherkennung hypertensiver Entgleisungen in der Intensivmedizin und Text Mining für die Relevanz- und Sentimentanalyse von Kundenfeedback. Hierbei bestehen Schnittpunkte zu Forschungsaktivitäten des Fachbereichs wie zum Deep Learning [5-7] und Text Mining [7,8], was den Austausch mit Forschenden ermöglicht. Über die Laufzeit der Miniprojekte und potenziell folgenden Projekt- und Abschlussarbeiten werden Studierende von Mitarbeitern fachlich betreut. Für Deep Learning steht adäquate Rechenleistung in Form einer NVIDIA DGX-1 [9] zur Verfügung.

Ergebnisse: Bisherige Resultate von DiffPro-ML sind neben einem zweistufigen Wissenstransfer spezifische Lehrunterlagen zu zeitgemäßen Technologien und einfache Software-Frameworks zur Anwendung dieser. Es erfolgten Beiträge zu freien und open source Projekten [10,11]. Workshops förderten Wissenstransfer und Networking. Über 40 Miniprojekte mit über 20 Projektpaten wurden akquiriert. In der ersten Projektrunde im Sommersemester 2018 wählten 36 Studierende 17 Miniprojekte. Alle wurden erfolgreich abgeschlossen, teilweise erfolgte die Fortführung als Projekt- oder Abschlussarbeit. Studierende erhalten fachliche Unterstützung durch Mitarbeiter. Studierende und Kooperationspartner schätzen die neue Ausrichtung der Lehre. Herausforderungen waren, dass oftmals keine Datensätze gestellt wurden und auf frei verfügbare Surrogate teils mangelnder Qualität zurückgegriffen werden musste. Dies erschwerte die Arbeit der Studierenden. Parallele Lehrveranstaltungen erhöhten den zeitlichen Druck.

Diskussion: Die zweite Projektrunde begann im Sommersemester 2019, für welche eine erneute Evaluation durch einen Fragebogen stattfindet. Projektpaten sind vielfach an weiteren Miniprojekten interessiert und werben in ihrem Umfeld für das Modellvorhaben. Miniprojekte werden von Studierenden als Herausforderungen wahrgenommen. Das Ausbleiben von Abbrüchen sowie die Aufnahme angeschlossener Projekt- und Abschlussarbeiten deuten auf eine hohe Motivation der Studierenden hin.
Herr Raphael Brüngel
Fachhochschule Dortmund
Didactical Framework for Cross-Location Online Learning Modules on Medical Informatics (Marianne Behrends, Nils-Hendrik Benning, Marie-Louise Witte, Ina Hoffmann, Oliver J. Bott)
Introduction
As part of the Medical Informatics Initiative, the German Federal Ministry of Education and Research (BMBF) supports four consortia to develop structures and technology which meet the requirements for exchanging data from clinical research and health care across different sites. One of the funded consortia is HiGHmed [1]. In addition to the development of innovative IT solutions to improve research opportunities and patient care, HiGHmed aims to strengthen medical informatics through the development of courses. Therefore various online learning modules shall be developed by academic members of the consortium. Transferability of these modules to other locations is one main objective of the consortium and shall be achieved by the design of online learning modules with a common didactical framework.
Methods
To ensure feasibility of the didactical framework, the participating universities were evaluated with regard to availability of an e‑learning infrastructure including learning management systems (LMS) and e-learning support structures. In the next step, for each LMS an overview of available digital learning tools was compiled. Based on that, a group of e-learning experts developed a didactical framework for online learning modules.
Results
The evaluation showed that LMS and support structures are available at each participating university. The main LMS utilized at the universities were ILIAS, moodle and Stud.IP. These LMS offer various tools to create digital learning modules such as wikis, blogs, forums as well as templates for e-portfolios, tests and surveys.
Based on the available LMS, the didactic framework describes design guidelines for further development of online modules. Each online learning module comprises five phases, ranging from the activation of learners to the imparting of knowledge with self-learning phases to the phase of knowledge control and feedback. In each phase digital learning tools should be used to promote a sustainable learning success by motivating learners to interact with the subject matter and by enabling communication and collaboration between learners. A particular approach to design a learning phase for smaller groups with up to 25 learners is the use of so called e-tivities, a concept developed by Salmon [2]. An e-tivity is a special type of exercise in which active cooperation plays a central role. Forums that are available in all three LMS can be used primarily for the exchange and organization of collaboration.
Discussion
The developed didactical framework is the basis for the HiGHmed online learning modules and leads to a recognizable structure of the modules. The didactic framework should help lecturers to design their online courses and ensure comparability of the modules for the learners. Thereby, the framework offers lecturers sufficient opportunities to design their courses individually. In order to enable competence acquisition at a higher level in the sense of Bloom's taxonomy [3], not only the technical side of online learning must be taken into account. Rather, digital learning offers are necessary which enable social interaction and a constructive examination of the learning material.
Frau Dr. rer. biol. hum. Marianne Behrends
Medizinische Hochschule Hannover
Live-Webinare zur Versorgung chronischer Wunden in der gesundheitsberuflichen Weiterbildung – Eine Akzeptanzanalyse (Katharina Pilgrim, Jan P. Ehlers)
Hintergrund
Mitbestimmung und Sozialpartnerschaft sind fester Bestandteil des Erfolgsmodells der deutschen Wirtschaftsordnung und wichtige Stellhebel dafür, gute lernförderliche Arbeitsbedingungen und zeitgemäße Qualifizierungsangebote organisieren zu können. In diesem Zusammenhang sind Information und Beteiligung unverzichtbar, um Menschen Angst vor Veränderungen zu nehmen. Mit der Digitalisierung eröffnen sich für die berufliche Weiterbildung neue Chancen: Innovative Formate für den Kompetenzerwerb können ein individualisiertes, modulares und selbstbestimmtes Lernen unterstützen (1).
Digitale Lernangebote bieten Vorteil hinsichtlich einer spielerischen und interaktive Vermittlung von Lerninhalten, welche zusätzlich das Potenzial besitzt, Menschen, die mit klassischen Kursen nur schwer erreichbar sind, zu motivieren. Zudem wird durch den Wegfall von Orts- sowie teilweise Termingebundenheit sowohl auf Seiten der Dozierenden als auch der Teilnehmenden Flexibilität erhöht sowie zu investierender Zeitaufwands minimiert. Finanzielle Vorteile gegenüber Praxisveranstaltungen bieten zusätzlichen Anreiz, E-Learning als Weiter- und Fortbildungsangebot zu implementieren.

Ziel
Mit dem primären Ziel der Gestaltung bestmöglicher Gesundheitsversorgung bei chronischen Wunden im ambulanten Setting bietet als Projektpartner ein Unternehmen aus der Gesundheitsbranche etablierte Fortbildungsveranstaltungen für Angehörige verschiedener Gesundheitsberufe an. Diese werden national in Präsenz durchgeführt und medial über die firmeneigene Homepage mit einem Wissensportal sowie mit Videoschulungen unterstützt. Eine Akzeptanzanalyse anhand eines eigenen Fragebogens belegt die hohe Zufriedenheit der Teilnehmenden, zeigt jedoch gleichzeitig die Heterogenität der Zielgruppe hinsichtlich Profession und Vorwissen.
In der Pilotierung eines anwendungsorientierten Forschungsprojektes der Medizinischen Informatik sollen mit Hilfe einer Fallstudie Akzeptanz und Wirkung von interaktiven digitalen Weiterbildungsangeboten und -formaten innerhalb der differenzierten Zielgruppen der Ärztinnen/Ärzte mit Niederlassung, Medizinischen Fachangestellten (MFAs), Pharmazeutisch-Technischen Assistentinnen/Assistenten (PTA) und Pflegepersonal evaluiert werden, um Vor- und Nachbereitung von Präsenzveranstaltungen potentiell zu unterstützen und Lerneffekte zu optimieren.

Methode
Die definierte Testphase erstreckte sich über zwei Monate (November & Dezember 2018) und umfasste 5 digitale Weiterbildungsseminare (Webinare) über Adobe Connect zu den Themenbereichen Wundversorgung bei Lymphödem und Lipödem, der Wundburger, Wundversorgung und Schmerz, Wundheilung und Bewegung sowie Filzen beim diabetischen Fußsyndrom. Die Parameter Teilnehmerzahlen, Interaktionen während der Web-Seminare sowie 5 über eine Likert-Skala abgefragte Items und zwei qualitative Feedbackfragen wurden evaluiert.

Ergebnisse
Innerhalb der definierten Zielgruppen ist eine erste Akzeptanz von digitalen Weiterbildungsangeboten auf dem Gebiet der Wundversorgung, welche keine Bildungsmaßnahmen darstellen, festzustellen. Insgesamt konnten in der Pilotierung 224 Teilnehmende akquiriert werden, mit einer Rücklaufquote von 37 % liegen insgesamt 107 gültige Fälle des über SoSci Survey bereitgestellten Feedbackbogens vor. Angebotene Interaktionen wie Live-Chats und die Beantwortung von MC-Fragen zu behandelten Fachthematiken wurden von den Teilnehmenden zu 99% angenommen. Eine qualitative Auswertung lässt Bedarfe nach weiterführenden Optionen des Wissensmanagements sowie praktische Anwendungshinweise ableiten. Sowohl die technischen als auch inhaltlichen Herausforderungen wurden von der Zielgruppe gemeistert und Handhabung sowie Niveau als voll und ganz angemessen bewertet.

Schlussfolgerung
Speziell innerhalb der Zielgruppe der MFAs besteht eine große Akzeptanz an der Teilnahme von digitalen Live-Webinaren. Durch die Nutzung der vorhandenen Interaktionsmöglichkeiten wird der Lerneffekt als Weiterbildungs- sowie Wiederholungsangebot verstärkt. Es gilt eine weitere zielgruppenspezifische Bedürfnisanalyse durchzuführen, um Themen und Verfügbarkeiten abzustimmen und das Angebot auszubauen. Langfristig könnte eine Lernplattform im Sinne eines Learning-Management-Systems (LMS) aufgebaut werden, die eine vollständige Verwaltung von Lernen, Inhalten, Kommunikation und Zertifizierung erlaubt.
Frau Katharina Pilgrim
Universität Witten/Herdecke
Community of Inquiry in an online-based master program (Elske Ammenwerth, Verena Dornauer, Werner Hackl)
Introduction:
Online-based programs in health informatics have the potential to mitigate the lack of skilled health informaticians. Socio-constructivism postulates that a high-quality discourse among students and teachers is a precondition for successful learning. The Community of Inquiry (CoI) is a socio-constructivist framework describing three success factors for online-based learning (1): Social, teaching, and cognitive presence.
Social presence is the ability of participants to identify with the group and communicate trustfully. Teaching presence is the design, facilitation, and direction of learning processes. Cognitive presence is the extent to which the students are able to construct meaning through sustained communication and reflection. Cognitive presence can be differentiated into four phases: During the triggering phase, the discourse is initiated; during exploration, information is exchanged among students, during integration, new concepts are acquired; during resolution, presented problems are solved. The three presences are not independent; for example, social and teaching presence are predictors for cognitive presence (2).
The level of CoI obtained in an online-course can be measured by a validated CoI survey consisting of 34 items (3). The level of CoI achieved in a course is a predictor for learning outcome (4).
The University UMIT started a fully online-based master program in Health Information Management in 2017, based on a socio-constructivist design (5). In a pilot study in one course, all CoI presences were high (4,2 - 4,5 of 5) (6). Within cognitive presence, triggering event showed highest values while resolution showed lowest values (6). Indeed, studies postulate that reaching integration and resolution phase is challenging (7).
We were interested to verify these findings with a larger sample by measuring CoI in all courses of our master program, and by analyzing whether we reached integration and resolution phase, as we found this essential to acquire high-level competencies.
Methods:
All students were invited to anonymously fill in the CoI survey at the end of each module. Overall, we got 92 valid responses on 10 courses. The overall return rate was 67 %. We calculated the three presences (5-point Likert scale, 1 = minimum, 5 = maximum).
Results:
For the 10 analyzed courses, perceived level of CoI was 4.22 +/- 0.45 for teaching presence, 4.29 +/- 0.23 for social presence and 4.34 +/- 0.24 for cognitive presence. Different to the pilot study, we did not find differences in the four phases for cognitive presence, with triggering phase 4.36, exploration phase 4.30, integration phase 4.45 and resolution phase 4.26.
Discussion:
The perceived level of CoI was very high in all courses, indicating that the chosen instructional design was successful in initiating a CoI. Regarding the four phases of cognitive phases, we were not able to reproduce results of an earlier pilot study; triggering, exploration, integration and resolution showed comparable values. This could mean either that we nearly always reached the resolution phase in the courses, or that the sample size was too low. We now plan to try automatic analysis of postings (8) to determine the level of cognitive presence in more detail.
Frau Dr. med. univ. Verena Dornauer
UMIT - Private Universität für Gesundheitswissenschaften, Medizinische Informatik und Technik GmbH
Die Arbeit der Statistik- und Methoden-AGs der GMDS, DGEpi, IBSDR & DGSMP: Weiterbildungsangebote und Plattform für den Austausch in und zwischen den Fachgesellschaften (Juliane Hardt, Daniela Adolf, Irene Schmidtmann, Ulrike Krahn, André Karch, Verena Hoffmann, Sigrid Behr, Antje Jahn-Eimermacher, Sebastian-Edgar Baumeister, Christel Weiß, Anne Lotz, Carsten Oliver Schmidt, Ralph Brinks)
Einleitung
Die AGs „Epidemiologische Methoden“ (GMDS, DGEpi, DGSMP), „Statistische Methodik in der klinischen Forschung“ (GMDS), „Statistische Methoden in der Epidemiologie“ (DGEpi, IBS-DR, DAGStat, DGSMP) und „Statistische Methoden in der Medizin“ (IBS-DR) kooperieren seit 2011 bei der organisatorischen Arbeit der AGs, der Veranstaltung von Methoden-/Statistik-Workshops und
gemeinsamen Publikationen zu den Veranstaltungen.
Die 4 Arbeitsgruppen möchten mit ihrer Aktivität für die 4 Fachgesellschaften:
- Deutsche Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie (GMDS)
- Internationale Biometrische Gesellschaft - Deutsche Region (IBS-DR)
- Deutsche Gesellschaft für Epidemiologie (DGEpi)
- Deutsche Gesellschaft für Sozialmedizin und Prävention (DGSMP)
Möglichkeiten zum interdisziplinären Austausch innerhalb und zwischen den Fachgesellschaften schaffen.

Methoden
Die Arbeit der 4 AGs besteht vor allem in der Vorbereitung und Durchführung von thematischen Workshops und Sitzungen im Rahmen der Jahrestagungen mit dem Ziel, den Mitgliedern der Fachgesellschaften einen Ein- und Überblick zum breiten Portfolio möglicher statistischer und methodischer Ansätze zu bieten und die Anwendung dieser Ansätze durch den Austausch zu
erleichtern.
Während sich die 3 Statistik-AGs schwerpunktmäßig mit statistischen Methoden für die Planung, Durchführung und Auswertung klinischer und epidemiologischer Studien und statistischen Methoden in der Medizin allgemein beschäftigen, umfassen die Themen der AG Epidemiologische Methoden auch weitere methodische Aspekte für Studien:
- aus der Epidemiologie (Bias, Confounding, Kausalität),
- Entwicklung und Validierung von Erhebungsmethoden,
- Datenschutz, Datensicherheit, Datenaustausch
- Implementierung von Prozessen in Studien und Qualitätsmanagement
- Berichtsqualität
- methodische Aspekte besonderer Datenarten (z.B. Sekundärdaten, Daten-Linkage, Citizen Data).

Ergebnisse
Der Beitrag zeigt im Überblick die Veranstaltungsreihen der AGs der letzten Jahre, inkl. der Webseiten (mit Referenten, Abstracts oder Präsentationen der einzelnen Vorträge) sowie Publikationen zu den einzelnen Veranstaltungen. Der traditionelle Herbstworkshop zu statistisch-methodischen Themen wird gemeinsam von den 4 AGs organisiert und findet jährlich im November statt. Zusätzlich engagiert sich jede AG mit eigenen Aktivitäten (Workshops, Tutorien, Publikationen, Stellungnahmen zu
verschiedenen Themen). Im Rahmen der Jahrestagungen bieten zudem themenoffene Workshops die Möglichkeit, ungelöste Probleme oder erste Lösungsvorschläge zur Diskussion zu stellen und Anregungen für die weitere Arbeit einzuholen.

Ausblick
Aufgrund der sehr positiven Erfahrungen mit dieser Kooperation beabsichtigen die 4 AGs der 4 Fachgesellschaften, die Zusammenarbeit auch in den nächsten Jahren fortzusetzen. Dafür suchen wir regelmäßig aktuelle Themenvorschläge für Workshops und Tutorien. Zusätzlich informieren wir auch darüber, wie sich verschiedene neue Medien für den methodischen Austausch in und zwischen den Fachgesellschaften nutzen lassen.
Frau Juliane Hardt (Dipl.-Psych.)
AG Epidemiologische Methoden der GMDS
Generating synthetic data for use in research and teaching (Lea Rosa Droese, Svetlana Gerbel, Sonja Teppner, Johanna Fiebeck, Cornelia Frömke)

Background

As part of a joint project between the Hannover Medical School (MHH) and the Hannover University of Applied Sciences (HsH), an early warning system is developed with the aim of identifying critical study processes that lead to extended study times and even termination [1,2]. An integral part of this collaboration is the data sharing with HsH for teaching purposes. However, the intended development of machine learning methods for pattern recognition in critical study processes was not suitable due to MHH data protection regulations, as the data set contains sensitive information. An approach based on synthetic data was identified as a possible solution. Since the production of synthetic data is often not sufficiently documented in the literature to enable the reproduction of the results [3], the aim of our work is to describe a possible procedure for the generation of synthetic data.

Methods

After validating the original data set, synthpop was used to create a synthetic data set. The synthetic data was then validated as well. The initial data set consisted of 112 columns and was reduced to 24 characteristics for clarity. Validation was performed by descriptively comparing the graphical and numerical characteristics of the individual datasets. The validation showed, that the synthetic data imitated the original data set very well. The distributions of the individual values are comparable. Only a few characteristics deviate from the original. Certain rules, e.g. passing an exam given the exam was written, could not be implemented correctly in synthpop.

Results

In the first step, a synthetic data set was created with the validated original data set using synthpop and then validated. The initial data set consisted of 112 columns and was reduced to 24 characteristics for clarity. Validation was performed by descriptively comparing the characteristics of the individual datasets. The chosen method showed, that the synthetic data imitated the original data set very well. The distributions of the individual values such as age structure are very close to each other. Only a few characteristics deviate from the original. Certain rules, e.g. the requirement of a written exam for a passed exam, could not be implemented correctly in synthpop.

Discussion

Our work describes a possible procedure for the creation and validation of a synthetic data set for research purposes. The focus is on the challenges that arise at each step of the synthesis and possible solutions. In order to verify consistency between the original and the synthetic data, rules for the evaluation of synthetic data have been described. While equivalence tests are the method of choice for this evaluation, they are dependent on pre-defined equivalence bounds. These bounds must be defined by the data-owner and were not available in this application.
Each compilation of a synthetic data set is based on an individual question and requires an individual solution. The quality of the synthesized data always depends on the quality of the algorithm/procedure used to generate it. The question remains as to how similar the synthesised data should and may be to the original data.
Frau Dr. Svetlana Gerbel
Medizinische Hochschule Hannover
Frau Dr. Johanna Fiebeck
Medizinische Hochschule Hannover
Einflussfaktoren bei Open Access-Publikationen. Worauf kommt es WissenschaftlerInnen der Medizinischen Informatik, Biometrie und Epidemiologie beim Publizieren an? (Stefanie Kuballa, Mareike Schulze, Corinna Mielke, Monika Taddicken, Reinhold Haux)

Einleitung

Seit nunmehr über einem Jahrzehnt findet ein fortschreitender Wandel des Publikationswesens vom Subskriptionsmodell zum Open Access (OA)-Modell statt [1]. Hiervon ist auch die Publikationstradition im Bereich der Medizinischen Informatik, Biometrie und Epidemiologie betroffen, wie die kontinuierlich angepassten Publikationsangebote der einschlägigen Fachzeitschriften zeigen [2]. Vor diesem Hintergrund stellt sich die Frage, welche positive oder auch negative Einflussfaktoren existieren, die WissenschaftlerInnen zu einer Publikation ihrer Forschungsergebnisse im OA bewegen bzw. sie davon absehen lassen.

Methode

Im Rahmen des Trans-O-MIM-Projektes [3] mit der Zeitschrift Methods of Information in Medicine (MIM), der offiziellen internationalen Zeitschrift der GMDS, haben wir dieser Fragestellung eine eigene Studie gewidmet. Dabei setzt sich die Trans-O-MIM-Incentives Studie zur Ermittlung von Einflussfaktoren für oder gegen eine OA-Publikation bei WissenschaftlerInnen der Medizinischen Informatik [4] aus drei Teilen zusammen:

  1. Qualitative Phase mit leitfadenbasierten Gruppendiskussionen und Interviews,
  2. Quantitative Phase mit einer standardisierten Befragung von Repräsentanten der in der IMIA (International Medical Informatics Association) organisierten Fachgesellschaften,
  3. Quantitative Phase mit einer standardisierten Befragung der Mitglieder der Fachgesellschaften.

Hierbei gewährleisten der Mixed-Methods-Ansatz und die aufeinander aufbauenden Phasen eine vollumfängliche Erfassung der Wünsche und Bedürfnisse von WissenschaftlerInnen bei der Publikation.

Ergebnisse

Zum Zeitpunkt der Erstellung des Abstracts liegen die ersten Ergebnisse der ersten Phase der Trans-O-MIM-Incentives Studie vor. Die Gruppendiskussionen und Interviews fanden zwischen Juli 2018 und Februar 2019 statt und umfassen 42 Teilnehmer weltweit.

Erste Erkenntnisse zeigen, dass die Haltung der WissenschaftlerInnen gegenüber OA überwiegend positiv ist und sie sich auch einen Wandel des Publikationssystems vorstellen können, wobei sich der Kenntnisstand bezüglich OA sehr heterogen darstellt. Das Rezeptionsverhalten unterscheidet sich nur wenig zwischen subskriptionsbasierten Artikeln und OA-Artikeln, allerdings wird deren leichtere Zugänglichkeit von den Befragten positiv hervorgehoben. Es hat sich gezeigt, dass bei der Wahl des Publikationsorgans Wert auf allgemeingültige Kriterien wie etwa die thematische Passgenauigkeit, eine schnelle Bearbeitungszeit, ein qualitativ hochwertiges Review-Verfahren und auf den Impact Faktor gelegt wird. Etwa die Hälfte der Befragten verfügt über Erfahrung mit einer OA-Publikation. Die Frage nach Motivatoren für eine OA-Publikation hat ergeben, dass vor allem die schnellere Bearbeitung und Publikation der Artikel, die höhere Sichtbarkeit und leichtere Zugänglichkeit von Relevanz sind. Hinderungsgründe hingegen sind die meist hohen Publikationsgebühren, der oftmals niedrigere oder fehlende Impact Faktor sowie die fehlende Reputation von (neuen) OA-Fachzeitschriften.

Die zweite Phase, die Befragung der Präsidenten bzw. CEOs der IMIA-Fachgesellschaften, befindet sich in Vorbereitung und wird im April/Mai 2019 stattfinden. Kurz darauf, im Mai/Juni 2019, wird die Befragung der Mitglieder der Fachgesellschaften durchgeführt, sodass die umfassenden Ergebnisse der Trans-O-MIM-Incentives Studie bis zur GMDS-Jahrestagung 2019 vorliegen werden.

Diskussion

Die Möglichkeit einer OA-Publikation ist bei den Befragten präsent. Allerdings scheint die Beschäftigung mit Publikationsfragen nicht zu den priorisierten Themen der WissenschaftlerInnen zu gehören. Dies zeigt sich auch in den teils weniger ausgeprägten Meinungen und Überlegungen zu OA und unterliegt oftmals Alters- und Herkunftsunterschieden. Die Ergebnisse der dritten Studienphase werden zeigen, ob diese Merkmale auf das Gros der WissenschaftlerInnen übertragbar sind, während die zweite Phase dabei helfen wird, die Länderunterschiede beim OA als Einflussfaktor zu berücksichtigen.

Frau Stefanie Kuballa
Peter L. Reichertz Institut für Medizinische Informatik Technische Universität Braunschweig
Monday
09 Sep 2019
10:45 - 11:45
PS6
mHealth
Room: EF40 Foyer Anordnung 3 (Location: Emil-Figge-Str. 40)
Chair(s): Monika Pobiruchin and Josef Ingenerf
Spezialisierung medizinischer Einsatzszenarien von Beschleunigungssensorsystemen (Nico Jähne-Raden, Henrike Gütschleg, Michael Marschollek)
Einleitung
Accelerometer werden schon lange für medizinische Zwecke eingesetzt, dabei reicht der Einsatz von eher simplen Schrittzählern, über anspruchsvollere Gesten-, Aktivitäts- oder Sturzerkennung, bis hin zu hochspezialisierten und hochauflösenden Schwingungserkennungen (z.B. Ballistokardiografie) [1, 2]. In den letzten Jahren hat sich die Technologie im Sinne der Sensitivität/Rauschverhalten, Größe und Gewicht, Energieeffizienz weiterentwickelt, sodass solche Sensorsysteme sehr intuitiv am und um den Körper für medizinische Zwecke eingesetzt werden können.
Neben diesen Entwicklungen der eigentlichen Sensorik haben sich ebenso Prozessoren als auch Kommunikationsprotokolle deutlich weiterentwickelt, was eine flächendeckende Nutzung möglich macht. Nicht zuletzt hat die Entwicklung der Smartphones Beschleunigungssensoren in unserem Alltag etabliert.
Mit dieser Arbeit soll die Verteilung der Accelerometrie-Forschungsarbeiten, innerhalb der Medizin und Medizin-Informatik, auf unterschiedliche Themenfelder, wie z.B. die Aktivitätsuntersuchung, untersucht werden.
Methode
Zur Illustration dieser Entwicklung wurde eine Literaturrecherche auf den Datenbanken von PubMed und IEEEXplore durchgeführt.

(Accelerometer OR Acceleration Sensor) AND Monitor* AND Health AND Human // Query

Die Suche wurde für die Jahre 2008 bis 2018 durchgeführt. Um eine bessere Aussage zur Relevanz der Nutzung von Accelerometern für die Humanmedizin treffen zu können, wurden weiterhin generalisierte Suchanfragen genutzt:

Accelerometer AND Health AND Human // AHH

Mit diesen allgemeineren Anfragen ist eine Relevanzübersicht, sowie der Zuwachs an themenbezogenen Publikationen besser einzuschätzen. Zudem wurde eine allgemeine Suchanfrage nur mit dem Term „Accelerometer“ für die Jahre durchgeführt (// ACC).
Ergebnis
In Abbildung 1 sind die Suchanfrageergebnisse der Literaturrecherche auf den beiden Datenbanken dargestellt.
Abbildung 1: Diagramm Suchanfrageergebnisse auf PubMed und IEEEXplore
Zu sehen ist ein positiver Trend auf beiden Datenbanken. Für die spezielle Suchanfrage, ist eine vergleichsweise geringe Anzahl an zugeordneten Artikeln auszumachen mit Peaks für die Jahre 2008, 2011 und 2016. Im Verhältnis dazu werden je nach Jahr und Datenbank zwischen 20 bis 50mal mehr Artikel zur allgemeinen Nutzung von Accelerometern veröffentlicht, wobei, wie erwartet, auf der IEEEXplore in den meisten Jahren mehr Artikel zur Suchanfrage "Accelerometer" zu finden sind. Dieser Trend ist auch bei Relativierung Suchergebnisse hinsichtlich des allgemeinen Publikationszuwachses zu sehen.
Betrachtet man nun die humanmedizinische Nutzung, fällt eine Verteilung zu Gunsten PubMeds auf (ca. 50%). Weiterhin ist auch eine deutliche Reduktion der Anzahl im Vergleich zur „Accelerometer“-Suchanfrage ersichtlich.
Auf der IEEEXplore-Datenbank lässt sich dieses Verhältnis nicht beobachten.
Betrachtet man die Aufteilung der ermittelten Artikel auf thematische Häufungen ergibt sich folgendes Bild:

Abbildung 2: Verteilung ermittelter Artikel auf Themenbereiche

Diskussion
Mit diesen Ergebnissen zeigt sich die aktuelle Relevanz als auch Tendenz für die Nutzung in der Zukunft, nicht zuletzt durch die Allgegenwärtigkeit der Beschleunigungssensoren in Smartphones oder Automobilen wird deren Relevanz weiter zunehmen.
Leider zeigt sich, dass komplexere Anwendungen von Accelerometern z.B. für die Ballistokardiographie, noch eher selten sind und Aktivitäts-, Sturz- uns Gangdetektionen noch die Mehrheit bilden. So ist es nicht verwunderlich, dass auch die Diagnostik der Haupteinsatzbereich der Beschleunigungssensoren ist, und die Therapie doch eher die Ausnahme.
Für die Zukunft sollte die komplexe Signalaufnahme, als auch Verarbeitung auf einem Sensorsystem, als Chance zu sehen sein muss. Die steigende Prozessorleistung, bei stetig sinkendem Energieverbrauch eröffnet immer neue Möglichkeiten.
Herr Nico Jähne-Raden
Peter L. Reichertz Institut für Medizinische Informatik der Technischen Universität Braunschweig und der Medizinischen Hochschule Hannover
Evaluation und Vergleich einer machine-learning sowie regelbasierten Anwesenheitserkennungen in betreuten „Smart-Home“-Wohnungen (Tom Zentek, Tim Straub, Tom Cord)
I.Einleitung und Zielsetzung

Mit dem demogarfischen Wandel [1] werden neue Wohnformen, in denen intelligente Systeme den Bewohner im Alltag unterstützen immer wichtiger [2, 3]. Gerade die zuverlässige Erkennung von An- und Abwesenheiten der Bewohner in der Wohnung sowie Alltagstätigkeiten, lassen Rückschlüsse auf akute und schleichende Veränderungen der Lebenssituation der Bewohner zu. Weiterhin bieten sie das Potenzial in Notfallsituationen schnell zu reagieren oder prophylaktisch einzugreifen, um frühzeitig auf sich ändernde Bedarfslagen zu reagieren.
Diese Arbeit hat zwei Ziele: (1) Die Erstellung eines Verfahrens zur Erhebung eines eigenen Datensatzes für die Evaluierung der Anwesenheitserkennung von Bewohnern in betreuten „Smart-Home“-Wohnungen. (2) Die Evaluierung zweier Algorithmen [4] (regelbasierter Ansatz (RB) und unsupervised Machine-Learning-Ansatz (ML)) hinsichtlich der Leistung bei der Anwesenheitserkennung.

II.State of the Art
Die Erkennung von Anwesenheiten wird in der Literatur auf verschiedene Sensoren und Aktoren gestützt [5]. Hierbei wird sich jedoch oft nur auf einzelne Aktivitäten wie beispielsweise Kochen oder Schlafen konzentriert und diese mit Verfahren des supervised sowie unsupervised Machine-Learning evaluiert [6, 7, 8]. Die Datenbasis für diese Verfahren ist nicht verfügbar. Freie Datensätze [9, 10] wurden untersucht, konnten aber nicht verwendet werden, da sie entweder auf spezieller Sensorik beruhten oder nur Aktivitäten in der Wohnung erfassten aber keine Abwesenheitszeiträume.

III.Methode und Durchführung
Die Methode zur Auswertung der Algorithmen orientiert sich an dem Modell zur Evaluierung von klassifizierenden Algorithmen von [11]. Als Grundlage wurde für die Evaluation ein Quasi-Goldstandard erstellt. Weiterhin wurde über die in den Wohnungen verbauten Sensoren (Lichtschalter, Bewegungssensoren, Herdabschaltung) Daten gesammelt.

Die Prüfung der erhobenen Sensordaten erfolgte in drei Schritten (i) Tägliche Anrufe beim Bewohner zum Abgleich der Sensordaten mit dem Tagesablauf (ii) Logische Prüfung der gesammelten Daten auf Validität (iii) Gegenüberstellung der Daten mit dem vom Bewohner erstellten Tagebuch [12]. Die Daten des so erstellten Quasi-Goldstandards bilden die Grundlage für die Evaluation der beiden Algorithmen.

IV.Ergbnisse und Diskusion
Die Erhebung der Daten ersteckte sich bei jedem der 7 Bewohner über einen Zeitraum von 10 Tagen. In dieser Zeit konnte 153-mal das Betreten der Wohnung und 154-mal das Verlassen der Wohnung beobachtet werden. Insgesamt bedeutet das für den normierten Datensatz des Quasi-Goldstandard 7708 Abwesenheits- und 139755 Anwesenheitsmeldungen.

Die beiden Algorithmen zeigen eine Accuracy von RB: 97,4% und ML: 99,3%. Da es sich nicht um eine Gleichverteilung handelt, wurden auch die ROC Kurve (Receiver Operating Characteristics) berechnet. Die AUC (Area Under Curve) beträgt RB: 0,847 und ML: 0,959.

Eine statistische Untersuchung beider Ansätze mit Wilcoxon (Signifikanzniveau von 0,05) ergibt bei der Accuracy p = 0,002183 und für die AUC p = 0,002516. Somit liegt in beiden Fällen ein signifikanter Unterschied zwischen beiden Algorithmen vor.

Der RB-Ansatz zeigt vor allem eine Schwäche bei Wohnungen mit zwei Bewohnern oder viel Publikumsverkehr (z.B. Besuche, Postboten). Hierbei spielt die Länge der Abwesenheiten keine Rolle. Der ML-Ansatz dagegen hat Erkennungsprobleme bei kurzen Abwesenheiten.

Im nächsten Schritt werden die Algorithmen überarbeitet und miteinander kombiniert, um Schwachstellen zu minimieren. Im Datensatz des Quasi-Goldstandards sind auch die Tätigkeiten während der Anwesenheit in der Wohnung aus dem Tagebuch dokumentiert. Dies erlaubt im nächsten Schritt weitere Untersuchungen der Anwesenheitsaktivitäten.
Herr Dr. Tom Zentek
Zentrum für Telemedizin Bad Kissingen
Smartwatch-based Examination of Movement Disorders: Early Implementation and Measurement Accuracy (Julian Varghese, Stephan Niewöhner, Michael Fujarski, Iñaki Soto-Rey, Anna-Lena Schwake, Tobias Warnecke, Martin Dugas)
Introduction
Movement Disorders such as Parkinson’s disease are primarily diagnosed via neurological examination and there is a strong need for objective measures and early diagnosis [1, 2]. Establishing a technology-driven two-year prospective study, we implemented a novel mobile system with integration of smartwatches into neurological examination of patients with movement disorders and healthy controls [3]. The aim of the system is to establish an objective measuring framework to analyze hand tremor and other potential phenotypical biomarkers, which can provide predictive support in early diagnosis. The following work presents details on the running system, the established research platform and measurement accuracy.

Methods
The iOS-based system utilizes two synchronous Apple watches. Each examination consists of 10 assessment steps, which were designed with Movement Disorders specialists. They aim to systematically provoke and monitor a set of movement characteristics as tremor occurrence and bradykinesia. In addition, a paired smartphone guides the examiner through the examination steps and enables questionnaire-based data capture of early symptoms, medication and family history. All captured data is sent to a privacy-preserving research database with a self-implemented analytics platform. It enables visualization of acceleration, rotation, questionnaires data and comparison of different participant population regarding diagnosis and age.
Acceleration data is going to be analyzed with Fast Fourier Transform to infer dominant tremor frequency in each examination section. Distance of movement amplitude is calculated via double integration of the signal that was corrected by using a band-pass filter and inverse FFT. Accuracy of tremor amplitude and dominant frequencies were evaluated by systematic comparisons (n=100) with an Android-based reference application, called LiftPulse for four different clinically relevant amplitude and frequency ranges [4].

Results
As of today, 182 participants were enrolled and measured. Among of those, 118 have Parkinson’s disease based on confirmation by movement disorder experts. Twenty-four have other movement disorders, 40 participants are healthy controls. The data visualization platform is readily implemented and data from all enrolled study particpants could be imported and visualized successfully.
Regarding measurement accuracy, distance deviation of tremor amplitude was in all measurements < 0,5 mm and all (100%) dominant frequencies of each test-measurement were mapped to the correct clinically relevant frequency intervals (Figure X1). Details with boxplots analysis are provided in the Supplement [4].

Discussion
We have established a novel mobile system that prospectively collects accurate measurement data at both body sides. A visualization platform enables manual comparisons of different participant subpopulations. In some cases of the running study, even subtle tremor occurrences with Amplitude < 0.02 G could be captured in early Parkinson’s diagnosis, which are not detectable by human vision (Figure X2). These observations indicate the potential for spotting subtle movement characteristics, which can contribute to yet-unidentified movement patterns. We expect at least 500 participants by the end of the study (October 2020). The highly structured, two-hands-based data capture is unique for all movement disorders and is building the foundation to train a Machine Learning classifier for subsequent disease prediction.

Registration on German Clinical Trials Register: DRKS00016594.
Herr Dr. Julian Varghese MSc
Westfälische Wilhelms-Universität Münster, Institut für Medizinische Informatik
Does colour matter? A reanalysis of patterns of the digital tree drawing test for screening of early dementia (Sibylle Robens, Thomas Ostermann, Petra Heymann, Stephan Müller, Christoph Laske, Ulrich Elbing)
Alzheimer’s Disease (AD), which accounts for about two-thirds of all dementia cases, is one of the most challenging and cost intensive diseases for western health care systems [1]. A variety of low threshold neuropsychological screening tests have been established to detect AD in an early stage. Due to the fact that deficits in drawing are early signs of Alzheimer’s disease, drawing tasks such as the clock drawing test (CDT) [2] have been shown to be sensitive in detecting early AD. In addition, due to impairments in visuo-constructive functions, changes in colour perception have also been reported in several studies. In reanalyzing data from a digital tree drawing test (dTDT), we aimed to answer the question, if the use of colours is an important characteristic to differentiate between healthy subjects and patients with early dementia of Alzheimer’s type (eAD). This analysis is based on a sample of N=67 cognitive healthy participants (mean age 65.9 ± 10.3) and 56 patients with eAD (mean age 72.7 ± 9.2) recruited from the Memory Clinic at the University Hospital of Tübingen from July 2015 to July 2016. The participants fulfilled the inclusion criteria of normal or corrected-to-normal visual acuity, of no severe hearing impairments and had the ability to perform tests and drawings without physical restrictions. Stepwise logistic regression of dTDT variables resulted in three main discrimination characteristics: the average velocity, the number of stroke changes and the number of colours (ROC AUC=0.90). The reanalysis without colour variables resulted in an AUC of 0.89, which also indicated a very good subject-group separation, but at the expense of a reduction in sensitivity from .86 to .77. Our results suggest that the number of colours used in a free tree drawing task has an impact on discriminating healthy subjects from patients with early AD. However the effect is rather small and should be investigated in more detail in a specially designed trial.
Herr Prof. Dr. Thomas Ostermann
Universität Witten/Herdecke
Entwicklung eines Bluetooth Low Energy (BLE) Simulators zum Testen der Standardkonformität von BLE mHealth Anwendungen (Philipp Neuhaus, Michael Storck, Fabian Kübler, Martin Dugas, Tobias Brix)

Einleitung

IT-unterstützte Medizinprodukte sind immer häufiger für Patienten verfügbar und erschwinglich. Viele dieser Produkte sind vernetzt, beispielsweise um Biosignaler zu erfassen oder dem Patienten das Führen elektronischer Tagebücher zu ermöglichen. Als Funktechnologie wird häufig Bluetooth Low Energy (BLE) eingesetzt, welches auch für Geräte im Batteriebetrieb geeignet ist. Leider zeigt sich in der Praxis, dass trotz offener Standards Geräte und Anwendungen häufig nicht miteinander kompatibel sind. Teilweise, weil die Standards nicht eingehalten werden, teilweise weil die Standards unterschiedlich interpretiert werden. Ziel dieser Arbeit ist es einen BLE-Simulator zu entwickeln, welcher verschiedene medizinische BLE Profile unterstützt, um die Standardkonformität von mHealth BLE-Anwendungen zu evaluieren.

Methode

Der Simulator soll die Vorgaben des ISO/IEEE 11073 Standards implementieren. Als medizinische Messgeräte mit Vitalfunktionen sollen Körpertemperatur, Herzfrequenz, Blutdruck, Körpermaße, Glukosewert und Pulsoxymetrie standardkonform entsprechend Bluetooth SIG [1] simuliert werden können. Um die Konfiguration des Simulators zu erleichtern und ihn mit verschiedenen Bluetooth-Stacks verwenden zu können, wurde die Software als plattformunabhängige Desktopanwendung implementiert. Da eine zukünftige Portierung des Simulators auf mobile Geräte möglich sein sollte, wurde die Entwicklung mit dem Javascript-Framework Electron [2] durchgeführt. Electron ermöglicht die Benutzung von Angular [3] zur Erstellung des Frontends und die einfache Anbindung von NodeJS Bibliotheken, wie etwa NodeJS bleno [4], welche die generische Umsetzung von BLE Services ermöglichen. Der Simulator wurde validiert mittels der nRF Connect Anwendung [5], welche sich Standard-konform mit BLE-Geräten verbinden und die übertragenen Daten von definierten Profilen anzeigen kann.

Ergebnisse

Der Simulator wurde erfolgreich implementiert und mittels nRF Connect validiert . Für alle 6 geforderten Bluetooth Profile wurden Beispieldaten mittels Simulator verschickt und korrekt mit nRF Connect empfangen. Über die Oberfläche des Simulators können zu den verschiedenen Profilen direkt Daten eingegeben werden, die dann standardkonform übertragen werden. Es ist möglich, medizinisch normale und pathologische Datenreihen vorzugeben, um das Verhalten der zu testenden Apps zu evaluieren. Auch die Vorgabe ungültiger Werte, beispielsweise physiologisch unmöglicher oder nicht standardkonformer Werte, ist vorgesehen. Für Evaluationen können Messwerte und auch Folgen von Messwerten als JSON Datei serialisiert und wieder eingelesen werden. Um Aktualisierungen an den Profilen zu erleichtern wird das einlesen von XML Dateien ermöglicht, welche von der Bluetooth SIG veröffentlicht werden und das Profil im Detail beschreiben.

Diskussion

Der Simulator erfüllt alle vordefinierten Anforderungen. Bei der Implementierung war die Spezifikation von Gleitkommazahlen innerhalb von BLE aufwändig. BLE fordert Little Endian in der Byte-Reihenfolge und verwendet die Basis 10 anstelle der üblichen Basis 2 (IEEE 754). Außerdem können die Werte mit einem dynamischen Faktor multipliziert werden. Eine Limitierung des Simulators ist die Einschränkung der Simulation auf die Anwendungsschicht nach OSI Referenzmodell [6]. Die interne bzw. Hardwareumsetzung des Simulators bleibt abhängig von den verbauten Komponenten. Zukünftig sollen verschiedene BLE mHealth Anwendungen ( Android und IOS) auf deren Standardkonformität getestet werden.

Herr Dr. Philipp Neuhaus
Westfälische Wilhelms-Universität
Abhängigkeit eines indikationsspezifischen Algorithmus zur Schritterkennung bei Personen mit Multipler Sklerose von Gehgeschwindigkeit und Trageposition (Layal Shammas, Asarnusch Rashid, Alexander Tallner, Verena Hartung, René Streber, Philipp Wanner, Benjamin Roth, Ann-Christin Weiland, Peter Flachenecker, Mathias Mäurer, Klaus Pfeifer)
Hintergrund
Gehfähigkeit und Gehgeschwindigkeit sind wichtige Indikatoren für den Krankheitsschweregrad bei Personen mit Multipler Sklerose (PmMS) [1] . Eine objektive und valide Messung körperlicher Aktivität mit Beschleunigungssensoren kann helfen den klinischen Verlauf der Multiplen Sklerose (MS) zu beurteilen. Die Genauigkeit der Schritterkennung hängt ab von verwendeten Sensoren [2], Algorithmen für die Schritterkennung (generisch vs. indikationsspezifisch), Trageposition des Sensors (Hüfte oder Handgelenk) sowie der Zielgruppe und Einschränkungen bei der Gehgeschwindigkeit. In Vorarbeiten am Zentrum für Telemedizin Bad Kissingen (ZTM) wurde ein indikationsspezifischer Schritterkennungsalgorithmus für PmMS und hüftgetragenen Sensoren entwickelt. Eine indikationsspezifische Validierung verschiedener Sensoren/Smartwatches und Tragepositionen unter Berücksichtigung der Gehgeschwindigkeit liegt bisher nicht vor.

Ziel
Ziel der Studie ist, einen indikationsspezifischen Schritterkennungsalgorithmus anzuwenden auf einen an der Hüfte getragenen Sensor sowie einen am Handgelenk getragenen Smartwatch und jeweils mit deren generischen Algorithmen zu vergleichen, in Abhängigkeit von der Gehgeschwindigkeit.

Methoden
Die Untersuchungen erfolgten im Rahmen des Projekts „MS bewegt“. Eingeschlossen wurden PmMS (EDSS 0-6.5, Alter >18). Studienteilnehmer absolvierten drei Gehtests auf ebenem Untergrund bis jeweils 250 Schritte erreicht waren: 1) komfortable, selbst gewählte Gehgeschwindigkeit 2) langsame (-20%) und 3) schnelle (+20%) Gehgeschwindigkeit. Die Vorgabe der Geschwindigkeit erfolgte vom Tester mithilfe eines Messrads. Der Tester gab die Gehgeschwindigkeit anhand des Messrads vor.
Beschleunigungsdaten wurden erfasst via Actigraph (wGT3X, Hüfte) und Polar Smartwatch (M600, Handgelenk). Auf diesen Sensoren wurde der jeweils proprietäre, generische Algorithmus zur Schritterkennung (Actigraph: Actilife / Polar: Polar Flow) verglichen mit einem indikationsspezifischen Algorithmus (ZTM). Für die Schritterkennung wurde eine Zero-Crossing Detektion verwendet. Zur Erkennung der Frequenz des Gangsignals wurde der zeitliche Abstand der Nulldurchgänge untersucht. Stimmt diese Frequenz mit der Frequenz, welche beim menschlichen Gang erzeugt wird überein, so handelt es sich um einen Schritt [3]. Zur Evaluierung des Algorithmus wurden Daten aus zwei verschiedenen Studien (Indoor- und Outdoor-Studien) verwendet. Die Ergebnisse zeigten eine hohe Sensitivität (99,97%) sowohl beim Gehen als auch beim Joggen [4].
Referenzwert für erkannte Schritte war direkte Beobachtung durch das Studienpersonal. Für jede Sensor/Algorithmus-Kombination wurden Mittelwert und Standardabweichung berechnet. Zur Beurteilung des Einflusses der Gehgeschwindigkeit wurden die Daten gruppiert analysiert.
Ergebnisse

Es wurden 58 Teilnehmer eingeschlossen (EDSS 0-6.5, median 4.0; Alter 48+-11; m=14, w=44) und insgesamt 172 Gehtests ausgewertet. Die genauesten Ergebnisse lieferte der Actigraph Sensor mit ZTM Algorithmus (251±14 Schritte), vor Polar/ZTM (233±64), Actigraph/Actilife (228±38) und Polar/Polar Flow (220±65). Sinkende Gehgeschwindigkeit führte zu sinkender Genauigkeit der Schritterkennung und höherer Standardabweichung.

Schlussfolgerungen
Die Messung an der Hüfte mit einem indikationsspezifischen Schritterkennungsalgorithmus zeigt im Vergleich die besten Ergebnisse (Actigraph/ZTM), ab einer Gehgeschwindigkeit von 2km/h liegen Mittelwert und Standardabweichung innerhalb eines Fehlerkorridors von weniger als 10% (253+/- 19 Schritte). Ein indikationsspezifischer Algorithmus bei Handgelenksmessung (Polar M600/ZTM) liefert bessere Werte als der generische Algorithmus (Polar Flow). Aufgrund hoher Standardabweichungen bei Gehgeschwindigkeiten unter 4km/h sollte im individuellen Falle dennoch geprüft werden, ob eine sinnvolle Schritterkennung am Handgelenk gegeben ist (29 von 88 Probanden außerhalb einer Fehlerrate von +/- 10%). Eine Adjustierung des ZTM Algorithmus auf Handgelenksdaten erscheint vielversprechend. Smartwatches bieten somit eine vielversprechende Option zur validen Messung körperlicher Aktivität bei PmMS, wenn indikationsspezifische Algorithmen implementiert werden.
Frau Dr. Layal Shammas
Zentrum für Telemedizin Bad Kissingen
Versorgungsforschung in der Psychotherapie – Potentiale von Neurogaming in der Therapiebegleitung von Kindern und Jugendlichen (Andre Hellwig, Corinna Simon, Dr. Sven Meister)
Im Kindes- und Jugendalter sind psychische Entwicklungsprozesse entscheidend für die langfristige, kognitive Gesundheit eines Menschen. In einer Studie von Naab et al. (2017) wurden bundesweit 2.863 Familien mit Kindern im Alter von 7 bis 17 Jahren untersucht. 14,5 % aller befragten Kinder und Jugendliche weisen mindestens ein Merkmal auf, das zu einer psychischen Beeinträchtigung führt und therapeutisch begleitet werden muss (u.a. Angststörungen, ADHS). Therapieerfolg erfordert ein kontinuierliches Mitarbeiten der betroffenen Personen während und nach den Therapiesitzungen. Vor allem zu Therapiebeginn ist es schwierig, Patientinnen und Patienten für regelmäßige Übungen zu motivieren, da Erfolge nicht sofort eintreten oder erkennbar sind. Begleitende Übungen zur Symptomreduktion in Psychotherapien sind beispielsweise Entspannungsverfahren wie auch Konzentrations- und Achtsamkeitstrainings (Naab et al., 2017). Diese Übungen sind Teil des Therapieerfolgs und entscheidend für den Therapieverlauf. Entsprechende kognitive Übungen können überall im Alltag angewendet werden. Die Motivation zur kontinuierlichen Anwendung ist oftmals allerdings nicht gegeben, da die Durchführung schwierig ist. Ein Problem, dass durch eine nutzerzentrierte, technologische Unterstützung gelöst werden kann (Moessner & Bauer, 2017). Eine digitale, spielerische Trainingsanwendung schafft motivationale Anreize (Sliwinski et al., 2017), entsprechende Übungen kontinuierlich therapiebegleitend durchzuführen und kann dem Nutzer und der Nutzerin über spezifische Sensoren (z.B. EEG) ein Feedback zu neurologischen Prozessen geben bzw. sich autonom auf die Nutzergruppe einstellen. Im Hinblick auf die Versorgungsforschung gilt es Potentiale und Risiken entsprechender Hilfsmittel zu erforschen.
Zur Erfassung der Anforderungen einer therapiebegleitenden Technologieunterstützung in der Psychotherapie wurde eng mit Psychotherapeutinnen und Psychotherapeuten sowie Kindern und Jugendlichen mit psychischen Beeinträchtigungen zusammengearbeitet. Digitale Unterstützungsmöglichkeiten, Technologieakzeptanz und ein denkbarer Sensor bzw. Interaktionsansatz wurden qualitativ erhoben. Mit agilen Entwicklungsmethoden wird anwendernah ein spielerischer, digitaler Prototyp entwickelt (Human-centered Design, ISO 9241) und medizinzertifizierte, zugängliche EEG-Sensorik (Muse EEG) getestet. Der Prototyp wird gleichermaßen qualitativ (Think-Aloud) und quantitativ (SUS - System Usability Scale) experten- und nutzerbasiert getestet (Zeitraum: Sommer). Resultat der finalen Befragungsreihe innerhalb der Versorgungsforschung in der Psychotherapie sind Möglichkeiten, Güte- und Akzeptanzfaktoren für die Entwicklung eines Neurogames zur Begleitung von Therapiemaßnahmen wie Konzentrationsübungen.
Auf Ergebnissen der Vorbefragung und der agilen Methoden aufbauend, wird aktuell ein digitaler Prototyp entwickelt, der die Nutzergruppe ideal unterstützen soll, die kognitive Beanspruchung auf selbstwirksame Weise zu regulieren. Teilergebnisse der Vorbefragung sind u.a. ein zugängliches Casual Game Design, das sowohl alleine, als auch kollaborativ mit weiteren Anwenderinnen und Anwendern gespielt werden kann und soziale Interaktion anregt. Weiterhin wurde das Muse EEG (7 Trockenelektroden) als leicht zugängliche und reliable Sensoriklösung zur Messung von Konzentration und Aufmerksamkeit identifiziert. Verschiedene Studien bestätigen den Einsatz des Muse EEG-Devices im Hinblick auf Messreliabilität (Krigolson et al., 2017; Przegalinska et al., 2018). Der digitale Prototyp reagiert je nach Neurofeedback der Nutzergruppe sensibel auf Anwendungsinhalte und passt diese an, um Konzentrationsprozesse (z.B. Automatische Anpassung der Spielschwierigkeit je nach Konzentrationsgrad) zu unterstützen. Ziel der Entwicklung sind eine langfristige, motivationale Technologieunterstützung zur Symptomreduktion, Therapiecompliance und Verkürzung der Therapiedauer mit leicht bedienbaren und kostengünstigen EEG-Devices. In anschließenden Schritten ist es erforderlich, eine Langzeitstudie durchzuführen, um zu ermitteln, inwiefern das Spielen der Anwendung Kindern und Jugendlichen hilft, Konzepte der kognitiven Entlastung (z.B. Konzentration, Meditation) dauerhaft und im Vergleich zu der herkömmlichen Herangehensweise zu erlernen und anzuwenden (Wissenstransfer in die Praxis).
Herr Andre Hellwig
Fraunhofer Institut für Software- und Systemtechnik
Tuesday
10 Sep 2019
08:45 - 09:45
PS7
Bild-/Signalverarbeitung, Maschinelles Lernen & NLP
Room: EF40 Foyer Anordnung 3 (Location: Emil-Figge-Str. 40)
Chair(s): Martin Sedlmayr
Big Data Anwendungen im Kontext seltener Erkrankungen (Michéle Kümmel, Brita Sedlmayr, Franziska Bathelt, Jochen Schmitt, Martin Sedlmayr)

1. Einleitung

Seltene Erkrankungen (SE) treten mit einer Häufigkeit von <5/10.000 Menschen auf, betreffen aber ca. 3-6% der Bevölkerung und umfassen schätzungsweise 5.000-8.000 einzelne Erkrankungen [1–5]. Aufgrund ihrer Seltenheit und vielfältigen Ausprägungen ergeben sich vermehrt Herausforderungen für die Patientenversorgung (z. B. verzögerte Diagnosestellung, fehlende Therapiemöglichkeiten) [6,7].
Eine Möglichkeit zur verbesserten Versorgung von Menschen mit seltenen Erkrankungen (MSE) stellen Big Data Anwendungen dar [8,9], wofür aber in Deutschland noch kein konkretes Konzept existiert. Innerhalb des BMG-geförderten Projekts „Einsatzmöglichkeiten und klinischer Nutzen von Big Data Anwendungen im Kontext seltener Erkrankungen (BIDA-SE)“ werden ein Nutzungsszenario entwickelt und Empfehlungen für den Einsatz von Big Data Anwendungen für die Versorgung von MSE formuliert.
Hierfür werden folgende Fragestellungen beantwortet:

  • Wie kann ein fachübergreifendes, praxisnahes Szenario unter Verwendung von Big Data Anwendungen für die Versorgung von MSE aussehen und welche Maßnahmen werden für die mittelfristige Umsetzung empfohlen?
  • Welchen klinischen Nutzen sehen Ärzte für die Patientenversorgung und wie würden Patienten einen durch Big Data unterstützten Versorgungsprozess akzeptieren?
  • Welche technischen, systemischen, organisatorischen und rechtsregulatorischen Barrieren sind vorhanden und wie können diese überwunden werden?
  • Welche ökonomischen Implikationen sind damit verbunden?

2. Methode

Das Projekt gliedert sich in drei Phasen und wendet einen gemischten methodischen Ansatz aus Experten-Workshops, Online-Befragungen, Marktanalysen, ökonomische Analysen und Reviews an:

  1. Ist-Analyse: Zunächst werden ein übergreifender Versorgungspfad erstellt und diskutiert, mögliche Big Data Anwendungen und Daten / Datenquellen identifiziert.
  2. Initiale Szenarioentwicklung: Darauf folgt die interdisziplinäre Entwicklung eines initialen Nutzungsszenarios.
  3. Evaluation und Anpassung des Szenarios: Anschließend wird das Szenario hinsichtlich klinischem Nutzen, Akzeptanz, Barrieren und Lösungsmöglichkeiten evaluiert. Anhand der Evaluationsergebnisse erfolgen die Anpassung des Szenarios, die Erarbeitung eines Maßnahmenkatalogs für die Umsetzung und eine ökonomische Analyse.

Innerhalb der einzelnen Phasen liegt der Fokus auf der Interdisziplinarität, weshalb unterschiedliche Stakeholder wie Ärzte, IT-Experten, Patientenvertreter, Versorgungsforscher, IT-Sicherheitsbeauftragte und Datenschützer einbezogen werden.

3. Ergebnisse

Das Projekt startete am 01.03.2019 und befindet sich momentan in Phase A. Erste Recherchen zeigen, dass Big Data Anwendungen vornehmlich für die Krebsforschung [10–14] und weniger im Kontext von SE auftreten. Dennoch ist das Potential von Big Data Anwendungen für die Versorgung von MSE unumstritten [8,15,16].
Im Rahmen der GMDS werden das Projektvorhaben und identifizierte, potentielle Big Data Anwendungen für SE (Teilergebnis Phase A) vorgestellt und hinsichtlich ihrer Eignung für den Kontext bewertet. Die Ergebnisse zeigen, dass die Anwendungen vor allem die Bereiche
  • Datenhaltung, Analyse und Integration (Klassifikation nach [17]), z. B. Register wie Orphanet [18–22] und FindZebra [19,23] sowie
  • Diagnosefindung, Krankheitsmanagement und Prävention (Klassifikation nach [24]), z. B. phänotyp-basierte Systeme wie Phenomizer [19,25] und Phenolyzer [25] oder genotyp-basierte Systeme wie Genetics Home Reference [19] und GENATLAS [20] fokussieren.

4. Diskussion und Ausblick

Die Ist-Analyse berücksichtigt sowohl bereits genutzte als auch benötigte oder gewünschte Big Data Anwendungen und Daten aus Sicht unterschiedlicher Stakeholder. So kann ein möglichst praxisnahes Nutzungsszenario entwickelt werden.
Nach Müller et al. wird „die Anzahl seltener Erkrankungen […] insbesondere als Folge der genetischen Erkenntnisse weiterhin rasant zunehmen“ [8], sodass eine verbesserte Versorgung von MSE unabdingbar wird. Indem das Projekt beweist, welche Big Data Anwendungen in der Praxis angewandt werden können, kann dieser Prozess vorangetrieben werden.

Frau Michéle Kümmel
Institut für Medizinische Informatik und Biometrie Medizinische Fakultät Carl Gustav Carus der Technischen Universität Dresden
AutoLane: An Open-source Tool for Semi-automatic Analysis of Gel Electrophoresis Images (Mark Weber, Viorel-Marin Rusu, Elisa A. Liehn, Roberta Florescu, Alexander Schuh, Mihaela Rusu, Stephan Jonas)
Analyzing gel electrophoresis images of protein fractions with low vs. high molecular weight is an important task for the discovery of cardiac biomarkers in the context of myocardial infarction. Manual thresholding in image processing presents a bottleneck for rapid image analysis while leading to reproducibility issues. In the attempt to overcome these issues, we propose a novel semi-automatic analysis system that offers a robust lane detection and information extraction algorithm. The proposed algorithm is based on four main steps: (1) pre-processing, (2) noise-filtering, (3) gradient-based detection and (4) molecular weight extraction. Our detection algorithm uses a custom variant of the Canny edge detector and clustering, while the extraction procedure uses curve fitting to determine molecular weights based on the reference ladders. Our experimental results show that the proposed method eliminates image artefacts while preserving the image characteristics and improves the overall image analysis. Moreover, we open-source our tool to enable researchers to reliably, reproducibly and robustly produce results from gel electrophoresis images.
Herr Mark Weber
Uniklinik RWTH Aachen
Konzeption und prototypische Umsetzung eines Systems zur Therapieunterstützung für Patienten mit Muskeldefiziten an Unterarmen (Max Blumenstock, Julia Häussler-Sigler, Julia Lutyj, Martin Wiesner, Wolfgang Heß)
Motivation
Die Physiotherapie ist eine der wichtigsten Rehabilitationsmethoden [1]. Vor allem Schlaganfallpatienten profitieren von einer physiotherapeutischen Behandlung [2]. In Deutschland kommt es jährlich zu etwa 270.000 Schlaganfällen, die u.a. halbseitige Lähmungen zur Folge haben [3]. In Folge dessen ist die Handmotorik häufig eingeschränkt und die Muskulatur geschwächt. Diese kann durch Therapieeinheiten wiederaufgebaut und gezielt trainiert werden [4].

Hierfür existieren mehrere klassische Unterarmtherapien. Eine etablierte Trainingsmethode ist der Knautschball, welcher die Unterarmmuskulatur durch regelmäßiges Zusammendrücken stimuliert und funktional trainiert [5]. Hierbei geht jedoch die Trainingsmotivation bei vielen Patienten nach kurzer Zeit verloren [6]. Im Fokus der vorliegenden Arbeit steht die Entwicklung einer Alternative hierzu auf Basis der Elek