„Die große Angst ist oftmals: Wenn wir die Daten erst einmal herausgegeben haben, bekommen wir sie nie wieder zurück“, erklärt Hendrik Ballhausen, Initiator des Experiments. „Jetzt verlassen die Patientendaten unser Klinikum nicht mehr, und gleichzeitig können wir mit anderen Standorten deren und unsere Daten gemeinsam auswerten.“ Das neue Verfahren kommt dabei ganz ohne eine zentrale Datenbank oder einen Vertrauensmann mit Generalschlüssel aus. Ein großer Vorteil, denn in der Vergangenheit wurden zentrale Datenbanken oft zur Zielscheibe für Hacker.
Um mit den verteilten Daten zu rechnen, müssen alle beteiligten Standorte gleichzeitig aktiv werden. Die Berechnung läuft dabei nicht auf einem einzelnen Rechner, sondern vielmehr zwischen den Servern der Standorte auf einem verschlüsselten Protokoll. Am Ende erhalten alle Standorte gleichzeitig das Ergebnis. Weder die Standorte noch ein äußerer Angreifer können dabei Rückschlüsse auf die Daten der einzelnen Standorte ziehen. Alle Standorte haben so jederzeit volle Transparenz und Kontrolle, was mit ihren Daten geschieht. Und können ihr Einverständnis auch nachträglich dadurch zurückziehen, dass sie einfach nicht weiter mitrechnen. Die Daten sind dann aus dem Netzwerk wieder spurlos „verschwunden“, bleiben aber auf dem Ursprungsserver erhalten.
Großes Potenzial über die Onkologie hinaus
So viel Sicherheit hat ihren Preis. Die Berechnungen, die dabei ablaufen, sind sehr aufwendig. Tatsächlich wurde die Software, die nun zum Einsatz kam, von einem der Erfinder der Blockchain mitentwickelt. „Selbst für einfache Berechnungen müssen die beteiligten Rechner viele tausend Male über das Netzwerk kommunizieren – und zwischen München und der Charité waren das 500 Kilometer Glasfaser“, verdeutlicht Marcel von Maltitz vom Lehrstuhl für Netzarchitekturen und Netzdienste an der TU München die Dimension des Problems. Durch Fortschritte bei den Algorithmen wurden in den letzten Jahren allerdings immer mehr Anwendungen realistisch.
Die neue Methode haben die Wissenschaftler nun verwendet, um in den Daten von Patienten mit einer besonders aggressiven Krebserkrankung, dem Glioblastom, nach versteckten Einflussfaktoren für das Überleben der Patienten zu suchen. Das geht umso genauer, je mehr Patienten eingeschlossen werden. In dem erfolgreichen Versuch konnten die Daten ebenso sensitiv und spezifisch ausgewertet werden, wie dies möglich gewesen wäre, wenn man die Daten an einem Ort zusammengeführt hätte.
Die Wissenschaftler planen nun, ein Netzwerk zu gründen, um die Methode bundesweit zu etablieren. Über die Onkologie hinaus hat das Verfahren großes Potenzial überall dort, wo sensible Daten nicht gefährdet werden sollen, etwa im Bereich „Mobile Health“ oder im „Internet of Things“.
Quelle: TU München, 07.05.2019
Artikel teilen