KI in der Medizin: Vertrauen erhalten

Neues Modell für die Anwendung
lz
Symbolbild: Arzt hält virtuellen Brief mit Text und einem Interface.
© MQ-Illustrations/stock.adobe.com
Newsletter­anmeldung

Bleiben Sie auf dem Laufenden. Der MT-Dialog-Newsletter informiert Sie jede Woche kostenfrei über die wichtigsten Branchen-News, aktuelle Themen und die neusten Stellenangebote.


Immer öfter wird künstliche Intelligenz auch in der Medizin eingesetzt. Durch ein Modell mit verbindlichen Rahmenbedingungen wollen Forscherinnen und Forscher das Vertrauen zwischen Medizin und Patienten auch künftig erhalten.

Künstliche Intelligenz (KI) hat längst Einzug in die medizinische Versorgung gehalten. Sie unterstützt z.B. bei der Hautkrebsdiagnostik, hilft, personalisierte Therapien zu entwickeln und erleichtert Patientinnen und Patienten die Überwachung ihrer chronischen Erkrankungen. Stetig wird an weiteren Lernalgorithmen für die Medizin gearbeitet. Allerdings gebe es bisher keine verbindlichen ethischen und rechtlichen Regularien für die Entwicklung von medizinischer KI, betonen Forschende des Bosch Health Campus, der Universität Bayreuth und der Universität Bristol. Sie haben daher jetzt ein Modell veröffentlicht, das dafür sorgen soll, dass bei der Entwicklung von medizinischer KI die Interessen von Patientinnen und Patienten sowie medizinischen Fachkräften im Fokus stehen. Dabei haben sie als zentralen Faktor den Erhalt des Vertrauens zwischen Patientinnen/Patienten und Mediziner/-innen definiert. „Vertrauen ist ein wichtiger Parameter für Behandlungserfolg und Patientenzufriedenheit und damit Voraussetzung für die Nutzung der Potenziale von KI in der Medizin“, betont Prof. Dr. mult. Eckhard Nagel vom Institut für Medizinmanagement und Gesundheitswissenschaften an der Universität Bayreuth.

Einwandfreie Funktionalität der KI als Voraussetzung

Statt dem bisherigen Zweierverhältnis Arzt – Patient bestehe seit dem Einzug von KI-Anwendungen in die Medizin immer häufiger eine Dreieckskonstellation. „Wir wollen mit unserem Modell dazu beitragen, dass das Vertrauen zwischen Ärztinnen/Ärzten und Patientinnen/Patienten auch mit dem Einsatz von medizinischer KI erhalten bleibt und sich beide Gruppen zudem auf die einwandfreie Funktionalität der KI verlassen können“, sagt Dr. med. Matthias Zuchowski vom Bosch Health Campus, Gesundheitsökonom und Habilitand am Institut für Medizinmanagement und Gesundheitswissenschaften der Universität Bayreuth. Zwischen dem Bosch Health Campus und der Universität Bayreuth besteht eine Kooperation zur Entwicklung und Umsetzung von Forschungsvorhaben zu Medizinmanagement, Leadership und Digitalisierung.

Acht Rahmenbedingungen für die Entwicklung

Die Autoren des Papers schlagen acht Komponenten vor, die das Vertrauensverhältnis unterstützen, stärken und bewahren sollen. Besonders wichtig sei, dass medizinische Fachkräfte und Patientinnen sowie Patienten am Entwicklungsprozess beteiligt werden, um mehr Transparenz zu schaffen und Diskriminierungen und Anwendungsgefahren zu vermeiden. Die acht Rahmenbedingungen für die Entwicklung von medizinischer KI sind im Einzelnen:

– damit sich Mediziner/-innen auf KI verlassen können:
1. die Einbeziehung von verantwortlichen medizinischen Fachkräften vor der Entwicklung der KI
2. ein standardisiertes Datenblatt, ausgerichtet auf den Informationsbedarf professioneller Anwender
3. eine (berufs-)ethische Bewertung der KI auf institutioneller Ebene

– um das Vertrauen von Patientinnen und Patienten in medizinisches Personal zu erhalten:
1. die Einbeziehung von Patientenvertreter in der Entwicklungsphase der KI
2. Leitlinien für die Integration von medizinischer KI in den klinischen Beratungs- und Behandlungsprozess

– damit sich Patientinnen und Patienten auf KI verlassen können:
1. die Dokumentation der Datensicherheit für jede medizinische KI
2. die haftungsrechtliche und regulatorische Dokumentation für jede medizinische KI
3. verbindliche Sicherheitsvorkehrungen und Absprungpunkte für die gesicherte Beteiligung von medizinischen Fachkräften.

Regularien für die Praxis

Die Forschenden erläutern genau, wann und wie die genannten Komponenten im Produktionszyklus einer KI-Anwendung berücksichtigt werden sollten. Sie halten eine Beteiligung von Gesundheitsdienstleistern, medizinischen Fachkräften, Entwicklern und Herstellern sowie Patientenvertretungsgruppen in jeder Phase des Lebenszyklus einer medizinischen KI für unabdingbar. „Wir wollen mit dem Modell eine Diskussion anstoßen, damit entsprechende Regularien möglichst bald Einzug in die Praxis halten und von Start-Ups und Entwicklerinnen/Entwicklern angewendet werden können“, sagt Dr. Dr. Lena Zuchowski, Senior Lecturer für Wissenschaftsphilosophie an der Universität Bristol. Letztlich fordern die Forschenden, dass der Erfolg und die Zuverlässigkeit von medizinischer KI genauso streng wie andere Behandlungsmethoden mit klinischen Experimenten und Studien belegt werden müssen.

Literatur:
Zuchowski LC, Zuchowski ML, Nagel E: A trust based framework for the envelopment of medical AI. npj Digit. Med. 7, 230 (2024), DOI: doi.org/10.1038/s41746-024-01224-3.

Quelle: idw/Bosch Health Campus

Artikel teilen

Online-Angebot der MT im Dialog

Um das Online-Angebot der MT im Dialog uneingeschränkt nutzen zu können, müssen Sie sich einmalig mit Ihrer DVTA-Mitglieds- oder Abonnentennummer registrieren.

Stellen- und Rubrikenmarkt

Möchten Sie eine Anzeige in der MT im Dialog schalten?

Stellenmarkt
Industrieanzeige