Künstliche Intelligenz (KI) hat längst Einzug in die medizinische Versorgung gehalten. Sie unterstützt z.B. bei der Hautkrebsdiagnostik, hilft, personalisierte Therapien zu entwickeln und erleichtert Patientinnen und Patienten die Überwachung ihrer chronischen Erkrankungen. Stetig wird an weiteren Lernalgorithmen für die Medizin gearbeitet. Allerdings gebe es bisher keine verbindlichen ethischen und rechtlichen Regularien für die Entwicklung von medizinischer KI, betonen Forschende des Bosch Health Campus, der Universität Bayreuth und der Universität Bristol. Sie haben daher jetzt ein Modell veröffentlicht, das dafür sorgen soll, dass bei der Entwicklung von medizinischer KI die Interessen von Patientinnen und Patienten sowie medizinischen Fachkräften im Fokus stehen. Dabei haben sie als zentralen Faktor den Erhalt des Vertrauens zwischen Patientinnen/Patienten und Mediziner/-innen definiert. „Vertrauen ist ein wichtiger Parameter für Behandlungserfolg und Patientenzufriedenheit und damit Voraussetzung für die Nutzung der Potenziale von KI in der Medizin“, betont Prof. Dr. mult. Eckhard Nagel vom Institut für Medizinmanagement und Gesundheitswissenschaften an der Universität Bayreuth.
Einwandfreie Funktionalität der KI als Voraussetzung
Statt dem bisherigen Zweierverhältnis Arzt – Patient bestehe seit dem Einzug von KI-Anwendungen in die Medizin immer häufiger eine Dreieckskonstellation. „Wir wollen mit unserem Modell dazu beitragen, dass das Vertrauen zwischen Ärztinnen/Ärzten und Patientinnen/Patienten auch mit dem Einsatz von medizinischer KI erhalten bleibt und sich beide Gruppen zudem auf die einwandfreie Funktionalität der KI verlassen können“, sagt Dr. med. Matthias Zuchowski vom Bosch Health Campus, Gesundheitsökonom und Habilitand am Institut für Medizinmanagement und Gesundheitswissenschaften der Universität Bayreuth. Zwischen dem Bosch Health Campus und der Universität Bayreuth besteht eine Kooperation zur Entwicklung und Umsetzung von Forschungsvorhaben zu Medizinmanagement, Leadership und Digitalisierung.
Acht Rahmenbedingungen für die Entwicklung
Die Autoren des Papers schlagen acht Komponenten vor, die das Vertrauensverhältnis unterstützen, stärken und bewahren sollen. Besonders wichtig sei, dass medizinische Fachkräfte und Patientinnen sowie Patienten am Entwicklungsprozess beteiligt werden, um mehr Transparenz zu schaffen und Diskriminierungen und Anwendungsgefahren zu vermeiden. Die acht Rahmenbedingungen für die Entwicklung von medizinischer KI sind im Einzelnen:
– damit sich Mediziner/-innen auf KI verlassen können:
1. die Einbeziehung von verantwortlichen medizinischen Fachkräften vor der Entwicklung der KI
2. ein standardisiertes Datenblatt, ausgerichtet auf den Informationsbedarf professioneller Anwender
3. eine (berufs-)ethische Bewertung der KI auf institutioneller Ebene
– um das Vertrauen von Patientinnen und Patienten in medizinisches Personal zu erhalten:
1. die Einbeziehung von Patientenvertreter in der Entwicklungsphase der KI
2. Leitlinien für die Integration von medizinischer KI in den klinischen Beratungs- und Behandlungsprozess
– damit sich Patientinnen und Patienten auf KI verlassen können:
1. die Dokumentation der Datensicherheit für jede medizinische KI
2. die haftungsrechtliche und regulatorische Dokumentation für jede medizinische KI
3. verbindliche Sicherheitsvorkehrungen und Absprungpunkte für die gesicherte Beteiligung von medizinischen Fachkräften.
Regularien für die Praxis
Die Forschenden erläutern genau, wann und wie die genannten Komponenten im Produktionszyklus einer KI-Anwendung berücksichtigt werden sollten. Sie halten eine Beteiligung von Gesundheitsdienstleistern, medizinischen Fachkräften, Entwicklern und Herstellern sowie Patientenvertretungsgruppen in jeder Phase des Lebenszyklus einer medizinischen KI für unabdingbar. „Wir wollen mit dem Modell eine Diskussion anstoßen, damit entsprechende Regularien möglichst bald Einzug in die Praxis halten und von Start-Ups und Entwicklerinnen/Entwicklern angewendet werden können“, sagt Dr. Dr. Lena Zuchowski, Senior Lecturer für Wissenschaftsphilosophie an der Universität Bristol. Letztlich fordern die Forschenden, dass der Erfolg und die Zuverlässigkeit von medizinischer KI genauso streng wie andere Behandlungsmethoden mit klinischen Experimenten und Studien belegt werden müssen.
Quelle: idw/Bosch Health Campus
Artikel teilen