Künstliche Intelligenz in der Medizin – Eine Gefahr für die Patientenautonomie?

KI in der Medizin droht die Fähigkeit von Patienten zu untergraben, personalisierte Entscheidungen zu treffen. Eine neue Forschungsarbeit analysiert anhand der Fallstudien von Großbritannien und Kalifornien, ob und wie das Recht dieser Gefahr für die Patientenautonomie begegnen kann.
Der Rechtswissenschaftler Dr. Christian Günther am Max-Planck-Institut für Sozialrecht und Sozialpolitik kommt in der Arbeit zu dem Ergebnis, dass das Recht eine proaktive Dynamik besitzt, mit der es sehr gut auf Innovationen reagieren kann – und dies sogar besser als außerrechtliche Regulierungsansätze. „Das Recht ist entgegen weit verbreiteter Annahmen eben kein Hindernis, das der Entwicklung und dem Einsatz zukunftsweisender Technik nur im Weg steht. Im Gegenteil: Es gestaltet die Entwicklung aktiv mit und spielt eine zentrale Rolle bei der Steuerung neuer Technologien”, erklärt Günther.
Derzeit wird eine Vielzahl klinischer KI-Systeme für den Einsatz in Gesundheitssystemen weltweit zugelassen. KI wird dabei als eine Technologie definiert, die in der Lage ist, Aufgaben zu übernehmen, die bislang von menschlichen Expertinnen und Experten mithilfe ihres Wissens, ihrer Fähigkeiten und ihrer Intuition gelöst wurden. Besonders der Ansatz des Maschinellen Lernens hat die Entwicklung klinischer KI, die derartige Fähigkeiten besitzt, maßgeblich vorangetrieben. Bei allen damit verbundenen Vorteilen können KI-Systeme aber eine potenzielle Bedrohung im Hinblick auf die gesetzlich vorgeschriebene Patientenaufklärung und -einwilligung darstellen. Diese Verpflichtung verlangt von medizinischem Fachpersonal, Patientinnen und Patienten ausreichend Informationen offenzulegen, um das Ungleichgewicht der Fachkenntnisse zwischen beiden Seiten auszugleichen, erläutert das Max-Planck-Institut für Sozialrecht und Sozialpolitik.
In seiner Forschung hat dem Institut zufolge Günther vier spezifische Probleme identifiziert, die in diesem Zusammenhang auftreten können:
- Der Einsatz klinischer KI erzeugt ein gewisses Maß an Unsicherheit, das auf der Eigenart von KI-generiertem Wissen und den Schwierigkeiten bei der wissenschaftlichen Überprüfung dieses Wissens beruht.
- Einige ethisch bedeutsame Entscheidungen können von der KI relativ unabhängig getroffen werden, das heißt, ohne wesentliche Einbindung der Patient*innen.
- Die Fähigkeit der Patient*innen, im Rahmen des medizinischen Entscheidungsprozesses rationale Entscheidungen zu treffen, kann erheblich beeinträchtigt werden.
- Patient*innen könnten Schwierigkeiten haben, angemessen zu reagieren, wenn nicht offensichtlich ist, dass menschliche Expertise durch KI ersetzt wurde.
Um diesen Problemen zu begegnen, untersuchte Günther die Normen, die dem Prinzip der informierten Patienteneinwilligung in Großbritannien und Kalifornien zugrunde liegen, und zeigt anhand eines konkreten Regulierungsvorschlags auf, wie gesetzliche Regelungen gezielt weiterentwickelt werden können, um sowohl den technologischen Fortschritt zu fördern als auch die Rechte von Patientinnen und Patienten zu wahren.
Quellen: Quelle: MedCon Health Contents GmbH; Max-Planck-Institut für Sozialrecht und Sozialpolitik; Originalpublikation: Günther C. Artificial Intelligence, Patient Autonomy and Informed Consent, Nomos: Baden-Baden 2024.
Beitragsfoto: Bussakon via stock.adobe.com