Drei sind (k)einer zu viel: Wenn KI mitbehandelt
30.09.2025 - Künstliche Intelligenz verändert Diagnosen und Therapien und transformiert die Arzt-Patient-Beziehung grundlegend. Eine Beziehung auf dem Prüfstand.
Die Arzt-Patienten-Beziehung war lange ein klassisches Zwiegespräch – zunächst stark geprägt vom ärztlichen Paternalismus mit Ärzten als Experten und Patienten als Hilfesuchende, später mehr durch gemeinsame Entscheidungsfindung auf Augenhöhe. Der Einsatz von Künstlicher Intelligenz (KI) in der Medizin verändert dieses eingespielte Gefüge zunehmend zu einer „Ménage-à-trois“, mit neuen Rollen, Chancen und Herausforderungen.
Wenn die Beziehung komplex wird: KI als dritter Akteur
Im Gegensatz zu bisherigen medizinischen Errungenschaften nutzen sowohl Ärzte als auch Patienten KI. Sie liefert Ärzten z. B. Diagnose- und Therapie-Vorschläge, prognostiziert Krankheitsverläufe und übernimmt administrative Aufgaben (z.B. Gesprächsdokumentation, Arztbriefe) - mitunter schneller und konsistenter als der Mensch. Patienten nutzen KI z.B. für Selbstdiagnosen und -therapien und zur Vorbereitung auf Sprechstundentermine. KI ist jedoch nicht Träger von Rechten und Pflichten und haftet nicht für (falsche) Entscheidungen.
KI-Einsatz bricht das Wissensmonopol der Medizin auf. Er verändert Prozesse und die Arzt-Patienten-Beziehung selbst. Technischer Fortschritt generativer KI (z.B. Sprache) „vermenschlicht” diese zunehmend. Studien zeigen eine Verschiebung der „Machtverhältnisse“ bzgl. Autorität und Vertrauen. So wird KI patientenseitig im Vergleich zu Ärzten mitunter als empathischer wahrgenommen.
Zwischen Autonomie und Algorithmen
Für Ärzte entsteht somit ein Spannungsfeld, auch mit Blick auf ihre Legitimität, denn KI-gestützte Empfehlungen sind gemäß medizinischem Ethos und im Sinne des Wohlergehens von Patienten stets verantwortungsbewusst zu hinterfragen. Dies erfordert grundlegendes Technikwissen und Datenverständnis sowie die kritische Reflektion und Interpretation von Ergebnissen, um nachzuvollziehen, welchen Daten KI-Empfehlungen zugrunde liegen, wie Algorithmen zu Ergebnissen kommen und wo Grenzen dieser Verfahren liegen.
KI ist keine klassische Intelligenz. Sie liefert lediglich Wahrscheinlichkeiten und produziert auch Fehler, z.B. durch „Halluzinieren“. Ob eine Raumforderung mit 92 % Wahrscheinlichkeit ein Adenokarzinom ist oder nicht, ist letztlich eine medizinische Entscheidung, nicht nur eine statistische. Das letzte Wort, und somit die Entscheidungsverantwortung, obliegt Ärzten. Data und AI Literacy unterstützen einen durchweg verantwortungsbewussten Umgang mit KI-Tools.
Andernfalls bleibt KI eine wenig vertrauenswürdige „Black Box”. Für Transparenz und Einblick in algorithmische Entscheidungsprozesse dienen Verfahren der Erklärbarkeit (Explainability). „Explainable AI” (xAI) vermag Entscheidungen für die Zielgruppe verständlich und nachvollziehbar zu machen. In einer tragfähigen Partnerschaft ist es möglich, über den bloßen Wortlaut hinaus die tieferliegenden Bedeutungen einer Aussage zu erfassen – ein Anspruch, der gleichermaßen für die Interaktion Mensch–KI gelten sollte.
Obgleich xAI die ärztliche Urteilsbildung entscheidend unterstützen kann, bestehen Limitationen. Entwickler von ChatGPT können nach eigener Aussage nicht mehr selbst nachvollziehen, wie der Algorithmus zu Ergebnissen kommt. Je komplexer Systeme mit ihren Milliarden entscheidungsprozessrelevanter Neuronen werden, desto schwieriger wird die Integration eines Erklärungsmodells.
Dies untermauert die Wahrung ärztlicher Autonomie als letzte Entscheidungsinstanz. Ärzte benötigen bei KI-Interaktion jederzeit die Freiheit, von algorithmischen Empfehlungen abzuweichen und anders zu entscheiden, denn sie stehen hierarchisch über der KI. KI-Systeme sind im medizinischen Kontext stets Unterstützer, keine finalen Entscheider.
Patienten zwischen Misstrauen und Empowerment
Patientenseitig erhöht sich die Komplexität ebenfalls, wenn KI-Empfehlungen nicht erklärt werden können und/oder im Widerspruch zu ärztlichen Aussagen stehen. Die Gefahr eines „digitalen Paternalismus“ wächst: Was bedeutet Shared Decision Making, wenn Entscheidungen zunehmend von Algorithmen „vorgedacht“ werden? Zudem möchten Patienten mehr sein als nur Hilfesuchende. Sie fordern mehr Einfluss im Behandlungsprozess, werden digital selbstbewusster und übernehmen eine aktivere, gleichwertigere Rolle im Entscheidungsprozess. Gesundheits-Apps (DiGAs) oder Wearables zum Daten-Tracking (z. B. Blutdruck, Herzfrequenz) stärken die Selbstwirksamkeit im Umgang mit Erkrankungen und/oder Lebensstilveränderungen. Patienten werden zu Kuratoren ihrer Gesundheitsdaten. Es obliegt daher Ärzten, von Patienten genutzte Tools des Gesundheitstrackings bzw. für -abfragen zu kennen. Eine Herausforderung entsteht, wenn Patienten Tools nutzen, die nicht per se für medizinische Abfragen gedacht sind (z.B. Google Gemini).
Interaktion und Kommunikation zwischen Ärzten und Patienten ist somit hin zu partnerschaftlichem, KI-gestützten Dialog zu gestalten. Die menschliche Beziehung der Interaktion bleibt essenziell, um die ärztliche Entscheidungshoheit zu wahren, eine rein technokratische Dienstleistungsbeziehung und einen „neuen Paternalismus” zu vermeiden.
Ethik, Regulierung und klare Zuständigkeiten
Die dargelegten Herausforderungen erhöhen die Komplexität der Arzt-Patienten-Beziehung. Wenn KI in die Behandlung integriert wird, bedarf es klarer Regeln und zentraler Fragenklärungen: Wer haftet bei einem Fehler? Wie transparent oder neutral sind die Empfehlungen? Wie werden Datenschutz und Fairness gesichert?
KI ist nicht objektiv. Je nachdem welche Daten beim Training eines Algorithmus zugrunde liegen, können systematische Verzerrungen (Data Biases) entstehen. Ursächlich hierfür kann z.B. sein, dass bestimmte Personengruppen (nach Alter, Geschlecht, etc.) Trainingsdaten dominieren. Das System wird somit aussagekräftiger und genauer für diese Gruppen und ungenauer und fehlerhafter für unterrepräsentierte Gruppen.
Um Bewusstsein für ethische Aspekte wie diese zu schaffen, gibt es mittlerweile zahlreiche Leitlinien für einen sinnvollen Umgang mit spezifischen KI-Systemen und Handlungsempfehlungen (z.B. von der WHO: „Ethics and governance of artificial intelligence for health: Guidance on large multi-modal models”).
Das KI-Gesetz (AI Act) der EU schafft einen verbindlichen Rechtsrahmen für menschenzentrierte KI-Nutzung und differenziert KI-Systeme in vier verschiedene Klassen, von minimalem bis zu unvertretbarem Risiko. Zudem verpflichtet er KI-Provider dazu, für Schüler, Studierenden oder Angestellte ein Schulungsangebot zur Verfügung zu stellen, damit sie KI-Grundlagenkompetenzen zu einem sicheren Umgang mit den Technologien entwickeln. So wurden alle Landesärztekammern auf dem letzten Deutschen Ärztetag in Leipzig dazu aufgefordert, ein KI-Fortbildungsangebot zu schaffen (wie z.B. die Kooperation der LÄK Baden-Württemberg mit dem KI-Campus).
Es zeichnet sich ferner der Aufstieg der KI-Agenten ab, also autonom agierende, „intelligente” KI-Systeme. In der bestmöglichen Konstellation von Rahmenbedingungen wird dies ein „eingespieltes Miteinander”, ohne wachsenden KI-Einfluss. Die zunehmende Komplexität, insbesondere durch prozessautomatisierte Interaktion multipler Systeme untereinander kann einer personalisierten, individuellen medizinischen Behandlung entgegenstehen. Daher ist es umso entscheidender, dass Ärzte und Patienten KI-Integration akzeptieren und kritisch einschätzen, gerade wenn Schwächen in der Nachvollziehbarkeit von KI-Entscheidungen gegeben sind. Ärzte stehen daher in der Pflicht, KI-kompetent und selbstbewusst zu agieren und Patienten in diesem Prozess aufgeklärt mitzunehmen.
Mittels KI kann eine bessere Gesundheitsversorgung gelingen. Die Einsatzszenarien reichen von grundlegender Arbeitsorganisation und Dokumentation bis hin zur Diagnostik- und Therapieunterstützung. Kompetente KI-Anwender können die Herausforderungen bewältigen und die Chancen nutzen.
KI im Kontext der Arzt-Patient-Beziehung ist Realität. Ärzten kommt in der konstruktiven „Ménage-à-trois“, das letzte Wort zu, um ihrer Entscheidungshoheit und Verantwortung im Sinne des medizinischen Ethos gerecht zu werden und die bestmögliche Patientenversorgung zu ermöglichen. Autonomie steht über der KI. Letztere ist kein gleichberechtigter Player in dieser „Dreiecksbeziehung“, sondern nimmt eine assistierende, ergänzende Rolle ein. Sie kann sich als sinnvoll erweisen, wenn sie medizinisches Wissen ergänzt und Ärzten Zeitressourcen für die zwischenmenschliche Dimension der Behandlung verschafft. So ist KI patientenorientiert nutzbar.
Autoren: Jenny Brandt, Universitätsspital Basel, Prof. Dr. Tobias Kesting, Apollon Hochschule der Gesundheitswirtschaft, Bremen und Mike Bernd, Stifterverband, Berlin
Dieser Beitrag ist in der Ausgabe M&K Oktober 2025 auf S. 7 erschienen.
Kontakt
APOLLON Hochschule der Gesundheitswirtschaft GmbH
Universitätsallee 18
28359 Bremen
Deutschland
+49 421 378266 0
+49 421 378266 190