Aus den Kliniken

Sprachmodelle in der Medizin: Forschende veröffentlichen Lösungen für mehr Reproduzierbarkeit und Genauigkeit

25.04.2024 - Der digitale Wandel in der Medizin hängt von der zuverlässigen Verarbeitung und Verknüpfung medizinischer Arbeitsabläufe ab. Große Sprachmodelle (Large Language Models – LLMs) tragen wesentlich zur besseren Strukturierung, Kategorisierung und Interpretation von medizinischen Informationen bei.

Diese Modelle weisen jedoch Schwächen auf, wie beispielsweise die Erzeugung plausibler, aber falscher Informationen – sogenannte Halluzinationen – und die Erzeugung unterschiedlicher Antworten auf dieselbe Eingabe – sogenannter Nichtdeterminismus. In einem im Nature Portfolio Journal „npj Digital Medicine“ veröffentlichten Beitrag diskutieren Forscher des EKFZ für Digitale Gesundheit der TU Dresden und der Universität Chile mögliche Lösungen. Die Kombination von LLMs und Wissensgraphen (Knowledge Graphs – KGs) – eine Form von sogenannter Retrieval Augmented Generation – könnte die Modelle zuverlässiger, robuster und reproduzierbarer machen.

Die zuverlässige Aufzeichnung medizinischer Informationen und der Austausch zwischen verschiedenen Systemen (Interoperabilität) stellt nach wie vor eine große Herausforderung im Gesundheitswesen dar und wird auch als „Kommunikationsproblem“ der Medizin bezeichnet. Ansätze zur Lösung dieses Problems sind medizinische Ontologien und Wissensgraphen, sogenannte Knowledge Graphs (KGs). Medizinische Ontologien funktionieren ähnlich wie Wörterbücher für medizinische Begriffe und helfen, medizinische Konzepte zu kategorisieren und zu definieren. Diese Ontologien sind jedoch oft mehrdeutig, da in der menschlichen Sprache Begriffe je nach Kontext unterschiedliche Bedeutungen haben können. Beispielsweise kann sich das englische Wort „cold“ auf die Körpertemperatur, auf Umweltbedingungen oder auf das klinische Syndrom der akuten Rhinitis (Schnupfen) beziehen. Wissensgraphen sind organisierte Netzwerke, die verschiedene medizinische Konzepte und ihre Beziehungen miteinander verbinden. Zum Beispiel kann der Begriff „COVID-19“ in einem KG mit „Fieber“ durch eine Verknüpfung mit der Bezeichnung „hat Symptom“ verbunden sein. KGs erleichtern es, medizinische Informationen zu verstehen und zu verarbeiten, stehen aber vor ähnlichen Herausforderungen wie medizinische Ontologien.

Um diesen Schwierigkeiten zu begegnen, schlagen die Forscher aus Dresden und Santiago de Chile vor, große Sprachmodelle mit Wissensgraphen zu kombinieren und ihre jeweiligen Stärken zu nutzen. Diese Kombination ist eine Form von „Retrieval Augmented Generation“. Sie ermöglicht eine strukturierte Argumentation und könnte dazu beitragen, die Voreingenommenheit der Sprachmodelle zu verringern und zuverlässigere, genauere und reproduzierbare Ergebnisse zu liefern. Diese Ansätze wären mit den behördlichen Genehmigungsverfahren besser vereinbar als LLMs allein.

„Die Kombination von großen Sprachmodellen und Wissensgraphen ist eine Möglichkeit, um existierendes medizinisches Wissen mit den kognitiven Fähigkeiten von großen Sprachmodellen zu verknüpfen. Wir stehen hier erst am Anfang einer sehr spannenden Entwicklung“, sagt Prof. Jakob N. Kather, Professor für Klinische Künstliche Intelligenz an der TU Dresden und Onkologe am Dresdner Universitätsklinikum Carl Gustav Carus.

Die Autoren diskutieren verschiedene Ansätze zur Kombination von LLMs und KGs. So könnte diese auch die Entwicklung von robusten digitalen Zwillingen der Patientinnen und Patienten erleichtern. In Form von individuellen, strukturierten Aufzeichnungen über den Gesundheitszustand, ermöglicht das eine personalisierte Diagnose.

„Trotz der bestehenden regulatorischen Herausforderungen, können Fachkräfte im Gesundheitswesen, die heute ihren Abschluss machen, davon ausgehen, dass sie in Zukunft Zugang zu miteinander kompatiblen und fortschrittlichen Werkzeugen für die Zusammenfassung klinischer Informationen haben werden – etwas das noch vor fünf Jahren unvorstellbar war. Zudem haben Ansätze, die große Sprachmodelle mit Wissensgraphen kombinieren, eine höhere Wahrscheinlichkeit, eine frühe Zulassung in konservativen Regulierungsverfahren zu erhalten“, sagt Prof. Stephen Gilbert, Professor für Medical Device Regulatory Science an der TU Dresden.

Publikation

Stephen Gilbert, Jakob N. Kather, Aidan Hogan: Augmented non-hallucinating large language models as medical information curators; npj Digital Medicine, 2024. https://www.nature.com/articles/s41746-024-01081-0

Kontakt

Technische Universität Dresden

George-Bähr-Str. 1-3
01069 Dresden
Deutschland

Folgen Sie der
Management & Krankenhaus

 

 

MICROSITE Gesundheits-technologie

Lesen Sie hier

MICROSITE Digitale Identität

Lesen Sie hier

Folgen Sie der
Management & Krankenhaus

 

 

MICROSITE Gesundheits-technologie

Lesen Sie hier

MICROSITE Digitale Identität

Lesen Sie hier