Home/Arzneimittelberatung: ChatGPT scheitert an komplexen Fragen
imageKI kann (noch) nicht mitreden, wenn es um pharmakotherapeutische Fragen geht. KI-Symbolbild: Docinside mit ChatGPT.

Arzneimittelberatung: ChatGPT scheitert an komplexen Fragen

Die Medizinische Hochschule Hannover hat untersucht, wie gut ChatGPT bei Pharmakotherapiefragen berät. Das Ergebnis: Der Chatbot machte doppelt so viele Fehler wie Ärztinnen und Ärzte. Einige hätten gefährliche Folgen haben können.

Sarah Bourdely6.11.20254"
Während KI-Systeme in der Radiologie oder der Dermatologie teils mit Fachleuten mithalten, zeigt sich in der Pharmakotherapieberatung ein anderes Bild.

Forschende der Medizinischen Hochschule Hannover (MHH) haben im «British Journal of Clinical Pharmacology» untersucht, wie gut ChatGPT auf reale pharmakologische Anfragen reagiert. Dabei müssen patientenspezifische Faktoren wie Alter, Komorbiditäten oder Nieren- und Leberfunktion analysiert und sprachlich präzise Therapievorschläge formuliert werden.

Das Ergebnis ist eindeutig: Die menschliche Expertise schnitt deutlich besser ab – sowohl inhaltlich als auch in der Informationsqualität.
Menschliche Expertise bleibt unverzichtbar
Das Team stellte ChatGPT 3.5 70 praxisnahe pharmakotherapeutische Anfragen. Die Antworten des Chatbot verglichen die Forschenden mit jenen, die Ärztinnen und Ärzte im Arzneimittelinformationszentrum der MHH zwischen Juni und Oktober 2023 erstellt hatten.

Drei unabhängige, verblindete Gutachter mit unterschiedlicher Berufserfahrung – vom Berufsanfänger bis zum Facharzt für Klinische Pharmakologie – bewerteten die Informationsqualität, inhaltliche Richtigkeit und sprachliche Qualität der Antworten.

Das Ergebnis:
  • Medianwert für die Informationsqualität: 5 («sehr gut») bei ärztlichen Antworten, 2 («schwach») bei ChatGPT
  • Faktisch falsche Angaben: 5,7–17,1 Prozent bei den Ärztinnen und Ärzten, 32,9–55,7 Prozent bei ChatGPT

«Unsere Ergebnisse legen nahe, dass Fachleute der KI hier nach wie vor überlegen sind», sagt Erstautor Benjamin Krichevsky im «Deutschen Ärzteblatt».

Einige Fehler waren besonders gravierend: ChatGPT beschrieb beispielsweise Actrapid (Humaninsulin) als Analgetikum oder empfahl, den INR-Wert (International Normalized Ratio) zur Überwachung direkter oraler Antikoagulanzien zu verwenden.

«Hätten medizinische Fachkräfte solche Ratschläge unkritisch übernommen, hätte dies potenziell gefährliche Folgen haben können – von einer unzureichenden Schmerztherapie bis hin zu einem erhöhten Risiko für Hypoglykämien, Blutungen oder thromboembolische Komplikationen», erläutert Letztautor Heck gegenüber dem «Deutschen Ärzteblatt».
«Our study suggests that to date it must be strongly cautioned against the use of ChatGPT in pharmacotherapy counselling.» Krichevsky et al. (2025)
Zugleich weisen die Autorinnen und Autoren darauf hin, dass nur eine ältere Modellversion (3.5) getestet wurde. Ob neuere Systeme wie GPT-5 oder spezialisierte KI-Modelle künftig bessere Ergebnisse liefern, müsse in weiteren Studien überprüft werden.
Fazit für die Praxis
Die Studie zeigt exemplarisch, dass klinische Pharmakologie mehr erfordert als Textverständnis – sie verlangt Erfahrung, Kontextwissen und Verantwortungsbewusstsein. KI kann bei der Informationssuche unterstützen, ersetzt aber keine ärztliche Entscheidung.

Zur Originalpublikation:

just-medical!
Blegistrasse 5
6340 Baar
Schweiz

www.just-medical.com

Kontakt
info@docinside.ch
+41 41 766 11 55
Redaktionelle Leitung:
Dr. phil. des. Sarah Bourdely
sarah.bourdely@medinside.ch