Während KI-Systeme in der
Radiologie oder der
Dermatologie teils mit Fachleuten mithalten, zeigt sich in der Pharmakotherapieberatung ein anderes Bild.
Forschende der Medizinischen Hochschule Hannover (MHH) haben im «
British Journal of Clinical Pharmacology» untersucht, wie gut ChatGPT auf reale pharmakologische Anfragen reagiert. Dabei müssen patientenspezifische Faktoren wie Alter, Komorbiditäten oder Nieren- und Leberfunktion analysiert und sprachlich präzise Therapievorschläge formuliert werden.
Das Ergebnis ist eindeutig: Die menschliche Expertise schnitt deutlich besser ab – sowohl inhaltlich als auch in der Informationsqualität.
Menschliche Expertise bleibt unverzichtbar
Das Team stellte ChatGPT 3.5 70 praxisnahe pharmakotherapeutische Anfragen. Die Antworten des Chatbot verglichen die Forschenden mit jenen, die Ärztinnen und Ärzte im Arzneimittelinformationszentrum der MHH zwischen Juni und Oktober 2023 erstellt hatten.
Drei unabhängige, verblindete Gutachter mit unterschiedlicher Berufserfahrung – vom Berufsanfänger bis zum Facharzt für Klinische Pharmakologie – bewerteten die Informationsqualität, inhaltliche Richtigkeit und sprachliche Qualität der Antworten.
Das Ergebnis:
- Medianwert für die Informationsqualität: 5 («sehr gut») bei ärztlichen Antworten, 2 («schwach») bei ChatGPT
- Faktisch falsche Angaben: 5,7–17,1 Prozent bei den Ärztinnen und Ärzten, 32,9–55,7 Prozent bei ChatGPT
Einige Fehler waren besonders gravierend: ChatGPT beschrieb beispielsweise Actrapid (Humaninsulin) als Analgetikum oder empfahl, den INR-Wert (International Normalized Ratio) zur Überwachung direkter oraler Antikoagulanzien zu verwenden.
«Hätten medizinische Fachkräfte solche Ratschläge unkritisch übernommen, hätte dies potenziell gefährliche Folgen haben können – von einer unzureichenden Schmerztherapie bis hin zu einem erhöhten Risiko für Hypoglykämien, Blutungen oder thromboembolische Komplikationen», erläutert Letztautor Heck gegenüber dem «Deutschen Ärzteblatt».
«Our study suggests that to date it must be strongly cautioned against the use of ChatGPT in pharmacotherapy counselling.» Krichevsky et al. (2025)
Zugleich weisen die Autorinnen und Autoren darauf hin, dass nur eine ältere Modellversion (3.5) getestet wurde. Ob neuere Systeme wie GPT-5 oder spezialisierte KI-Modelle künftig bessere Ergebnisse liefern, müsse in weiteren Studien überprüft werden.
Fazit für die Praxis
Die Studie zeigt exemplarisch, dass klinische Pharmakologie mehr erfordert als Textverständnis – sie verlangt Erfahrung, Kontextwissen und Verantwortungsbewusstsein. KI kann bei der Informationssuche unterstützen, ersetzt aber keine ärztliche Entscheidung.