Wie erkennt man eine verlässliche KI in der Medizin? Mit dieser Frage beschäftigt sich die diesjährige CARS-Konferenz
(Computer Assisted Radiology and Surgery), die vom 17. bis 20. Juni 2025 in Berlin stattfindet. An den Workshops beteiligt sind unter anderem die
Deutsche Gesellschaft für Chirurgie und die
Deutsche Röntgengesellschaft.
Im Zentrum steht die Entwicklung eines neuen Vertrauenssiegels für KI-Modelle, die in Diagnose, Therapie und Chirurgie zum Einsatz kommen.
Wenn Algorithmen mitentscheiden
Ob in der Radiologie, Onkologie oder bei roboterassistierten Operationen – Künstliche Intelligenz unterstützt Ärztinnen und Ärzte immer häufiger bei klinischen Entscheidungen.
Besonders sogenannte Model Guided Medicine gewinnt an Bedeutung: KI-Systeme, die patientenspezifische Daten wie Bildgebung, genetische Profile oder Laborwerte verarbeiten und darauf basierend Therapieempfehlungen liefern.
Doch wie lässt sich prüfen, ob ein KI-Modell zuverlässig arbeitet und auf evidenzbasierten Quellen beruht – oder ob es intransparent, unausgereift oder gar fehleranfällig ist?
Ein Siegel für vertrauenswürdige KI
Die Lösung soll ein sogenanntes Model Identity Certificate (MIC) bringen – ein neuartiges Siegel, das nachweist, dass ein medizinisches KI-Modell vertrauenswürdig ist.
«Wir können uns bei diesem sensiblen Thema nicht allein auf Firmen verlassen, die KI-Anwendungen herstellen und dabei vielleicht kommerzielle Absichten verfolgen.» Prof. Dr. Heinz Lemke, CARS-Organisator.
Ziel der interdisziplinären Arbeitsgruppe sei es, eine praxisnahe Bewertungsgrundlage zu schaffen – sowohl für klinische Anwenderinnen und Anwender als auch für Behörden wie die US-amerikanische FDA oder nationale Zulassungsstellen.
Die CARS-Konferenz findet zum 40. Mal statt. Zur Jubiläumsveranstaltung in Berlin werden mehr als 400 Teil-nehmende aus 30 Ländern aus den Fachgebieten Chirurgie, Radiologie, Ingenieurwesen, Informatik und Krankenhaus-Architektur erwartet.