Hybride Mensch-KI-Diagnosen steigern Genauigkeit in der Medizin
Ein internationales Forschungsteam unter Leitung des Max-Planck-Instituts für Bildungsforschung hat erstmals gezeigt, dass die Kombination aus menschlicher Expertise und Künstlicher Intelligenz (KI) zu deutlich genaueren medizinischen Diagnosen führt. Die Studie, durchgeführt mit Partnern vom Human Diagnosis Project (San Francisco) und dem CNR-ISTC (Rom), unterstreicht die Stärke hybrider Diagnose-Kollektive, die menschliche Fachkräfte und KI-Modelle wie ChatGPT-4 oder Claude 3 vereinen.

Diagnosefehler sind ein zentrales Problem in der Medizin. KI-Systeme bieten Unterstützung, machen jedoch andere Fehler als Menschen, etwa durch „Halluzinationen“ oder Voreingenommenheit. Die Forscher analysierten über 2.100 realitätsnahe klinische Fallvignetten und verglichen mehr als 40.000 Diagnosen von Medizinern und fünf KI-Modellen. Die Ergebnisse zeigen: KI-Kollektive übertreffen oft menschliche Diagnostiker, doch Menschen glänzen in Fällen, in denen KI versagt. Hybride Kollektive, die beide kombinieren, erzielen die höchste Genauigkeit, da sich menschliche und maschinelle Fehler komplementär ausgleichen.
Selbst das Hinzufügen eines KI-Modells zu einer Gruppe von Diagnostikern verbessert die Ergebnisse signifikant, besonders bei komplexen Fragestellungen. Die Studie, Teil des EU-finanzierten HACID-Projekts, sieht großes Potenzial für hybride Kollektive, etwa in Regionen mit eingeschränktem Zugang zu medizinischer Versorgung oder in anderen Bereichen wie Klimapolitik.
Grenzen der Studie liegen in der Nutzung textbasierter Vignetten statt realer Patienten und der Fokussierung auf Diagnosen, nicht Behandlungen. Zudem sind Akzeptanz, ethische Fragen und Risiken wie Bias weiter zu prüfen. Dennoch betonen die Forscher, dass hybride Mensch-KI-Kollektive die Patientensicherheit erhöhen und die Gesundheitsversorgung gerechter gestalten können.
Original Paper:
Human–AI collectives most accurately diagnose clinical vignettes | PNAS
Lesen Sie auch:
NACHGEFRAGT: “Erstaunlicherweise repliziert ChatGPT gängige Stereotypen” – MedLabPortal
Redaktion: X-Press Journalistenbüro GbR
Gender-Hinweis. Die in diesem Text verwendeten Personenbezeichnungen beziehen sich immer gleichermaßen auf weibliche, männliche und diverse Personen. Auf eine Doppel/Dreifachnennung und gegenderte Bezeichnungen wird zugunsten einer besseren Lesbarkeit verzichtet.