ChatGPT verschreibt in der Notfallversorgung zu viel

von | Okt 8, 2024 | Allgemein, Digitalisierung, Forschung, Gesundheit

Wenn ChatGPT in der Notaufnahme eingesetzt würde, könnte es einigen Patienten unnötige Röntgenaufnahmen und Antibiotika empfehlen und andere einweisen, die keine Krankenhausbehandlung benötigen. Zu diesem Ergebnis gelangt eine neue Studie der UC San Francisco.

In der aktuellen Studie forderte Williams das KI-Modell zu einer komplexeren Aufgabe heraus: Es sollte die Empfehlungen geben, die ein Arzt nach der Erstuntersuchung eines Patienten in der Notaufnahme ausspricht. Dazu gehört die Entscheidung, ob der Patient eingewiesen, geröntgt oder gescannt werden soll oder ob Antibiotika verschrieben werden sollen.  

KI in der Notfallmedizin - derzeit noch nicht ausgereift. Symbolbild. Credits: Pixabay
KI in der Notfallmedizin – derzeit noch nicht ausgereift. Symbolbild. Credits: Pixabay

AI-Modell ist weniger genau als ein Arzt 

Für jede der drei Entscheidungen stellte das Team einen Satz von 1.000 ED-Besuchen aus einem Archiv von mehr als 251.000 Besuchen zusammen, um sie zu analysieren. Die Datensätze wiesen das gleiche Verhältnis von “Ja”- zu “Nein”-Antworten für Entscheidungen über Aufnahme, Radiologie und Antibiotika auf, wie sie in der gesamten Notaufnahme von UCSF Health zu finden sind.

Mithilfe der sicheren generativen KI-Plattform der UCSF, die einen umfassenden Schutz der Privatsphäre bietet, gaben die Forscher die Notizen der Ärzte zu den Symptomen und Untersuchungsergebnissen der einzelnen Patienten in ChatGPT-3.5 und ChatGPT-4 ein. Anschließend testeten sie die Genauigkeit jedes Satzes mit einer Reihe zunehmend detaillierterer Aufforderungen.  

Insgesamt neigten die KI-Modelle dazu, häufiger Dienstleistungen zu empfehlen, als nötig war. ChatGPT-4 war 8 % ungenauer als niedergelassene Ärzte und ChatGPT-3.5 war 24 % ungenauer.  

Postdoktorand Chris Williams, Hauptautor der Studie, sagte, die Tendenz der KI, zu viele Medikamente zu verschreiben, könnte darauf zurückzuführen sein, dass die Modelle im Internet trainiert wurden, wo seriöse medizinische Beratungsseiten nicht darauf ausgelegt sind, medizinische Notfallfragen zu beantworten, sondern die Leser zu einem Arzt zu schicken, der das kann.

“Diese Modelle sind nahezu perfekt darauf abgestimmt, zu sagen: ‘Suchen Sie einen Arzt auf’, was aus der Sicht der allgemeinen öffentlichen Sicherheit völlig richtig ist”, sagte er. “Aber in der Notaufnahme, wo unnötige Eingriffe den Patienten schaden, die Ressourcen belasten und zu höheren Kosten für die Patienten führen können, ist es nicht immer angebracht, auf Nummer sicher zu gehen”

Williams betonte, dass Modelle wie ChatGPT bessere Rahmenbedingungen für die Bewertung klinischer Informationen benötigen, bevor sie für die Notaufnahme geeignet sind. 

Original paper:

Evaluating the use of large language models to provide clinical recommendations in the Emergency Department | Nature Communications

Lesen Sie auch:

ChatGPT kann für präoperative MRT-Diagnose von Hirntumoren nützlich sein – MedLabPortal

Schlauer als ChatGPT: MEVIS Forschende entwickeln Basismodell für Biomarker-Erkennung – MedLabPortal


Die Beiträge im News-Bereich werden erstellt vom

X-Press Journalistenbüro GbR
Schwimmbadstr. 29
37520 Osterode am Harz

Web: www.xpress-journalisten.com
E-Mail: redaktion(at)med-lab-portal.de

Gender-Hinweis. Die in diesem Text verwendeten Personenbezeichnungen beziehen sich immer gleichermaßen auf weibliche, männliche und diverse Personen. Auf eine Doppel/Dreifachnennung und gegenderte Bezeichnungen wird zugunsten einer besseren Lesbarkeit verzichtet