Medizin: Neue Messmethoden sollen versteckte Vorurteile in KI-Sprachmodellen aufdecken

von | Apr. 22, 2026 | Digitalisierung, Forschung

Sprachmodelle wie ChatGPT sind nicht neutral. Sie nehmen im Training unbewusst Vorurteile zu Geschlecht und Ethnie auf und verstärken diese. Der KI-Forscher Oskar van der Wal hat in seiner Doktorarbeit neue Messmethoden entwickelt, mit denen sich solche versteckten Verzerrungen besser erkennen und verringern lassen.

Bisherige Messverfahren seien oft zu abstrakt und berücksichtigten nicht die reale Anwendung, so van der Wal. In praxisnahen Tests, etwa mit medizinischen Fallbeschreibungen, bei denen nur die Ethnie des Patienten variiert wurde, zeigten sich subtile, aber konsistente Unterschiede in Diagnosen und Risikobewertungen. Diese Unterschiede blieben in Standardtests unsichtbar.

Die Untersuchung zeigt auch, wie Vorurteile während des Trainings entstehen: Das Modell lernt statistische Zusammenhänge zwischen Wörtern (z. B. „Arzt“ mit „er“, „Krankenschwester“ mit „sie“) und speichert diese Muster immer gezielter ab.

KI hat das Potenzial, die Krankheitsdiagnostik zu revolutionieren, indem sie präzisere Diagnosen ermöglicht, die Früherkennung verbessert und Ärzte unterstützt. (Credits: Alexandra Koch/pixabay)
KI hat das Potenzial, die Krankheitsdiagnostik zu revolutionieren, indem sie präzisere Diagnosen ermöglicht, die Früherkennung verbessert und Ärzte unterstützt. (Credits: Alexandra Koch/pixabay)

Van der Wal testete gezielte Eingriffe an bestimmten Stellen im Modell. Dabei konnte die Verzerrung deutlich reduziert werden, ohne dass die allgemeine Leistungsfähigkeit des Modells nennenswert litt.

Die Arbeit trägt den Titel „Taking a Step Back: Measuring and Mitigating Bias in Language Models“. Oskar van der Wal verteidigt seine Dissertation am 29. April 2026 an der Universität Amsterdam. Die Betreuung erfolgte durch Dr. K. Schulz und Dr. W. H. Zuidema.

Die Studie unterstreicht die Notwendigkeit, KI-Entwicklung auf mehreren Ebenen – Daten, Training, Modellarchitektur und Einsatz – verantwortungsvoll zu gestalten.

Original Paper:

Oskar van der Wal, 2026, ‚Taking a Step Back: Measuring and Mitigating Bias in Language Models‘. Supervisors: Dr K. Schulz.and Dr W.H. Zuidema.

Lesen Sie auch:

NACHGEFRAGT: „Erstaunlicherweise repliziert ChatGPT gängige Stereotypen“ – MedLabPortal


Redaktion: X-Press Journalistenbüro GbR

Gender-Hinweis. Die in diesem Text verwendeten Personenbezeichnungen beziehen sich immer gleichermaßen auf weibliche, männliche und diverse Personen. Auf eine Doppel/Dreifachnennung und gegenderte Bezeichnungen wird zugunsten einer besseren Lesbarkeit verzichtet.

X
Ich bin Invi, wie kann ich dir helfen?