Künstliche Intelligenz erkennt kein ‚Nein‘ – und das ist ein großes Problem für medizinische Anwendungen
Künstliche Intelligenz hat Schwierigkeiten, Negationen zu erkennen – ein ernstes Problem für medizinische Bots. Falsch interpretierte Diagnosen könnten zu schwerwiegenden Fehlern führen. Wie können wir dieses Problem lösen?

In den letzten Jahren hat Künstliche Intelligenz (KI) beeindruckende Fortschritte in der Analyse von Bild- und Textdaten gemacht, insbesondere durch Vision-Language-Modelle (VLMs), die Bilder und Texte miteinander verknüpfen.
Diese Modelle haben vielversprechende Anwendungen im medizinischen Bereich, indem sie dabei helfen, medizinische Bilder wie Röntgenaufnahmen oder MRT-Scans zu analysieren und mit entsprechenden Textbeschreibungen zu verbinden, um medizinisches Personal bei Diagnosen zu unterstützen.
Doch eine bedeutende Schwäche der heutigen KI-Systeme, die oft übersehen wird, ist ihre Unfähigkeit, Negationen korrekt zu erkennen.
Die Bedeutung der Negation in der medizinischen Diagnose
In der Medizin ist die präzise Unterscheidung zwischen Vorhandensein und Fehlen von Symptomen oder Krankheitszeichen von entscheidender Bedeutung.
Die Fähigkeit, „nicht“ oder „keine Anzeichen von“ korrekt zu erkennen, ist in der medizinischen Bildanalyse unerlässlich.
Solche Fehler können dazu führen, dass Patienten unnötige Behandlungen erhalten oder, noch schlimmer, dass eine tatsächliche Erkrankung übersehen wird.
Fehlerquote bei der Negationserkennung
Aktuelle Vision-Language-Modelle, die Bilder und Text kombinieren, haben erhebliche Schwierigkeiten bei der korrekten Interpretation von Negationen.
In Tests, bei denen die Modelle Bilder auf Basis von Vorhandensein oder Abwesenheit von bestimmten Objekten durchsuchen mussten, zeigten sie eine hohe Genauigkeit, wenn es darum ging, Objekte zu identifizieren. Doch wenn sie nach Bildern suchen sollten, die ein bestimmtes Objekt nicht enthalten, sank die Genauigkeit deutlich.
Dies liegt daran, dass diese Modelle in der Regel auf Bestätigung und Positivbejahung ausgerichtet sind. Das bedeutet, dass sie eher dazu neigen, Vorhandensein zu bestätigen, als das Fehlen von etwas zu erkennen – ein Problem, das gerade in der medizinischen Bildanalyse zu schwerwiegenden Fehlern führen kann.
Die ethische Dimension und die Notwendigkeit präziser KI-Modelle
In der medizinischen Anwendung von KI-Technologien ist es besonders wichtig, die Bedeutung von Negationen zu verstehen und korrekt umzusetzen.
Ein Modell, das nicht in der Lage ist, zu erkennen, dass „keine Anzeichen von Lungenentzündung“ vorliegen, könnte fälschlicherweise ein positives Ergebnis liefern, was zu unnötigen Behandlungen oder sogar zu falschen medizinischen Entscheidungen führen könnte.
Lösungsansätze und Verbesserungen
Um die Probleme mit der Negationserkennung zu adressieren, gibt es bereits erste Ansätze. Eine mögliche Lösung könnte darin bestehen, KI-Modelle gezielt mit Datensätzen zu trainieren, die Negationen enthalten.
So könnten die Modelle lernen, die Bedeutung von „nicht“ oder „keine“ in einem medizinischen Kontext korrekt zu erkennen und zu verarbeiten. Allerdings handelt es sich hierbei noch um einen ersten Schritt.
Es ist wichtig, dass zukünftige Entwicklungen nicht nur die Fähigkeit der KI zur Negationserkennung verbessern, sondern auch ihre Fähigkeit, den Kontext einer Situation zu verstehen und korrekt darauf zu reagieren.

Was nun:
Die Unfähigkeit von KI-Modellen, Negationen korrekt zu interpretieren, stellt ein erhebliches Hindernis für den breiten Einsatz dieser Technologien in der Medizin dar. Trotz der Fortschritte, die bei der Verbesserung der negativen Erkennungsfähigkeiten gemacht wurden, ist noch viel Arbeit nötig.
Nur so kann die Künstliche Intelligenz als sicheres und effizientes Hilfsmittel in der medizinischen Diagnose und Behandlung eingesetzt werden.
Quelle
Alhamoud, K., Alshammari, S., Tian, Y., Li, G., Torr, P., Kim, Y., & Ghassemi, M. (2025). Vision-Language Models Do Not Understand Negation. arXiv.