Springe auf Hauptinhalt Springe auf Hauptmenü Springe auf SiteSearch

Probleme bei der Anwendung von KI in der Medizin

Nach Jahrzehnten eines Schattendaseins ist die Entwicklung von KI inzwischen rasant. Die Anwendungsmöglichkeiten entwickeln sich viel schneller, als man einen regulatorischen Rahmen dafür etablieren kann.

Vieles ist problematisch: Die Ergebnisse der Systeme wirken zwar zunächst sehr überzeugend, da sie ohne Rechtschreibfehler in perfekter Grammatik formuliert sind. Dennoch ist vieles vollständig „halluziniert“, entbehrt also jeglicher Datengrundlage. Ständige Überprüfung und Qualitätskontrollen sind daher zwingend notwendig.

Die Berechnungen laufen in der Regel auf Cloud-Servern, was viele datenschutzrechtliche Bedenken mit sich bringt, und die Systeme trainieren an den eingegebenen Daten, was ebenfalls bedenklich ist.

Man kann sich Szenarien überlegen, um die komplexen ethischen Schwierigkeiten zu verdeutlichen:

·         Sollte man eine KI zum Training alte Patientenakten lesen lassen?

·         Was sollte man tun, wenn die KI dabei Fehldiagnosen und Behandlungsfehler aufdeckt?

·         Dürfen Patienten ihre elektronischen Patientenakten von ChatGPT überprüfen lassen?

Wir kommen nicht umhin, uns intensiv mit solchen Themen zu beschäftigen, betonte Schmitz.

G.-M. Ostendorf, Wiesbaden