Titelangaben
Brandt, Wiebke ; Fritz, Alexis ; Kießig, Angelika ; Lerch, Philipp:
KI in der bildgebenden Diagnostik verantwortet vertrauen : Erfahrungen aus Radiologie und Pathologie ethisch diskutiert.
In: Ethik in der Medizin. (2. September 2025).
ISSN 0935-7335 ; 1437-1618
Volltext
|
Text (PDF)
Verfügbar unter folgender Lizenz: Creative Commons: Namensnennung (CC BY 4.0)
.
Download (324kB) | Vorschau |
|
|
|
Link zum Volltext (externe URL): https://doi.org/10.1007/s00481-025-00878-1 |
Kurzfassung/Abstract
In der medizinischen bildgebenden Diagnostik kommen zunehmend Assistenzsysteme zum Einsatz, die auf maschinellem Lernen basieren. Können Ärzt:innen jedoch noch Verantwortung für eine Diagnose übernehmen, deren Zustandekommen sie nicht bis ins Letzte verstehen? Wer blind auf die Technik vertraut, kann wohl schwerlich die epistemische Bedingung von Verantwortung erfüllen.
Qualitative Interviews mit Radiolog:innen und Patholog:innen rund um die Themen „Verantwortung“ und „Vertrauen“ zeigen, dass Ärzt:innen nur dann auf KI-Ergebnisse vertrauen, wenn sie die Möglichkeit zur Kontrolle haben. Kontrolle kann die Grundlage für ein begründetes (im Gegensatz zu blindem ) Vertrauen schaffen. Es lohnt, darüber nachzudenken, ob ein solches begründetes Vertrauen auch die epistemische Bedingung von Verantwortung erfüllen kann: Ärzt:innen müssten dann nicht mehr ein bestimmtes Einzelergebnis der KI überprüfen (können), sondern es wäre ausreichend, dass sie vorher die Expertise von KI für diese Aufgabe überprüft haben und fortlaufend reevaluieren.
Es zeigt sich, dass die skizzierten Herausforderungen keineswegs KI-spezifisch sind: Verantwortungsübernahme trotz mangelndem Wissen begegnet u. a. auch im Bereich der Delegation. Dass innere Prozesse nur schwer nachvollzogen werden können, gilt zudem auch für Menschen und andere technische Geräte.
Um KI verantwortet vertrauen zu können, brauchen Ärzt:innen ein nformationstechnologisches Grundverständnis sowie ein geschärftes Bewusstsein für die jeweiligen Stärken von Mensch und Maschine. Sie sollten generell die Möglichkeit haben, KI-Ergebnisse nachzuvollziehen, allerdings sollte differenziert evaluiert werden, für welche Prozesse Nachvollziehbarkeit notwendig und hilfreich ist. Entwickler:innen von KI könnten durch eine Produkthaftung stärker in die Verantwortung genommen werden.
Weitere Angaben
| Publikationsform: | Artikel |
|---|---|
| Sprache des Eintrags: | Deutsch |
| Institutionen der Universität: | Theologische Fakultät > Systematische Theologie > Lehrstuhl für Moraltheologie |
| DOI / URN / ID: | 10.1007/s00481-025-00878-1 |
| Open Access: Freie Zugänglichkeit des Volltexts?: | Ja |
| Peer-Review-Journal: | Ja |
| Verlag: | Springer |
| Die Zeitschrift ist nachgewiesen in: | |
| Titel an der KU entstanden: | Ja |
| KU.edoc-ID: | 35591 |
Letzte Änderung: 11. Sep 2025 14:07
URL zu dieser Anzeige: https://edoc.ku.de/id/eprint/35591/
im Publikationsserver
Creative Commons: Namensnennung (CC BY 4.0)