Suche nach Personen

plus im Publikationsserver
plus bei BASE
plus bei Google Scholar

Daten exportieren

 

KI in der bildgebenden Diagnostik verantwortet vertrauen : Erfahrungen aus Radiologie und Pathologie ethisch diskutiert

Responsibly trusting artificial intelligence in medical imaging diagnostics : Ethical discussion of experiences in radiology and pathology

Titelangaben

Verfügbarkeit überprüfen

Brandt, Wiebke ; Fritz, Alexis ; Kießig, Angelika ; Lerch, Philipp:
KI in der bildgebenden Diagnostik verantwortet vertrauen : Erfahrungen aus Radiologie und Pathologie ethisch diskutiert.
In: Ethik in der Medizin. (2. September 2025).
ISSN 0935-7335 ; 1437-1618

Volltext

Open Access
[img]
Vorschau
Text (PDF)
Verfügbar unter folgender Lizenz: Creative Commons: Attribution 4.0 International (CC BY 4.0) Creative Commons: Namensnennung (CC BY 4.0) .

Download (324kB) | Vorschau
Volltext Link zum Volltext (externe URL):
https://doi.org/10.1007/s00481-025-00878-1

Kurzfassung/Abstract

In der medizinischen bildgebenden Diagnostik kommen zunehmend Assistenzsysteme zum Einsatz, die auf maschinellem Lernen basieren. Können Ärzt:innen jedoch noch Verantwortung für eine Diagnose übernehmen, deren Zustandekommen sie nicht bis ins Letzte verstehen? Wer blind auf die Technik vertraut, kann wohl schwerlich die epistemische Bedingung von Verantwortung erfüllen.

Qualitative Interviews mit Radiolog:innen und Patholog:innen rund um die Themen „Verantwortung“ und „Vertrauen“ zeigen, dass Ärzt:innen nur dann auf KI-Ergebnisse vertrauen, wenn sie die Möglichkeit zur Kontrolle haben. Kontrolle kann die Grundlage für ein begründetes (im Gegensatz zu blindem ) Vertrauen schaffen. Es lohnt, darüber nachzudenken, ob ein solches begründetes Vertrauen auch die epistemische Bedingung von Verantwortung erfüllen kann: Ärzt:innen müssten dann nicht mehr ein bestimmtes Einzelergebnis der KI überprüfen (können), sondern es wäre ausreichend, dass sie vorher die Expertise von KI für diese Aufgabe überprüft haben und fortlaufend reevaluieren.

Es zeigt sich, dass die skizzierten Herausforderungen keineswegs KI-spezifisch sind: Verantwortungsübernahme trotz mangelndem Wissen begegnet u. a. auch im Bereich der Delegation. Dass innere Prozesse nur schwer nachvollzogen werden können, gilt zudem auch für Menschen und andere technische Geräte.

Um KI verantwortet vertrauen zu können, brauchen Ärzt:innen ein nformationstechnologisches Grundverständnis sowie ein geschärftes Bewusstsein für die jeweiligen Stärken von Mensch und Maschine. Sie sollten generell die Möglichkeit haben, KI-Ergebnisse nachzuvollziehen, allerdings sollte differenziert evaluiert werden, für welche Prozesse Nachvollziehbarkeit notwendig und hilfreich ist. Entwickler:innen von KI könnten durch eine Produkthaftung stärker in die Verantwortung genommen werden.

Weitere Angaben

Publikationsform:Artikel
Sprache des Eintrags:Deutsch
Institutionen der Universität:Theologische Fakultät > Systematische Theologie > Lehrstuhl für Moraltheologie
DOI / URN / ID:10.1007/s00481-025-00878-1
Open Access: Freie Zugänglichkeit des Volltexts?:Ja
Peer-Review-Journal:Ja
Verlag:Springer
Die Zeitschrift ist nachgewiesen in:
Titel an der KU entstanden:Ja
KU.edoc-ID:35591
Eingestellt am: 11. Sep 2025 14:07
Letzte Änderung: 11. Sep 2025 14:07
URL zu dieser Anzeige: https://edoc.ku.de/id/eprint/35591/
AnalyticsGoogle Scholar