Künstliche Intelligenz in der medizinischen Diagnose - Bleibt der Mensch in der Verantwortung?

Ein Diagnose-Algorithmus, der von Hundertausenden Patienten- und Forschungsdaten lernt, kann schon heute in bestimmten Bereichen qualitätvollere medizinische Diagnosen erstellen als ein Arzt. Erst im August machte das Google-Unternehmen Deepmind mit einem Computersystem von sich reden, das Augenkrankheiten so zuverlässig erkennt wie ein menschlicher Experte – allerdings ohne dabei zu ermüden. Der Einsatz von künstlicher Intelligenz erscheint in solchen Fällen ethisch geboten. Allerdings verbinden sich mit solchen Systemen auch ethische Probleme: Sollten wir aus solidarischen Gründen unsere Gesundheitsdaten preisgeben, damit Maschinen wirksamer trainiert werden können? Was passiert, wenn ein so genanntes „Decision Support System“ einen anderen Therapievorschlag macht als der behandelnde Arzt? Können und müssen wir sicherstellen, dass weiterhin ein als Arzt qualifizierter Mensch die Verantwortung für medizinische Entscheidungen trägt? Auf dem Podium werden Experten aus Entwickler-, Anwender- sowie rechtlicher Perspektive die Chancen, Herausforderungen und Grenzen von künstlicher Intelligenz im deutschen Gesundheitssystem diskutieren.

 

Die Veranstaltung findet im Rahmen der interdisziplinären Arbeitsgruppe „Verantwortung: Maschinelles Lernen und Künstliche Intelligenz“ statt.

 

08.10.2018 | Öffentliche Abendveranstaltung

Künstliche Intelligenz in der medizinischen Diagnose - Bleibt der Mensch in der Verantwortung?

<iframe allowtransparency="true" frameborder="0" height="349" src="https://lisa.gerda-henkel-stiftung.de/video_embed.php?nav_id=7984" width="620"></iframe>

© 2024 Berlin-Brandenburgische Akademie der Wissenschaften