Akademievorlesungen „Künstliche Intelligenz: Wie können wir sie verantwortungsvoll gestalten?“

Der Einsatz von KI-Systemen verspricht viele praktische Vorteile und kann sogar Leben retten, zum Beispiel durch den Einsatz von Fahrassistenzsystemen oder in der medizinischen Diagnose. Dennoch ist oft nicht nachvollziehbar, wie ein KI-System zu bestimmten Entscheidungen kommt und wer bei falschen Vorhersagen die Verantwortung trägt. Die Mitglieder der interdisziplinären Arbeitsgruppe (IAG) „Verantwortung: Maschinelles Lernen und Künstliche Intelligenz" stellen in drei Akademievorlesungen die Ergebnisse ihrer Betrachtungen vor.


Akademievorlesung III | 26.04.2021

Verantwortung und Künstliche Intelligenz: Ideen und Ausblick

Der an dieser Stelle gezeigte Inhalt wird von einer externen Quelle eingebunden. Wenn Sie diesen Inhalt anzeigen lassen, werden Verbindungsdaten an Dritte weitergegeben.

KI-Systeme können viele Aufgaben und Probleme besser bzw. präziser lösen als Menschen – je nach Einsatzbereich kann die Anwendung von KI ethisch also geboten und in bestimmten Fällen ein Verzicht darauf unverantwortlich sein. Die steigende Automatisierung durch KI-Systeme erschwert allerdings einen verantwortungsvollen Umgang mit der Technik. Automatisierung birgt nämlich zum einen die Gefahr, dass Menschen die Vorhersagen und Ergebnisse von KI-Systemen unreflektiert oder gar unbewusst annehmen, und zum anderen oft gar nicht mehr nachvollziehen können, wie die Ergebnisse zustande kommen. Das kann wiederum dazu führen, dass Fehler oder ein Bias in den Systemen, z.B. eine ungerechtfertigte Diskriminierung bestimmter Einzelpersonen oder Gruppen, hingenommen bzw. nicht erkannt werden und daher auch nicht behoben werden können. Die wichtigste Grundlage für einen verantwortungsvollen Umgang mit KI ist es daher, dass Menschen die Kompetenz besitzen, die Vorhersagen und Entscheidungen von KI-Systemen einzuordnen und soweit als möglich vor ihrer Ausführung durch die Technik zu überprüfen. Christoph Markschies präsentiert die Arbeitsergebnisse der IAG „Verantwortung: Maschinelles Lernen und Künstliche Intelligenz“, die im Anschluss von IAG-Mitglied Jonas Peters, Ramak Molavi von The Law Technologist und Matthias Spielkamp von Algorithm Watch mit Isabella Hermann diskutiert werden.


Akademievorlesung II | 19.04.2021

Kann es eine 'ethische KI' geben?

Der an dieser Stelle gezeigte Inhalt wird von einer externen Quelle eingebunden. Wenn Sie diesen Inhalt anzeigen lassen, werden Verbindungsdaten an Dritte weitergegeben.

Wenn in Diskussionen von „ethischer KI“ die Rede ist, könnte man mitunter annehmen, dass es neben dem Menschen nun mit der Künstlichen Intelligenz einen weiteren moralischen Akteur gibt. Dem geht der Wunsch voraus, wir Menschen könnten Computer so programmieren, dass sie unsere ethischen Standards besser erfüllen als wir selbst: Maschinen sind schließlich nicht voreingenommen oder auf ihren eigenen Vorteil bedacht. Doch was ist eigentlich das „richtige“ ethische Konzept, mit dem KI arbeiten sollte? Ist das, welches den größten Nutzen für die Mehrheit verspricht, immer das Beste? Und wie stellen wir sicher, dass die Daten, mit denen KI-Systeme lernen, unseren aktuellen ethischen Standards hinsichtlich Gleichberechtigung und Inklusion entsprechen? Diese und weitere Fragen, ob man ethische Konzepte in Algorithmen fassen kann oder ob Maschinen gar aus Daten „ethisches Verhalten“ erlernen können, werden die beiden Mitglieder des Deutschen Ethikrates Frauke Rostalski und Julian Nida-Rümelin im Gespräch mit Akademiepräsident Christoph Markschies diskutieren.


Akademievorlesung I | 12.04.2021

KI-Gestaltung als interdisziplinäre Aufgabe

Der an dieser Stelle gezeigte Inhalt wird von einer externen Quelle eingebunden. Wenn Sie diesen Inhalt anzeigen lassen, werden Verbindungsdaten an Dritte weitergegeben.

Fortschritte auf dem Gebiet der Künstlichen Intelligenz bieten Chancen in allen Lebensbereichen, von der Verbesserung der medizinischen Diagnose bis zur Optimierung von Lieferketten. Oft werden KI-Anwendungen daher von der Wirtschaft als „transformativ" oder „disruptiv" gepriesen, ohne die möglichen negativen Auswirkungen für die Gesellschaft zu berücksichtigen. Denn bei allem Potenzial bergen KI-Technologien auch Risiken, beispielsweise bei der rechtlichen und ethischen Verantwortung, bei der Regulierung, bei Voreingenommenheit und Diskriminierung oder beim Datenschutz. Deswegen sollte sich die Öffentlichkeit im Allgemeinen und vor allem auch die öffentliche Forschung von Beginn an mit den ethischen Herausforderungen von KI-Systemen auseinandersetzen. Warum es zusammen mit Computerwissenschaftler*innen, Mathematiker*innen und Ingenieur*innen auch insbesondere Aufgabe der Ethik, Philosophie sowie der Rechts- und Sozialwissenschaften ist, die Grundlagen- und Innovationsforschung gemeinsam verantwortungsvoll zu gestalten, diskutieren Sabine Ammon und Aljoscha Burchardt mit Isabella Hermann.

© 2024 Berlin-Brandenburgische Akademie der Wissenschaften