00:00
02:03
Ein Kommentar von Prof. Dr. Klaus-Dieter Müller
  • Von der Seele reden

Die Risiken der Künstlichen Intelligenz

Von der Seele reden | Folge 600

06.05.2024

Von der Seele reden – der Kommentar von Prof. Dr. Klaus-Dieter Müller, Politik- und Medienwissenschaftler und Vorstand der „Stiftung: Christliche Werte leben“.

Jeden Donnerstag um 20:45 Uhr im Radio und bereits vorab hier den ausführlichen Kommentar online hören. Mehr Infos zur Stiftung auf www.christlichewerteleben.de


Der Deutsche Ethikrat benennt das Für und Wider der Künstlichen Intelligenz:

„KI zeigt in vielen Fällen eindeutig positive Folgen im Sinne der Erweiterung der Möglichkeiten menschlicher Autorschaft. Im Rahmen der Diffusion, also der Verschmelzung von Technik und Innovationen in die Gesellschaft, ihrer Nutzung und Veralltäglichung kommt es jedoch auch zu Verminderungen menschlicher Entfaltungsmöglichkeiten. Durch den Einsatz digitaler Technologien können aber auch Abhängigkeiten von diesen oder Anpassungsdruck entstehen – und andere, bis dahin etablierte Optionen verschlossen werden.“ 

Der Ethikrat empfiehlt unter anderem:

„Es bedarf der Entwicklung ausgewogener aufgaben-, adressaten- und kontextspezifischer Standards für Transparenz, Erklärbarkeit und Nachvollziehbarkeit und ihrer Bedeutung für Kontrolle und Verantwortung sowie für deren Umsetzung durch verbindliche technische und organisatorische Vorgaben. Dabei muss den Anforderungen an Sicherheit und Schutz vor Missbrauch, Datenschutz sowie dem Schutz von intellektuellem Eigentum und Geschäftsgeheimnissen in angemessener Weise Rechnung getragen werden. Je nach Kontext sind hier unterschiedliche Zeitpunkte (ex ante, ex post, Realtime) sowie unterschiedliche Verfahren und Grade der Offenlegung zu spezifizieren.“ 

Ganz sicher bleiben eine Fülle von Risiken bei der Anwendung Künstlicher Intelligenz. An der Universität Darmstadt wurde daher die „Moral Choice Machine“ entwickelt. Ziel der Studie war zu zeigen, dass eine Künstliche Intelligenz sehr wohl Moral lernen kann. 

Der Philosoph Julian Nida-Rümelin hält dagegen:

„Es wäre ein Irrtum, dass wir uns mit softwaregesteuerten Systemen eine Art Gegenüber erschaffen könnten. Künstliche Partner sozusagen. Nein, auch digitalisierte Maschinen mit der raffiniertesten Software bleiben das, was sie sind: Maschinen. Und umgekehrt darf sich der Mensch nicht aufgrund dieser Softwaresysteme selbst als ein Softwaresystem, also als eine    Maschine interpretieren. Warum? Nur belebte Wesen verfügen über Absichten. Über Bedeutung. Über die Fähigkeit, zu bewerten, und die Fähigkeit, Verantwortung wahrzunehmen. Dies alles kann der Mensch nicht an Software delegieren. Es wäre der untaugliche Versuch, seiner eigenen Verantwortung zu entgehen.“ 

 Für Nida-Rümelin steht im Mittelpunkt des Humanismus die Idee menschlicher Verantwortlichkeit: „Das Geben und Nehmen von Gründen macht den Menschen aus. Er trägt Verantwortung für die Art, wie er lebt, und auch für die Art, wie er mit Techniken umgeht. Technologie schlägt nicht von selbst einen bestimmten Entwicklungspfad ein. Die technologische Entwicklung ist stets eine Wahl. Sie muss verantwortungsbewusst und begründbar getroffen werden. Das ist der Kern des Digitalen Humanismus.“   

Ich wünsche Ihnen eine erfolgreiche Woche, aber bitte bleiben Sie achtsam.