Interview mit Prof. Dr. Claudia Paganini
Wir haben mit Prof. Dr. Claudia Paganini, die Medienethik an der Hochschule für Philosophie in München lehrt, über das spannende Thema der künstlichen Intelligenz (KI) gesprochen und darüber, welche Rolle Regulation und Training spielen.
FT: Wie moralisch kann eine Maschine sein? Welche Verantwortung tragen Entwickler und Nutzer von KI-Systemen in Bezug auf ethische Fragestellungen?
Dr. Claudia Paganini: „Zunächst ist festzuhalten, dass eine Maschine nur so unmoralisch sein kann, wie sie programmiert wurde. Da sie keine eigene Absicht hat oder eine Chance, sich selbstständig zu verhalten, zumindest zum aktuellen Zeitpunkt. Das wird sich in Zukunft möglicherweise ändern. Durch Open Machine Learning werden Maschinen und Roboter mit der Zeit befähigt, nicht nur zu lernen, wie man am besten einen Apfel oder Ähnliches aufhebt, sondern auch eigenständig mit Menschen zu interagieren. Und in diesem Moment können sie aus ihrem moralischen oder nicht moralischen Verhalten schöpfen, so, wie sie programmiert wurden. Das wird tatsächlich eine neue Qualität der maschinellen Prozesse mit sich bringen. Deshalb bin ich der Meinung, wir sollten das regeln, zum Beispiel mit einer Art Red-Flag-System. Man reguliert somit nicht in dem Sinne, dass man viel im Verhalten der Maschine von vornherein verbietet, da man sich so die Möglichkeiten verbauen würde, die das offene Lernen mitbringt. Mit einem Red-Flag-System würde man vielmehr Grenzen aufzeigen, die eine Maschine nicht überschreiten darf. Oder man könnte versuchen, normative Prinzipien aufzustellen und zum Beispiel einen moralischen Kompass zu entwickeln, einen kategorischen Imperativ in die Maschinensprache übersetzen beispielsweise. Somit könnte das offene maschinelle Lernen bereits mit einer normativen Regelung passieren, die im Grunde die moralische Qualität des Handelns lenkt. Die Ethik der KI wird von mehreren Traditionen bedient; die Medienethik, die Informationsethik, aber auch technische Ethik. Und in der technischen Ethik wird schon lange darüber diskutiert, wer die Verantwortung für negative Folgen trägt, die Produktentwickler oder die -nutzer.“
Besteht aus Ihrer Sicht ein Widerspruch zwischen Gott respektive Religion und künstlicher Intelligenz?
„In unserem heutigen Verständnis des Religiösen: Nein, es besteht kein Widerspruch. In einer vergangenen Zeit wäre es etwas anderes gewesen, in der die Menschen von Gott erwarteten, von Krankheit geheilt oder durch seinen Schutz vor Hochwasserkatastrophen verschont zu bleiben. So ist es heutzutage in unserer westlichen Welt nicht mehr. Wir haben eine natürliche und eine spirituelle Welt, die koexistieren, was meiner Meinung nach von großer Bedeutung ist. Gott ist im Grunde etwas Privates. Und in einer solchen Logik gibt es keinen Widerspruch zum Glauben an Gott. Wenn ich Gott als mächtig und aktiv sehe, der in die Welt eingreift und Entscheidungen trifft, dann wäre folglich alles in Ordnung. Man könnte sogar argumentieren, dass die Entwicklung der KI eine Konsequenz aus der menschlichen Schöpfung und somit göttlichen Ursprungs ist. Interessanterweise ist der Vatikan von Anfang an offen gewesen für das Internet und Neue Medien. Insofern überraschend, da die katholische Kirche ja sonst eher als konservativ und vorsichtig gilt. Man hat in diesem Feld die Zeichen der Zeit erkannt und beispielsweise während Corona sehr schnell Gottesdienste und sogar Begräbnisse angeboten, die per Stream in die Welt übertragen wurden.“
„In der technischen Ethik wird schon lange darüber diskutiert, wer die Verantwortung für negative Folgen trägt, die Produktentwickler oder die -nutzer.“
Reicht die soeben beschlossene EU-Richtlinie zur Regulierung von KI aus Ihrer Sicht aus oder geht sie nicht weit genug?
„Ich finde die Initiative auf jeden Fall gut und halte es für wichtig und richtig, dass die Europäische Union versucht, die Rolle als Vorreiter einzunehmen, denn es kann eine Chance sein, in elementaren Fragen und Problemstellungen aktiv mitzudiskutieren und zu gestalten. Dieses Gesetz ist sicher eine gute Basis und nah an der aktuellen Lebensrealität, aber der ganze Bereich entwickelt sich in einem rasanten Tempo und da ist es unerlässlich, Schritt zu halten. Es ist ebenso wichtig, das Ganze nicht als starres Konstrukt zu sehen, sondern man braucht Raum, um auf zukünftige Entwicklungen reagieren zu können. Aber das ist ja auch nichts Neues und etwas, mit dem Strafverfolgungsbehörden historisch gesehen seit jeher zu tun haben. Wenn man heute 300 Jahre alte Gesetzestexte liest, muss man ab und zu schmunzeln. Die Originalität des Gesetzes besteht daher darin, sich an Probleme anzupassen. Das ist es, was wir seit Jahrhunderten tun, deshalb ist es also nicht besonders neu oder unberechenbar. Allerdings wirft das Tempo, mit dem die KI sich entwickelt, eine völlig neue Dimension auf. Auf der Habenseite jedoch, durch die Vorteile von KI, können neue Möglichkeiten entwickelt werden, um dieses Problem anzugehen. Wir können KI beispielsweise nutzen, um die Richtlinien zu erweitern und anzupassen, personelle Ressourcen zu sparen und so weiter. Überwachung und Kontrolle werden durch KI möglich sein.“
Viele Menschen haben Sorge vor dystopischen Zukunftsaussichten à la Matrix oder Terminator. Teilen Sie diese Bedenken oder ist die Angst unbegründet?
„Hollywood hat eine Vielzahl von Szenarien in die Kinos gebracht – ich bin jedoch optimistisch, dass es nicht dazu kommen wird. Aber wir müssen natürlich Sicherheit in die Prozesse bringen und schon heute den Zeitenwandel begreifen. Nehmen Sie zum Beispiel Deepfakes, die inzwischen schon so gut sind, dass es selbst Experten schwerfällt, die Originalität zu erkennen. Dadurch wird es einfacher, Menschen zu manipulieren, und zwar im großen Maßstab, weshalb wir hier besonders vorsichtig sein müssen. Jedoch nicht, weil KI oder eine neue Technik gefährlich ist, sondern weil sie missbraucht werden kann. Wo wir wieder bei der Verantwortung des Nutzers wären.“
Welche Zukunftsvisionen haben Sie für die ethische Entwicklung und Nutzung von KI?
„Im Idealfall kann KI helfen, problematische Begrenzungen zu überwinden. Es gibt epistemische Ungerechtigkeiten, die sich vielleicht korrigieren lassen, wie beispielsweise unterrepräsentierten Stimmen mehr Gehör zu verschaffen, was wiederum zu mehr Gleichberechtigung führt. Das kann aber nur passieren, wenn die künstliche Intelligenz sehr gut trainiert ist. Andernfalls befürchte ich, dass neue Technologien die Logik und Problematiken des alten Systems einfach übernehmen, weiter verstärken und verbessern werden. Außerdem sehe ich eine Chance, dass uns KI im tagtäglichen Leben entlastet und dadurch mehr Freizeit und Lebensqualität entsteht. Diese Zeit könnte man nutzen, um das Gemeinwohl zu stärken oder sich fortzubilden, womöglich, um Philosophie zu studieren.“