Predigt von ChatGPT: Podiumsdiskussion „Ethik und Künstliche Intelligenz“ in St. Gangolf Trier

1
Facettenreiche Diskussion über "Ethik und Künstliche Intelligenz": Dr. Yvonne Russell (Stiftungsdirektorin der Vereinigten Hospitien), Prof. Dr. Ingo Proft (Theologische Fakultät Trier), Prof. Dr. Eva Martha Eckkrammer (Präsidentin der Universität Trier), Bischof Dr. Stephan Ackermann und Prof. Dr. Benjamin Weyers von der Universität Trier (v.l.n.r.). Foto: Alexander Scheidweiler

TRIER. Künstliche Intelligenz wird mittlerweile in vielen Lebensbereichen angewandt. Die Chancen sind immens, aber auch die Risiken. Im Kontext der Anwendung der neuen Technologie stellen sich grundlegende ethische Fragen, mit denen sich eine hochkarätige Expertenrunde bei einer facettenreichen Podiumsdiskussion mit dem Titel „Ethik und Künstliche Intelligenz“ in der Trierer Markt- und Bürgerkirche St. Gangolf auseinandersetzte.

Von Alexander Scheidweiler

In Vorbereitung der Veranstaltung habe er es einfach mal probiert, so der Trierer Bischof Dr. Stephan Ackermann bei der gestrigen Podiumsdiskussion „Ethik und Künstliche Intelligenz“ im Rahmen der Reihe „Forum Bürgerkirche“, veranstaltet von der Universität Trier und der Theologischen Fakultät Trier. Er habe, so der Bischof weiter, ChatGPT aufgefordert, ihm eine Predigt zu Maria Lichtmess zu verfassen: „Und das, was da rauskam, das konnte man predigen. Das war ok“, so Ackermann unter dem Gelächter der zahlreich anwesenden Besucher in St. Gangolf. Doch da endete das Experiment des Bischofs nicht: In einem zweiten Schritt forderte er die Künstliche Intelligenz auf, eine Predigt zu Maria Lichtmess vor der deutschen Bundestagswahl zu verfassen. Wiederum erhielt er blitzschnell ein überraschend gutes Resultat: „Auch deutsche Bischöfe hätten damit leben können.“

Etwas unheimlich sei ihm die Sache aber doch, hatte Ackermann zuvor gestanden, auch sei das Resultat insoweit intransparent, als die KI ein fertiges textliches Endprodukt auswerfe, dessen Quellen nicht ersichtlich sind. Wer sich auskenne, könne gegebenenfalls erkennen, wo etwas nicht stimme, aber ohne Quellenangaben ist eine kritische Auseinandersetzung mit dem Text nur schwer möglich: „Wo sind die Quellen, die durch diesen Prozess der Zusammenstellung verschleiert werden? Wie geht man damit um?“

Seit den 70er-Jahren veranstalten die Universität und die Theologische Fakultät ein gemeinsames Symposium, das nun erstmalig in einer etwas anderen Form durchgeführt wurde, öffentlich und mit dem Anspruch, ein breiteres Publikum zu erreichen. Moderiert wurde die Diskussion von Prof. Dr. Eva Martha Eckkrammer, Präsidentin der Universität Trier. Neben Ackermann nahmen Prof. Dr. Ingo Proft, Sozialethiker von der Theologischen Fakultät Trier, Dr. Yvonne Russell, Stiftungsdirektorin der Vereinigten Hospitien und Prof. Dr. Benjamin Weyers, Informatiker von der Universität Trier, an der Runde teil, so dass unterschiedliche Perspektiven auf das wichtige Thema deutlich wurden.

Ein hochaktuelles Thema

Dessen Aktualität strich Bernhard Kaster vom Kuratorium Markt- und Bürgerkirche St. Gangolf in seinen einleitenden Worten heraus: Gerade erst am Vortag seien die neuen EU-Regeln zur Künstlichen Intelligenz (der sog. „AI Act“) in Kraft getreten. „Wir können aber auch in der Kirche, gerade hier in Trier, zum Thema ‚Künstliche Intelligenz und Ethik‘ Bezug nehmen auf die katholische Soziallehre.“ Kaster erinnerte in diesem Zusammenhang an die auf den aus Trier stammenden Nestor der katholischen Soziallehre, Oswald v. Nell-Breuning, zurückgehenden drei Grundprinzipien der katholischen Soziallehre – Personalität, Solidarität und Subsidiarität. „Das Prinzip der Personalität meint, dass der Mensch im Mittelpunkt allen Handelns stehen muss“, so Kaster, ein Gedanke, der auch im Umgang mit KI seine Gültigkeit behält.

Bernhard Kaster vom Kuratorium Markt- und Bürgerkirche St. Gangolf führte in den Abend ein. Foto: Alexander Scheidweiler

KI sei im Grunde die Wissenschaft, „Maschinen dazu zu bringen, Dinge zu tun, für die Menschen Intelligenz aufwenden müssen“, sagte Eckkrammer. Die Steigerung der Rechenleistung in den letzten Jahrzehnten habe es ermöglicht, Künstliche Intelligenz in den unterschiedlichsten Bereichen effektiv einzusetzen. Mit selbstlernenden Systemen (sog. „generative KI“) ergäben sich völlig neue Möglichkeiten. Es stelle sich zunehmend die Frage, was ethisch vertretbar sei.

„Wir als Menschen sind ja schließlich sehr gute Problemlöser“, meine Weyers darauf pointiert. Deshalb habe es nahe gelegen zu versuchen, die menschliche Intelligenz mit technischen Mitteln zu reproduzieren und zur Problemlösung zu nutzen. Der Unterschied zwischen dem, was möglich war, als der Gedanke in den 50er- und 60er-Jahren erstmalig verfolgt wurde, sei einerseits die Rechenleistung, zum anderen ein tieferes Verständnis, mit dem aus dem menschlichen Denken Konzepte entwickelt werden, die sich auf die Technik übertragen lassen. Schließlich sei als dritter Faktor das Internet hinzugekommen, das es ermöglicht, auf große Datenmengen aus unterschiedlichen Bereichen zuzugreifen. Auf Nachfrage Eckkrammers erläuterte Weyers, dass der Umstand, dass die KI stets auf bereits vorhandene Daten zugreift, das Risiko beinhaltet, bestehenden „Bias“, also überlieferte Einseitigkeit oder Unausgewogenheit, zu reproduzieren.

Ackermann sah in der Fortführung vorhandener Wissensbestände aber auch eine Chance. Sorge, dass dadurch etwa die negativen Seiten der Kirchengeschichte überbetont werden könnten, habe er nicht. Zur Verfügung stünden ja beispielsweise auch „die ganzen Wissensbestände, was die Theologie der frühen Kirche angeht, die großen Werke derer, die wir die Kirchenväter nennen“. Der Bischof machte deutlich, dass dadurch aus seiner Sicht auch manche Fehleinschätzung korrigiert werden könnte. „Dinge, von denen vielleicht behauptet wurde, dass sie immer schon so waren,“ könnten als historisch bedingt erscheinen, wenn man sich nicht nur auf das Wissen der letzten Jahrzehnte stütze, sondern auch Elemente der Überlieferung einflössen, „die nicht obenauf liegen“.

Intelligenz „zweigleisig betrachten“

Proft gab zu bedenken, dass der Begriff „Künstliche Intelligenz“ bereits eine Verengung darstelle. Intelligenz sei immer „zweigleisig zu betrachten“, sagte der Sozialethiker. Wenn von KI die Rede sei, so beziehe sich der Intelligenzbegriff in diesem Zusammenhang v.a. auf die Analyse und Bewertung von Daten. Intelligenz sei aber Verstand und Vernunft, wozu auch die Suche nach Wahrheit und Kreativität gehöre. „Wenn menschliches Sein sich wirklich ganzheitlich entwickeln soll, dann ist das mehr als bloße Rechenleistung, die wir mit einem Computer vergleichen können.“ Es gehe um eine „ganzheitlich-personale Entwicklung“. Zum Menschsein gehöre, dass man Fehler mache und bereit sei, sich selbst zu erkennen. „Und ob das eine KI jemals kann, sich selbst erkennen, das wäre noch eine Frage.“

Beim noch recht neuen Modell der Telepflege gehe es nicht darum, pflegerische Leistungen von Maschinen durchführen zu lassen, stellte Russell dar. Vielmehr sei der Zweck der aus der Telemedizin entwickelten Technologie, die Kommunikation unter den Pflegerinnen und Pflegern so zu optimieren, dass weniger Wegezeiten anfallen. So könnten etwa pflegerische Hilfskräfte, die die Grundpflege in einem Altenheim übernehmen, per Monitor eine Fachkraft zu Rate ziehen, etwa wenn eine Hautauffälligkeit beobachtet werde, die nur eine Fachkraft diagnostizieren und versorgen darf. „Ganz wichtig: Es wird nicht über die zu pflegende Person gesprochen, sondern mit ihr“, so Russell. Deshalb gebe es bei der verwendeten mobilen Apparatur auch einen „Reverse-Bildschirm“, so dass die zu pflegende Person an dem Gespräch teilnehmen kann. Da hier große Datenmengen einfließen, müssen diese geschützt werden und das Einverständnis der Beteiligten eingeholt werden. Die Vorstellung, Pflege maschinell auszugestalten, sei hingegen eine „Horrorvision“.

Zahlreiche Besucher verfolgten die Diskussion. Foto: Alexander Scheidweiler

Komplexes Problem Datensicherheit

Datensicherheit sei im Kontext von KI ein vielfältiges Problem, erläuterte Weyers. Es gehe um rechtliche Rahmenbedingungen, aber auch um „Selbstverantwortlichkeit“, darum, den Umgang mit den eigenen Daten zu lernen. Es handle sich um eine große Herausforderung, die uns lange begleiten werde. Ihn beunruhigten weniger die Daten, die in Krankenakten gespeichert seien, meine Proft, sondern eher diejenigen, die Menschen freiwillig über sich preisgeben, z.B. indem sie Dinge im Netz bestellen oder Einträge in sozialen Netzwerken verfassen. Hoffnungsvoll stimme ihn aber, dass die EU mit dem neuen Regelwerk des „AI Act“ gesetzgeberisch gehandelt und gefahrenorientiert eine Abstufung von hohem, mittlerem und niedrigem Risiko vorgenommen hat. Russell fügte hinzu, dass Prognosen aufgrund von Gesundheitsdaten „hochproblematisch“ seien. Dabei müsse auch bedacht werden, dass es ein großes wirtschaftliches Interesse geben könnte, auf Basis von Gesundheitsdaten etwa den künftigen Todeszeitpunkt eines Menschen vorauszusagen.

Eine zentrale Frage sei, so Proft: „Wollen wir KI als Mittel nutzen, oder wollen wir KI als Alternative zu persönlicher Verantwortung implementieren?“ Dabei müsse man zwischen unterschiedlichen Anwendungsbereichen differenzieren. Besondere Vorsicht sei in Hochrisikobereichen geboten, etwa in der Diagnostik, wenn bspw. die Überlebenschancen eines Tumor-Patienten eingeschätzt werden müssten, oder im militärischen Bereich, wenn z.B. eine Drohne selbständig entscheide, ob ein Ziel angegriffen werde und ggf. ein Mensch getötet werde. „Wir müssen wirklich die Grenze ziehen, dass die Entscheidung über bestimmte Prozesse letztendlich personale Verantwortung braucht, und bestimmte Funktionen einer Maschine nicht zugeschrieben werden dürfen“, so der Sozialethiker.

Gegen Ende der facettenreichen Gesprächsrunde nutze das Publikum die Möglichkeit, Fragen zu stellen, etwa nach konkurrierenden KI-Modellen, der Kosten-Nutzen-Abschätzung von KI oder möglichen Auswirkungen von KI auf das Funktionieren der Demokratie. Ackermann wies dabei darauf hin, dass die Frage der Zugänglichkeit der neuen Technologie auch eine Gerechtigkeitsfrage darstellt. Erst unlängst habe der Heilige Stuhl dieses Problem in einem Papier adressiert, namentlich hinsichtlich der Frage, ob die Kluft zwischen armen und reichen Ländern vergrößert wird. „Wer hat Zugang, etwa auch im Bereich Gesundheitssektor? Welche Möglichkeiten gibt es, damit die Kluft nicht noch vergrößert wird?“ Darin stecke „eine starke Gerechtigkeitsproblematik“.

Die nächste Veranstaltung in der Reihe „Forum Bürgerkirche“ findet in St. Gangolf am 27. März, um 19.30 Uhr, statt. Zu einer Vortragsveranstaltung mit Empfang wird dann der ehemalige Bundestagspräsident Prof. Dr. Norbert Lammert erwartet. Den Newsletter zur Veranstaltungsreihe kann man hier abonnieren.

Vorheriger ArtikelErfolgreiche Gesellenprüfung: 16 neue Kfz-Mechatroniker in der Region Bitburg
Nächster Artikel++ TANKEN IN LUXEMBURG AKTUELL: Spritpreise für Benzin steigen spürbar ++

1 Kommentar

  1. Die KI ist da und sie wird weltweit weiterentwickelt werde. Das ist Fakt.
    Ob Kreise in Deutschland oder die EU das gut oder schlecht finden, spielt dabei keine Rolle.
    Regulierungen werden nicht funktionieren, werden die Supermächte im Westen wie im Osten eh nicht zulassen oder belächeln.
    Wer klug ist, stellt sich dieser Technologie und lernt sie zu beherrschen und zu nutzen.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein

Die Redaktion behält sich vor, Lesermeinungen zu kürzen. Es besteht kein Anspruch auf die Veröffentlichung Ihrer zugesandten Meinungen. Klarname ist nicht erforderlich. Eine E-Mail-Adresse muss angegeben werden, wird aber nicht veröffentlicht.