
Theologe: Künstliche Intelligenz braucht klare Regeln
Nicht nur Künstliche Intelligenz (KI) benötigt internationale Regeln, auch die Menschen brauchen mehr ethische Bildung, um sorgsam mit KI umgehen zu können: Darauf hat der Sozial - und Wirtschaftsethiker Elmar Nass in einem Interview mit der Kooperationsredaktion der österreichischen Kirchenzeitungen (Mittwoch) aufmerksam gemacht. Zwar könne die KI in Wissenschaft, Technik und Medizin bereits Arbeitsprozesse optimieren, die Gefahr lauere aber dort, wo die Verantwortung über das eigene Handeln einem Roboter oder Algorithmen überantwortet werde. Dahinter stehe zwar der verständliche Wunsch, die menschliche Fehlerhaftigkeit zu reduzieren und durch eine mathematisch perfekte Entscheidung zu ersetzen. Der Mensch sei aber mehr als eine Ansammlung verschiedener Daten, betonte der Experte.
"Wenn man blind nur mathematisch exakten Berechnungen vertraut, spielen Menschenwürde und Moral keine Rolle mehr und es besteht die Gefahr, dass es keine rationalen und demokratischen Diskussionen mehr braucht", warnt Nass, der an der Kölner Hochschule für Katholische Theologie (KHKT) lehrt. Anders als die KI verfüge der Mensch über eine Seele und könne "ehrliche menschliche Begegnungen" haben, so der katholische Priester.
Damit ein verantwortungsvoller Umgang mit der KI nicht kippt, braucht es laut Nass eine ethische Bildung in Forschung und Technik über das Menschenbild, Werteverständnis, Verantwortung, Freiheit und ein Gefahrenbewusstsein. "Allein auf Ethik zu setzen, ist allerdings zu wenig, denn es kann immer Menschen geb, die KI nutzen und weiterentwickeln, um Profit und Macht zu haben." Der Theologe fordert daher, ähnlich wie Papst Franziskus, klare Regeln und Sanktionen für den Umgang mit KI.
Würden Menschen der KI bei wichtigen Entscheidungen, etwa bei religiösen Fragen oder beim aktuellen-Ukraine-Konflikt blind vertrauen, würde dies Tür und Tor für ein despotische Regime öffnen, wo Menschen unterdrückt und gleichgeschaltet werden. Folglich würde die Zukunft dessen, "was wir unter Menschlichkeit, Verantwortung, Demokratie, Würde und Freiheit verstehen", auf dem Spiel stehen, zeichnet Nass ein dystopisches Bild.
Der Ethiker zweifelt auch an der Nutzung von humanoiden Robotern in der Pflege. Für Nass sind diese ein "von einer Maschine gesteuerter Torso", ohne echten Einfühlungsvermögen. Zwar seien die Erklärungen zu den neuen Betätigungsfeldern von Robotern plausibel, trotzdem könnten Roboter in Pflegeheimen und im Umgang mit betagten Menschen nur "vermeintliche Gefühle" zeigen. "Wenn man den Stecker rauszieht, ist alles vorbei."
Als Gefahr ortet Nass auch die Verwendung von KI im Bereich autonomer Waffen, die "selber 'Entscheidungen' treffen, in welche Ziel sie hineinfliegen, ohne dann ein Mensch eingreift". Das Resultat seien Kriegsverbrechen, für die keiner Verantwortung übernehmen würde. Der Sozialethiker fordert daher ein Verbot solcher Waffen.
Mehr Verständnis für den Einsatz von KI zeigt Nass für den Einsatz des Chatbots "ChatGPT" bei Übersetzungen oder um Ideen zu finden. Er selbst nutze KI in seiner Forschung, um etwa Chatrooms im Internet auf Themen zu untersuchen, wie Trost, Ewigkeit, Vergebung oder den Sinn fürs Leben. Die KI unterstütze hier bei der Feldforschung, die Konsequenzen für Theologie wie Pastoral müssten aber mit menschlicher Intelligenz gezogen werden.
Quelle: kathpress