KI kann viel – aber kann sie auch überzeugend Gott spielen? Warum nicht, fragten sich die Initiatoren religiöser Chatbots. Selbstlernende neuronale Netze (also „Künstliche Intelligenz“) können heute relativ problemlos so tun, als seien sie Beethoven, George R.R. Martin, Präsident Selenskyj oder die Stimme unseres Chefs. Wie überzeugend das Ergebnis ist, ist eine Frage des Inputs, der eingesetzten Rechnerleistung – und unserer Empfindung oder Leichtgläubigkeit.
.

Abbildung: Rikudhar / Wikimedia, CC-BY-SA 4.0

Lebenshilfe-Algorithmen

In unserem Podcast-Gespräch über KI schlug Philipp Möller neulich vor, Sonntagspredigten doch künftig von einer KI schreiben zu lassen. Warum nicht? Denn religiöse Texte haben – wie medizinische oder juristische Kompendien – einen klaren Bezugsrahmen und sind damit für eine KI leicht zu interpretieren. Zu einem Stichwort kommt der passende Kontext, ein bisschen Duktus-Imitation und fertig ist „der übliche Sermon“.

Düpiert das jemanden? Ja, denn unter spiritueller Lebenshilfe verstehen wir etwas, was vom Herzen kommt, was von Mensch zu Mensch weitergegeben wird. Solange wir einer Maschine dies nicht zutrauen, fühlen wir uns von einem Chatbot schlechter beraten als von einer Freundin, einem Guru oder sogar einer anonymen Person im Internet. Denn wir suchen nicht nur guten Rat, sondern Verständnis, Trost und Mitgefühl.

Aber seien wir ehrlich: Ein Trauerredner, der die verstorbene Person, um die es geht, gar nicht kannte, macht sich auch nur ein Bild aus wenigen Gesprächen und ruft dann die passenden Plattitüden ab. Auch von Standesbeamten bei Hochzeiten kennen wir Derartiges und das muss im Ergebnis nicht mal schlecht sein. Die entscheidende Frage bei der KI ist im Vergleich aber nicht nur „Wie gut ist die KI?“, sondern auch: Womit wurde die KI gefüttert? Und wie stark vertrauen wir auf sie?

Menschen, die sich KI zunutze machen, beurteilen kritisch, ob es ihnen passt, was da an gesammelter Weisheit aus dem Computer kommt. So würden eine Pastorin oder ein Pfarrer einen KI-generierten Text immer redigieren und moderieren, bevor sie ihn vortragen. Der moralische Kompass der Bibel ist schließlich alles andere als eindeutig, man kann daraus das Eine ablesen und ebenso sein Gegenteil.

Strikt „bibeltreue“ Christen müssten eine solche moderate Verwässerung ihrer Heiligen Schrift eigentlich ablehnen. Das Wort Gottes, von einer KI korrekt referiert, müsste ihnen eigentlich genug sein – so wie sie die Bibel jederzeit an einer beliebigen Stelle aufschlagen können, um darin eine genau auf ihre Situation bezogene Botschaft zu erkennen.
.

Jesus-Bot und Krishna aus der Retorte

Wie beeindruckend absurd eine durch KI zum Leben erweckte religiöse Person sein kann zeigt das Projekt „Ask Jesus„. Man kann einen Jesus-Bot danach fragen, wie man ein Hot Dog zubereitet. Oder wovon er eigentlich so gelebt hat, damals als arbeitsloser Tischler. Darf man ein Liebesgedicht klauen? Kann er den Wasseranteil in unserem Blut zu Wein verwandeln? Was die Leute eben so interessiert – und das kann schon sehr witzig sein.

Denn die Antworten gibt ein stereotypisch geschönter Messias, der mit Hall in der Stimme und salbungsvollen Gesten über alles Gewünschte spricht: „Du kannst die Gurken so anordnen, dass du mit jedem Bissen eine isst, oder auch anders. Wesentlich ist, mein Freund, dass du innere Freude dabei empfindest. Ich hoffe, die Antwort auf deine Frage ist eine Inspiration auch für andere.“ Auch seriöse Fragen beantwortet der Chatbot voller Gleichmut, ermutigt hier zu Ehrlichkeit, wirbt dort für Verständnis im Umgang mit Anderen usw. Wie ernst sie die Sache nehmen möchten, liegt also bei den Fragenden selbst.

Ein anderes Phänomen erfreut sich in Indien zunehmender Beliebtheit und die Organisation Atheist Republic hat es in einem ihrer Videos behandelt: Hinduistische Chatbots, die alle gestellten Fragen in Bezug auf eine der hinduistischen Hauptschriften beantworten. Seiten wie „Gita-AI“, „GitaGPT“, „Gita Chat“ oder „Ask Gita“* basieren auf ChatGPT und der Baghavad Gita, einem Text mit Unterweisungen, die Gott Krishna seinem Schüler Arjuna in einem 700 Verse langen Dialog in Sanskrit erteilt. Krishna fordert Arjuna darin unter anderem eindringlich auf, gegen seine eigene Familie in den Krieg zu ziehen. Den meisten Menschen ist dieser Text nicht besonders zugänglich, der Chatbot ändert das.

Frappierend aus Sicht von Armin Navabi (Atheist Republic): Anders als Prediger geben Chatbots auch die überaus gewaltbejahenden Passagen des alten Textes ungefiltert wieder. Ob es in Ordnung sei, für den Erhalt des Dharma (des religiösen Gesetzes, der Lehre) sein Leben zu opfern? Aber ja, antwortet der Krishna der Gita-AI, zu sterben sei nichts anderes als die Kleider zu wechseln. Diese Angabe sei ohne Gewähr, bevor man handle, solle man besser selber nochmal nachschauen. Ein anderer Chatbot interpretiert dieselbe Quelle sogar so, dass es auch in Ordnung sei, jemand anderen zu töten, wenn es dem Dharma diene – ohne Disclaimer.

Aus heutiger Sicht der blanke Wahnsinn, aber von vormodernen religiösen Texten kennt man solche Aussagen ja zuhauf. Priester bemühen sich dann meist, die Aussagen abzumildern oder ins Metaphorische zu verlagern, um Bedenken zu zerstreuen. Aber welchen Sinn sollten diese Texte ergeben, wenn sie in ihren Kernaussagen beliebig anpassbar wären?
.

Flaschengeister der Radikalisierung?

Immerhin: Im Selbstversuch ist es mir nicht gelungen, in der Gita-AI Gewalt rechtfertigende Antworten zu generieren. Stattdessen erschienen so betont milde und gütige Passagen, dass ich schon an eine Abschaltvorrichtung bei Besuchern aus dem atheistischen Deutschland geglaubt habe: Nein, allen Wesen sei mit Freundlichkeit und Verständnis zu begegnen. Frauen sollten die gleichen Chancen haben, gerade auch andere Religionen seien zu respektieren – alle Angaben wiederum ohne Gewähr.

Tatsächlich – und darauf weist auch Navabi hin – ist die zumeist gelehrte und gelebte Praxis im Hinduismus eine tolerante. Schließlich handelt es sich nicht einmal um eine Religion im engeren Sinn, sondern vielmehr um eine Vielzahl an religiösen Kulten und Schulen, die es historisch gewohnt sind, friedlich nebeneinander zu koexistieren und miteinander zu feiern. Identitäre Politiker versuchen allerdings, aus religiöser Gemeinschaft machtpolitische Ansprüche zu formen. In Indien ist religiöser Hass nicht erst seit der hindu-nationalistischen Regierung Modi ein Problem, sondern bereits seit 120 Jahren eine Waffe, die besonders in Abgrenzung zum Islam eingesetzt wird. Da ist es schon angezeigt, einen kritischen Blick auf Projekte wie Gita-AI zu werfen.

Ein gern geäußerter Verdacht ist, dass eine „dumme“ KI religiöse Texte allzu wörtlich wiedergeben und damit Fundamentalismus stärken könnte. Diese Gefahr besteht – aber nicht wegen einer falschen, sondern gerade wegen einer weitgehend korrekten Interpretation der Quellen. Denn tatsächlich kann ein Sprachmodell wie ChatGPT gerade nicht nur zitieren, sondern große Zusammenhänge sinngemäß einordnen und in „eigenen“ Worten interpretieren. Aber gerade dadurch konfrontiert es sein Gegenüber mit dem unverblümten Gehalt des religiösen Textes, auch wenn dieser eigentlich verpönt ist. Befragt man das alte Testament dazu, was mit einer Ehebrecherin zu geschehen habe, dann wird man sich im 21. Jahrhundert mit Grausen abwenden. Das ist aber nicht das Problem der KI, sondern das Problem der Religion mit ihrem eigenen historischen Offenbarungstext und der Tatsache, dass die Welt sich in den letzten 2.000 Jahren verändert hat.

Hier zeigt sich einmal mehr, dass Medienangebote, die von einer KI, von Usern oder einer Crowd generiert werden, mit hoher regulatorischer Verantwortung einhergehen. Wer diese vernachlässigt oder gar eine verdeckte Agenda betreibt, verdient einen Schuss vor den Bug. Und kaum hat man diesen Gedanken formuliert, finden sich bereits Hinweise auf Manipulationen: Das Tech-Magazin Rest Of World fand deutliche Hinweise auf politische Einflussnahme in einem Gita-Chatbot. Während dieser zu Elon Musk „keine Meinung“ hatte, wurde Präsident Modi in den höchsten Tönen gepriesen und sein Opponent als inkompetent bezeichnet. Da Religion in Indien immer noch das Geschäftsmodell Nummer 1 ist, kann man sich ausmalen, wie wirkmächtig solche plumpen Stellungnahmen sein können.
.

Gesundes Misstrauen erlernen

Religionen und Weltanschauungen werden seit jeher als Türöffner genutzt, um ein kritisches Hinterfragen zu umgehen. Doch am Ende könnte das Misstrauen, dass wir einer KI aus gutem Grunde entgegenbringen, hier einen aufklärerischen Nebeneffekt haben: Die KI erlaubt eine frische, verfremdete Sichtweise auf den uns scheinbar vertrauten Text und die damit transportierten Inhalte. Wir fragen uns erneut, ob dieser Inhalt noch in unsere Zeit passt und was diese uralten Texte uns eigentlich noch sagen können. Die Maschine profanisiert und schürt bei denen ein gesundes Misstrauen, die das Niveau von KI-generierter Kalenderblattlyrik und plumper Manipulation verlassen haben. Dazu gehört aber eben ein gesundes Maß an Skepsis, die längst nicht alle Menschen aufbringen.