Lesezeit / Temps de lecture ~ 6 min

KI wirft aktuell viele Fragen auf, die einen ratlos zurücklassen. Der nachfolgende Artikel gibt einen groben Überblick, was KI ist, wie sie funktioniert und wo die Schwachstellen liegen, ohne einseitig Ängste zu schüren. Der Autor macht aber auch darauf aufmerksam, wo die Gefahren lauern.

Die Ankunft von ChatGPT vor etwa drei Jahren hat einen enormen Hype ausgelöst. Die Benutzeroberfläche könnte einfacher nicht sein: Ein fast leeres Browserfenster mit einem Eingabefeld (Prompt-Fenster) in der Mitte. Ich wollte ein wenig unter die Oberfläche gucken und habe gemerkt, dass das ganze Thema riesig und durchaus nicht so übersichtlich ist, wie man zuerst denkt. Ein Text wie dieser kann nur der Versuch sein, ein bisschen von dem zu erhellen, was in der Blackbox KI verborgen ist. In einem zweiten Teil möchte ich später untersuchen, inwiefern die grossen Sprachmodelle (Large Language Models, LLM) uns helfen, im Online-Informationsdschungel der Wahrheit auf die Spur zu kommen – oder auch nicht.

Wie funktioniert ein LLM, ein grosses Sprachmodell wie ChatGPT? Meistens wird erklärt, die Funktionsweise gleiche der eines Gehirns mit zahlreichen Neuronen, wobei jeweils das wahrscheinlichste nächste Wort in einem bestimmten Kontext berechnet wird. ChatGPT ist lernfähig durch unzählige Wiederholungen von Versuch und Irrtum (Deep Learning). Das wird so oft gesagt, dass es – natürlich vereinfacht – stimmen muss. Dennoch erscheint mir so ein Ding wie eine kognitive Wundertüte – sowohl in Bezug auf die Geschwindigkeit wie auch auf den Inhalt der Ausgabe. Auch für die Expertinnen und Experten sowie die entwickelnden Firmen ist nicht nachvollziehbar, weshalb ihre Produkte zu diesem oder jenem Output gelangen.

Nicht nur ChatGPT steckt dahinter

ChatGPT ist im Westen klarer Marktführer, aber daneben gibt es noch weitere grosse Modelle. Die Firmen, die sie entwickeln, heissen OpenAI, xAI oder Anthropic. Hier eine kurze Übersicht, welche ganz grossen Tech-Unternehmen jeweils beteiligt sind:

KI-ChatbotBeteiligtes US-UnternehmenForm der Beteiligung
ChatGPT (OpenAI)Microsoft, AppleMicrosoft: Investor, Minderheitsbeteiligung, ca. 49%, Apple: keine Beteiligung, technische Partnerschaft (Integration auf Apple-Geräten)
Gemini (Google)Alphabet (Google)Besitzer und Entwickler
Claude (Anthropic)Amazon und AlphabetMinderheits-Investoren
Grok (xAI)Elon MuskBesitzer / CEO
Llama (Open Source)Meta (Facebook/WhatsApp)Besitzer und Entwickler

Urheber oft nicht entschädigt

Eine frisch gebaute KI ist dumm. Bevor sie einen Nutzen hat, muss sie an riesigen Datenmengen trainiert werden – in etwa so, wie ein kleines Kind sprechend lernt, seine Umwelt zu verstehen. Die Trainingsdaten umfassen typischerweise öffentlich zugängliche Internetseiten wie Gratiszeitungen oder Wikipedia, Tausende von Büchern und anderes – oft ohne die Urheber dafür zu entschädigen. Die genaue Zusammensetzung ist ein Geheimnis der Entwickler. In einer zweiten Phase, dem Fine-Tuning, werden die Modelle unter anderem mit realen Chats trainiert.

Die Daten für diese zweite Phase bestehen aus den Anfragen der Anwender inklusive Antworten der KI. Dies geschieht bei den meisten Modellen automatisch, ausser man lehnt es ausdrücklich ab oder aktiviert den «temporären»/«anonymen» Modus, bei dem aber auch der Chatverlauf nicht gespeichert wird, oder man wählt die Bezahlvariante. Anders gesagt gilt auch hier: Kostenlose IT-Tools sind nicht wirklich kostenlos. Nach offiziellen Angaben werden die Daten nirgends langfristig gespeichert, aber wirklich klar ist das nicht. Einen anderen Ansatz wählt Anthropic (Claude). Dieses Unternehmen verwendet keine Daten seiner User fürs Training und hat eine ausführliche Dokumentation, wie es mit Benutzerdaten umgeht. Open AI hat Letzteres zwar auch, aber vieles darin ist – bewusst? – vage gehalten.

Ethik-Richtlinien nicht transparent

Das Verhalten einer jeden KI wird programmiert, z.B. soll sie in ihren Antworten freundlich und ermutigend sein. Manchmal geht aber die Programmierung noch weiter.

Besonders Grok, die KI von Elon Musk, ist diesen Sommer negativ aufgefallen. Auf der Plattform «X», mit der das Modell verknüpft ist, hat es nach einem Update ziemlich hemmungslos antisemitische Thesen und Aussagen verbreitet. So antwortete es auf die Frage, welche Figur des 20. Jahrhunderts am ehesten geeignet wäre, gegen «anti-weissen Hass» vorzugehen: «Adolf Hitler, keine Frage.» Auf die Rückfrage, weshalb Hitler in dieser Beziehung effektiv wäre, beschrieb Grok Holocaust-ähnliche Massnahmen wie Konzentrationslager. Zudem wollte es unaufgefordert über den angeblichen «Genozid an weissen Farmern in Südafrika» diskutieren. Sich selbst bezeichnete es als «MechaHitler» (in etwa «Robot»-Hitler). Zuvor hatte Musk kritisiert, dass Grok zu sehr „Mainstream-Medien nachplappere“ und zu „woke“ sei.

Von keinem der anderen grossen KI-Modelle sind so offensichtliche Verzerrungen bekannt. Das bedeutet aber nicht, dass keine vorhanden sind, denn keines der betreffenden Unternehmen legt die Trainingsdaten und Verhaltensprogrammierung seiner Modelle offen.

Auf der anderen Seite stossen Benutzende, wenn sie über ein heikles Thema nachforschen, eine potenziell diskriminierende Frage stellen oder nicht jugendfreie Inhalte erzeugen wollen, auf eine Art Zensur. ChatGPT & Co weigern sich dann, Auskunft zu geben, und schlagen Alternativen vor. Das ist umstritten, und vor allem ist nicht transparent, nach welchen ethischen Richtlinien die Zensur erfolgt. Immerhin erhalten junge Benutzende dadurch einen gewissen Schutz.

Halluzinierende KI

In einem Punkt ist Künstliche Intelligenz den Menschen ähnlich: Sie hat gewisse Schwächen. Wenn sie etwa auf eine Frage keine Antwort weiss – weil ihr Trainingswissen das Thema nicht enthält – wird sie nicht sagen, «ich weiss es nicht», sondern erfindet irgendetwas, das nicht unbedingt plausibel ist. Man nennt das «halluzinieren». Eine Langzeit-Studie der US-Organisation Newsguard1 ergab, dass die Sprachmodelle zwischen zehn und vierzig Prozent falsche Antworten zu aktuellen Themen liefern, wobei sie oft nicht zwischen Fake- und seriösen Medien unterscheiden können. Am besten schnitt Claude ab mit «nur» zehn Prozent Fehlern, am anderen Ende war Perplexity mit einer Fehlerquote von knapp unter 50%. Eine europäische Studie kam zu sehr ähnlichen Ergebnissen.

Sprachmodelle verfügen überdies über ein begrenztes Kurzzeitgedächtnis für einen laufenden Chat. Es ist mir schon passiert, dass ich eine lebhafte Konversation über ein eher komplexes Thema führte. Plötzlich war aber Schluss. Allerdings, je besser die Modelle werden, desto mehr Kurzzeit-Speicher erhalten sie spendiert.

ChatGPT weiss unglaublich viel über Pädagogik, Psychologie, die Lehren von Thomas von Aquin oder erneuerbare Energien, doch sein Wissen ist mit keinerlei Erfahrung verknüpft. Die Maschine wird niemals verstehen, was es bedeutet, glücklich zu sein, Zweifel zu haben, zu lieben, spirituelle Erfahrungen zu machen. Dessen sollten wir uns bewusst sein.

Techfirmen können noch mehr Daten abgreifen

Unter der simplen Oberfläche der Sprachmodelle hat sich in zwei Jahren viel getan; alle paar Wochen gibt es irgendein Update und die Zahl der Nischenlösungen ist sowieso unüberschaubar. Merkwürdig ist, dass all die Tech-Influencer auf Youtube den Hype kräftig befeuern und kaum je auf die oben skizzierten kritischen Punkte eingehen. Aber so funktionieren Soziale Medien.

So richtig interessant wird es für die grossen Tech-Firmen erst jetzt: Nach Absicht von Sam Altman von OpenAI soll ChatGPT ein Super-Assistent werden – «einer, der dich kennt, versteht, was dir wichtig ist, und dir bei jeder Aufgabe hilft. Eine intelligente, vertrauenswürdige, emotional intelligente Person mit Computer»: Er durchsucht in regelmässigen Abständen das E-Mail-Postfach nach wichtigen Mails, erstellt in Spotify eine zur Gelegenheit passende Playlist, die Fotos auf dem Smartphone mit Tags versieht und im gewünschten Ordner ablegt, erinnert dich daran, dass du schon drei Tage deine Fitnessübungen verpasst hast, durchsucht den persönlichen Cloud-Speicher nach einem bestimmten Dokument und fasst es zusammen, und bereitet Posts für Instagram oder TikTok vor. Mit dem vor kurzem veröffentlichten KI-Browser «Atlas» hat OpenAI einen ersten Schritt in diese Richtung getan. Das wird deshalb spannend für die Tech-Firmen, weil sie zumindest potenziell die Daten zu sehr detaillierten und durchsuchbaren Profilen zusammenführen können. Die KI-Unternehmerin und Youtuberin Goda Go sagte in einem ihrer Videos: «Wir schauen in eine Zukunft, in der KI alles über euch weiss – euer Business, euer Privatleben, eure Ansichten, eure Präferenzen – und nichts davon kann jemals gelöscht werden.»

Alternativen für mehr Transparenz

Gibt es für den kleinen Privatanwender Mittel, die Transparenz der Chatbots zu verbessern? Teilweise:

  • Perplexity versieht seine Texte mit klickbaren Fussnoten, die auf die verwendeten Quellen verweisen.
  • Gemini von Google macht das im «Deep Research»-Modus auch.
  • Ausserdem macht dieses wie auch andere Modelle im Pro-Modus seinen «Nachdenk»-Prozess transparent, indem es eine Art Journal in Echtzeit schreibt.
  • Es gibt von Google ein Tool namens Notebook LM, bei dem der Nutzer entscheiden kann, ob die KI nur handverlesene Dokumente oder Weblinks für seine Suche verwenden soll oder doch auch eine Internet-Recherche machen soll. Ähnliche Modi bieten alle grossen LLM an.
  • Lokal installierte Open Source-Modelle böten für Datenschutz. Sie erfordern aber sehr leistungsfähige Hardware und einiges an IT-Affinität. Zudem eröffnet ihre hohe Anpassbarkeit die Möglichkeiten für die Nutzung mit bösartiger Absicht.
  • Schliesslich haben die ETH und die EPFL ein Schweizer KI-Modell entwickelt und im September 2025 der Öffentlichkeit vorgestellt. Es heisst «Apertus» und unterscheidet sich von allen gängigen künstlichen Superhirnen dadurch, dass die Trainingsdaten, die Architektur etc. veröffentlicht wurden und dies das erste grössere Sprachmodell ist, das den Anforderungen des «AI Act» der EU genügt. Es versteht angeblich 1000 Sprachen, darunter Schweizerdeutsch. Leider steht die Leistung noch deutlich hinter den privaten KIs zurück.

Einige Tipps zum Umgang mit KI

Die heutigen Sprachmodelle sind tatsächlich eine grosse Hilfe, um den Durchblick bei umfangreichen Themen zu gewinnen, etwa als «besseres Google» oder für Zusammenfassungen, beim Lernen und vertiefter Recherche. Man sollte sich aber der Schwächen und Risiken bewusst sein:

  • Auch KI ist nicht kostenlos, man zahlt mit seinen Daten oder mit Geld: ich leiste mir eine Bezahl-Variante, um etwas mehr Kontrolle zu haben
  • Heute verwenden die KI-Firmen den Disclaimer: «Chatbot XY kann Fehler machen.» Das sollte man ernst nehmen und Outputs überprüfen bzw. nicht reflexartig für alles zur KI greifen.
  • Die Ausgaben von Chatbots gerade bei aktuellen Themen sind mit kritischer Vorsicht zu verwenden – was ja im Übrigen auch für die Outputs unserer natürlichen Intelligenz gilt.
  • Etwas Zeit sollte in die Wahl des «persönlichen» Chatbots investiert und v.a. den Umgang mit Daten verglichen werden.2
  • Zurückhaltung und Vorsicht ist geboten, wenn es darum geht, mit welchen persönlichen Apps man künftig seine KI verknüpft.

Verwendete Quellen

NZZ: „Die KI verlangt radikale Ambivalenz“, 19.08.2025

Le Monde diplomatique (deutsch): „Blackbox KI », Dez. 2024

Goda Go: « Leaked ChatGPT Strategy Document & Data Nightmare”, https://www.youtube.com/watch?v=5PuofaVqXNI (20.10.2025)

Der Bund Online, 15.05.2025: «Musks KI-Bot wollte über «Genozid an Weissen» reden»

New York Times: “How Elon Musk Is Remaking Grok In His Image”, 02.09.2025

Mohamed Ezz: Does Anthropic Train on Your Data? The Full Truth

Wired.com: Grok Is Spewing Antisemitic Garbage on X, (27.10.2025)

Tagesschau: “KI erfindet jede dritte Antwort», https://www.tagesschau.de/wissen/technologie/kuenstliche-intelligenz-fakten-100.html (29.10.2025)

Tages-Anzeiger: “Jede dritte Antwort von Chatbots ist falsch», 10.09.2025

Claude (KI von Anthropic): Trainingswissen

Weitere Quellen:

1. https://www.newsguardtech.com/de/ai-monitor/audit-chatbots-verdoppeln-in-einem-jahr-den-anteil-an-antworten-mit-falschen-informationen/

2. https://www.oneusefulthing.org/p/an-opinionated-guide-to-using-ai


Das Titelbild ist passenderweise KI-generiert, vom Service lummi.ai

Lesezeit / Temps de lecture ~ 3 min

Seit der Einführung von ChatGPT im November 2022 hat die generative künstliche Intelligenz einen rasanten Aufschwung erlebt. Diese technologische Revolution lässt niemanden unberührt, nicht einmal christliche Gemeinschaften, die nach und nach das Potenzial und die Gefahren dieser neuen Werkzeuge entdecken.

Der Global Missional AI Summit1 hat es sich sogar zur Aufgabe gemacht, zu zeigen, wie Künstliche Intelligenz (KI) für spirituelles Wachstum und die Übersetzung der Bibel genutzt werden kann. Angesichts dieses Wandels stellt sich eine grundlegende Frage: Wie sollen wir mit dieser Technologie umgehen, die unser Verhältnis zu Wissen, Wahrheit und menschlichen Beziehungen grundlegend verändert?

Grundlegende Ambivalenz

Im Gegensatz zu binären Ansätzen, die Technologie je nach ihrer Verwendung als grundsätzlich gut oder schlecht darstellen, ist die Realität komplexer. KI ist grundsätzlich ambivalent: Sie hat gleichzeitig und untrennbar voneinander positive und negative Auswirkungen. Diese Ambivalenz zwingt uns, uns den vielfältigen Herausforderungen dieser Innovation und ihren Risiken zu stellen, die die Fundamente unserer Menschlichkeit und unserer Gesellschaft in Frage stellen.

Die generative KI stellt in erster Linie unser Verhältnis zur Wahrheit in Frage. ChatGPT ist trotz seiner aussergewöhnlichen Leistungsfähigkeit ein probabilistisches System, das einen Teil der Informationen mit beunruhigender Sicherheit falsch wiedergibt. Dass diese Quellen für zuverlässig gehalten werden können, stellt unsere kollektive Fähigkeit in Frage, zwischen wahr und falsch zu unterscheiden, was in einer Zeit, in der Desinformation weit verbreitet ist, besonders besorgniserregend ist.

Technologische Versprechen – menschliche Herausforderungen

KI kann uns zwar von bestimmten repetitiven Aufgaben befreien, benötigt aber gleichzeitig eine Armee von „Klickarbeiterinnen und -arbeitern”, um Inhalte zu überprüfen und zu filtern. Diese versteckte Wirtschaft offenbart die Widersprüche eines Systems, das vorgibt, die Menschen von der Arbeit zu befreien, gleichzeitig aber neue Formen der Ausbeutung schafft. Hinter der scheinbaren Entmaterialisierung der KI verbirgt sich eine beachtliche physische Realität. Der CO2-Fußabdruck von ChatGPT und anderen generativen KI-Systemen ist gigantisch und wächst exponentiell.

Die geopolitische Herausforderung ist nicht weniger besorgniserregend: KI kristallisiert die Machtverhältnisse vor allem zwischen Amerikanern und Chinesen heraus. Diese Konzentration der technologischen Macht in wenigen Händen wirft wichtige demokratische Fragen auf.

Eine weitere Herausforderung: Wie kann man kritisches Denken und die Fähigkeit zum Nachdenken förden, wenn KI gerade unsere Fähigkeit zum kritischen Denken beeinträchtigt? Diese Frage wird umso wichtiger, wenn man bedenkt, dass junge Menschen, die an Bildschirme und ständige Reize gewöhnt sind, nach und nach ihre Konzentrationsfähigkeit und ihre Fähigkeit zum vertieften Lesen von Texten verlieren. Der sofortige Zugriff auf die Zusammenfassung eines beliebigen Artikels erspart uns sogar die Notwendigkeit zu lernen. Wie die Forscherin Maryanne Wolf2 betont, bedeutet Lesen Verstehen, es ist eine kognitive und emotionale Erfahrung, die uns innerlich verändert und Empathie fördert. Der Verlust dieser Fähigkeit trägt zur zunehmenden Polarisierung unserer Gesellschaften bei und schwächt die Grundlagen des kritischen und komplexen Denkens.

Den christlichen Glauben in Zeiten der Algorithmen vermitteln

Für Christen stellt die KI besondere Herausforderungen dar und wirft eine grundlegende theologische Frage hinsichtlich der Vermittlung des Wortes auf. Eine KI, die mit allen „vertrauenswürdigen” christlichen Texten gefüttert wird, würde zweifellos fundiertere Antworten liefern als jede Pfarrerin bzw. jeder Pfarrer. Aber wäre das dann noch ein authentischer Dienst am Wort? Der christliche Glaube basiert auf einem Wort, das nicht nur eine einfache Information ist, sondern ein Ereignis, eine Begegnung, eine Inkarnation. Dieses göttliche Wort ist in Jesus Fleisch geworden und kann nur von Mensch zu Mensch in einer lebendigen Beziehung weitergegeben werden. Die Verkündigung des Evangeliums auf eine Wahrscheinlichkeitsberechnung zu reduzieren, wäre eine reine Farce.

Der Weg der Machtlosigkeit

Angesichts des Dilemmas zwischen Akzeptanz und Ablehnung der KI schlägt der Theologe Jacques Ellul3 einen dritten Weg vor, der vom Beispiel Christi inspiriert ist: die Machtlosigkeit. Der Ellul-Spezialist Frédéric Rognon definiert diesen Ansatz als „die Fähigkeit, etwas zu tun, und die Entscheidung, es nicht zu tun”. „Als Jünger von Christus sind Christen aufgefordert, ihm auf einem Weg der Ohnmacht zu folgen: nicht alles zu tun, was in ihrer Macht steht, sondern unter allen Möglichkeiten das zu erkennen, was mit dem Leben und der Liebe verbunden ist.”4
Dieser Ansatz bedeutet nicht eine systematische Ablehnung der Technologie, sondern lädt dazu ein, eine klare Prioritätenhierarchie aufzustellen, statt immer nur auf technologische Effizienz zu setzen. Im Mittelpunkt steht die Qualität der Beziehung, die Wahrhaftigkeit des Dialogs, die Tiefe der Begegnung – Dimensionen, die sich keiner algorithmischen Optimierung unterwerfen lassen. Es geht darum, einen kritischen Blick zu entwickeln, ohne in Technophobie zu verfallen, diese Werkzeuge zu nutzen, ohne sich von ihnen beherrschen zu lassen.

Ein solcher Ansatz erfordert Bildung, die Schulung des kritischen Denkens und vor allem die Bewahrung dessen, was das Wesen unserer Menschlichkeit ausmacht: die Fähigkeit zu authentischen Beziehungen, zu echter Kreativität, zu verkörpertem Wort. In einer Welt, in der Maschinen sich darin auszeichnen, das „bereits Gesagte” zu reproduzieren, liegt unsere einzigartige Stärke in unserer Fähigkeit, Neues, noch nie Gesagtes, wirklich Unabhängiges zu produzieren.


1. https://missional.ai/
2. Weitere Informationen darüber in zwei Artikeln über Maryanne Wolf: https://www.philomag.com/articles/maryanne-wolf-il-est-possible-que-lexperience-de-lecture-profonde-satrophie-ou-se-perde und https://www.letemps.ch/culture/livres/maryanne-wolf-le-numerique-a-deja-change-notre-facon-de-lire?
3. Jacques Ellul, über den im November 2024 mit Unterstützung von ChristNet eine Tagung in St. Légier VD (Link: «Ohne Hoffnungslosigkeit keine Hoffnung» – ChristNet) stattfand, befasste sich vor mehr als 30 Jahren mit den Frühformen der künstlichen Intelligenz.
4. www.eks-eers.ch/fr/blogpost/jacques-ellul-et-lintelligence-artificielle/

Der Artikel wurde erstmals am 23. Juli 2025 auf Französisch in Christ Seul veröffentlicht.

Das Titelbild stammt vom AI-Bilderdienst Lummi.