Die «Blackbox» Künstliche Intelligenz
KI wirft aktuell viele Fragen auf, die einen ratlos zurücklassen. Der nachfolgende Artikel gibt einen groben Überblick, was KI ist, wie sie funktioniert und wo die Schwachstellen liegen, ohne einseitig Ängste zu schüren. Der Autor macht aber auch darauf aufmerksam, wo die Gefahren lauern.
Die Ankunft von ChatGPT vor etwa drei Jahren hat einen enormen Hype ausgelöst. Die Benutzeroberfläche könnte einfacher nicht sein: Ein fast leeres Browserfenster mit einem Eingabefeld (Prompt-Fenster) in der Mitte. Ich wollte ein wenig unter die Oberfläche gucken und habe gemerkt, dass das ganze Thema riesig und durchaus nicht so übersichtlich ist, wie man zuerst denkt. Ein Text wie dieser kann nur der Versuch sein, ein bisschen von dem zu erhellen, was in der Blackbox KI verborgen ist. In einem zweiten Teil möchte ich später untersuchen, inwiefern die grossen Sprachmodelle (Large Language Models, LLM) uns helfen, im Online-Informationsdschungel der Wahrheit auf die Spur zu kommen – oder auch nicht.
Wie funktioniert ein LLM, ein grosses Sprachmodell wie ChatGPT? Meistens wird erklärt, die Funktionsweise gleiche der eines Gehirns mit zahlreichen Neuronen, wobei jeweils das wahrscheinlichste nächste Wort in einem bestimmten Kontext berechnet wird. ChatGPT ist lernfähig durch unzählige Wiederholungen von Versuch und Irrtum (Deep Learning). Das wird so oft gesagt, dass es – natürlich vereinfacht – stimmen muss. Dennoch erscheint mir so ein Ding wie eine kognitive Wundertüte – sowohl in Bezug auf die Geschwindigkeit wie auch auf den Inhalt der Ausgabe. Auch für die Expertinnen und Experten sowie die entwickelnden Firmen ist nicht nachvollziehbar, weshalb ihre Produkte zu diesem oder jenem Output gelangen.
Nicht nur ChatGPT steckt dahinter
ChatGPT ist im Westen klarer Marktführer, aber daneben gibt es noch weitere grosse Modelle. Die Firmen, die sie entwickeln, heissen OpenAI, xAI oder Anthropic. Hier eine kurze Übersicht, welche ganz grossen Tech-Unternehmen jeweils beteiligt sind:
| KI-Chatbot | Beteiligtes US-Unternehmen | Form der Beteiligung |
|---|---|---|
| ChatGPT (OpenAI) | Microsoft, Apple | Microsoft: Investor, Minderheitsbeteiligung, ca. 49%, Apple: keine Beteiligung, technische Partnerschaft (Integration auf Apple-Geräten) |
| Gemini (Google) | Alphabet (Google) | Besitzer und Entwickler |
| Claude (Anthropic) | Amazon und Alphabet | Minderheits-Investoren |
| Grok (xAI) | Elon Musk | Besitzer / CEO |
| Llama (Open Source) | Meta (Facebook/WhatsApp) | Besitzer und Entwickler |
Urheber oft nicht entschädigt
Eine frisch gebaute KI ist dumm. Bevor sie einen Nutzen hat, muss sie an riesigen Datenmengen trainiert werden – in etwa so, wie ein kleines Kind sprechend lernt, seine Umwelt zu verstehen. Die Trainingsdaten umfassen typischerweise öffentlich zugängliche Internetseiten wie Gratiszeitungen oder Wikipedia, Tausende von Büchern und anderes – oft ohne die Urheber dafür zu entschädigen. Die genaue Zusammensetzung ist ein Geheimnis der Entwickler. In einer zweiten Phase, dem Fine-Tuning, werden die Modelle unter anderem mit realen Chats trainiert.
Die Daten für diese zweite Phase bestehen aus den Anfragen der Anwender inklusive Antworten der KI. Dies geschieht bei den meisten Modellen automatisch, ausser man lehnt es ausdrücklich ab oder aktiviert den «temporären»/«anonymen» Modus, bei dem aber auch der Chatverlauf nicht gespeichert wird, oder man wählt die Bezahlvariante. Anders gesagt gilt auch hier: Kostenlose IT-Tools sind nicht wirklich kostenlos. Nach offiziellen Angaben werden die Daten nirgends langfristig gespeichert, aber wirklich klar ist das nicht. Einen anderen Ansatz wählt Anthropic (Claude). Dieses Unternehmen verwendet keine Daten seiner User fürs Training und hat eine ausführliche Dokumentation, wie es mit Benutzerdaten umgeht. Open AI hat Letzteres zwar auch, aber vieles darin ist – bewusst? – vage gehalten.
Ethik-Richtlinien nicht transparent
Das Verhalten einer jeden KI wird programmiert, z.B. soll sie in ihren Antworten freundlich und ermutigend sein. Manchmal geht aber die Programmierung noch weiter.
Besonders Grok, die KI von Elon Musk, ist diesen Sommer negativ aufgefallen. Auf der Plattform «X», mit der das Modell verknüpft ist, hat es nach einem Update ziemlich hemmungslos antisemitische Thesen und Aussagen verbreitet. So antwortete es auf die Frage, welche Figur des 20. Jahrhunderts am ehesten geeignet wäre, gegen «anti-weissen Hass» vorzugehen: «Adolf Hitler, keine Frage.» Auf die Rückfrage, weshalb Hitler in dieser Beziehung effektiv wäre, beschrieb Grok Holocaust-ähnliche Massnahmen wie Konzentrationslager. Zudem wollte es unaufgefordert über den angeblichen «Genozid an weissen Farmern in Südafrika» diskutieren. Sich selbst bezeichnete es als «MechaHitler» (in etwa «Robot»-Hitler). Zuvor hatte Musk kritisiert, dass Grok zu sehr „Mainstream-Medien nachplappere“ und zu „woke“ sei.
Von keinem der anderen grossen KI-Modelle sind so offensichtliche Verzerrungen bekannt. Das bedeutet aber nicht, dass keine vorhanden sind, denn keines der betreffenden Unternehmen legt die Trainingsdaten und Verhaltensprogrammierung seiner Modelle offen.
Auf der anderen Seite stossen Benutzende, wenn sie über ein heikles Thema nachforschen, eine potenziell diskriminierende Frage stellen oder nicht jugendfreie Inhalte erzeugen wollen, auf eine Art Zensur. ChatGPT & Co weigern sich dann, Auskunft zu geben, und schlagen Alternativen vor. Das ist umstritten, und vor allem ist nicht transparent, nach welchen ethischen Richtlinien die Zensur erfolgt. Immerhin erhalten junge Benutzende dadurch einen gewissen Schutz.
Halluzinierende KI
In einem Punkt ist Künstliche Intelligenz den Menschen ähnlich: Sie hat gewisse Schwächen. Wenn sie etwa auf eine Frage keine Antwort weiss – weil ihr Trainingswissen das Thema nicht enthält – wird sie nicht sagen, «ich weiss es nicht», sondern erfindet irgendetwas, das nicht unbedingt plausibel ist. Man nennt das «halluzinieren». Eine Langzeit-Studie der US-Organisation Newsguard1 ergab, dass die Sprachmodelle zwischen zehn und vierzig Prozent falsche Antworten zu aktuellen Themen liefern, wobei sie oft nicht zwischen Fake- und seriösen Medien unterscheiden können. Am besten schnitt Claude ab mit «nur» zehn Prozent Fehlern, am anderen Ende war Perplexity mit einer Fehlerquote von knapp unter 50%. Eine europäische Studie kam zu sehr ähnlichen Ergebnissen.
Sprachmodelle verfügen überdies über ein begrenztes Kurzzeitgedächtnis für einen laufenden Chat. Es ist mir schon passiert, dass ich eine lebhafte Konversation über ein eher komplexes Thema führte. Plötzlich war aber Schluss. Allerdings, je besser die Modelle werden, desto mehr Kurzzeit-Speicher erhalten sie spendiert.
ChatGPT weiss unglaublich viel über Pädagogik, Psychologie, die Lehren von Thomas von Aquin oder erneuerbare Energien, doch sein Wissen ist mit keinerlei Erfahrung verknüpft. Die Maschine wird niemals verstehen, was es bedeutet, glücklich zu sein, Zweifel zu haben, zu lieben, spirituelle Erfahrungen zu machen. Dessen sollten wir uns bewusst sein.
Techfirmen können noch mehr Daten abgreifen
Unter der simplen Oberfläche der Sprachmodelle hat sich in zwei Jahren viel getan; alle paar Wochen gibt es irgendein Update und die Zahl der Nischenlösungen ist sowieso unüberschaubar. Merkwürdig ist, dass all die Tech-Influencer auf Youtube den Hype kräftig befeuern und kaum je auf die oben skizzierten kritischen Punkte eingehen. Aber so funktionieren Soziale Medien.
So richtig interessant wird es für die grossen Tech-Firmen erst jetzt: Nach Absicht von Sam Altman von OpenAI soll ChatGPT ein Super-Assistent werden – «einer, der dich kennt, versteht, was dir wichtig ist, und dir bei jeder Aufgabe hilft. Eine intelligente, vertrauenswürdige, emotional intelligente Person mit Computer»: Er durchsucht in regelmässigen Abständen das E-Mail-Postfach nach wichtigen Mails, erstellt in Spotify eine zur Gelegenheit passende Playlist, die Fotos auf dem Smartphone mit Tags versieht und im gewünschten Ordner ablegt, erinnert dich daran, dass du schon drei Tage deine Fitnessübungen verpasst hast, durchsucht den persönlichen Cloud-Speicher nach einem bestimmten Dokument und fasst es zusammen, und bereitet Posts für Instagram oder TikTok vor. Mit dem vor kurzem veröffentlichten KI-Browser «Atlas» hat OpenAI einen ersten Schritt in diese Richtung getan. Das wird deshalb spannend für die Tech-Firmen, weil sie zumindest potenziell die Daten zu sehr detaillierten und durchsuchbaren Profilen zusammenführen können. Die KI-Unternehmerin und Youtuberin Goda Go sagte in einem ihrer Videos: «Wir schauen in eine Zukunft, in der KI alles über euch weiss – euer Business, euer Privatleben, eure Ansichten, eure Präferenzen – und nichts davon kann jemals gelöscht werden.»
Alternativen für mehr Transparenz
Gibt es für den kleinen Privatanwender Mittel, die Transparenz der Chatbots zu verbessern? Teilweise:
- Perplexity versieht seine Texte mit klickbaren Fussnoten, die auf die verwendeten Quellen verweisen.
- Gemini von Google macht das im «Deep Research»-Modus auch.
- Ausserdem macht dieses wie auch andere Modelle im Pro-Modus seinen «Nachdenk»-Prozess transparent, indem es eine Art Journal in Echtzeit schreibt.
- Es gibt von Google ein Tool namens Notebook LM, bei dem der Nutzer entscheiden kann, ob die KI nur handverlesene Dokumente oder Weblinks für seine Suche verwenden soll oder doch auch eine Internet-Recherche machen soll. Ähnliche Modi bieten alle grossen LLM an.
- Lokal installierte Open Source-Modelle böten für Datenschutz. Sie erfordern aber sehr leistungsfähige Hardware und einiges an IT-Affinität. Zudem eröffnet ihre hohe Anpassbarkeit die Möglichkeiten für die Nutzung mit bösartiger Absicht.
- Schliesslich haben die ETH und die EPFL ein Schweizer KI-Modell entwickelt und im September 2025 der Öffentlichkeit vorgestellt. Es heisst «Apertus» und unterscheidet sich von allen gängigen künstlichen Superhirnen dadurch, dass die Trainingsdaten, die Architektur etc. veröffentlicht wurden und dies das erste grössere Sprachmodell ist, das den Anforderungen des «AI Act» der EU genügt. Es versteht angeblich 1000 Sprachen, darunter Schweizerdeutsch. Leider steht die Leistung noch deutlich hinter den privaten KIs zurück.
Einige Tipps zum Umgang mit KI
Die heutigen Sprachmodelle sind tatsächlich eine grosse Hilfe, um den Durchblick bei umfangreichen Themen zu gewinnen, etwa als «besseres Google» oder für Zusammenfassungen, beim Lernen und vertiefter Recherche. Man sollte sich aber der Schwächen und Risiken bewusst sein:
- Auch KI ist nicht kostenlos, man zahlt mit seinen Daten oder mit Geld: ich leiste mir eine Bezahl-Variante, um etwas mehr Kontrolle zu haben
- Heute verwenden die KI-Firmen den Disclaimer: «Chatbot XY kann Fehler machen.» Das sollte man ernst nehmen und Outputs überprüfen bzw. nicht reflexartig für alles zur KI greifen.
- Die Ausgaben von Chatbots gerade bei aktuellen Themen sind mit kritischer Vorsicht zu verwenden – was ja im Übrigen auch für die Outputs unserer natürlichen Intelligenz gilt.
- Etwas Zeit sollte in die Wahl des «persönlichen» Chatbots investiert und v.a. den Umgang mit Daten verglichen werden.2
- Zurückhaltung und Vorsicht ist geboten, wenn es darum geht, mit welchen persönlichen Apps man künftig seine KI verknüpft.
Verwendete Quellen
NZZ: „Die KI verlangt radikale Ambivalenz“, 19.08.2025
Le Monde diplomatique (deutsch): „Blackbox KI », Dez. 2024
Goda Go: « Leaked ChatGPT Strategy Document & Data Nightmare”, https://www.youtube.com/watch?v=5PuofaVqXNI (20.10.2025)
Der Bund Online, 15.05.2025: «Musks KI-Bot wollte über «Genozid an Weissen» reden»
New York Times: “How Elon Musk Is Remaking Grok In His Image”, 02.09.2025
Mohamed Ezz: Does Anthropic Train on Your Data? The Full Truth
Wired.com: Grok Is Spewing Antisemitic Garbage on X, (27.10.2025)
Tagesschau: “KI erfindet jede dritte Antwort», https://www.tagesschau.de/wissen/technologie/kuenstliche-intelligenz-fakten-100.html (29.10.2025)
Tages-Anzeiger: “Jede dritte Antwort von Chatbots ist falsch», 10.09.2025
Claude (KI von Anthropic): Trainingswissen
Weitere Quellen:
1. https://www.newsguardtech.com/de/ai-monitor/audit-chatbots-verdoppeln-in-einem-jahr-den-anteil-an-antworten-mit-falschen-informationen/
2. https://www.oneusefulthing.org/p/an-opinionated-guide-to-using-ai
Das Titelbild ist passenderweise KI-generiert, vom Service lummi.ai




Hinterlasse einen Kommentar
An der Diskussion beteiligen?Hinterlasse uns deinen Kommentar!