Die KI Kantine - Der Podcast

Michael Busch

Die KI gibt es nicht – warum der Begriff uns in die Irre führt

Weshalb wir endlich präziser über künstliche Intelligenz sprechen sollten

26.11.2025 5 min

Zusammenfassung & Show Notes

In dieser Folge der KI Kantine geht es um eine grundlegende, aber oft übersehene Frage: Was meinen wir eigentlich, wenn wir „die KI“ sagen? 
Buschi spricht während der Mittagspause darüber, wie widersprüchlich der Begriff verwendet wird und warum es technisch völliger Unsinn ist, Sprachmodelle, Schachcomputer, Tesla-Autopiloten und Gesichtserkennung unter einem Etikett zusammenzufassen. 
 Buschi erklärt, weshalb die verbreitete Aussage „Die KI halluziniert“ nur für große Sprachmodelle wie ChatGPT oder Claude Sinn ergibt – und warum andere Systeme völlig andere Fehler machen. Außerdem geht es um die gefährliche Vermenschlichung („die KI entscheidet…“) und die Frage, wie Politik eigentlich etwas regulieren soll, das kein einheitliches System darstellt. 
 
Zum Schluss wird klar: Präzise Sprache sorgt für präzisere Diskussionen – und damit für bessere Entscheidungen in Technik, Gesellschaft und Regulierung. 

Die KI-Kantine ist ein Projekt von Michael Busch – Entwickler, Unternehmer und neugieriger Kantinenphilosoph.

Hier geht’s regelmäßig zur Mittagspause um Künstliche Intelligenz im echten Entwickleralltag – verständlich, praxisnah und mit einer Prise Skepsis.

Neue Folgen erscheinen regelmäßig – meistens genau dann, wenn du dir eh gerade ein Tablett schnappst.

📬 Fragen, Feedback oder eigene KI-Erlebnisse? Schreib mir an podcast@ki-kantine.de

Alle Folgen & mehr: https://ki-kantine.letscast.fm/

Transkript

(Transkribiert von TurboScribe.ai. Upgrade auf Unbegrenzt, um diese Nachricht zu entfernen.) Mahlzeit. Mahlzeit. Sag mal, was macht eigentlich die KI? Für die KI ist es schwer zu sagen, da es ja die KI eigentlich gar nicht gibt. Jeder redet davon, die KI halluziniert, die KI macht dies, die KI kann das. Aber wenn man mal einen Schritt zurücktritt und technisch draufschaut, dann merkt man schnell, wir reden über viele völlig unterschiedliche Dinge. Aha. Also mal ganz konkret, wenn ich sage, die KI, was meine ich denn dann? Meine ich Chach-CBT? Ich denke, viele meinen das. Meine ich einen Schachcomputer? Denn der macht ja auch intelligente Sachen. Meine ich die Gesichtserkennung in meinem Handy oder meine ich einen selbstfahrenden Tesla? Das sind ja alles völlig unterschiedliche Systeme, die auf komplett verschiedenen Technologien basieren. So ein Schachcomputer arbeitet halt mit Algorithmen, die Züge durchrechnen. So Chach-CBT ist ein großes Sprachmodell, das auf neuronalen Netzen basiert und Wahrscheinlichkeiten für das nächste Wort berechnet. Und so ein Bildgenerator wie NanoBanana macht wieder etwas völlig anderes. Der transformiert Text in visuelle Muster. Das ist ungefähr so, als würde man von dem Fahrzeug sprechen und Fahrräder, Autos und Flugzeuge in einen Topf werfen. Klar, bewegen sich ja alle fort, aber die Unterschiede sind schon fundamental. Trotzdem sagen wir immer die KI. Und dann kommt dann halt dazu, wenn Leute sagen, die KI halluziniert, meinen sie eigentlich nur große Sprachmodelle wie Chach-CBT oder Clot. Die erfinden dann manchmal Fakten, die plausibel klingen, aber falsch sind. Das nennt man dann Halluzination. Übrigens auch schon wieder so eine Vermenschlichung. Aber so ein Autopilot-System im Tesla, der halluziniert ja gar nicht. Der macht halt andere Fehler. Vielleicht erkennt er ein Stoppschild nicht richtig oder verwechselt einen Schatten mit einem Hindernis. Aber das ist was völlig anderes. Trotzdem, wenn einer dieser Fälle in den Nachrichten landet, heißt es oft KI-Fehler. Als wären das alles die gleichen Probleme. Interessant. Was mich daran so wirklich fasziniert, das ist so diese philosophische Ebene. Durch die Formulierung, die KI entscheidet, die KI denkt, die KI will, suggerieren wir so eine Art Entität. Fast so als gäbe es da draußen ein Wesen namens KI, das Absichten hat und Dinge tut. So Terminator-mäßig. Skynet lässt grüßen. Aber in Wirklichkeit sind das ja alles nur Werkzeuge. Sehr komplexe Werkzeuge, keine Frage. Aber eben nur Werkzeuge. Niemand würde sagen, der Hammer hat beschlossen, den Nagel krumm zu schlagen. Aber bei KI sagen wir, die KI hat einen Fehler gemacht. Als hätte sie eine andere Wahl gehabt. Und problematisch wird es halt, wenn wir über Regulierung sprechen. Wenn Politiker die KI regulieren wollen. Was regulieren sie dann? Sprachmodelle? Gesichtserkennung? Algorithmen für Kreditvergabe? Das sind völlig unterschiedliche Baustellen mit unterschiedlichen Risiken und ethischen Fragen. Ja, da hast du recht. Das Lustige ist, das hatten wir alles schon mal. In den 80ern haben alle von dem Computer geredet. Der Computer kann das jetzt. In den 90ern war es dann das Internet. Als wäre das Internet eine einzige Sache. Und nicht ein riesiges Netzwerk von Millionen verschiedenen Diensten und Technologien. Und am Anfang ist so eine Vereinfachung immer hilfreich. Die Leute brauchen einen Überbegriff, um überhaupt darüber reden zu können. Aber irgendwann wurde es wichtig zu differenzieren. Niemand sagt heute mehr, das Internet ist down. Wir sagen, Instagram funktioniert nicht mehr oder mein Router spinnt. Wobei, du hast doch gesagt, das Internet ist kaputt. Dabei war es nur diese Cloudflare-Problematik. Ja, ja, sehr witzig. Und bei KI stehen wir vielleicht genau an diesem Wendepunkt, wo die Vereinfachung aufhört hilfreich zu sein und anfängt gefährlich zu werden. Wem nützt diese Vereinfachung eigentlich? Ich glaube, große Tech-Firmen profitieren schon davon. Wenn OpenAI, Google oder wer auch immer ihr Produkt als die KI verkaufen können, schafft das so eine mystische Aura. Es klingt nach etwas Großem, Mächtigem, Universellem. Aber vielleicht sollten wir anfangen, präzise zu sprechen. Nicht aus Glückscheißerei, sondern weil bessere Sprache zu besserem Verständnis führt und besseres Verständnis zu besseren Entscheidungen. Also dann, ganz präzise, ich habe Hunger. Können wir jetzt E-Limo essen?