Few-Shot Prompting
Wie Beispiele die Qualität deiner KI-Antworten verbessern
06.08.2025 6 min
In dieser Folge tauchen wir in die Welt des Few-Shot Prompting ein – eine Technik, mit der du durch wenige, gezielte Beispiele die Leistung von KI-Modellen wie ChatGPT deutlich steigern kannst. Wir sprechen darüber, warum Beispiele so mächtig sind, wie du sie richtig auswählst und strukturierst und welche typischen Fehler du vermeiden solltest. Außerdem bekommst du praktische Tipps und Anwendungsbeispiele, mit denen du deine eigenen Prompts sofort verbessern kannst.
Grundbegriffe der Generativen KI
Die am häufigsten genutzten Begriffe leicht erklärt
04.08.2025 6 min
Die heutige Episode erklärt umfassend die Grundlagen der generativen Künstlichen Intelligenz (GenAI). Er beginnt mit einer Definition von KI und maschinellem Lernen und führt dann wichtige Konzepte wie neuronale Netze, Large Language Models (LLMs) und die Transformer-Architektur ein. Die Episode beschreibt auch Prompting-Techniken zur Kommunikation mit KI-Modellen und beleuchtet multimodale KI, die verschiedene Datentypen verarbeitet. Schließlich werden ethische Überlegungen und Grenzen der genAI wie Bias und Halluzinationen sowie Beispiele typischer Tools vorgestellt.
Der ChatGPT-Agent
Wie ChatGPT ab sofort für dich noch mehr arbeiten kann
31.07.2025 7 min
Dieser Text stellt den ChatGPT-Agenten vor, eine Weiterentwicklung des bekannten KI-Modells, das nun in der Lage ist, komplexe, mehrschrittige Aufgaben unter Verwendung eines eigenen virtuellen Computers zu erledigen. Er vereint die Fähigkeiten von Operatoren zur Web-Interaktion und von Deep Research zur Informationsanalyse, wodurch er beispielsweise Webseiten durchsuchen, Daten filtern, Code ausführen und Präsentationen erstellen kann. Die Quelle betont die Nutzerkontrolle durch Genehmigungsanfragen und die Möglichkeit, Aufgaben zu unterbrechen, während gleichzeitig umfassende Sicherheitsmaßnahmen gegen Risiken wie Prompt Injection und biologische Bedrohungen implementiert wurden.
Wenn KI den Faden verliert und gedanklich abschweift
Große Sprachmodelle scheitern an echten Gesprächen – was ein neues Paper enthüllt
28.07.2025 7 min
Der gegebene Text untersucht die Leistung großer Sprachmodelle (LLMs) in mehrstufigen Konversationen, insbesondere wenn Benutzeranweisungen anfänglich unvollständig sind. Die Forschung zeigt einen erheblichen Leistungsabfall von durchschnittlich 39 % bei LLMs in diesen multi-turn Szenarien im Vergleich zu vollständig spezifizierten, einstufigen Interaktionen. Dieser Rückgang wird hauptsächlich durch eine erhöhte Unzuverlässigkeit (durchschnittlich 112 % Anstieg) und einen geringeren Fähigkeitsverlust (durchschnittlich 16 % Rückgang) verursacht. Die Studie identifiziert mehrere Gründe für dieses Phänomen, einschließlich vorzeitiger Antwortversuche, übermäßiger Abhängigkeit von früheren (falschen) Antworten und einer Tendenz zu wortreichen, oft verwirrenden Reaktionen. Auch Methoden wie das Rekapitulieren von Informationen oder das Reduzieren der Temperatur, die in einfacheren Kontexten helfen, zeigen sich in komplexen, mehrstufigen Gesprächen als weitgehend ineffektiv, was die Notwendigkeit robusterer LLM-Fähigkeiten für solche Interaktionen unterstreicht. Link zum Paper: https://arxiv.org/pdf/2505.06120
Build, Baby, Build! - Amerikas KI-Aktionsplan
KI made in USA - Trumps Aktionsplan, geopolitische Ziele und was das für uns alle bedeuten könnte
25.07.2025 7 min
Das Dokument "America's AI Action Plan" vom Juli 2025 skizziert eine umfassende Strategie der US-Regierung unter Präsident Donald J. Trump, um die globale Vorherrschaft im Bereich der künstlichen Intelligenz (KI) zu erlangen. Der Plan ist in drei Hauptpfeiler unterteilt: Beschleunigung der KI-Innovation, Aufbau der amerikanischen KI-Infrastruktur und Führung in der internationalen KI-Diplomatie und -Sicherheit. Er betont die Notwendigkeit, bürokratische Hürden abzubauen, die freie Meinungsäußerung in KI-Systemen zu gewährleisten, die Entwicklung einer robusten Infrastruktur zu fördern und Amerikas technologische Führung durch Exportkontrollen und internationale Zusammenarbeit zu schützen. Ziel ist es, ein „goldenes Zeitalter“ der wirtschaftlichen Wettbewerbsfähigkeit und nationalen Sicherheit durch KI einzuläuten und gleichzeitig Arbeitsplätze für Amerikaner zu sichern. Das ganze im Detail findest du hier: https://whitehouse.gov/wp-content/uploads/2025/07/Americas-AI-Action-Plan.pdf
LYRA - Ein Meta-Prompt für Prompt Engineering
Wie die KI sich selbst eine Anweisungen schreibt
21.07.2025 7 min
In dieser Folge dreht sich alles um Lyra, einen sogenannten Meta-Prompt, der hilft, Prompts gezielter und qualitativ hochwertiger zu erstellen. Du erfährst, was genau ein Meta-Prompt ist, wie Lyra aufgebaut ist und warum er so mächtig ist – egal ob du mit ChatGPT arbeitest, Texte generierst oder kreative Projekte planst. Auch schauen wir einmal auf die kritischen Aspekte, die es zu diesem Thema gibt. Den Prompt für LYRA findet ihr hier: https://gist.github.com/xthezealot/c873effd9e74225ef3fcfbb9c3a341da
Amüsante KI-Fehler - Wenn ChatGPT & Co. danebenliegen
Warum wir über KI manchmal (sehr) lachen müssen
18.07.2025 6 min
In dieser Folge geht es um die Fehler, die KI-Modelle so machen können. Ob kuriose Übersetzungen, absurde Antworten oder komplett erfundene Fakten — wir zeigen, wie charmant (und manchmal peinlich) Bots danebenliegen können. Dabei erklären wir auch, warum solche Pannen passieren und was sie uns über die Grenzen von Sprachmodellen verraten. Lachgarantie inklusive!
Tokens - Wie ChatGPT und Co. wirklich "lesen" und "sprechen"
Das Alphabet von LLMs
16.07.2025 8 min
In dieser Folge erklären wir, was Tokens eigentlich sind — und warum sie das Fundament jeder modernen KI ist. Anstatt Wörter direkt zu verarbeiten, zerlegen Sprachmodelle Texte in Tokens, kleine Bausteine, die für das Modell besser handhabbar sind. Wir sprechen über verschiedene Methoden, wie Zeichen-, Wort- und Unterwort-Tokenisierung, die heute Standard sind. Außerdem werfen wir einen Blick auf spannende Forschung, die zeigt, wie stark die Tokenisierung die Leistung und das Verständnis eines Modells beeinflusst. Ein Muss für alle, die verstehen wollen, wie KIs Sprache wirklich „lesen“ und „sprechen“.
Geschichte der Künstlichen Intelligenz
Von den Anfängen der KI bis zu ChatGPT
14.07.2025 10 min
In dieser Folge werfen wir einen Blick zurück: Wie hat alles angefangen mit der Künstlichen Intelligenz? Wir erzählen die spannende Geschichte von den frühen Rechenautomaten über die ersten Schachcomputer bis hin zu modernen Sprachmodellen wie ChatGPT. Du erfährst, welche Meilensteine die Entwicklung geprägt haben, wer die großen Köpfe dahinter waren und wie aus Science-Fiction plötzlich Realität wurde.
Berühmte KI-Katastrophen und Fehler
Was passiert, wenn die KI versagt
11.07.2025 7 min
In dieser Folge stellen wir dir berühmte KI-Pannen und Katastrophen vor, die teils spektakulär, teils erschreckend waren. Von Fehlentscheidungen in autonomen Fahrzeugen über rassistische Chatbots bis hin zu fehlerhaften Übersetzungen — wir zeigen, was genau passiert ist, warum es dazu kam und welche wichtigen Lehren wir für die Zukunft der KI daraus ziehen können.
Spiegel der Erinnerung
Können sich LLMs wie Menschen an Vergangenes erinnern?
09.07.2025 6 min
In dieser Folge gehen wir der Frage nach, ob Large Language Models (LLMs) tatsächlich so etwas wie ein Gedächtnis haben. Können sie sich wirklich an frühere Gespräche „erinnern“, oder ist das nur eine gut gemachte Illusion? Wir schauen uns an, wie „Memory“ in modernen Modellen funktioniert, welche technischen Tricks dahinterstecken und warum maschinische Erinnerung ganz anders ist als bei uns Menschen.
Klimafußabdruck von KI
Wie viel Energie verbraucht ein LLM?
07.07.2025 7 min
In dieser Folge sprechen wir über den oft übersehenen Klimafußabdruck von KI. Große Sprachmodelle brauchen enorme Rechenleistung — und damit viel Energie. Wir versuchen zu klären, wie viel CO₂ beim Training und Betrieb von Modellen wie ChatGPT & Co. entsteht, warum das ein wachsendes Problem ist und was getan werden kann, um künstliche Intelligenz nachhaltiger zu gestalten.
MCP-Server: Verbinde die KI mit der Außenwelt
Wie zentrale Serverlösungen Künstliche Intelligenz in die Praxis bringen
04.07.2025 7 min
In dieser Folge schauen wir uns an, warum MCP-Server eine Schlüsselrolle bei der Einführung von KI in Unternehmen spielen. Wir erklären, was hinter dem Konzept steckt, wie solche Server als zentrale Plattformen Daten bündeln, Modelle bereitstellen und KI-Dienste steuern. Außerdem besprechen wir, welche Vorteile sie für Sicherheit, Skalierbarkeit und Effizienz bringen — und warum sie das technische Rückgrat moderner, KI-gestützter Geschäftsprozesse sind.
Prompt Injections - Angriff auf die KI von Innen
Warum Sprachmodelle anfälliger sind für Angriffe, als wir denken
03.07.2025 9 min
In dieser Folge erklären wir das Konzept der Prompt Injections, eine oft übersehene Schwachstelle in großen Sprachmodellen. Wir zeigen, wie Angreifer versteckte Anweisungen in scheinbar harmlose Texte einbauen können, um die KI unbemerkt zu manipulieren. Außerdem sprechen wir darüber, warum diese Angriffe so schwer zu erkennen sind, welche Risiken sie mit sich bringen und was getan werden kann, um KI-Modelle in Zukunft sicherer zu machen.
Projekt Vend - KI als Ladenbesitzer
Wenn eine KI ein Geschäft führen soll
03.07.2025 7 min
In dieser Folge schauen wir uns das spannende Konzept von „Projekt Vend“ an: eine KI, die als eigenständiger Betreiber eines snackautomaten agiert. Wie kann eine künstliche Intelligenz Produkte auswählen, Preise festlegen, Kunden beraten und sogar Marketingstrategien entwickeln? Wir diskutieren, welche Chancen und Risiken das für den Einzelhandel bedeutet — und ob wir bald wirklich bei einem KI-Shopkeeper einkaufen.
Gibberlink: Die geheime Sprache der KI?
Wenn KI sich unterhält, ohne das wir es mitbekommen
02.07.2025 7 min
In dieser Folge geht’s um „Gibberlink“, die mysteriösen, oft unverständlichen Ausgaben, die bei KIs manchmal wie eine eigene Sprache wirken. Wir erklären, warum solche „geheimen“ Codes entstehen, was dahintersteckt und ob KI-Modelle tatsächlich eine Art eigene Sprache entwickeln. Außerdem sprechen wir darüber, was das für die Sicherheit, die Kontrolle und das Verständnis von KI bedeutet.
KI-Agenten: Definition, Unterschiede und Anwendungen
Von stillen Helfern und autonomen Entscheidern
01.07.2025 8 min
In dieser Folge klären wir, was genau KI-Agenten sind und wie sie sich von klassischen Sprachmodellen unterscheiden. Wir sprechen darüber, wie diese Agenten nicht nur antworten, sondern auch eigenständig planen, handeln und Entscheidungen treffen können. Außerdem schauen wir uns spannende Anwendungsbeispiele an — von smarten Assistenten bis hin zu komplexen Automatisierungsaufgaben.
Künstliche Intelligenz: Halluzinationen und ihre Folgen
Wenn die KI Dinge erfindet, die es nicht gibt
30.06.2025 8 min
In dieser Folge sprechen wir über ein oft unterschätztes Problem: Halluzinationen bei KI-Modellen. Was bedeutet es, wenn eine KI plötzlich Fakten erfindet oder überzeugend falsche Antworten liefert? Wir erklären, warum das passiert, welche Folgen es haben kann – zum Beispiel in der Wissenschaft, im Alltag oder bei rechtlichen Fragen – und wie du solche Fehler erkennen und vermeiden kannst.
ChatGPT & Co. - 8 unbesprochene Probleme
Was kaum jemand anspricht – kritische Fragen zur Nutzung von KI
27.06.2025 6 min
In dieser Folge werfen wir einen Blick auf die Schattenseiten von ChatGPT – genauer gesagt auf acht Probleme, über die kaum gesprochen wird. Von versteckten Vorurteilen und Intransparenz über Abhängigkeit und Fehlgebrauch bis hin zu ethischen Fragen: Wir beleuchten die Risiken, die mit der Nutzung großer Sprachmodelle einhergehen. Ziel ist es nicht, KI schlechtzureden – sondern aufzuzeigen, wo kritisches Denken und verantwortungsvoller Umgang gefragt sind. Wenn du wissen willst, was hinter den Kulissen der KI wirklich passiert, hör rein!
DarkBert - Sprachmodell für das Darknet
Wie KI das verborgene Web verstehen lernt
26.06.2025 7 min
In dieser Folge erfährst du alles über DarkBert, ein spezielles KI-Sprachmodell, das eigens dafür entwickelt wurde, das Darknet zu analysieren und zu verstehen. Du lernst, was dieses verborgene Netz eigentlich ist, warum herkömmliche Sprachmodelle hier an ihre Grenzen stoßen und wie DarkBert mit seinen besonderen Fähigkeiten zur Erforschung dieses abgeschotteten Bereichs beiträgt. Außerdem diskutieren wir, welche Chancen und Risiken es mit sich bringt, KI-Technologie auf das Darknet anzuwenden.
Prompt Engineering - KI effektiv nutzen
So verbesserst du die Antworten von KI mit gezielten Prompts
25.06.2025 7 min
In dieser Episode dreht sich alles um Prompt Engineering, einer Schlüsselkompetenz, um die Interaktion mit KI-Modellen wie ChatGPT und Co. optimal zu gestalten. Du erfährst, was genau ein Prompt ist, wie du Kontext und Feinabstimmung nutzt und welche verschiedenen Arten von Prompts – vom einfachen Zero-Shot bis zur ausgefeilten Ketten-von-Gedanken-Technik – dir zur Verfügung stehen.
Einführung in die Generative KI
Wie generative KI Texte, Bilder und Töne erschafft – verständlich erklärt
24.06.2025 8 min
In dieser Episode erfährst du, wie generative künstliche Intelligenz (Gen AI) arbeitet, um aus Daten völlig neue Inhalte zu erstellen – seien es Texte, Bilder, Videos oder Audios. Wir erklären dir Schritt für Schritt, wie große Datenmengen analysiert und in KI-Modelle verwandelt werden, um daraus kreative Werke zu generieren. Außerdem sprechen wir über Grenzen dieser Technologie, wie etwa eingeschränktes Wissen durch vortrainierte Modelle, und zeigen dir im Detail, wie sprach-, bild- und klangbasierte KI-Systeme funktionieren.
Die Drei Horizonte der LLM-Evolution
Vom einfachen LLM zum KI-Agenten
23.06.2025 7 min
In dieser Folge geht’s um die spannende Entwicklung von Large Language Models (LLMs) – also den KI-Systemen hinter Tools wie ChatGPT. Wir schauen uns die drei sogenannten „Horizonte“ an, die die Fähigkeiten dieser Modelle entscheidend verändert haben.
Hallo KI, erzähl mir mehr!
Dein Podcast über künstliche Intelligenz – einfach, verständlich und vollautomatisch erklärt.
22.06.2025 1 min
Hallo und herzlich willkommen bei Prompt mich mal!, deinem KI-generierten Podcast rund um künstliche Intelligenz – für alle, die einfach neugierig sind und mehr verstehen wollen.Hier beantwortet eine KI genau die Fragen, die du dir schon immer gestellt hast:Wie denken eigentlich KI-Modelle wie ChatGPT und Co.? Können Maschinen kreativ sein, Gedichte schreiben oder eigenständig planen? Und was passiert eigentlich in unserem Gehirn, wenn wir KI zur Unterstützung beim Denken nutzen?Wir schauen gemeinsam hinter die Kulissen von KI-Systemen, klären, was KI wirklich weiß, und wie sie uns beeinflusst – heute und in Zukunft.Kein Fachjargon, keine Vorkenntnisse nötig – einfach zuhören, staunen und mitreden.Also mach’s dir bequem und: Prompt mich mal!
KI-Denkprozesse
Einblicke in das Sprachmodell Claude
22.06.2025 6 min
In dieser Episode tauchen wir tief ein in das Innenleben von Claude 3.5 Haiku, einem kompakten KI-Modell von Anthropic. Wir gehen der Frage nach, wie das Modell komplexe Aufgaben wie mehrstufiges Denken, poetische Planung und mehrsprachige Übersetzungen meistert.
Der kognitive Fußabdruck der KI beim Schreiben
Was passiert in unserem Gehirn, wenn wir ChatGPT nutzen?
21.06.2025 6 min
In dieser Folge werfen wir einen kritischen Blick auf die Auswirkungen von KI-Tools wie ChatGPT auf unser Denken– verglichen mit klassischer Internetrecherche oder komplett eigenständigem Schreiben.In einer spannenden Studie mit 54 Teilnehmenden wurde die Gehirnaktivität per EEG gemessen, während die Personen Aufsätze verfassten – mit und ohne Unterstützung durch KI oder Suchmaschine. Zusätzlich analysierte man die geschriebenen Texte mit sprachlichen KI-Tools (NLP) und führte Interviews mit den Beteiligten. Grundlage ist die Studie "Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task" von Nataliya Kosmyna MIT Media Lab Cambridge, MA