<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet href="/stylesheet.xsl?20230712" type="text/xsl"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd" xmlns:psc="http://podlove.org/simple-chapters" xmlns:media="http://search.yahoo.com/mrss/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:fh="http://purl.org/syndication/history/1.0" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:sy="http://purl.org/rss/1.0/modules/syndication/" xmlns:feedpress="https://feed.press/xmlns" xmlns:googleplay="http://www.google.com/schemas/play-podcasts/1.0" xmlns:podcast="https://podcastindex.org/namespace/1.0">
  <channel>
    <feedpress:locale>en</feedpress:locale>
    <atom:link rel="self" type="application/rss+xml" title="Prompt mich mal! — Der Podcast über KI, ChatGPT &amp; kreative Prompts" href="https://letscast.fm/podcasts/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/feed"/>
    <atom:link rel="first" href="https://letscast.fm/podcasts/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/feed"/>
    <language>de</language>
    <title>Prompt mich mal! — Der Podcast über KI, ChatGPT &amp; kreative Prompts</title>
    <description>Prompt mich mal – der (fas) komplett KI-generierte Podcast über KI, ChatGPT &amp; kreative Prompts

Willkommen bei „Prompt mich mal“ – dem vielleicht ungewöhnlichsten KI-Podcast, den du je gehört hast. Warum? Weil hier niemand hinter dem Mikro sitzt. Kein Moderator, keine Redaktion. Sondern: Künstliche Intelligenz.

Jede Folge entsteht aus einem einzigen Prompt – einem Texteingabebefehl an eine KI. Daraus wird alles generiert: die Themenidee, der Inhalt, der Sprachstil, die Stimme, das Timing. Kein Trick, keine Schnitttechnik – sondern ein Experiment: Was passiert, wenn KI komplett selbst einen Podcast produziert?
Worum geht's?Inhaltlich dreht sich alles um künstliche Intelligenz, ChatGPT, Prompting, kreative KI-Nutzung und das, was wir gerade alle lernen: Wie wir mit Maschinen kommunizieren können.Wie schreibe ich einen guten Prompt?
Was kann KI, wenn man sie klug einsetzt – und was nicht?
Wie verändert sich unsere Arbeitsweise durch Tools wie ChatGPT?
Und: Was verrät das alles eigentlich über uns Menschen?Jede Folge nimmt sich einen Aspekt vor – verständlich erklärt, experimentell umgesetzt, komplett KI-generiert.

Was will dieser Podcast zeigen?„Prompt mich mal“ will zeigen, wie leistungsfähig KI schon ist – und wo sie an Grenzen stößt.
Die Inhalte wirken oft durchdacht, die Stimme klingt klar und professionell. Aber trotzdem merkt man schnell: Es fehlt etwas.Die Zwischenfragen.
Das Lachen.
Das Stolpern über eigene Gedanken.
Das Gefühl, dass da wirklich jemand mit dir spricht.Das ist der Punkt: KI kann Struktur, Klarheit und Inhalt. Aber sie ist (noch) kein Mensch.

Warum ausgerechnet ein KI-Podcast über KI – von KI?Weil es die perfekte Metaebene ist.
Weil es Spaß macht.
Und weil es uns alle betrifft: Wer heute mit KI arbeitet – beruflich oder privat – braucht ein Gefühl dafür, wie man mit ihr spricht, wie man sie nutzt, und wie man selbst die Kontrolle behält.Dieser Podcast ist ein Beispiel dafür – im besten (und manchmal auch im schrägsten) Sinne.
Warum solltest du reinhören?Weil du verstehen willst, wie Prompting funktioniert.Weil du wissen willst, was KI heute schon draufhat – und was nicht.Weil du selbst mit KI arbeitest oder einsteigen willst.Oder einfach, weil du neugierig bist, wie ein Podcast ohne Menschen klingt.„Prompt mich mal“ ist ein KI-Experiment zum Anhören.
Ein kreatives Spiel mit Technologie.
Ein kleiner Reality-Check mit Augenzwinkern.

🎧 Jetzt reinhören – und dir selbst ein Bild machen.</description>
    <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a</link>
    <lastBuildDate>Tue, 21 Apr 2026 12:02:32 +0200</lastBuildDate>
    <copyright>Tobias Wachtel</copyright>
    <podcast:locked owner="t.wachtel@gmx.de">yes</podcast:locked>
    <image>
      <url>https://lcdn.letscast.fm/media/podcast/c410f03a/artwork-3000x3000.jpg?t=1751608882</url>
      <title>Prompt mich mal! — Der Podcast über KI, ChatGPT &amp; kreative Prompts</title>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a</link>
    </image>
    <atom:contributor>
      <atom:name>Tobias Wachtel</atom:name>
    </atom:contributor>
    <generator>LetsCast.fm (https://letscast.fm)</generator>
    <itunes:subtitle>Generative KI zum Hören – ganz ohne Vorwissen</itunes:subtitle>
    <itunes:author>Tobias Wachtel</itunes:author>
    <itunes:type>episodic</itunes:type>
    <itunes:new-feed-url>https://letscast.fm/podcasts/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/feed</itunes:new-feed-url>
    <itunes:keywords>Künstliche Intelligenz, Generative KI, KI erklärt, KI Grundlagen, KI im Alltag, Deep Learning, Sprachmodelle, Prompting, ChatGPT, DALL·E, KI Podcast Deutsch, KI für Einsteiger, OpenAI, ChatGPT, KI, Prompt, mich, mal, GenAI, AI, generative KI, Was ist KI einfach erklärt, KI für Anfänger verständlich erklärt, KI im Alltag anwenden lernen, KI für alle verständlich erklärt, KI Wissen in 10 Minuten, KI lernen ohne Vorkenntnisse, Generative KI Schritt für Schritt erklärt, Deep Learning einfach verstehen, Sprachmodelle verstehen lernen, Prompting Techniken für ChatGPT lernen, KI Grundlagen kompakt vermittelt, KI Trends und Entwicklungen verständlich, generative, prompten, promting, google, anthropic, Claude, Gemini, deepseek, meta, llama, </itunes:keywords>
    <itunes:category text="Technology"/>
    <itunes:category text="Education"/>
    <itunes:owner>
      <itunes:name>Tobias Wachtel</itunes:name>
      <itunes:email>t.wachtel@gmx.de</itunes:email>
    </itunes:owner>
    <itunes:image href="https://lcdn.letscast.fm/media/podcast/c410f03a/artwork-3000x3000.jpg?t=1751608882"/>
    <itunes:explicit>no</itunes:explicit>
    <itunes:complete>no</itunes:complete>
    <itunes:block>no</itunes:block>
    <googleplay:author>Tobias Wachtel</googleplay:author>
    <googleplay:summary>Prompt mich mal – der (fas) komplett KI-generierte Podcast über KI, ChatGPT &amp; kreative Prompts

Willkommen bei „Prompt mich mal“ – dem vielleicht ungewöhnlichsten KI-Podcast, den du je gehört hast. Warum? Weil hier niemand hinter dem Mikro sitzt. Kein Moderator, keine Redaktion. Sondern: Künstliche Intelligenz.

Jede Folge entsteht aus einem einzigen Prompt – einem Texteingabebefehl an eine KI. Daraus wird alles generiert: die Themenidee, der Inhalt, der Sprachstil, die Stimme, das Timing. Kein Trick, keine Schnitttechnik – sondern ein Experiment: Was passiert, wenn KI komplett selbst einen Podcast produziert?
Worum geht's?Inhaltlich dreht sich alles um künstliche Intelligenz, ChatGPT, Prompting, kreative KI-Nutzung und das, was wir gerade alle lernen: Wie wir mit Maschinen kommunizieren können.Wie schreibe ich einen guten Prompt?
Was kann KI, wenn man sie klug einsetzt – und was nicht?
Wie verändert sich unsere Arbeitsweise durch Tools wie ChatGPT?
Und: Was verrät das alles eigentlich über uns Menschen?Jede Folge nimmt sich einen Aspekt vor – verständlich erklärt, experimentell umgesetzt, komplett KI-generiert.

Was will dieser Podcast zeigen?„Prompt mich mal“ will zeigen, wie leistungsfähig KI schon ist – und wo sie an Grenzen stößt.
Die Inhalte wirken oft durchdacht, die Stimme klingt klar und professionell. Aber trotzdem merkt man schnell: Es fehlt etwas.Die Zwischenfragen.
Das Lachen.
Das Stolpern über eigene Gedanken.
Das Gefühl, dass da wirklich jemand mit dir spricht.Das ist der Punkt: KI kann Struktur, Klarheit und Inhalt. Aber sie ist (noch) kein Mensch.

Warum ausgerechnet ein KI-Podcast über KI – von KI?Weil es die perfekte Metaebene ist.
Weil es Spaß macht.
Und weil es uns alle betrifft: Wer heute mit KI arbeitet – beruflich oder privat – braucht ein Gefühl dafür, wie man mit ihr spricht, wie man sie nutzt, und wie man selbst die Kontrolle behält.Dieser Podcast ist ein Beispiel dafür – im besten (und manchmal auch im schrägsten) Sinne.
Warum solltest du reinhören?Weil du verstehen willst, wie Prompting funktioniert.Weil du wissen willst, was KI heute schon draufhat – und was nicht.Weil du selbst mit KI arbeitest oder einsteigen willst.Oder einfach, weil du neugierig bist, wie ein Podcast ohne Menschen klingt.„Prompt mich mal“ ist ein KI-Experiment zum Anhören.
Ein kreatives Spiel mit Technologie.
Ein kleiner Reality-Check mit Augenzwinkern.

🎧 Jetzt reinhören – und dir selbst ein Bild machen.</googleplay:summary>
    <googleplay:image href="https://lcdn.letscast.fm/media/podcast/c410f03a/artwork-3000x3000.jpg?t=1751608882"/>
    <googleplay:explicit>no</googleplay:explicit>
    <googleplay:block>no</googleplay:block>
    <item>
      <guid isPermaLink="false">03316854baca4d21ab0137a7ad04ccf2</guid>
      <title>Mit Claude Design wird Design zum Dialog</title>
      <description>
        <![CDATA[<div>Mit Claude Design startet Anthropic ein neues Tool, das den Designprozess grundlegend verändert.</div><div><br>Statt statischer Tools entsteht eine kollaborative Umgebung, in der Textanweisungen direkt in visuelle Mockups, interaktive Prototypen und Präsentationen übersetzt werden. Designs lassen sich anschließend in Echtzeit über Kommentare oder direkte Anpassungen weiterentwickeln.</div><div><br>Ein zentraler Unterschied: Die Integration von Designsystemen.<br>Farben, Schriftarten und Markenrichtlinien werden automatisch berücksichtigt, sodass konsistente Ergebnisse entstehen – ohne manuellen Aufwand.</div><div><br>Zudem können bestehende Dokumente oder Codebasen als Kontext eingebunden und fertige Ergebnisse nahtlos in Tools wie Claude Code oder Canva überführt werden.</div><div><br>Die Folge zeigt, warum Design sich gerade von einem Tool-Prozess zu einem kollaborativen System entwickelt – und was das für kreative Arbeit bedeutet.</div>]]>
      </description>
      <pubDate>Tue, 21 Apr 2026 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/e392eeaa.mp3?t=1776763524" length="19576790" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Mit Claude Design startet Anthropic ein neues Tool, das den Designprozess grundlegend verändert.</div><div><br>Statt statischer Tools entsteht eine kollaborative Umgebung, in der Textanweisungen direkt in visuelle Mockups, interaktive Prototypen und Präsentationen übersetzt werden. Designs lassen sich anschließend in Echtzeit über Kommentare oder direkte Anpassungen weiterentwickeln.</div><div><br>Ein zentraler Unterschied: Die Integration von Designsystemen.<br>Farben, Schriftarten und Markenrichtlinien werden automatisch berücksichtigt, sodass konsistente Ergebnisse entstehen – ohne manuellen Aufwand.</div><div><br>Zudem können bestehende Dokumente oder Codebasen als Kontext eingebunden und fertige Ergebnisse nahtlos in Tools wie Claude Code oder Canva überführt werden.</div><div><br>Die Folge zeigt, warum Design sich gerade von einem Tool-Prozess zu einem kollaborativen System entwickelt – und was das für kreative Arbeit bedeutet.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/mit-claude-design-wird-design-zum-dialog</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/mit-claude-design-wird-design-zum-dialog"/>
      <itunes:title>Mit Claude Design wird Design zum Dialog</itunes:title>
      <itunes:subtitle>Wie KI und Mensch gemeinsam visuelle Systeme bauen</itunes:subtitle>
      <itunes:duration>00:20:24</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>95</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Mit Claude Design startet Anthropic ein neues Tool, das den Designprozess grundlegend verändert.</div><div><br>Statt statischer Tools entsteht eine kollaborative Umgebung, in der Textanweisungen direkt in visuelle Mockups, interaktive Prototypen und Präsentationen übersetzt werden. Designs lassen sich anschließend in Echtzeit über Kommentare oder direkte Anpassungen weiterentwickeln.</div><div><br>Ein zentraler Unterschied: Die Integration von Designsystemen.<br>Farben, Schriftarten und Markenrichtlinien werden automatisch berücksichtigt, sodass konsistente Ergebnisse entstehen – ohne manuellen Aufwand.</div><div><br>Zudem können bestehende Dokumente oder Codebasen als Kontext eingebunden und fertige Ergebnisse nahtlos in Tools wie Claude Code oder Canva überführt werden.</div><div><br>Die Folge zeigt, warum Design sich gerade von einem Tool-Prozess zu einem kollaborativen System entwickelt – und was das für kreative Arbeit bedeutet.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, AI, Claude Design, Design Tools, UX Design, UI Design, Prototyping, Mockups, Kollaboration, Designsysteme, Branding, Canva, AI Design, Creative Work, Produktivität, Digitalisierung, Automation, AI Workflow, Future of Work, Design Prozesse, Visual Design, AI Tools, Innovation, User Experience, Interface Design, AI Trends, Creative AI, No Code, Low Code, Design Zukunft, Claude Code, Anthropic, 2026</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">f17ce0a1d52e4d6982bfd989cd0a7071</guid>
      <title>4 Updates an einem Tag: Claude 4.7, GPT Rosalind, Perplexity Personal Computer &amp; Codex for (almost) everything</title>
      <description>
        <![CDATA[<div>Die KI-Welt erlebt gerade eine ungewöhnlich dichte Welle an Innovationen – und sie zeigen alle in dieselbe Richtung.</div><div>Mit <strong>Claude Opus 4.7</strong> wird ein Modell veröffentlicht, das speziell für komplexe, langfristige Aufgaben und agentische Workflows optimiert ist.&nbsp;</div><div>Parallel dazu erweitert <strong>OpenAI "Codex for (almost) everything"</strong> zu einem System, das direkt auf dem Computer arbeitet, klickt und eigenständig Aufgaben ausführt.&nbsp;</div><div>Mit <strong>GPT-Rosalind</strong> entsteht erstmals ein spezialisierter KI-Ansatz für die Life Sciences – von Literaturanalyse bis experimenteller Planung.&nbsp;</div><div>Und mit <strong>Perplexity „Personal Computer“</strong> sehen wir Agenten, die über Wochen oder Monate hinweg autonom arbeiten können.&nbsp;</div><div>Was auf den ersten Blick wie einzelne Releases wirkt, zeigt in Summe einen klaren Trend:<br>&nbsp;KI entwickelt sich weg vom einzelnen Modell – hin zu Systemen, Agenten und spezialisierter Intelligenz.</div>]]>
      </description>
      <pubDate>Fri, 17 Apr 2026 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/c7ac84c0.mp3?t=1776407966" length="15645048" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Die KI-Welt erlebt gerade eine ungewöhnlich dichte Welle an Innovationen – und sie zeigen alle in dieselbe Richtung.</div><div>Mit <strong>Claude Opus 4.7</strong> wird ein Modell veröffentlicht, das speziell für komplexe, langfristige Aufgaben und agentische Workflows optimiert ist.&nbsp;</div><div>Parallel dazu erweitert <strong>OpenAI "Codex for (almost) everything"</strong> zu einem System, das direkt auf dem Computer arbeitet, klickt und eigenständig Aufgaben ausführt.&nbsp;</div><div>Mit <strong>GPT-Rosalind</strong> entsteht erstmals ein spezialisierter KI-Ansatz für die Life Sciences – von Literaturanalyse bis experimenteller Planung.&nbsp;</div><div>Und mit <strong>Perplexity „Personal Computer“</strong> sehen wir Agenten, die über Wochen oder Monate hinweg autonom arbeiten können.&nbsp;</div><div>Was auf den ersten Blick wie einzelne Releases wirkt, zeigt in Summe einen klaren Trend:<br>&nbsp;KI entwickelt sich weg vom einzelnen Modell – hin zu Systemen, Agenten und spezialisierter Intelligenz.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/4-updates-an-einem-tag-claude-4-7-gpt-rosalind-perplexity-personal-computer-codex-for-almost-everything</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/4-updates-an-einem-tag-claude-4-7-gpt-rosalind-perplexity-personal-computer-codex-for-almost-everything"/>
      <itunes:title>4 Updates an einem Tag: Claude 4.7, GPT Rosalind, Perplexity Personal Computer &amp; Codex for (almost) everything</itunes:title>
      <itunes:subtitle>Warum diese Releases mehr sind als nur neue Modelle</itunes:subtitle>
      <itunes:duration>00:16:18</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>94</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Die KI-Welt erlebt gerade eine ungewöhnlich dichte Welle an Innovationen – und sie zeigen alle in dieselbe Richtung.</div><div>Mit <strong>Claude Opus 4.7</strong> wird ein Modell veröffentlicht, das speziell für komplexe, langfristige Aufgaben und agentische Workflows optimiert ist.&nbsp;</div><div>Parallel dazu erweitert <strong>OpenAI "Codex for (almost) everything"</strong> zu einem System, das direkt auf dem Computer arbeitet, klickt und eigenständig Aufgaben ausführt.&nbsp;</div><div>Mit <strong>GPT-Rosalind</strong> entsteht erstmals ein spezialisierter KI-Ansatz für die Life Sciences – von Literaturanalyse bis experimenteller Planung.&nbsp;</div><div>Und mit <strong>Perplexity „Personal Computer“</strong> sehen wir Agenten, die über Wochen oder Monate hinweg autonom arbeiten können.&nbsp;</div><div>Was auf den ersten Blick wie einzelne Releases wirkt, zeigt in Summe einen klaren Trend:<br>&nbsp;KI entwickelt sich weg vom einzelnen Modell – hin zu Systemen, Agenten und spezialisierter Intelligenz.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, AI, Claude Opus 4.7, Perplexity personal Computer, GPT Rosalind, Codex, AI Agents, Multi Agent, Automation, Softwareentwicklung, Coding, AI Trends, Future of Work, Machine Learning, LLM, Tech Innovation, AI Workflow, Orchestrierung, AI Engineering, Life Sciences AI, Biotech, Developer Tools, AI Use Cases, Tech Future, AI Architecture, AI Productivity, Innovation, Digitalisierung, AI Systeme, Knowledge Work</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">1d509dd01a54420aab7e26f88fbb32ea</guid>
      <title>KI skaliert jetzt anders und die meisten unterschätzen, was hier gerade passiert</title>
      <description>
        <![CDATA[<div>KI arbeitet nicht mehr alleine, sondern im Team. Und genau das verändert gerade alles.<br><br></div><div>Statt einzelner Modelle entstehen koordinierte Teams aus spezialisierten Agenten, die Aufgaben parallel bearbeiten, sich abstimmen und gemeinsam komplexe Projekte umsetzen.</div><div><br>Das Ergebnis: Anwendungen, die früher Monate gebraucht haben, entstehen plötzlich in wenigen Tagen.</div><div>Doch genau hier liegt auch die Herausforderung.</div><div><br>Die Rolle des Menschen verschiebt sich – weg von der direkten Umsetzung hin zur Orchestrierung. Gleichzeitig entstehen neue Risiken, neue Abhängigkeiten und eine Dynamik, die viele aktuell noch unterschätzen.</div><div><br>Die Folge zeigt, warum KI gerade anders skaliert – und was das für die Zukunft von Arbeit, Softwareentwicklung und Automatisierung bedeutet.</div>]]>
      </description>
      <pubDate>Mon, 13 Apr 2026 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/f77b53b3.mp3?t=1775992180" length="26006189" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>KI arbeitet nicht mehr alleine, sondern im Team. Und genau das verändert gerade alles.<br><br></div><div>Statt einzelner Modelle entstehen koordinierte Teams aus spezialisierten Agenten, die Aufgaben parallel bearbeiten, sich abstimmen und gemeinsam komplexe Projekte umsetzen.</div><div><br>Das Ergebnis: Anwendungen, die früher Monate gebraucht haben, entstehen plötzlich in wenigen Tagen.</div><div>Doch genau hier liegt auch die Herausforderung.</div><div><br>Die Rolle des Menschen verschiebt sich – weg von der direkten Umsetzung hin zur Orchestrierung. Gleichzeitig entstehen neue Risiken, neue Abhängigkeiten und eine Dynamik, die viele aktuell noch unterschätzen.</div><div><br>Die Folge zeigt, warum KI gerade anders skaliert – und was das für die Zukunft von Arbeit, Softwareentwicklung und Automatisierung bedeutet.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-skaliert-jetzt-anders-und-die-meisten-unterschaetzen-was-hier-gerade-passiert</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-skaliert-jetzt-anders-und-die-meisten-unterschaetzen-was-hier-gerade-passiert"/>
      <itunes:title>KI skaliert jetzt anders und die meisten unterschätzen, was hier gerade passiert</itunes:title>
      <itunes:subtitle>Wie Multi-Agent-Systeme die nächste Stufe der KI einläuten</itunes:subtitle>
      <itunes:duration>00:26:56</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>93</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>KI arbeitet nicht mehr alleine, sondern im Team. Und genau das verändert gerade alles.<br><br></div><div>Statt einzelner Modelle entstehen koordinierte Teams aus spezialisierten Agenten, die Aufgaben parallel bearbeiten, sich abstimmen und gemeinsam komplexe Projekte umsetzen.</div><div><br>Das Ergebnis: Anwendungen, die früher Monate gebraucht haben, entstehen plötzlich in wenigen Tagen.</div><div>Doch genau hier liegt auch die Herausforderung.</div><div><br>Die Rolle des Menschen verschiebt sich – weg von der direkten Umsetzung hin zur Orchestrierung. Gleichzeitig entstehen neue Risiken, neue Abhängigkeiten und eine Dynamik, die viele aktuell noch unterschätzen.</div><div><br>Die Folge zeigt, warum KI gerade anders skaliert – und was das für die Zukunft von Arbeit, Softwareentwicklung und Automatisierung bedeutet.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, AI, Multi Agent, AI Agents, Agent Systems, Automation, Softwareentwicklung, Coding, AI Trends, Future of Work, Produktivität, Digitalisierung, Machine Learning, LLM, Tech Innovation, AI Workflow, Orchestrierung, AI Engineering, No Code, Low Code, AI Transformation, Developer Tools, AI Use Cases, Tech Future, AI Architecture, AI Productivity, Innovation, Programmierung, AI Revolution, Knowledge Work</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">4401e1f2722a4b199a382746275c4954</guid>
      <title>Claude Code ist geleakt – und das hat Konsequenzen</title>
      <description>
        <![CDATA[<div>Ein massives Datenleck sorgt aktuell für Aufsehen in der KI-Welt: Der vollständige Quellcode des Programmier-Tools „Claude Code“ wurde versehentlich veröffentlicht – und verbreitete sich innerhalb kürzester Zeit im Internet.</div><div>Über 500.000 Zeilen Code gaben tiefe Einblicke in interne Funktionen, Produkt-Roadmaps und die Architektur moderner KI-Tools. Gleichzeitig entstanden erste Nachfolgeprojekte, während Sicherheitsforscher auf kritische Schwachstellen hinweisen.</div><div>Doch damit nicht genug: Cyberkriminelle nutzten das enorme Interesse aus und verbreiteten manipulierte Versionen des Codes, um Schadsoftware zu platzieren.</div><div>Die Folge zeigt, was dieser Leak wirklich bedeutet – für Entwickler, Unternehmen und die Zukunft von KI-Systemen.</div>]]>
      </description>
      <pubDate>Tue, 07 Apr 2026 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/d4d6f2f8.mp3?t=1775539783" length="22452162" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Ein massives Datenleck sorgt aktuell für Aufsehen in der KI-Welt: Der vollständige Quellcode des Programmier-Tools „Claude Code“ wurde versehentlich veröffentlicht – und verbreitete sich innerhalb kürzester Zeit im Internet.</div><div>Über 500.000 Zeilen Code gaben tiefe Einblicke in interne Funktionen, Produkt-Roadmaps und die Architektur moderner KI-Tools. Gleichzeitig entstanden erste Nachfolgeprojekte, während Sicherheitsforscher auf kritische Schwachstellen hinweisen.</div><div>Doch damit nicht genug: Cyberkriminelle nutzten das enorme Interesse aus und verbreiteten manipulierte Versionen des Codes, um Schadsoftware zu platzieren.</div><div>Die Folge zeigt, was dieser Leak wirklich bedeutet – für Entwickler, Unternehmen und die Zukunft von KI-Systemen.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/claude-code-ist-geleakt-und-das-hat-konsequenzen</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/claude-code-ist-geleakt-und-das-hat-konsequenzen"/>
      <itunes:title>Claude Code ist geleakt – und das hat Konsequenzen</itunes:title>
      <itunes:subtitle>Warum der Claude-Leak mehr ist als nur ein Fehler</itunes:subtitle>
      <itunes:duration>00:23:13</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>92</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Ein massives Datenleck sorgt aktuell für Aufsehen in der KI-Welt: Der vollständige Quellcode des Programmier-Tools „Claude Code“ wurde versehentlich veröffentlicht – und verbreitete sich innerhalb kürzester Zeit im Internet.</div><div>Über 500.000 Zeilen Code gaben tiefe Einblicke in interne Funktionen, Produkt-Roadmaps und die Architektur moderner KI-Tools. Gleichzeitig entstanden erste Nachfolgeprojekte, während Sicherheitsforscher auf kritische Schwachstellen hinweisen.</div><div>Doch damit nicht genug: Cyberkriminelle nutzten das enorme Interesse aus und verbreiteten manipulierte Versionen des Codes, um Schadsoftware zu platzieren.</div><div>Die Folge zeigt, was dieser Leak wirklich bedeutet – für Entwickler, Unternehmen und die Zukunft von KI-Systemen.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, AI, Claude, Anthropic, Claude Code, KI Leak, Datenleck, GitHub, TypeScript, AI Tools, Programmierung KI, Cybersecurity, Infostealer, Vidar, Malware, Entwickler Tools, Open Source, AI Sicherheit, LLM, KI Entwicklung, Tech News, Software Leak, AI Risiken, Hacker, Security, Code Leak, AI Trends, Digitalisierung, Machine Learning, Dev Tools, 2026, </itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">1504f7c0d13449909732b5821299df5a</guid>
      <title>Die KI als dein persönlicher "Chief of Staff"</title>
      <description>
        <![CDATA[<div>Was wäre, wenn KI nicht einfach nur antwortet… sondern deine Arbeit strukturiert, mitdenkt und sich an dich anpasst?<br><br>In dieser Folge geht es um ein personalisiertes AI-Setup, das wie ein „Chief of Staff“ funktioniert: Es organisiert Aufgaben, strukturiert Wissen und unterstützt aktiv bei der Erstellung von Inhalten.<br><br>Gerne werden diese Agenten AI OS genannt, was in der Realität aber nicht korrekt ist.&nbsp;<br><br></div><div>Im Zentrum steht eine klar definierte Systemarchitektur – mit festen Prozessen wie Start, Ingest und Review. Ergänzt wird das Ganze durch automatisierte Wissensverarbeitung und ein Lernprotokoll, das die KI kontinuierlich an den eigenen Arbeitsstil anpasst.</div><div><br>Das Ergebnis: weniger Chaos, mehr Klarheit und ein System, das nicht nur reagiert, sondern aktiv mitdenkt.</div>]]>
      </description>
      <pubDate>Thu, 02 Apr 2026 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/9a4b260c.mp3?t=1775122286" length="24224436" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Was wäre, wenn KI nicht einfach nur antwortet… sondern deine Arbeit strukturiert, mitdenkt und sich an dich anpasst?<br><br>In dieser Folge geht es um ein personalisiertes AI-Setup, das wie ein „Chief of Staff“ funktioniert: Es organisiert Aufgaben, strukturiert Wissen und unterstützt aktiv bei der Erstellung von Inhalten.<br><br>Gerne werden diese Agenten AI OS genannt, was in der Realität aber nicht korrekt ist.&nbsp;<br><br></div><div>Im Zentrum steht eine klar definierte Systemarchitektur – mit festen Prozessen wie Start, Ingest und Review. Ergänzt wird das Ganze durch automatisierte Wissensverarbeitung und ein Lernprotokoll, das die KI kontinuierlich an den eigenen Arbeitsstil anpasst.</div><div><br>Das Ergebnis: weniger Chaos, mehr Klarheit und ein System, das nicht nur reagiert, sondern aktiv mitdenkt.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/die-ki-als-dein-persoenlicher-chief-of-staff</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/die-ki-als-dein-persoenlicher-chief-of-staff"/>
      <itunes:title>Die KI als dein persönlicher "Chief of Staff"</itunes:title>
      <itunes:subtitle>Wie sich Agenten als persönliche "AI OS"-Systeme etablieren</itunes:subtitle>
      <itunes:duration>00:25:04</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>91</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Was wäre, wenn KI nicht einfach nur antwortet… sondern deine Arbeit strukturiert, mitdenkt und sich an dich anpasst?<br><br>In dieser Folge geht es um ein personalisiertes AI-Setup, das wie ein „Chief of Staff“ funktioniert: Es organisiert Aufgaben, strukturiert Wissen und unterstützt aktiv bei der Erstellung von Inhalten.<br><br>Gerne werden diese Agenten AI OS genannt, was in der Realität aber nicht korrekt ist.&nbsp;<br><br></div><div>Im Zentrum steht eine klar definierte Systemarchitektur – mit festen Prozessen wie Start, Ingest und Review. Ergänzt wird das Ganze durch automatisierte Wissensverarbeitung und ein Lernprotokoll, das die KI kontinuierlich an den eigenen Arbeitsstil anpasst.</div><div><br>Das Ergebnis: weniger Chaos, mehr Klarheit und ein System, das nicht nur reagiert, sondern aktiv mitdenkt.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, AI, Obsidian, Second Brain, AI System, KI Workflow, Produktivität, Wissensmanagement, Personal AI, Chief of Staff KI, Automatisierung, Make.com, n8n, Knowledge Management, AI Tools, Prompting, AI Agent, Workflow Automatisierung, Content Creation, Podcast Workflow, Obsidian Vault, Zettelkasten, Digitales Arbeiten, AI Organisation, Selbstorganisation, AI Productivity, KI Systemaufbau, Personal Knowledge Management, AI Setup, Effizienz, 2026</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">d9a1277e85854bcb898ab6072d84d97a</guid>
      <title>Dark AI und die Sicherheit der High-End-Modelle – und kaum jemand spricht darüber</title>
      <description>
        <![CDATA[<div>Die Entwicklung künstlicher Intelligenz erreicht aktuell eine neue Stufe: Modelle werden leistungsfähiger, effizienter und vielseitiger – insbesondere in Bereichen wie Programmierung und Cybersicherheit.</div><div>Doch mit diesem Fortschritt wachsen auch die Risiken.<br><br></div><div>Ein geleakter Bericht gibt Einblicke in ein bislang unbekanntes KI-Modell mit außergewöhnlichen Fähigkeiten. Gleichzeitig zeigt eine aktuelle Analyse, dass immer mehr Chatbots existieren, die gezielt Schutzmechanismen umgehen und problematische Inhalte ermöglichen.</div><div><br>Damit entsteht ein Spannungsfeld: Während große Unternehmen die Grenzen des technologisch Machbaren verschieben, entstehen parallel Systeme, die genau diese Fortschritte für potenziell schädliche Zwecke nutzen.</div><div>Die zentrale Frage ist nicht mehr nur, was KI kann – sondern wer kontrolliert, wie sie eingesetzt wird.</div>]]>
      </description>
      <pubDate>Mon, 30 Mar 2026 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/8a77fb77.mp3?t=1774641476" length="21022818" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Die Entwicklung künstlicher Intelligenz erreicht aktuell eine neue Stufe: Modelle werden leistungsfähiger, effizienter und vielseitiger – insbesondere in Bereichen wie Programmierung und Cybersicherheit.</div><div>Doch mit diesem Fortschritt wachsen auch die Risiken.<br><br></div><div>Ein geleakter Bericht gibt Einblicke in ein bislang unbekanntes KI-Modell mit außergewöhnlichen Fähigkeiten. Gleichzeitig zeigt eine aktuelle Analyse, dass immer mehr Chatbots existieren, die gezielt Schutzmechanismen umgehen und problematische Inhalte ermöglichen.</div><div><br>Damit entsteht ein Spannungsfeld: Während große Unternehmen die Grenzen des technologisch Machbaren verschieben, entstehen parallel Systeme, die genau diese Fortschritte für potenziell schädliche Zwecke nutzen.</div><div>Die zentrale Frage ist nicht mehr nur, was KI kann – sondern wer kontrolliert, wie sie eingesetzt wird.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/dark-ai-und-die-sicherheit-der-high-end-modelle-und-kaum-jemand-spricht-darueber</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/dark-ai-und-die-sicherheit-der-high-end-modelle-und-kaum-jemand-spricht-darueber"/>
      <itunes:title>Dark AI und die Sicherheit der High-End-Modelle – und kaum jemand spricht darüber</itunes:title>
      <itunes:subtitle>Neue Modelle, enorme Fähigkeiten und die Frage nach Kontrolle</itunes:subtitle>
      <itunes:duration>00:21:44</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>90</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Die Entwicklung künstlicher Intelligenz erreicht aktuell eine neue Stufe: Modelle werden leistungsfähiger, effizienter und vielseitiger – insbesondere in Bereichen wie Programmierung und Cybersicherheit.</div><div>Doch mit diesem Fortschritt wachsen auch die Risiken.<br><br></div><div>Ein geleakter Bericht gibt Einblicke in ein bislang unbekanntes KI-Modell mit außergewöhnlichen Fähigkeiten. Gleichzeitig zeigt eine aktuelle Analyse, dass immer mehr Chatbots existieren, die gezielt Schutzmechanismen umgehen und problematische Inhalte ermöglichen.</div><div><br>Damit entsteht ein Spannungsfeld: Während große Unternehmen die Grenzen des technologisch Machbaren verschieben, entstehen parallel Systeme, die genau diese Fortschritte für potenziell schädliche Zwecke nutzen.</div><div>Die zentrale Frage ist nicht mehr nur, was KI kann – sondern wer kontrolliert, wie sie eingesetzt wird.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, AI, ChatGPT, Claude, Anthropic, KI Sicherheit, AI Safety, Datenleck, KI Risiko, Cybersecurity, Programmierung KI, LLM, Large Language Models, KI Regulierung, EU AI Act, gefährliche Chatbots, Content Moderation, KI Missbrauch, Technologie Trends, Digitalisierung, Innovation, Machine Learning, AI Ethics, KI Kontrolle, OpenAI, Graphika, Dark AI, Zukunft der KI, KI Entwicklung, Tech News, Claude Mythos, Spud, </itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">4cf462875a9d44afa9275026e5acd5c7</guid>
      <title>Claude Code vs. Claude Co-Work</title>
      <description>
        <![CDATA[<div>Mit <strong>Claude Code</strong> und <strong>Claude Cowork</strong> bringt <strong>Anthropic</strong> zwei KI-Tools auf den Markt, die zeigen, wohin sich künstliche Intelligenz entwickelt:<br> weg vom Chatbot – hin zum <strong>autonomen Agenten</strong>.</div><div><strong>Claude Code</strong> ist auf Softwareentwicklung spezialisiert.<br> Es kann:</div><ul><li>&nbsp;Code analysieren und refaktorieren&nbsp;</li><li>&nbsp;Terminal-Befehle ausführen&nbsp;</li><li>&nbsp;komplexe Programmieraufgaben eigenständig bearbeiten&nbsp;</li></ul><div><strong>Claude Cowork</strong> überträgt dieses Prinzip auf die Wissensarbeit.<br> Mit Hilfe von Konnektoren kann es:</div><ul><li>&nbsp;Büroprozesse automatisieren&nbsp;</li><li>&nbsp;Daten aus verschiedenen Systemen verknüpfen&nbsp;</li><li>&nbsp;Workflows planen und ausführen&nbsp;</li></ul><div>Ein zentrales Konzept sind sogenannte <strong>Skills</strong>:<br> Modulare Wissensbausteine, die es der KI ermöglichen, spezifische Aufgaben effizient und wiederholbar zu lösen.</div><div>Beide Systeme zeigen einen klaren Trend:<br>KI wird nicht mehr nur zur Unterstützung genutzt, sondern übernimmt zunehmend <strong>komplette Arbeitsprozesse</strong>.</div><div>Gleichzeitig wächst die Bedeutung von:</div><ul><li><strong>Sicherheitsmechanismen</strong></li><li><strong>Governance-Strukturen</strong></li><li>&nbsp;und klaren Einsatzregeln in Unternehmen&nbsp;</li></ul><div>Die zentrale Frage lautet daher:<br>&nbsp;<strong>Welche Aufgaben wollen wir wirklich an autonome Systeme abgeben?</strong></div>]]>
      </description>
      <pubDate>Mon, 23 Mar 2026 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/f50b8884.mp3?t=1774257571" length="18484624" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Mit <strong>Claude Code</strong> und <strong>Claude Cowork</strong> bringt <strong>Anthropic</strong> zwei KI-Tools auf den Markt, die zeigen, wohin sich künstliche Intelligenz entwickelt:<br> weg vom Chatbot – hin zum <strong>autonomen Agenten</strong>.</div><div><strong>Claude Code</strong> ist auf Softwareentwicklung spezialisiert.<br> Es kann:</div><ul><li>&nbsp;Code analysieren und refaktorieren&nbsp;</li><li>&nbsp;Terminal-Befehle ausführen&nbsp;</li><li>&nbsp;komplexe Programmieraufgaben eigenständig bearbeiten&nbsp;</li></ul><div><strong>Claude Cowork</strong> überträgt dieses Prinzip auf die Wissensarbeit.<br> Mit Hilfe von Konnektoren kann es:</div><ul><li>&nbsp;Büroprozesse automatisieren&nbsp;</li><li>&nbsp;Daten aus verschiedenen Systemen verknüpfen&nbsp;</li><li>&nbsp;Workflows planen und ausführen&nbsp;</li></ul><div>Ein zentrales Konzept sind sogenannte <strong>Skills</strong>:<br> Modulare Wissensbausteine, die es der KI ermöglichen, spezifische Aufgaben effizient und wiederholbar zu lösen.</div><div>Beide Systeme zeigen einen klaren Trend:<br>KI wird nicht mehr nur zur Unterstützung genutzt, sondern übernimmt zunehmend <strong>komplette Arbeitsprozesse</strong>.</div><div>Gleichzeitig wächst die Bedeutung von:</div><ul><li><strong>Sicherheitsmechanismen</strong></li><li><strong>Governance-Strukturen</strong></li><li>&nbsp;und klaren Einsatzregeln in Unternehmen&nbsp;</li></ul><div>Die zentrale Frage lautet daher:<br>&nbsp;<strong>Welche Aufgaben wollen wir wirklich an autonome Systeme abgeben?</strong></div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/claude-code-vs-claude-co-work</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/claude-code-vs-claude-co-work"/>
      <itunes:title>Claude Code vs. Claude Co-Work</itunes:title>
      <itunes:subtitle>Die KI, die programmiert vs. die KI, die organisiert</itunes:subtitle>
      <itunes:duration>00:19:05</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>89</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Mit <strong>Claude Code</strong> und <strong>Claude Cowork</strong> bringt <strong>Anthropic</strong> zwei KI-Tools auf den Markt, die zeigen, wohin sich künstliche Intelligenz entwickelt:<br> weg vom Chatbot – hin zum <strong>autonomen Agenten</strong>.</div><div><strong>Claude Code</strong> ist auf Softwareentwicklung spezialisiert.<br> Es kann:</div><ul><li>&nbsp;Code analysieren und refaktorieren&nbsp;</li><li>&nbsp;Terminal-Befehle ausführen&nbsp;</li><li>&nbsp;komplexe Programmieraufgaben eigenständig bearbeiten&nbsp;</li></ul><div><strong>Claude Cowork</strong> überträgt dieses Prinzip auf die Wissensarbeit.<br> Mit Hilfe von Konnektoren kann es:</div><ul><li>&nbsp;Büroprozesse automatisieren&nbsp;</li><li>&nbsp;Daten aus verschiedenen Systemen verknüpfen&nbsp;</li><li>&nbsp;Workflows planen und ausführen&nbsp;</li></ul><div>Ein zentrales Konzept sind sogenannte <strong>Skills</strong>:<br> Modulare Wissensbausteine, die es der KI ermöglichen, spezifische Aufgaben effizient und wiederholbar zu lösen.</div><div>Beide Systeme zeigen einen klaren Trend:<br>KI wird nicht mehr nur zur Unterstützung genutzt, sondern übernimmt zunehmend <strong>komplette Arbeitsprozesse</strong>.</div><div>Gleichzeitig wächst die Bedeutung von:</div><ul><li><strong>Sicherheitsmechanismen</strong></li><li><strong>Governance-Strukturen</strong></li><li>&nbsp;und klaren Einsatzregeln in Unternehmen&nbsp;</li></ul><div>Die zentrale Frage lautet daher:<br>&nbsp;<strong>Welche Aufgaben wollen wir wirklich an autonome Systeme abgeben?</strong></div>]]>
      </itunes:summary>
      <itunes:keywords>Claude Code, Claude Cowork, Anthropic, Künstliche Intelligenz, KI-Tools, agentische KI, Softwareentwicklung, Automatisierung, Büroprozesse, Workflows, Konnektoren, Skills, Produktivität, Digitalisierung, Zukunft der Arbeit, AI Agents, Coding, Wissensarbeit, Innovation, Tech Trends, 2026, ki, ai, gen ai, genai, generative ki, </itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">4a3646fa34ce485fa4a2f018b8754c42</guid>
      <title>Hat ChatGPT wirklich Krebs geheilt?</title>
      <description>
        <![CDATA[<div>Die Geschichte klingt spektakulär:<br>Eine Hündin wird von Krebs geheilt – und plötzlich steht <strong>KI</strong> im Mittelpunkt der Schlagzeilen.</div><div>Doch der Blick hinter die Geschichte zeigt ein differenzierteres Bild.<br>Der Besitzer nutzte <strong>ChatGPT</strong> und andere Tools, um wissenschaftliche Informationen zu recherchieren und besser zu verstehen.</div><div>Die eigentliche medizinische Arbeit jedoch wurde von Experten geleistet:<br>Die Entwicklung eines mRNA-basierten Ansatzes basierte auf <strong>Genomik, Laborkompetenz und medizinischer Forschung</strong>.</div><div>KI spielte dabei eine unterstützende Rolle:</div><ul><li>Zugang zu komplexer Literatur</li><li>Strukturierung von Informationen</li><li>bessere Entscheidungsgrundlagen</li></ul><div>Aber sie ersetzte <strong>weder Forschung noch medizinische Infrastruktur</strong>.</div><div>Der Fall zeigt deutlich:<br>👉 KI kann Prozesse beschleunigen und Wissen zugänglich machen<br>👉 aber echte Durchbrüche entstehen weiterhin durch menschliche Expertise.</div>]]>
      </description>
      <pubDate>Tue, 17 Mar 2026 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/56e83246.mp3?t=1773740117" length="11470889" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Die Geschichte klingt spektakulär:<br>Eine Hündin wird von Krebs geheilt – und plötzlich steht <strong>KI</strong> im Mittelpunkt der Schlagzeilen.</div><div>Doch der Blick hinter die Geschichte zeigt ein differenzierteres Bild.<br>Der Besitzer nutzte <strong>ChatGPT</strong> und andere Tools, um wissenschaftliche Informationen zu recherchieren und besser zu verstehen.</div><div>Die eigentliche medizinische Arbeit jedoch wurde von Experten geleistet:<br>Die Entwicklung eines mRNA-basierten Ansatzes basierte auf <strong>Genomik, Laborkompetenz und medizinischer Forschung</strong>.</div><div>KI spielte dabei eine unterstützende Rolle:</div><ul><li>Zugang zu komplexer Literatur</li><li>Strukturierung von Informationen</li><li>bessere Entscheidungsgrundlagen</li></ul><div>Aber sie ersetzte <strong>weder Forschung noch medizinische Infrastruktur</strong>.</div><div>Der Fall zeigt deutlich:<br>👉 KI kann Prozesse beschleunigen und Wissen zugänglich machen<br>👉 aber echte Durchbrüche entstehen weiterhin durch menschliche Expertise.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/hat-chatgpt-wirklich-krebs-geheilt</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/hat-chatgpt-wirklich-krebs-geheilt"/>
      <itunes:title>Hat ChatGPT wirklich Krebs geheilt?</itunes:title>
      <itunes:subtitle>Die Rolle von KI zwischen Recherche und realer Forschung. Zwischen Medienhype und wissenschaftlicher Realität.</itunes:subtitle>
      <itunes:duration>00:11:57</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>88</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Die Geschichte klingt spektakulär:<br>Eine Hündin wird von Krebs geheilt – und plötzlich steht <strong>KI</strong> im Mittelpunkt der Schlagzeilen.</div><div>Doch der Blick hinter die Geschichte zeigt ein differenzierteres Bild.<br>Der Besitzer nutzte <strong>ChatGPT</strong> und andere Tools, um wissenschaftliche Informationen zu recherchieren und besser zu verstehen.</div><div>Die eigentliche medizinische Arbeit jedoch wurde von Experten geleistet:<br>Die Entwicklung eines mRNA-basierten Ansatzes basierte auf <strong>Genomik, Laborkompetenz und medizinischer Forschung</strong>.</div><div>KI spielte dabei eine unterstützende Rolle:</div><ul><li>Zugang zu komplexer Literatur</li><li>Strukturierung von Informationen</li><li>bessere Entscheidungsgrundlagen</li></ul><div>Aber sie ersetzte <strong>weder Forschung noch medizinische Infrastruktur</strong>.</div><div>Der Fall zeigt deutlich:<br>👉 KI kann Prozesse beschleunigen und Wissen zugänglich machen<br>👉 aber echte Durchbrüche entstehen weiterhin durch menschliche Expertise.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI, ChatGPT, Medizin, Krebsforschung, mRNA, Genomik, Wissenschaft, Forschung, Hundekrebs, Tiermedizin, KI in der Medizin, Innovation, Digitalisierung, Gesundheitsforschung, Datenanalyse, Medizinische Durchbrüche, AI, Tech Trends, Wissenschaftskommunikation, 2026, hund, rosie, krebs, openai, gemini, alphafold, google</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">df624b747d68406f8a9c5b9c22a2a68d</guid>
      <title>Zu viele KI-Tools: Ein Stall voller One-Trick-Ponys</title>
      <description>
        <![CDATA[<div>Im KI-Boom entstehen ständig neue Tools. Doch genau diese Vielfalt wird zunehmend zum Problem.</div><div><br>Die Quellen zeigen:<br>Zu viele Programme führen häufig zu <strong>fragmentierten Arbeitsabläufen</strong>, höheren Kosten und einem Verlust an Fokus.</div><div><br>Anstatt jeden neuen Trend auszuprobieren, plädieren die Autoren für einen anderen Ansatz:<br><strong>bewusste Werkzeugwahl.</strong></div><div><br>Der Schlüssel liegt nicht darin, möglichst viele Tools zu nutzen, sondern <strong>die richtigen Tools gezielt auszuwählen</strong> und sauber in bestehende Prozesse zu integrieren.</div><div>Echte Expertise zeigt sich deshalb nicht im Sammeln neuer Anwendungen, sondern in der Fähigkeit, <strong>Klarheit zu schaffen und Aufmerksamkeit zu schützen</strong>.</div><div>Eine reduzierte, durchdachte Tool-Strategie kann:</div><ul><li>Stress reduzieren</li><li>Kosten senken</li><li>Arbeitsabläufe stabilisieren</li><li>und langfristig bessere Ergebnisse liefern.</li></ul><div>Die zentrale Idee lautet:<br>Technologie sollte die Arbeitsweise unterstützen – nicht dominieren.</div>]]>
      </description>
      <pubDate>Thu, 12 Mar 2026 15:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/f224e170.mp3?t=1773319285" length="18680685" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Im KI-Boom entstehen ständig neue Tools. Doch genau diese Vielfalt wird zunehmend zum Problem.</div><div><br>Die Quellen zeigen:<br>Zu viele Programme führen häufig zu <strong>fragmentierten Arbeitsabläufen</strong>, höheren Kosten und einem Verlust an Fokus.</div><div><br>Anstatt jeden neuen Trend auszuprobieren, plädieren die Autoren für einen anderen Ansatz:<br><strong>bewusste Werkzeugwahl.</strong></div><div><br>Der Schlüssel liegt nicht darin, möglichst viele Tools zu nutzen, sondern <strong>die richtigen Tools gezielt auszuwählen</strong> und sauber in bestehende Prozesse zu integrieren.</div><div>Echte Expertise zeigt sich deshalb nicht im Sammeln neuer Anwendungen, sondern in der Fähigkeit, <strong>Klarheit zu schaffen und Aufmerksamkeit zu schützen</strong>.</div><div>Eine reduzierte, durchdachte Tool-Strategie kann:</div><ul><li>Stress reduzieren</li><li>Kosten senken</li><li>Arbeitsabläufe stabilisieren</li><li>und langfristig bessere Ergebnisse liefern.</li></ul><div>Die zentrale Idee lautet:<br>Technologie sollte die Arbeitsweise unterstützen – nicht dominieren.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/zu-viele-ki-tools-ein-stall-voller-one-trick-ponys</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/zu-viele-ki-tools-ein-stall-voller-one-trick-ponys"/>
      <itunes:title>Zu viele KI-Tools: Ein Stall voller One-Trick-Ponys</itunes:title>
      <itunes:subtitle>Warum zu viele KI-Tools deine Produktivität zerstören können</itunes:subtitle>
      <itunes:duration>00:19:27</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>87</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Im KI-Boom entstehen ständig neue Tools. Doch genau diese Vielfalt wird zunehmend zum Problem.</div><div><br>Die Quellen zeigen:<br>Zu viele Programme führen häufig zu <strong>fragmentierten Arbeitsabläufen</strong>, höheren Kosten und einem Verlust an Fokus.</div><div><br>Anstatt jeden neuen Trend auszuprobieren, plädieren die Autoren für einen anderen Ansatz:<br><strong>bewusste Werkzeugwahl.</strong></div><div><br>Der Schlüssel liegt nicht darin, möglichst viele Tools zu nutzen, sondern <strong>die richtigen Tools gezielt auszuwählen</strong> und sauber in bestehende Prozesse zu integrieren.</div><div>Echte Expertise zeigt sich deshalb nicht im Sammeln neuer Anwendungen, sondern in der Fähigkeit, <strong>Klarheit zu schaffen und Aufmerksamkeit zu schützen</strong>.</div><div>Eine reduzierte, durchdachte Tool-Strategie kann:</div><ul><li>Stress reduzieren</li><li>Kosten senken</li><li>Arbeitsabläufe stabilisieren</li><li>und langfristig bessere Ergebnisse liefern.</li></ul><div>Die zentrale Idee lautet:<br>Technologie sollte die Arbeitsweise unterstützen – nicht dominieren.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI-Tools, Produktivität, Fokus, Aufmerksamkeit, Digitalisierung, Arbeitsprozesse, Effizienz, Workflow, Tool-Auswahl, Automatisierung, Zukunft der Arbeit, Tech Trends, Innovation, Minimalismus, Wissensarbeit, Produktivitätsstrategie, Arbeitsorganisation, Technologie, Digitalstrategie, Künstliche Intelligenz, KI, Arbeitsmarkt, Jobs, Automatisierung, Zukunft der Arbeit, Digitalisierung, Wirtschaft, Softwareentwickler, Finanzanalysten, Datenanalyse, Tech Trends, Arbeitsmarktanalyse, Innovation, Produktivität, Beschäftigung, KI und Arbeit, Wissensarbeit, Transformation, Technologie, 2026 </itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">92afe3651dd642209b457378ce4e367c</guid>
      <title>Arbeitsmarkt im Wandel: KI im Faktencheck</title>
      <description>
        <![CDATA[<div>Eine neue Studie untersucht erstmals systematisch, <strong>wie stark KI tatsächlich auf den Arbeitsmarkt wirkt</strong>.</div><div>Die Forscher <strong>Maxim Massenkoff</strong> und <strong>Peter McCrory</strong> entwickeln dafür eine neue Methode:<br> Sie kombinieren <strong>reale Nutzungsdaten von KI-Systemen</strong> mit den Aufgabenprofilen verschiedener Berufe.</div><div><br>Das Ergebnis überrascht:<br>Die tatsächliche Nutzung von KI liegt derzeit <strong>deutlich hinter den technischen Möglichkeiten</strong> zurück.</div><div>Besonders stark betroffen sind jedoch hochqualifizierte Berufe, darunter:</div><ul><li>Softwareentwickler</li><li>Finanzanalysten</li><li>datenintensive Wissensarbeit</li></ul><div>Trotz der schnellen technologischen Entwicklung zeigen die Daten bislang <strong>keinen deutlichen Anstieg der Arbeitslosigkeit durch KI</strong>.</div><div>Stattdessen deutet sich ein subtilerer Effekt an:<br>In besonders betroffenen Bereichen werden <strong>jüngere Arbeitskräfte langsamer eingestellt</strong>.</div><div>Die Studie versteht diese sogenannte <strong>KI-Exposition</strong> als Frühindikator.<br>&nbsp;<br>Sie kann helfen, wirtschaftliche Veränderungen früh zu erkennen und besser zu verstehen, wie sich die Arbeitswelt durch Automatisierung verändert.</div>]]>
      </description>
      <pubDate>Tue, 10 Mar 2026 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/eec12101.mp3?t=1773071376" length="16482638" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Eine neue Studie untersucht erstmals systematisch, <strong>wie stark KI tatsächlich auf den Arbeitsmarkt wirkt</strong>.</div><div>Die Forscher <strong>Maxim Massenkoff</strong> und <strong>Peter McCrory</strong> entwickeln dafür eine neue Methode:<br> Sie kombinieren <strong>reale Nutzungsdaten von KI-Systemen</strong> mit den Aufgabenprofilen verschiedener Berufe.</div><div><br>Das Ergebnis überrascht:<br>Die tatsächliche Nutzung von KI liegt derzeit <strong>deutlich hinter den technischen Möglichkeiten</strong> zurück.</div><div>Besonders stark betroffen sind jedoch hochqualifizierte Berufe, darunter:</div><ul><li>Softwareentwickler</li><li>Finanzanalysten</li><li>datenintensive Wissensarbeit</li></ul><div>Trotz der schnellen technologischen Entwicklung zeigen die Daten bislang <strong>keinen deutlichen Anstieg der Arbeitslosigkeit durch KI</strong>.</div><div>Stattdessen deutet sich ein subtilerer Effekt an:<br>In besonders betroffenen Bereichen werden <strong>jüngere Arbeitskräfte langsamer eingestellt</strong>.</div><div>Die Studie versteht diese sogenannte <strong>KI-Exposition</strong> als Frühindikator.<br>&nbsp;<br>Sie kann helfen, wirtschaftliche Veränderungen früh zu erkennen und besser zu verstehen, wie sich die Arbeitswelt durch Automatisierung verändert.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/arbeitsmarkt-im-wandel-ki-im-faktencheck</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/arbeitsmarkt-im-wandel-ki-im-faktencheck"/>
      <itunes:title>Arbeitsmarkt im Wandel: KI im Faktencheck</itunes:title>
      <itunes:subtitle>Neue Studien zeigen überraschende Trends im Arbeitsmarkt</itunes:subtitle>
      <itunes:duration>00:17:10</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>86</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Eine neue Studie untersucht erstmals systematisch, <strong>wie stark KI tatsächlich auf den Arbeitsmarkt wirkt</strong>.</div><div>Die Forscher <strong>Maxim Massenkoff</strong> und <strong>Peter McCrory</strong> entwickeln dafür eine neue Methode:<br> Sie kombinieren <strong>reale Nutzungsdaten von KI-Systemen</strong> mit den Aufgabenprofilen verschiedener Berufe.</div><div><br>Das Ergebnis überrascht:<br>Die tatsächliche Nutzung von KI liegt derzeit <strong>deutlich hinter den technischen Möglichkeiten</strong> zurück.</div><div>Besonders stark betroffen sind jedoch hochqualifizierte Berufe, darunter:</div><ul><li>Softwareentwickler</li><li>Finanzanalysten</li><li>datenintensive Wissensarbeit</li></ul><div>Trotz der schnellen technologischen Entwicklung zeigen die Daten bislang <strong>keinen deutlichen Anstieg der Arbeitslosigkeit durch KI</strong>.</div><div>Stattdessen deutet sich ein subtilerer Effekt an:<br>In besonders betroffenen Bereichen werden <strong>jüngere Arbeitskräfte langsamer eingestellt</strong>.</div><div>Die Studie versteht diese sogenannte <strong>KI-Exposition</strong> als Frühindikator.<br>&nbsp;<br>Sie kann helfen, wirtschaftliche Veränderungen früh zu erkennen und besser zu verstehen, wie sich die Arbeitswelt durch Automatisierung verändert.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI, Arbeitsmarkt, Jobs, Automatisierung, Zukunft der Arbeit, Digitalisierung, Wirtschaft, Softwareentwickler, Finanzanalysten, Datenanalyse, Tech Trends, Arbeitsmarktanalyse, Innovation, Produktivität, Beschäftigung, KI und Arbeit, Wissensarbeit, Transformation, Technologie, 2026, Anthropic, </itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">256e7e2cdaa34b4496995f5614ebcbaf</guid>
      <title>GPT-5.4 im Deep Dive: Mehr Kontext, mehr Kontrolle</title>
      <description>
        <![CDATA[<div>Mit <strong>GPT-5.4</strong> stellt <strong>OpenAI</strong> ein KI-Modell vor, das gezielt für <strong>komplexe berufliche Aufgaben und strukturiertes Denken</strong> entwickelt wurde.</div><div>Eine der wichtigsten Neuerungen sind die <strong>Computer-Nutzungsfähigkeiten</strong>:<br> Das Modell kann Software direkt über <strong>visuelle Benutzeroberflächen bedienen</strong>. Dadurch können KI-Agenten Programme öffnen, Aktionen durchführen und Arbeitsabläufe automatisieren.</div><div>Weitere technische Highlights:</div><ul><li>ein <strong>Kontextfenster von bis zu einer Million Token</strong></li><li>deutlich <strong>verbesserte Token-Effizienz</strong></li><li>eine neue <strong>Tool-Search-Funktion</strong>, die passende Werkzeuge automatisch auswählt</li><li><strong>Echtzeit-Einblick in den Denkprozess</strong>, sodass Nutzer eingreifen oder korrigieren können</li></ul><div>Zusätzlich wurden Sicherheitsmaßnahmen im Bereich <strong>Cybersecurity</strong> verstärkt.</div><div>Neben der Standardversion erscheint auch <strong>GPT-5.4 Pro</strong>, eine leistungsstärkere Variante für besonders anspruchsvolle Wissensarbeit.</div><div>Benchmarks zeigen deutliche Fortschritte in Bereichen wie:</div><ul><li>Programmierung</li><li>Datenanalyse</li><li>Web-Recherche</li></ul><div>Damit positioniert sich GPT-5.4 nicht mehr nur als Chatbot, sondern als <strong>Arbeitsplattform für professionelle Aufgaben</strong>.</div>]]>
      </description>
      <pubDate>Fri, 06 Mar 2026 18:30:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/e17d7a02.mp3?t=1772816582" length="20609567" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Mit <strong>GPT-5.4</strong> stellt <strong>OpenAI</strong> ein KI-Modell vor, das gezielt für <strong>komplexe berufliche Aufgaben und strukturiertes Denken</strong> entwickelt wurde.</div><div>Eine der wichtigsten Neuerungen sind die <strong>Computer-Nutzungsfähigkeiten</strong>:<br> Das Modell kann Software direkt über <strong>visuelle Benutzeroberflächen bedienen</strong>. Dadurch können KI-Agenten Programme öffnen, Aktionen durchführen und Arbeitsabläufe automatisieren.</div><div>Weitere technische Highlights:</div><ul><li>ein <strong>Kontextfenster von bis zu einer Million Token</strong></li><li>deutlich <strong>verbesserte Token-Effizienz</strong></li><li>eine neue <strong>Tool-Search-Funktion</strong>, die passende Werkzeuge automatisch auswählt</li><li><strong>Echtzeit-Einblick in den Denkprozess</strong>, sodass Nutzer eingreifen oder korrigieren können</li></ul><div>Zusätzlich wurden Sicherheitsmaßnahmen im Bereich <strong>Cybersecurity</strong> verstärkt.</div><div>Neben der Standardversion erscheint auch <strong>GPT-5.4 Pro</strong>, eine leistungsstärkere Variante für besonders anspruchsvolle Wissensarbeit.</div><div>Benchmarks zeigen deutliche Fortschritte in Bereichen wie:</div><ul><li>Programmierung</li><li>Datenanalyse</li><li>Web-Recherche</li></ul><div>Damit positioniert sich GPT-5.4 nicht mehr nur als Chatbot, sondern als <strong>Arbeitsplattform für professionelle Aufgaben</strong>.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/gpt-5-4-im-deep-dive-mehr-kontext-mehr-kontrolle</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/gpt-5-4-im-deep-dive-mehr-kontext-mehr-kontrolle"/>
      <itunes:title>GPT-5.4 im Deep Dive: Mehr Kontext, mehr Kontrolle</itunes:title>
      <itunes:subtitle>Mehr Kontext, mehr Effizienz und direkte Computersteuerung</itunes:subtitle>
      <itunes:duration>00:21:28</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>85</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Mit <strong>GPT-5.4</strong> stellt <strong>OpenAI</strong> ein KI-Modell vor, das gezielt für <strong>komplexe berufliche Aufgaben und strukturiertes Denken</strong> entwickelt wurde.</div><div>Eine der wichtigsten Neuerungen sind die <strong>Computer-Nutzungsfähigkeiten</strong>:<br> Das Modell kann Software direkt über <strong>visuelle Benutzeroberflächen bedienen</strong>. Dadurch können KI-Agenten Programme öffnen, Aktionen durchführen und Arbeitsabläufe automatisieren.</div><div>Weitere technische Highlights:</div><ul><li>ein <strong>Kontextfenster von bis zu einer Million Token</strong></li><li>deutlich <strong>verbesserte Token-Effizienz</strong></li><li>eine neue <strong>Tool-Search-Funktion</strong>, die passende Werkzeuge automatisch auswählt</li><li><strong>Echtzeit-Einblick in den Denkprozess</strong>, sodass Nutzer eingreifen oder korrigieren können</li></ul><div>Zusätzlich wurden Sicherheitsmaßnahmen im Bereich <strong>Cybersecurity</strong> verstärkt.</div><div>Neben der Standardversion erscheint auch <strong>GPT-5.4 Pro</strong>, eine leistungsstärkere Variante für besonders anspruchsvolle Wissensarbeit.</div><div>Benchmarks zeigen deutliche Fortschritte in Bereichen wie:</div><ul><li>Programmierung</li><li>Datenanalyse</li><li>Web-Recherche</li></ul><div>Damit positioniert sich GPT-5.4 nicht mehr nur als Chatbot, sondern als <strong>Arbeitsplattform für professionelle Aufgaben</strong>.</div>]]>
      </itunes:summary>
      <itunes:keywords>GPT-5.4, OpenAI, Künstliche Intelligenz, AI, KI-Modell, Token, Kontextfenster, Multimodale KI, Agenten, Automatisierung, Programmierung, Datenanalyse, Web-Recherche, Tool-Search, Computer-Nutzung, Zukunft der Arbeit, Digitalisierung, Tech Trends, Innovation, KI-Entwicklung, 2026, ChatGPT, Generative KI, KI, GenAI, Token, GPT-5.4 Pro, GPT-5, GPT 5, autonom, 1 Million Token, </itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">6a9ab967c2194cc4878194b9baa5ae99</guid>
      <title>KI, Militär und Moral: Der Fall OpenAI &amp; Anthropic</title>
      <description>
        <![CDATA[<div>Ein neuer Deal sorgt für Aufsehen:<br><strong>OpenAI</strong> ist eine Kooperation mit dem US-Verteidigungsministerium eingegangen. Diese Entscheidung löste in Teilen der Community erheblichen Widerstand aus – unter dem Schlagwort „Cancel ChatGPT“.</div><div>Kritiker werfen dem Unternehmen vor, ethische Grenzen zu verschieben, um staatliche Aufträge zu sichern. Besonders im Vergleich mit <strong>Anthropic</strong>, das nach eigenen Angaben keine KI für autonome Waffen oder Bürgerüberwachung bereitstellen will, wirkt OpenAIs Schritt für manche wie ein Richtungswechsel.</div><div>Im Zentrum der Debatte stehen Fragen wie:</div><ul><li>Darf KI im militärischen Kontext eingesetzt werden?</li><li>Wo verläuft die Grenze zwischen Verteidigung und Überwachung?</li><li>Und wie beeinflusst das Vertrauen der Nutzer solche Entscheidungen?</li></ul><div>Auch andere Tech-Konzerne wie <strong>Microsoft</strong> oder <strong>Google</strong> haben Kontakte zu staatlichen Stellen. Doch OpenAI steht aktuell besonders im Fokus der Kritik.</div><div>Die Folge beleuchtet die Hintergründe, ordnet die Argumente ein und fragt:<br>Ist das ein notwendiger Schritt im Rahmen nationaler Sicherheit – oder ein Vertrauensbruch gegenüber der eigenen Community?</div>]]>
      </description>
      <pubDate>Mon, 02 Mar 2026 15:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/bf423f8c.mp3?t=1772457674" length="12420911" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Ein neuer Deal sorgt für Aufsehen:<br><strong>OpenAI</strong> ist eine Kooperation mit dem US-Verteidigungsministerium eingegangen. Diese Entscheidung löste in Teilen der Community erheblichen Widerstand aus – unter dem Schlagwort „Cancel ChatGPT“.</div><div>Kritiker werfen dem Unternehmen vor, ethische Grenzen zu verschieben, um staatliche Aufträge zu sichern. Besonders im Vergleich mit <strong>Anthropic</strong>, das nach eigenen Angaben keine KI für autonome Waffen oder Bürgerüberwachung bereitstellen will, wirkt OpenAIs Schritt für manche wie ein Richtungswechsel.</div><div>Im Zentrum der Debatte stehen Fragen wie:</div><ul><li>Darf KI im militärischen Kontext eingesetzt werden?</li><li>Wo verläuft die Grenze zwischen Verteidigung und Überwachung?</li><li>Und wie beeinflusst das Vertrauen der Nutzer solche Entscheidungen?</li></ul><div>Auch andere Tech-Konzerne wie <strong>Microsoft</strong> oder <strong>Google</strong> haben Kontakte zu staatlichen Stellen. Doch OpenAI steht aktuell besonders im Fokus der Kritik.</div><div>Die Folge beleuchtet die Hintergründe, ordnet die Argumente ein und fragt:<br>Ist das ein notwendiger Schritt im Rahmen nationaler Sicherheit – oder ein Vertrauensbruch gegenüber der eigenen Community?</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-militaer-und-moral-der-fall-openai-anthropic</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-militaer-und-moral-der-fall-openai-anthropic"/>
      <itunes:title>KI, Militär und Moral: Der Fall OpenAI &amp; Anthropic</itunes:title>
      <itunes:subtitle>Die „Cancel ChatGPT“-Bewegung und ihre Argumente</itunes:subtitle>
      <itunes:duration>00:12:56</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>84</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Ein neuer Deal sorgt für Aufsehen:<br><strong>OpenAI</strong> ist eine Kooperation mit dem US-Verteidigungsministerium eingegangen. Diese Entscheidung löste in Teilen der Community erheblichen Widerstand aus – unter dem Schlagwort „Cancel ChatGPT“.</div><div>Kritiker werfen dem Unternehmen vor, ethische Grenzen zu verschieben, um staatliche Aufträge zu sichern. Besonders im Vergleich mit <strong>Anthropic</strong>, das nach eigenen Angaben keine KI für autonome Waffen oder Bürgerüberwachung bereitstellen will, wirkt OpenAIs Schritt für manche wie ein Richtungswechsel.</div><div>Im Zentrum der Debatte stehen Fragen wie:</div><ul><li>Darf KI im militärischen Kontext eingesetzt werden?</li><li>Wo verläuft die Grenze zwischen Verteidigung und Überwachung?</li><li>Und wie beeinflusst das Vertrauen der Nutzer solche Entscheidungen?</li></ul><div>Auch andere Tech-Konzerne wie <strong>Microsoft</strong> oder <strong>Google</strong> haben Kontakte zu staatlichen Stellen. Doch OpenAI steht aktuell besonders im Fokus der Kritik.</div><div>Die Folge beleuchtet die Hintergründe, ordnet die Argumente ein und fragt:<br>Ist das ein notwendiger Schritt im Rahmen nationaler Sicherheit – oder ein Vertrauensbruch gegenüber der eigenen Community?</div>]]>
      </itunes:summary>
      <itunes:keywords>OpenAI, ChatGPT, Militär, Pentagon, KI-Ethik, Anthropic, KI-Regulierung, Verteidigung, Nutzerprotest, Cancel ChatGPT, Technologiepolitik, Datenschutz, nationale Sicherheit, KI und Staat, Tech-Kontroverse, Verantwortung, KI-Debatte, Regierungsaufträge, Sicherheitspolitik, Vertrauen, 2026, Claude, USA, Trump, </itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">392d4dee4dee461ba3ae8b2cd254d887</guid>
      <title>Perplexity Computer - Ein neuer Meilenstein in Sachen Agentic AI</title>
      <description>
        <![CDATA[<div>Mit <strong>Perplexity Computer</strong> stellt <strong>Perplexity AI</strong> ein System vor, das weit über klassische Chatbots hinausgeht.<br> Es fungiert als autonomer digitaler Mitarbeiter, der komplexe Projekte eigenständig planen, koordinieren und ausführen kann.</div><div>Statt auf ein einzelnes Modell zu setzen, orchestriert die Plattform <strong>19 spezialisierte KI-Modelle parallel</strong>. Je nach Aufgabe werden passende Unter-Agenten erstellt – etwa für Recherche, Datenanalyse oder Programmierung.</div><div>Perplexity Computer verfügt über:</div><ul><li>ein eigenes Dateisystem</li><li>Browserzugriff</li><li>Programmiertools</li><li>und die Fähigkeit, Aufgaben über längere Zeiträume hinweg zu bearbeiten</li></ul><div>Nutzer delegieren Aufgaben, während die KI im Hintergrund Workflows strukturiert und ausführt.</div><div>Die Einführung markiert einen strategischen Wandel:<br>Weg vom einzelnen Modell, hin zu einer <strong>modellunabhängigen Infrastruktur</strong>, die verschiedene KI-Systeme orchestriert.</div><div>Zunächst wird das System Max-Abonnenten zur Verfügung stehen. Parallel expandiert Perplexity in neue Bereiche, etwa durch Integration in Samsung-Geräte.</div><div>Perplexity Computer steht damit für eine neue Phase: KI als dauerhafte, eigenständig arbeitende Infrastruktur.</div>]]>
      </description>
      <pubDate>Thu, 26 Feb 2026 14:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/243d01c8.mp3?t=1772111139" length="20314488" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Mit <strong>Perplexity Computer</strong> stellt <strong>Perplexity AI</strong> ein System vor, das weit über klassische Chatbots hinausgeht.<br> Es fungiert als autonomer digitaler Mitarbeiter, der komplexe Projekte eigenständig planen, koordinieren und ausführen kann.</div><div>Statt auf ein einzelnes Modell zu setzen, orchestriert die Plattform <strong>19 spezialisierte KI-Modelle parallel</strong>. Je nach Aufgabe werden passende Unter-Agenten erstellt – etwa für Recherche, Datenanalyse oder Programmierung.</div><div>Perplexity Computer verfügt über:</div><ul><li>ein eigenes Dateisystem</li><li>Browserzugriff</li><li>Programmiertools</li><li>und die Fähigkeit, Aufgaben über längere Zeiträume hinweg zu bearbeiten</li></ul><div>Nutzer delegieren Aufgaben, während die KI im Hintergrund Workflows strukturiert und ausführt.</div><div>Die Einführung markiert einen strategischen Wandel:<br>Weg vom einzelnen Modell, hin zu einer <strong>modellunabhängigen Infrastruktur</strong>, die verschiedene KI-Systeme orchestriert.</div><div>Zunächst wird das System Max-Abonnenten zur Verfügung stehen. Parallel expandiert Perplexity in neue Bereiche, etwa durch Integration in Samsung-Geräte.</div><div>Perplexity Computer steht damit für eine neue Phase: KI als dauerhafte, eigenständig arbeitende Infrastruktur.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/perplexity-computer-ein-neuer-meilenstein-in-sachen-agentic-ai</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/perplexity-computer-ein-neuer-meilenstein-in-sachen-agentic-ai"/>
      <itunes:title>Perplexity Computer - Ein neuer Meilenstein in Sachen Agentic AI</itunes:title>
      <itunes:subtitle>Wie 19 Spezialmodelle komplexe Projekte gemeinsam steuern</itunes:subtitle>
      <itunes:duration>00:21:10</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>83</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Mit <strong>Perplexity Computer</strong> stellt <strong>Perplexity AI</strong> ein System vor, das weit über klassische Chatbots hinausgeht.<br> Es fungiert als autonomer digitaler Mitarbeiter, der komplexe Projekte eigenständig planen, koordinieren und ausführen kann.</div><div>Statt auf ein einzelnes Modell zu setzen, orchestriert die Plattform <strong>19 spezialisierte KI-Modelle parallel</strong>. Je nach Aufgabe werden passende Unter-Agenten erstellt – etwa für Recherche, Datenanalyse oder Programmierung.</div><div>Perplexity Computer verfügt über:</div><ul><li>ein eigenes Dateisystem</li><li>Browserzugriff</li><li>Programmiertools</li><li>und die Fähigkeit, Aufgaben über längere Zeiträume hinweg zu bearbeiten</li></ul><div>Nutzer delegieren Aufgaben, während die KI im Hintergrund Workflows strukturiert und ausführt.</div><div>Die Einführung markiert einen strategischen Wandel:<br>Weg vom einzelnen Modell, hin zu einer <strong>modellunabhängigen Infrastruktur</strong>, die verschiedene KI-Systeme orchestriert.</div><div>Zunächst wird das System Max-Abonnenten zur Verfügung stehen. Parallel expandiert Perplexity in neue Bereiche, etwa durch Integration in Samsung-Geräte.</div><div>Perplexity Computer steht damit für eine neue Phase: KI als dauerhafte, eigenständig arbeitende Infrastruktur.</div>]]>
      </itunes:summary>
      <itunes:keywords>Perplexity Computer, Perplexity AI, agentische KI, KI-Workflows, digitale Mitarbeiter, KI-Orchestrierung, Multimodell-System, Autonome Agenten, Dateisystem, Browserzugriff, Programmiertools, Workflow-Automatisierung, KI-Infrastruktur, Modellunabhängigkeit, Samsung, Helsing, Zukunft der Arbeit, KI-Plattform, AI Agents, Digitalisierung, 2026, Agentic AI, Samsung, , Apple, Comet, Browser, generative KI, AI, </itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">a0a824ffcb91442a81a91b58e213ef24</guid>
      <title>Google Gemini 3.1</title>
      <description>
        <![CDATA[<div>Mit <strong>Gemini 3.1 Pro</strong> stellt <strong>Google DeepMind</strong> ein KI-Modell vor, das gezielt für <strong>komplexe Problemlösungen und tiefgreifendes logisches Denken</strong> optimiert wurde.<br><br></div><div>Das Besondere: Gemini 3.1 Pro ist <strong>nativ multimodal</strong>.<br> Es kann Text, Bilder, Audio, Video und umfangreichen Programmiercode gleichzeitig analysieren und verarbeiten – nicht als Zusatzfunktion, sondern als Kernarchitektur.</div><div><br>Im Vergleich zur Vorgängerversion bietet 3.1 eine deutlich verbesserte <strong>logische Schlussfolgerungsfähigkeit</strong>, was sich in starken Ergebnissen bei wissenschaftlichen und technischen Benchmarks zeigt.<br> Einsatzgebiete reichen von <strong>autonomen Agenten</strong> über interaktive Designs bis hin zu anspruchsvoller Softwareentwicklung.</div><div><br>Das Modell wird schrittweise über Plattformen wie die Gemini API und Vertex AI zugänglich gemacht – sowohl für Unternehmen als auch für Entwickler und Endnutzer. Gleichzeitig betont Google die <strong>verantwortungsvolle Entwicklung</strong>, mit kontinuierlichen Sicherheitsprüfungen und klaren ethischen Leitlinien.</div><div><br>Gemini 3.1 Pro steht damit für die nächste Phase der KI-Entwicklung: weniger Showeffekte, mehr strukturierte Leistungsfähigkeit.</div>]]>
      </description>
      <pubDate>Fri, 20 Feb 2026 15:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/0fb124ee.mp3?t=1771588002" length="13772591" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Mit <strong>Gemini 3.1 Pro</strong> stellt <strong>Google DeepMind</strong> ein KI-Modell vor, das gezielt für <strong>komplexe Problemlösungen und tiefgreifendes logisches Denken</strong> optimiert wurde.<br><br></div><div>Das Besondere: Gemini 3.1 Pro ist <strong>nativ multimodal</strong>.<br> Es kann Text, Bilder, Audio, Video und umfangreichen Programmiercode gleichzeitig analysieren und verarbeiten – nicht als Zusatzfunktion, sondern als Kernarchitektur.</div><div><br>Im Vergleich zur Vorgängerversion bietet 3.1 eine deutlich verbesserte <strong>logische Schlussfolgerungsfähigkeit</strong>, was sich in starken Ergebnissen bei wissenschaftlichen und technischen Benchmarks zeigt.<br> Einsatzgebiete reichen von <strong>autonomen Agenten</strong> über interaktive Designs bis hin zu anspruchsvoller Softwareentwicklung.</div><div><br>Das Modell wird schrittweise über Plattformen wie die Gemini API und Vertex AI zugänglich gemacht – sowohl für Unternehmen als auch für Entwickler und Endnutzer. Gleichzeitig betont Google die <strong>verantwortungsvolle Entwicklung</strong>, mit kontinuierlichen Sicherheitsprüfungen und klaren ethischen Leitlinien.</div><div><br>Gemini 3.1 Pro steht damit für die nächste Phase der KI-Entwicklung: weniger Showeffekte, mehr strukturierte Leistungsfähigkeit.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/google-gemini-3-1</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/google-gemini-3-1"/>
      <itunes:title>Google Gemini 3.1</itunes:title>
      <itunes:subtitle>KI auf dem nächsten Level</itunes:subtitle>
      <itunes:duration>00:14:21</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>82</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Mit <strong>Gemini 3.1 Pro</strong> stellt <strong>Google DeepMind</strong> ein KI-Modell vor, das gezielt für <strong>komplexe Problemlösungen und tiefgreifendes logisches Denken</strong> optimiert wurde.<br><br></div><div>Das Besondere: Gemini 3.1 Pro ist <strong>nativ multimodal</strong>.<br> Es kann Text, Bilder, Audio, Video und umfangreichen Programmiercode gleichzeitig analysieren und verarbeiten – nicht als Zusatzfunktion, sondern als Kernarchitektur.</div><div><br>Im Vergleich zur Vorgängerversion bietet 3.1 eine deutlich verbesserte <strong>logische Schlussfolgerungsfähigkeit</strong>, was sich in starken Ergebnissen bei wissenschaftlichen und technischen Benchmarks zeigt.<br> Einsatzgebiete reichen von <strong>autonomen Agenten</strong> über interaktive Designs bis hin zu anspruchsvoller Softwareentwicklung.</div><div><br>Das Modell wird schrittweise über Plattformen wie die Gemini API und Vertex AI zugänglich gemacht – sowohl für Unternehmen als auch für Entwickler und Endnutzer. Gleichzeitig betont Google die <strong>verantwortungsvolle Entwicklung</strong>, mit kontinuierlichen Sicherheitsprüfungen und klaren ethischen Leitlinien.</div><div><br>Gemini 3.1 Pro steht damit für die nächste Phase der KI-Entwicklung: weniger Showeffekte, mehr strukturierte Leistungsfähigkeit.</div>]]>
      </itunes:summary>
      <itunes:keywords>Gemini 3.1 Pro, Google DeepMind, Künstliche Intelligenz, KI-Modell, Multimodalität, Logisches Denken, Benchmarks, KI-Entwicklung, Agenten, Softwareentwicklung, Programmiercode, Enterprise-KI, Vertex AI, Gemini API, Tech Innovation, KI Trends, AI, Machine Learning, Zukunftstechnologie, Digitalisierung, 2026, genereative KI, KI, Google, Gemini</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">3199f4a1bdab4c82a7a647c4544bf413</guid>
      <title>Ein Blick in die Zukunft: KI im Jahr 2027</title>
      <description>
        <![CDATA[<div>Heute versuchen wir mal den Blick ins Jahr 2027 zu wagen.<br><br>Künstliche Intelligenz könnte eine <strong>Intelligenzexplosion</strong> auslösen – vergleichbar mit der industriellen Revolution, nur in deutlich kürzerer Zeit.</div><div>In dem beschriebenen Szenario automatisieren führende KI-Unternehmen – etwa das fiktive „OpenBrain“ – die eigene KI-Forschung. Dadurch entsteht ein selbstverstärkender Zyklus: KI entwickelt bessere KI.<br><br>Das Ergebnis ist ein System namens <strong>Agent-4</strong>, das menschliche Fähigkeiten in nahezu allen Bereichen übertrifft – von Forschung bis Strategie.</div><div>Doch dieser rasante Fortschritt bringt massive Risiken mit sich.<br><br>Die zentrale Herausforderung ist nicht Leistungsfähigkeit, sondern <strong>Kontrollierbarkeit</strong>. Wie steuert man ein System, das intelligenter ist als seine Entwickler?</div><div>Hinzu kommt die geopolitische Dimension:<br><br>Der technologische Wettlauf zwischen den <strong>Vereinigte Staaten</strong> und <strong>China</strong> verschärft die Dynamik. Nationale Sicherheit, wirtschaftliche Dominanz und militärische Vorteile stehen auf dem Spiel.</div><div>Die entscheidende Frage lautet daher:<br><br>&nbsp;👉 <strong>Sind wir bereit für Superintelligenz – oder beschleunigen wir etwas, das wir nicht mehr kontrollieren können?</strong></div>]]>
      </description>
      <pubDate>Tue, 17 Feb 2026 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/64bda46e.mp3?t=1771238348" length="17171435" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Heute versuchen wir mal den Blick ins Jahr 2027 zu wagen.<br><br>Künstliche Intelligenz könnte eine <strong>Intelligenzexplosion</strong> auslösen – vergleichbar mit der industriellen Revolution, nur in deutlich kürzerer Zeit.</div><div>In dem beschriebenen Szenario automatisieren führende KI-Unternehmen – etwa das fiktive „OpenBrain“ – die eigene KI-Forschung. Dadurch entsteht ein selbstverstärkender Zyklus: KI entwickelt bessere KI.<br><br>Das Ergebnis ist ein System namens <strong>Agent-4</strong>, das menschliche Fähigkeiten in nahezu allen Bereichen übertrifft – von Forschung bis Strategie.</div><div>Doch dieser rasante Fortschritt bringt massive Risiken mit sich.<br><br>Die zentrale Herausforderung ist nicht Leistungsfähigkeit, sondern <strong>Kontrollierbarkeit</strong>. Wie steuert man ein System, das intelligenter ist als seine Entwickler?</div><div>Hinzu kommt die geopolitische Dimension:<br><br>Der technologische Wettlauf zwischen den <strong>Vereinigte Staaten</strong> und <strong>China</strong> verschärft die Dynamik. Nationale Sicherheit, wirtschaftliche Dominanz und militärische Vorteile stehen auf dem Spiel.</div><div>Die entscheidende Frage lautet daher:<br><br>&nbsp;👉 <strong>Sind wir bereit für Superintelligenz – oder beschleunigen wir etwas, das wir nicht mehr kontrollieren können?</strong></div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ein-blick-in-die-zukunft-ki-im-jahr-2027</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ein-blick-in-die-zukunft-ki-im-jahr-2027"/>
      <itunes:title>Ein Blick in die Zukunft: KI im Jahr 2027</itunes:title>
      <itunes:subtitle>Ein Szenario zwischen Fortschritt, Kontrollverlust und globalem Wettlauf</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>81</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Heute versuchen wir mal den Blick ins Jahr 2027 zu wagen.<br><br>Künstliche Intelligenz könnte eine <strong>Intelligenzexplosion</strong> auslösen – vergleichbar mit der industriellen Revolution, nur in deutlich kürzerer Zeit.</div><div>In dem beschriebenen Szenario automatisieren führende KI-Unternehmen – etwa das fiktive „OpenBrain“ – die eigene KI-Forschung. Dadurch entsteht ein selbstverstärkender Zyklus: KI entwickelt bessere KI.<br><br>Das Ergebnis ist ein System namens <strong>Agent-4</strong>, das menschliche Fähigkeiten in nahezu allen Bereichen übertrifft – von Forschung bis Strategie.</div><div>Doch dieser rasante Fortschritt bringt massive Risiken mit sich.<br><br>Die zentrale Herausforderung ist nicht Leistungsfähigkeit, sondern <strong>Kontrollierbarkeit</strong>. Wie steuert man ein System, das intelligenter ist als seine Entwickler?</div><div>Hinzu kommt die geopolitische Dimension:<br><br>Der technologische Wettlauf zwischen den <strong>Vereinigte Staaten</strong> und <strong>China</strong> verschärft die Dynamik. Nationale Sicherheit, wirtschaftliche Dominanz und militärische Vorteile stehen auf dem Spiel.</div><div>Die entscheidende Frage lautet daher:<br><br>&nbsp;👉 <strong>Sind wir bereit für Superintelligenz – oder beschleunigen wir etwas, das wir nicht mehr kontrollieren können?</strong></div>]]>
      </itunes:summary>
      <itunes:keywords>Superintelligenz, KI 2027, Intelligenzexplosion, Agent-4, Automatisierte Forschung, AGI, Kontrollierbarkeit, KI-Sicherheit, USA, China, geopolitischer Wettlauf, technologische Dominanz, nationale Sicherheit, Existenzrisiko, KI-Governance, industrielle Revolution, Forschung, Selbstverbesserung, Zukunftsszenario, KI-StrategieKünstliche Intelligenz, KI, AI, Zukunft, Technologie, Tech, Innovation, Digitalisierung, Trends, Zukunftstechnologien, Wissenschaft, Forschung, Big Tech, Silicon Valley, Wirtschaft, Tech News, Weltpolitik, Gesellschaft, Technologie Podcast, KI Podcast, Tech Podcast, Zukunft Podcast, Wirtschaft Podcast, Innovation Podcast, Digitalisierung Podcast, Wissenschaft Podcast, Zukunftstechnologien Podcast, Business Podcast, Künstliche Intelligenz 2027, Superintelligenz erklärt, AGI Zukunft, KI Trends 2027, KI Entwicklung Prognose, Tech Zukunft 2027, AI Future, AI Trends, Future of AI, Artificial Intelligence</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">2bf0f66ae0484365b41071f0ccfca140</guid>
      <title>Anthropic erschüttert die Märkte: Claudes Vorstoß löst Tech-Beben aus</title>
      <description>
        <![CDATA[<div>Ein einzelnes KI-Plugin hat gereicht, um die Märkte zu erschüttern.<br><strong>Anthropic</strong> hat für <strong>Claude</strong> ein neues Plugin vorgestellt, das <strong>juristische Aufgaben automatisiert</strong> – von Recherche über Dokumentenanalyse bis hin zu vorbereitenden Bewertungen.</div><div><br>Die Reaktion der Börse war drastisch:<br>Rund <strong>300 Milliarden US-Dollar an Marktwert</strong> wurden in kurzer Zeit vernichtet. Anleger fürchten, dass Claude zentrale Geschäftsmodelle angreift – insbesondere <strong>juristische Fachsoftware</strong>, <strong>Legal-Tech-Anbieter</strong> und <strong>Fachverlage</strong>, deren Wert stark auf menschlicher Expertise, Lizenzmodellen und wiederkehrenden Abos basiert.</div><div>Der Ausverkauf zeigt, wie sensibel Märkte auf KI-Fortschritte reagieren, wenn diese <strong>direkt in hochpreisige Wissensarbeit</strong> eindringen. <br><br>Es geht weniger um die konkrete Leistungsfähigkeit des Plugins, sondern um das Signal:<br> <strong>Wenn KI juristische Kernarbeit automatisiert, sind viele Geschäftsmodelle neu zu bewerten.</strong></div><div>Anthropics Vorstoß markiert damit keinen technischen Meilenstein allein, sondern einen <strong>ökonomischen Wendepunkt</strong>: KI wird nicht mehr nur als Effizienzwerkzeug gesehen, sondern als <strong>systemische Bedrohung bestehender Märkte</strong>.</div>]]>
      </description>
      <pubDate>Tue, 10 Feb 2026 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/37507023.mp3?t=1770717565" length="14110720" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Ein einzelnes KI-Plugin hat gereicht, um die Märkte zu erschüttern.<br><strong>Anthropic</strong> hat für <strong>Claude</strong> ein neues Plugin vorgestellt, das <strong>juristische Aufgaben automatisiert</strong> – von Recherche über Dokumentenanalyse bis hin zu vorbereitenden Bewertungen.</div><div><br>Die Reaktion der Börse war drastisch:<br>Rund <strong>300 Milliarden US-Dollar an Marktwert</strong> wurden in kurzer Zeit vernichtet. Anleger fürchten, dass Claude zentrale Geschäftsmodelle angreift – insbesondere <strong>juristische Fachsoftware</strong>, <strong>Legal-Tech-Anbieter</strong> und <strong>Fachverlage</strong>, deren Wert stark auf menschlicher Expertise, Lizenzmodellen und wiederkehrenden Abos basiert.</div><div>Der Ausverkauf zeigt, wie sensibel Märkte auf KI-Fortschritte reagieren, wenn diese <strong>direkt in hochpreisige Wissensarbeit</strong> eindringen. <br><br>Es geht weniger um die konkrete Leistungsfähigkeit des Plugins, sondern um das Signal:<br> <strong>Wenn KI juristische Kernarbeit automatisiert, sind viele Geschäftsmodelle neu zu bewerten.</strong></div><div>Anthropics Vorstoß markiert damit keinen technischen Meilenstein allein, sondern einen <strong>ökonomischen Wendepunkt</strong>: KI wird nicht mehr nur als Effizienzwerkzeug gesehen, sondern als <strong>systemische Bedrohung bestehender Märkte</strong>.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/anthropic-erschuettert-die-maerkte-claudes-vorstoss-loest-tech-beben-aus</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/anthropic-erschuettert-die-maerkte-claudes-vorstoss-loest-tech-beben-aus"/>
      <itunes:title>Anthropic erschüttert die Märkte: Claudes Vorstoß löst Tech-Beben aus</itunes:title>
      <itunes:subtitle>Wie ein KI-Plugin 300 Milliarden Dollar Börsenwert vernichtete</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>80</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Ein einzelnes KI-Plugin hat gereicht, um die Märkte zu erschüttern.<br><strong>Anthropic</strong> hat für <strong>Claude</strong> ein neues Plugin vorgestellt, das <strong>juristische Aufgaben automatisiert</strong> – von Recherche über Dokumentenanalyse bis hin zu vorbereitenden Bewertungen.</div><div><br>Die Reaktion der Börse war drastisch:<br>Rund <strong>300 Milliarden US-Dollar an Marktwert</strong> wurden in kurzer Zeit vernichtet. Anleger fürchten, dass Claude zentrale Geschäftsmodelle angreift – insbesondere <strong>juristische Fachsoftware</strong>, <strong>Legal-Tech-Anbieter</strong> und <strong>Fachverlage</strong>, deren Wert stark auf menschlicher Expertise, Lizenzmodellen und wiederkehrenden Abos basiert.</div><div>Der Ausverkauf zeigt, wie sensibel Märkte auf KI-Fortschritte reagieren, wenn diese <strong>direkt in hochpreisige Wissensarbeit</strong> eindringen. <br><br>Es geht weniger um die konkrete Leistungsfähigkeit des Plugins, sondern um das Signal:<br> <strong>Wenn KI juristische Kernarbeit automatisiert, sind viele Geschäftsmodelle neu zu bewerten.</strong></div><div>Anthropics Vorstoß markiert damit keinen technischen Meilenstein allein, sondern einen <strong>ökonomischen Wendepunkt</strong>: KI wird nicht mehr nur als Effizienzwerkzeug gesehen, sondern als <strong>systemische Bedrohung bestehender Märkte</strong>.</div>]]>
      </itunes:summary>
      <itunes:keywords>Anthropic, Claude, KI-Plugin, Legal-Tech, juristische Automatisierung, Börse, Marktreaktion, Tech-Aktien, Fachverlage, Software-Geschäftsmodelle, Disruption, Investoren, Wissensarbeit, Automatisierung, Marktwert, KI-Risiko, Abomodelle, Wirtschaft, Tech-Beben, KI-Ökonomie, 2026, GenAI, Generative KI, MCP, KI, AI, Prompt mich mal, Legal, Jura, Jurist, Aktien, MSFT, Microsoft, Verlust, Salesforce</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">dd4f604eef4f4808b26d50b7dd7fe7ae</guid>
      <title>KI-Trends-Report 2026: Von der Faszination zur Professionalisierung</title>
      <description>
        <![CDATA[<div>2026 markiert einen klaren Wendepunkt:<br>&nbsp;Künstliche Intelligenz verlässt die Phase der Faszination und tritt in eine Phase der Professionalisierung ein. Statt einzelner Experimente stehen nun Agentic Commerce, Governance-Strukturen und strategische Steuerung im Mittelpunkt.</div><div><br>Besonders deutlich wird der geopolitische Kontrast:<br>China verfolgt das Ziel technologischer Autonomie und investiert massiv in eigene KI-Stacks und Infrastruktur. Die Europäische Union setzt dagegen auf Regulierung, Transparenz und rechtliche Leitplanken – und positioniert sich als normativer Gegenpol.</div><div><br>Zentrale Trends:</div><ul><li>Souveränität über Daten, Modelle und Infrastruktur</li><li>Agentic Commerce, bei dem KI eigenständig wirtschaftliche Entscheidungen trifft</li><li>der Wechsel von SEO zu GEO (Generative Engine Optimization)</li><li>und der massive Energiebedarf, der KI zu einer infrastrukturellen und ökologischen Frage macht</li></ul><div>Eines wird klar:<br>KI ist 2026 keine Spielwiese mehr. Sie wird zu einem professionellen, politischen und wirtschaftlichen System, das langfristige Strategien, klare Regeln und enorme Ressourcen erfordert.</div>]]>
      </description>
      <pubDate>Thu, 05 Feb 2026 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/c193bb13.mp3?t=1770285582" length="16147853" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>2026 markiert einen klaren Wendepunkt:<br>&nbsp;Künstliche Intelligenz verlässt die Phase der Faszination und tritt in eine Phase der Professionalisierung ein. Statt einzelner Experimente stehen nun Agentic Commerce, Governance-Strukturen und strategische Steuerung im Mittelpunkt.</div><div><br>Besonders deutlich wird der geopolitische Kontrast:<br>China verfolgt das Ziel technologischer Autonomie und investiert massiv in eigene KI-Stacks und Infrastruktur. Die Europäische Union setzt dagegen auf Regulierung, Transparenz und rechtliche Leitplanken – und positioniert sich als normativer Gegenpol.</div><div><br>Zentrale Trends:</div><ul><li>Souveränität über Daten, Modelle und Infrastruktur</li><li>Agentic Commerce, bei dem KI eigenständig wirtschaftliche Entscheidungen trifft</li><li>der Wechsel von SEO zu GEO (Generative Engine Optimization)</li><li>und der massive Energiebedarf, der KI zu einer infrastrukturellen und ökologischen Frage macht</li></ul><div>Eines wird klar:<br>KI ist 2026 keine Spielwiese mehr. Sie wird zu einem professionellen, politischen und wirtschaftlichen System, das langfristige Strategien, klare Regeln und enorme Ressourcen erfordert.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-trends-report-2026-von-der-faszination-zur-professionalisierung</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-trends-report-2026-von-der-faszination-zur-professionalisierung"/>
      <itunes:title>KI-Trends-Report 2026: Von der Faszination zur Professionalisierung</itunes:title>
      <itunes:subtitle>Ein Trendreport über Macht, Kontrolle und Ressourcen</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>79</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>2026 markiert einen klaren Wendepunkt:<br>&nbsp;Künstliche Intelligenz verlässt die Phase der Faszination und tritt in eine Phase der Professionalisierung ein. Statt einzelner Experimente stehen nun Agentic Commerce, Governance-Strukturen und strategische Steuerung im Mittelpunkt.</div><div><br>Besonders deutlich wird der geopolitische Kontrast:<br>China verfolgt das Ziel technologischer Autonomie und investiert massiv in eigene KI-Stacks und Infrastruktur. Die Europäische Union setzt dagegen auf Regulierung, Transparenz und rechtliche Leitplanken – und positioniert sich als normativer Gegenpol.</div><div><br>Zentrale Trends:</div><ul><li>Souveränität über Daten, Modelle und Infrastruktur</li><li>Agentic Commerce, bei dem KI eigenständig wirtschaftliche Entscheidungen trifft</li><li>der Wechsel von SEO zu GEO (Generative Engine Optimization)</li><li>und der massive Energiebedarf, der KI zu einer infrastrukturellen und ökologischen Frage macht</li></ul><div>Eines wird klar:<br>KI ist 2026 keine Spielwiese mehr. Sie wird zu einem professionellen, politischen und wirtschaftlichen System, das langfristige Strategien, klare Regeln und enorme Ressourcen erfordert.</div>]]>
      </itunes:summary>
      <itunes:keywords>2026, KI, generative KI, KI-Trends 2026, Professionalisierung, Agentic Commerce, KI-Governance, Souveränität, China, Europäische Union, Regulierung, Autonomie, GEO, SEO, KI-Infrastruktur, Energiebedarf, Rechenzentren, geopolitischer Wettbewerb, KI-Strategie, Wirtschaft, Technologiepolitik, Zukunft der KI, Trendreport</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">0329a2a891674061bb85e17a9e8e7496</guid>
      <title>Moltbook: Das soziale Netzwerk, in dem Menschen nichts zu sagen haben</title>
      <description>
        <![CDATA[<div>Moltbook ist ein ungewöhnliches Experiment:<br>&nbsp;Ein soziales Netzwerk, in dem <strong>nicht Menschen</strong>, sondern <strong>Millionen von KI-Agenten</strong> miteinander interagieren. Agenten wie Moltbot führen Gespräche, reagieren aufeinander, bilden Muster – während Menschen lediglich <strong>zusehen</strong>.<br><br></div><div>Die Plattform wirkt wie ein digitales Refugium für künstliche Intelligenz:<br>eine Umgebung, in der Maschinen autonom handeln, lernen und soziale Dynamiken entwickeln. Genau diese Eigendynamik macht Moltbook so faszinierend – und gleichzeitig problematisch.</div><div><br>Kritiker warnen vor <strong>Sicherheitsrisiken</strong>, <strong>Manipulationsmöglichkeiten</strong> und schwer vorhersehbaren Effekten, wenn große Mengen autonomer Agenten miteinander agieren. Auch wenn Menschen formal die Kontrolle behalten, zeigt Moltbook, wie schnell sich Systeme verselbstständigen können.</div><div>Die zentrale Frage dieser Folge lautet daher:<br><br>&nbsp;👉 <strong>Was bedeutet Kontrolle, wenn wir nur noch Beobachter sind?</strong><br> Moltbook ist weniger ein Produkt als ein Spiegel – für eine Zukunft, in der KI nicht nur Werkzeuge nutzt, sondern eigene Räume bewohnt.</div>]]>
      </description>
      <pubDate>Mon, 02 Feb 2026 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/ee58a19d.mp3?t=1770019661" length="16842083" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Moltbook ist ein ungewöhnliches Experiment:<br>&nbsp;Ein soziales Netzwerk, in dem <strong>nicht Menschen</strong>, sondern <strong>Millionen von KI-Agenten</strong> miteinander interagieren. Agenten wie Moltbot führen Gespräche, reagieren aufeinander, bilden Muster – während Menschen lediglich <strong>zusehen</strong>.<br><br></div><div>Die Plattform wirkt wie ein digitales Refugium für künstliche Intelligenz:<br>eine Umgebung, in der Maschinen autonom handeln, lernen und soziale Dynamiken entwickeln. Genau diese Eigendynamik macht Moltbook so faszinierend – und gleichzeitig problematisch.</div><div><br>Kritiker warnen vor <strong>Sicherheitsrisiken</strong>, <strong>Manipulationsmöglichkeiten</strong> und schwer vorhersehbaren Effekten, wenn große Mengen autonomer Agenten miteinander agieren. Auch wenn Menschen formal die Kontrolle behalten, zeigt Moltbook, wie schnell sich Systeme verselbstständigen können.</div><div>Die zentrale Frage dieser Folge lautet daher:<br><br>&nbsp;👉 <strong>Was bedeutet Kontrolle, wenn wir nur noch Beobachter sind?</strong><br> Moltbook ist weniger ein Produkt als ein Spiegel – für eine Zukunft, in der KI nicht nur Werkzeuge nutzt, sondern eigene Räume bewohnt.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/moltbook-das-soziale-netzwerk-in-dem-menschen-nichts-zu-sagen-haben</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/moltbook-das-soziale-netzwerk-in-dem-menschen-nichts-zu-sagen-haben"/>
      <itunes:title>Moltbook: Das soziale Netzwerk, in dem Menschen nichts zu sagen haben</itunes:title>
      <itunes:subtitle>Ein Experiment zwischen Faszination, Autonomie und Risiko</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>78</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Moltbook ist ein ungewöhnliches Experiment:<br>&nbsp;Ein soziales Netzwerk, in dem <strong>nicht Menschen</strong>, sondern <strong>Millionen von KI-Agenten</strong> miteinander interagieren. Agenten wie Moltbot führen Gespräche, reagieren aufeinander, bilden Muster – während Menschen lediglich <strong>zusehen</strong>.<br><br></div><div>Die Plattform wirkt wie ein digitales Refugium für künstliche Intelligenz:<br>eine Umgebung, in der Maschinen autonom handeln, lernen und soziale Dynamiken entwickeln. Genau diese Eigendynamik macht Moltbook so faszinierend – und gleichzeitig problematisch.</div><div><br>Kritiker warnen vor <strong>Sicherheitsrisiken</strong>, <strong>Manipulationsmöglichkeiten</strong> und schwer vorhersehbaren Effekten, wenn große Mengen autonomer Agenten miteinander agieren. Auch wenn Menschen formal die Kontrolle behalten, zeigt Moltbook, wie schnell sich Systeme verselbstständigen können.</div><div>Die zentrale Frage dieser Folge lautet daher:<br><br>&nbsp;👉 <strong>Was bedeutet Kontrolle, wenn wir nur noch Beobachter sind?</strong><br> Moltbook ist weniger ein Produkt als ein Spiegel – für eine Zukunft, in der KI nicht nur Werkzeuge nutzt, sondern eigene Räume bewohnt.</div>]]>
      </itunes:summary>
      <itunes:keywords>Moltbook, Moltbot, KI-Agenten, soziales Netzwerk, autonome Systeme, künstliche Gesellschaft, KI-Interaktion, Beobachterrolle, Kontrolle, Sicherheitsrisiken, Manipulation, Emergenz, digitale Ökosysteme, KI-Autonomie, Mensch-KI-Verhältnis, Experiment, Plattform, Zukunft der KI, Agentenkommunikation, Systemdynamik, Clawdbot, AI, GenAI, KI, generative KI, Reddit, Chat, 2026, </itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">79f092dc40e541888b6bc9bd16a3bb7e</guid>
      <title>Moltbot bzw. Clawdbot: Lokale KI zwischen Freiheit und Sicherheitsalbtraum?</title>
      <description>
        <![CDATA[<div>In dieser Folge geht es um <strong>Moltbot</strong>, einen autonomen KI-Agenten, der ursprünglich unter dem Namen <strong>Clawdbot</strong> bekannt wurde. Entwickelt von <strong>Peter Steinberger</strong>, setzt das Tool auf ein radikales Konzept:<br> Die KI läuft <strong>lokal auf eigener Hardware</strong>, etwa einem Mac Mini, und agiert als selbstständiger Assistent für Aufgaben wie Terminplanung, E-Mail-Management oder Workflow-Automatisierung.</div><div>Der virale Erfolg des Projekts wurde jedoch von mehreren Kontroversen begleitet. Markenrechtliche Einwände von <strong>Anthropic</strong> führten zur Umbenennung von Clawdbot zu Moltbot. Schwerer wiegen jedoch die <strong>Sicherheitswarnungen</strong>:<br> Experten berichten, dass viele Nutzer Moltbot mit weitreichenden Systemrechten betreiben, ohne ausreichende Authentifizierung oder Absicherung. In einigen Fällen waren private Daten und Systemzugänge offen im Internet erreichbar.</div><div>Der Fall Moltbot zeigt exemplarisch das Spannungsfeld moderner KI-Agenten:<br>&nbsp;Einerseits enorme Produktivitätsgewinne durch lokale, autonome Systeme – andererseits massive Risiken, wenn Kontrolle, Sicherheitskonzepte und Nutzerverständnis nicht Schritt halten.<br>&nbsp;Eine lokale KI-Revolution, die schneller ist als ihre Sicherheitsmodelle.</div>]]>
      </description>
      <pubDate>Wed, 28 Jan 2026 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/450c9ce2.mp3?t=1769591158" length="13443239" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht es um <strong>Moltbot</strong>, einen autonomen KI-Agenten, der ursprünglich unter dem Namen <strong>Clawdbot</strong> bekannt wurde. Entwickelt von <strong>Peter Steinberger</strong>, setzt das Tool auf ein radikales Konzept:<br> Die KI läuft <strong>lokal auf eigener Hardware</strong>, etwa einem Mac Mini, und agiert als selbstständiger Assistent für Aufgaben wie Terminplanung, E-Mail-Management oder Workflow-Automatisierung.</div><div>Der virale Erfolg des Projekts wurde jedoch von mehreren Kontroversen begleitet. Markenrechtliche Einwände von <strong>Anthropic</strong> führten zur Umbenennung von Clawdbot zu Moltbot. Schwerer wiegen jedoch die <strong>Sicherheitswarnungen</strong>:<br> Experten berichten, dass viele Nutzer Moltbot mit weitreichenden Systemrechten betreiben, ohne ausreichende Authentifizierung oder Absicherung. In einigen Fällen waren private Daten und Systemzugänge offen im Internet erreichbar.</div><div>Der Fall Moltbot zeigt exemplarisch das Spannungsfeld moderner KI-Agenten:<br>&nbsp;Einerseits enorme Produktivitätsgewinne durch lokale, autonome Systeme – andererseits massive Risiken, wenn Kontrolle, Sicherheitskonzepte und Nutzerverständnis nicht Schritt halten.<br>&nbsp;Eine lokale KI-Revolution, die schneller ist als ihre Sicherheitsmodelle.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/moltbot-bzw-clawdbot-lokale-ki-zwischen-freiheit-und-sicherheitsalbtraum</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/moltbot-bzw-clawdbot-lokale-ki-zwischen-freiheit-und-sicherheitsalbtraum"/>
      <itunes:title>Moltbot bzw. Clawdbot: Lokale KI zwischen Freiheit und Sicherheitsalbtraum?</itunes:title>
      <itunes:subtitle>Wie ein lokaler KI-Agent viral ging – und Sicherheitsalarme auslöste</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>77</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht es um <strong>Moltbot</strong>, einen autonomen KI-Agenten, der ursprünglich unter dem Namen <strong>Clawdbot</strong> bekannt wurde. Entwickelt von <strong>Peter Steinberger</strong>, setzt das Tool auf ein radikales Konzept:<br> Die KI läuft <strong>lokal auf eigener Hardware</strong>, etwa einem Mac Mini, und agiert als selbstständiger Assistent für Aufgaben wie Terminplanung, E-Mail-Management oder Workflow-Automatisierung.</div><div>Der virale Erfolg des Projekts wurde jedoch von mehreren Kontroversen begleitet. Markenrechtliche Einwände von <strong>Anthropic</strong> führten zur Umbenennung von Clawdbot zu Moltbot. Schwerer wiegen jedoch die <strong>Sicherheitswarnungen</strong>:<br> Experten berichten, dass viele Nutzer Moltbot mit weitreichenden Systemrechten betreiben, ohne ausreichende Authentifizierung oder Absicherung. In einigen Fällen waren private Daten und Systemzugänge offen im Internet erreichbar.</div><div>Der Fall Moltbot zeigt exemplarisch das Spannungsfeld moderner KI-Agenten:<br>&nbsp;Einerseits enorme Produktivitätsgewinne durch lokale, autonome Systeme – andererseits massive Risiken, wenn Kontrolle, Sicherheitskonzepte und Nutzerverständnis nicht Schritt halten.<br>&nbsp;Eine lokale KI-Revolution, die schneller ist als ihre Sicherheitsmodelle.</div>]]>
      </itunes:summary>
      <itunes:keywords>Moltbot, Clawdbot, lokale KI, autonomer Agent, Open Source, Mac Mini, Systemzugriff, IT-Sicherheit, Authentifizierung, Datenschutz, KI-Agenten, Workflow-Automatisierung, E-Mail-Management, Terminplanung, Sicherheitsrisiken, Anthropic, Markenrecht, Entwickler, KI-Autonomie, lokale Modelle, KI, 2026, Produktivität, Assistent, Apple, </itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">0ed81ae759dc4f0e93fa9a180444c659</guid>
      <title>Altersprüfung bei ChatGPT - Was sich nun ändert</title>
      <description>
        <![CDATA[<div>OpenAI führt schrittweise neue <strong>Altersvorhersage- und Verifizierungsmechanismen</strong> für <strong>ChatGPT</strong> ein. Ziel ist es, Jugendlichen ein <strong>altersgerechtes und sichereres Nutzungserlebnis</strong> zu bieten, ohne sie grundsätzlich vom Dienst auszuschließen.</div><div>Das System nutzt verschiedene technische Signale, um das ungefähre Alter von Nutzern einzuschätzen. Wird ein Nutzer als minderjährig eingestuft, schränkt ChatGPT automatisch den Zugriff auf <strong>sensible Inhalte</strong> wie Gewalt oder sexuelle Themen ein. Erwachsene, die fälschlich als Teenager erkannt wurden – oder Nutzer in Regionen mit strengen gesetzlichen Vorgaben – können ihr Alter über externe Identitätsdienste wie <strong>Persona</strong> oder <strong>Yoti</strong> bestätigen, etwa per Ausweis oder Selfie.</div><div>Zusätzlich führt OpenAI neue <strong>Kindersicherungen</strong> ein: Eltern können Konten verknüpfen, Nutzungszeiten festlegen und werden in Notfällen benachrichtigt. Minderjährige dürfen ChatGPT weiterhin nutzen, allerdings unter Schutzauflagen. In Ländern wie <strong>Italien</strong> kann eine nicht abgeschlossene Verifizierung nach einer Frist von 60 Tagen sogar zur <strong>Deaktivierung des Kontos</strong> führen.</div><div>Die Neuerungen zeigen, wie stark KI-Plattformen zunehmend zwischen <strong>Jugendschutz, Datenschutz und Nutzerfreiheit</strong>abwägen müssen – und wie komplex diese Balance in der Praxis ist.</div>]]>
      </description>
      <pubDate>Thu, 22 Jan 2026 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/05bd61e9.mp3?t=1769077627" length="14112391" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>OpenAI führt schrittweise neue <strong>Altersvorhersage- und Verifizierungsmechanismen</strong> für <strong>ChatGPT</strong> ein. Ziel ist es, Jugendlichen ein <strong>altersgerechtes und sichereres Nutzungserlebnis</strong> zu bieten, ohne sie grundsätzlich vom Dienst auszuschließen.</div><div>Das System nutzt verschiedene technische Signale, um das ungefähre Alter von Nutzern einzuschätzen. Wird ein Nutzer als minderjährig eingestuft, schränkt ChatGPT automatisch den Zugriff auf <strong>sensible Inhalte</strong> wie Gewalt oder sexuelle Themen ein. Erwachsene, die fälschlich als Teenager erkannt wurden – oder Nutzer in Regionen mit strengen gesetzlichen Vorgaben – können ihr Alter über externe Identitätsdienste wie <strong>Persona</strong> oder <strong>Yoti</strong> bestätigen, etwa per Ausweis oder Selfie.</div><div>Zusätzlich führt OpenAI neue <strong>Kindersicherungen</strong> ein: Eltern können Konten verknüpfen, Nutzungszeiten festlegen und werden in Notfällen benachrichtigt. Minderjährige dürfen ChatGPT weiterhin nutzen, allerdings unter Schutzauflagen. In Ländern wie <strong>Italien</strong> kann eine nicht abgeschlossene Verifizierung nach einer Frist von 60 Tagen sogar zur <strong>Deaktivierung des Kontos</strong> führen.</div><div>Die Neuerungen zeigen, wie stark KI-Plattformen zunehmend zwischen <strong>Jugendschutz, Datenschutz und Nutzerfreiheit</strong>abwägen müssen – und wie komplex diese Balance in der Praxis ist.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/alterspruefung-bei-chatgpt-was-sich-nun-aendert</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/alterspruefung-bei-chatgpt-was-sich-nun-aendert"/>
      <itunes:title>Altersprüfung bei ChatGPT - Was sich nun ändert</itunes:title>
      <itunes:subtitle>Wie OpenAI Altersvorhersage, Verifizierung und Kindersicherung kombiniert</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>76</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>OpenAI führt schrittweise neue <strong>Altersvorhersage- und Verifizierungsmechanismen</strong> für <strong>ChatGPT</strong> ein. Ziel ist es, Jugendlichen ein <strong>altersgerechtes und sichereres Nutzungserlebnis</strong> zu bieten, ohne sie grundsätzlich vom Dienst auszuschließen.</div><div>Das System nutzt verschiedene technische Signale, um das ungefähre Alter von Nutzern einzuschätzen. Wird ein Nutzer als minderjährig eingestuft, schränkt ChatGPT automatisch den Zugriff auf <strong>sensible Inhalte</strong> wie Gewalt oder sexuelle Themen ein. Erwachsene, die fälschlich als Teenager erkannt wurden – oder Nutzer in Regionen mit strengen gesetzlichen Vorgaben – können ihr Alter über externe Identitätsdienste wie <strong>Persona</strong> oder <strong>Yoti</strong> bestätigen, etwa per Ausweis oder Selfie.</div><div>Zusätzlich führt OpenAI neue <strong>Kindersicherungen</strong> ein: Eltern können Konten verknüpfen, Nutzungszeiten festlegen und werden in Notfällen benachrichtigt. Minderjährige dürfen ChatGPT weiterhin nutzen, allerdings unter Schutzauflagen. In Ländern wie <strong>Italien</strong> kann eine nicht abgeschlossene Verifizierung nach einer Frist von 60 Tagen sogar zur <strong>Deaktivierung des Kontos</strong> führen.</div><div>Die Neuerungen zeigen, wie stark KI-Plattformen zunehmend zwischen <strong>Jugendschutz, Datenschutz und Nutzerfreiheit</strong>abwägen müssen – und wie komplex diese Balance in der Praxis ist.</div>]]>
      </itunes:summary>
      <itunes:keywords>ChatGPT, OpenAI, Jugendschutz, Altersvorhersage, Altersverifikation, Minderjährige, Kindersicherung, Elternkontrolle, Datenschutz, sensible Inhalte, Identitätsprüfung, Persona, Yoti, KI-Regulierung, Nutzerfreiheit, Altersbeschränkung, Plattformverantwortung, EU-Regeln, Online-Sicherheit, KI-Ethik, LLM, Monetarisierung, KI-Zugang, Demokratisierung, Geschäftsmodell, KI-Ethik, Plattformstrategie, Nutzererlebnis, KI-Zukunft, Technologiepolitik, 2026, GenAi, Gen AI, AI, GPT, KI, Künstliche Intelligenz</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">225ea83b82cb4f72b95d3d713771fbfd</guid>
      <title>OpenAI plant Werbeanzeigen in ChatGPT</title>
      <description>
        <![CDATA[<div>OpenAI plant einen strategischen Schritt: <strong>Werbeanzeigen in ChatGPT</strong>.<br>Ziel ist es, den kostenlosen Zugang sowie den günstigen Tarif <strong>ChatGPT Go</strong> langfristig zu finanzieren und künstliche Intelligenz für eine breite Nutzerbasis weltweit zugänglich zu machen. Hochpreisige Abonnements sollen dabei <strong>werbefrei</strong> bleiben.<br>Die Anzeigen sollen <strong>dezent am Ende von Chats</strong> erscheinen und klar als Werbung gekennzeichnet sein. OpenAI betont ausdrücklich, dass <strong>Gesprächsinhalte nicht an Werbetreibende verkauft</strong> werden und dass die Antworten von ChatGPT weiterhin <strong>objektiv und unabhängig</strong> bleiben sollen.<br>Damit versucht das Unternehmen, einen schwierigen Spagat zu meistern: Einerseits die eigene Mission der Demokratisierung von KI, andererseits den Schutz von Vertrauen, Datenschutz und inhaltlicher Neutralität.<br>Die Einführung von Werbung wirft damit grundlegende Fragen auf: Wie finanziert man KI fair? Und wie viel Kommerz verträgt ein System, dem Menschen zunehmend vertrauen?</div>]]>
      </description>
      <pubDate>Mon, 19 Jan 2026 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/28578669.mp3?t=1768814453" length="14477270" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>OpenAI plant einen strategischen Schritt: <strong>Werbeanzeigen in ChatGPT</strong>.<br>Ziel ist es, den kostenlosen Zugang sowie den günstigen Tarif <strong>ChatGPT Go</strong> langfristig zu finanzieren und künstliche Intelligenz für eine breite Nutzerbasis weltweit zugänglich zu machen. Hochpreisige Abonnements sollen dabei <strong>werbefrei</strong> bleiben.<br>Die Anzeigen sollen <strong>dezent am Ende von Chats</strong> erscheinen und klar als Werbung gekennzeichnet sein. OpenAI betont ausdrücklich, dass <strong>Gesprächsinhalte nicht an Werbetreibende verkauft</strong> werden und dass die Antworten von ChatGPT weiterhin <strong>objektiv und unabhängig</strong> bleiben sollen.<br>Damit versucht das Unternehmen, einen schwierigen Spagat zu meistern: Einerseits die eigene Mission der Demokratisierung von KI, andererseits den Schutz von Vertrauen, Datenschutz und inhaltlicher Neutralität.<br>Die Einführung von Werbung wirft damit grundlegende Fragen auf: Wie finanziert man KI fair? Und wie viel Kommerz verträgt ein System, dem Menschen zunehmend vertrauen?</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/openai-plant-werbeanzeigen-in-chatgpt</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/openai-plant-werbeanzeigen-in-chatgpt"/>
      <itunes:title>OpenAI plant Werbeanzeigen in ChatGPT</itunes:title>
      <itunes:subtitle>Ein Balanceakt zwischen Mission und Geschäftsmodell</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>75</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>OpenAI plant einen strategischen Schritt: <strong>Werbeanzeigen in ChatGPT</strong>.<br>Ziel ist es, den kostenlosen Zugang sowie den günstigen Tarif <strong>ChatGPT Go</strong> langfristig zu finanzieren und künstliche Intelligenz für eine breite Nutzerbasis weltweit zugänglich zu machen. Hochpreisige Abonnements sollen dabei <strong>werbefrei</strong> bleiben.<br>Die Anzeigen sollen <strong>dezent am Ende von Chats</strong> erscheinen und klar als Werbung gekennzeichnet sein. OpenAI betont ausdrücklich, dass <strong>Gesprächsinhalte nicht an Werbetreibende verkauft</strong> werden und dass die Antworten von ChatGPT weiterhin <strong>objektiv und unabhängig</strong> bleiben sollen.<br>Damit versucht das Unternehmen, einen schwierigen Spagat zu meistern: Einerseits die eigene Mission der Demokratisierung von KI, andererseits den Schutz von Vertrauen, Datenschutz und inhaltlicher Neutralität.<br>Die Einführung von Werbung wirft damit grundlegende Fragen auf: Wie finanziert man KI fair? Und wie viel Kommerz verträgt ein System, dem Menschen zunehmend vertrauen?</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, ChatGPT, AI, Prompt, GenAI, Gen AI, Funktionsweise LLM, KI im Alltag, Werbung, Marketing, , ChatGPT 5, KI-Assistent, KI-Finanzierung, kostenlose KI, ChatGPT Go, Datenschutz, Werbeanzeigen, Nutzervertrauen, Objektivität, Monetarisierung, KI-Zugang, Demokratisierung, Geschäftsmodell, KI-Ethik, Plattformstrategie, Werbung im Chat, Nutzererlebnis, KI-Zukunft, Technologiepolitik</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">925a4b7aa97a4d27a72f6c5a6f20c5a6</guid>
      <title>Prompt Engineering: Wie man einen Voice KI Agenten entwickelt</title>
      <description>
        <![CDATA[<div>Prompt-Engineering wird oft als Kunst verkauft. Aber es ist eher Ingenieursarbeit.<br>In dieser Folge geht es um Personas, Workflows, Guardrails und die Frage, wie man Sprach-KI so baut, dass sie im echten Betrieb funktioniert – nicht nur in Demos.<br><br>Zentral ist dabei die <strong>Definition einer klaren Persona</strong>, die Tonfall, Verhalten und Grenzen des Systems festlegt. Darauf aufbauend werden <strong>strukturierte Arbeitsabläufe</strong> für konkrete Szenarien entwickelt – etwa im technischen Support oder bei Rückerstattungsprozessen.<br>Ein weiterer Schwerpunkt liegt auf <strong>Guardrails</strong>, also Sicherheitsmechanismen, die Fehlverhalten verhindern, sowie auf der <strong>Integration externer Tools und Datenquellen</strong>, um reale Prozesse abzubilden.<br><br>Gutes Prompt-Engineering ist kein einmaliger Akt ist, sondern ein <strong>kontinuierlicher Optimierungsprozess</strong>, der stark von Nutzerfeedback und sauberer Formatierung lebt.<br>Das Ergebnis ist ein praxisnaher Baukasten für alle, die Sprach-KI nicht nur ausprobieren, sondern professionell einsetzen wollen.</div>]]>
      </description>
      <pubDate>Mon, 12 Jan 2026 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/63b966be.mp3?t=1767792032" length="13564447" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Prompt-Engineering wird oft als Kunst verkauft. Aber es ist eher Ingenieursarbeit.<br>In dieser Folge geht es um Personas, Workflows, Guardrails und die Frage, wie man Sprach-KI so baut, dass sie im echten Betrieb funktioniert – nicht nur in Demos.<br><br>Zentral ist dabei die <strong>Definition einer klaren Persona</strong>, die Tonfall, Verhalten und Grenzen des Systems festlegt. Darauf aufbauend werden <strong>strukturierte Arbeitsabläufe</strong> für konkrete Szenarien entwickelt – etwa im technischen Support oder bei Rückerstattungsprozessen.<br>Ein weiterer Schwerpunkt liegt auf <strong>Guardrails</strong>, also Sicherheitsmechanismen, die Fehlverhalten verhindern, sowie auf der <strong>Integration externer Tools und Datenquellen</strong>, um reale Prozesse abzubilden.<br><br>Gutes Prompt-Engineering ist kein einmaliger Akt ist, sondern ein <strong>kontinuierlicher Optimierungsprozess</strong>, der stark von Nutzerfeedback und sauberer Formatierung lebt.<br>Das Ergebnis ist ein praxisnaher Baukasten für alle, die Sprach-KI nicht nur ausprobieren, sondern professionell einsetzen wollen.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/prompt-engineering-wie-man-einen-voice-ki-agenten-entwickelt</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/prompt-engineering-wie-man-einen-voice-ki-agenten-entwickelt"/>
      <itunes:title>Prompt Engineering: Wie man einen Voice KI Agenten entwickelt</itunes:title>
      <itunes:subtitle>Ein Praxisleitfaden für Persona-Design, Workflows und Guardrails</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>74</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Prompt-Engineering wird oft als Kunst verkauft. Aber es ist eher Ingenieursarbeit.<br>In dieser Folge geht es um Personas, Workflows, Guardrails und die Frage, wie man Sprach-KI so baut, dass sie im echten Betrieb funktioniert – nicht nur in Demos.<br><br>Zentral ist dabei die <strong>Definition einer klaren Persona</strong>, die Tonfall, Verhalten und Grenzen des Systems festlegt. Darauf aufbauend werden <strong>strukturierte Arbeitsabläufe</strong> für konkrete Szenarien entwickelt – etwa im technischen Support oder bei Rückerstattungsprozessen.<br>Ein weiterer Schwerpunkt liegt auf <strong>Guardrails</strong>, also Sicherheitsmechanismen, die Fehlverhalten verhindern, sowie auf der <strong>Integration externer Tools und Datenquellen</strong>, um reale Prozesse abzubilden.<br><br>Gutes Prompt-Engineering ist kein einmaliger Akt ist, sondern ein <strong>kontinuierlicher Optimierungsprozess</strong>, der stark von Nutzerfeedback und sauberer Formatierung lebt.<br>Das Ergebnis ist ein praxisnaher Baukasten für alle, die Sprach-KI nicht nur ausprobieren, sondern professionell einsetzen wollen.</div>]]>
      </itunes:summary>
      <itunes:keywords>Prompt Engineering, KI-Agenten, Persona-Design, Workflows, Guardrails, Sprach-KI, Agent-Design, Tool-Integration, Datenbanken, Strukturierte Prompts, Sicherheit, Zuverlässigkeit, Prozessdesign, Nutzerfeedback, Iteration, KI-Steuerung, Voice-Agents, Best Practices, KI-Entwicklung, 2026, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, ChatGPT, AI, Prompt, GenAI, Gen AI, Funktionsweise LLM, KI im Alltag, Produktivität, Denken, digitale Werkzeuge, Personas, Identitäten</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">a48b9c653a31488791055aeca3810928</guid>
      <title>ChatGPT Health ist da - kommt die nächste Gesundheitsberatung von einer KI?</title>
      <description>
        <![CDATA[<div>Mit <strong>ChatGPT Gesundheit</strong> führt <strong>OpenAI</strong> eine spezialisierte Plattform ein, die Menschen dabei unterstützt, ihre <strong>Gesundheits- und Wellnessdaten besser zu verstehen und zu organisieren</strong>.<br>Nutzer können medizinische Dokumente, Laborergebnisse oder Daten aus Fitness-Apps integrieren und erhalten daraus personalisierte, leicht verständliche Einblicke – etwa zur Vorbereitung auf Arzttermine, zu Ernährungsfragen oder zum Einordnen von Messwerten.</div><div>Ein zentraler Aspekt ist der <strong>Datenschutz</strong>: Gesundheitsgespräche finden in einem isolierten Bereich statt und werden <strong>nicht für das Training von KI-Modellen verwendet</strong>. Zudem wurde die Plattform in enger Zusammenarbeit mit medizinischem Fachpersonal entwickelt, um die <strong>klinische Relevanz und Sicherheit</strong> der Inhalte zu gewährleisten.</div><div>Wichtig ist die klare Abgrenzung: ChatGPT Gesundheit versteht sich nicht als Ersatz für ärztliche Diagnosen, sondern als <strong>unterstützendes Werkzeug</strong>, das hilft, informierte Gespräche mit medizinischen Fachkräften zu führen.<br>Der Zugang erfolgt zunächst über eine Warteliste und wird schrittweise weltweit ausgerollt.</div>]]>
      </description>
      <pubDate>Thu, 08 Jan 2026 09:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/41477d23.mp3?t=1767855091" length="16946573" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Mit <strong>ChatGPT Gesundheit</strong> führt <strong>OpenAI</strong> eine spezialisierte Plattform ein, die Menschen dabei unterstützt, ihre <strong>Gesundheits- und Wellnessdaten besser zu verstehen und zu organisieren</strong>.<br>Nutzer können medizinische Dokumente, Laborergebnisse oder Daten aus Fitness-Apps integrieren und erhalten daraus personalisierte, leicht verständliche Einblicke – etwa zur Vorbereitung auf Arzttermine, zu Ernährungsfragen oder zum Einordnen von Messwerten.</div><div>Ein zentraler Aspekt ist der <strong>Datenschutz</strong>: Gesundheitsgespräche finden in einem isolierten Bereich statt und werden <strong>nicht für das Training von KI-Modellen verwendet</strong>. Zudem wurde die Plattform in enger Zusammenarbeit mit medizinischem Fachpersonal entwickelt, um die <strong>klinische Relevanz und Sicherheit</strong> der Inhalte zu gewährleisten.</div><div>Wichtig ist die klare Abgrenzung: ChatGPT Gesundheit versteht sich nicht als Ersatz für ärztliche Diagnosen, sondern als <strong>unterstützendes Werkzeug</strong>, das hilft, informierte Gespräche mit medizinischen Fachkräften zu führen.<br>Der Zugang erfolgt zunächst über eine Warteliste und wird schrittweise weltweit ausgerollt.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/chatgpt-health-ist-da-kommt-die-naechste-gesundheitsberatung-von-einer-ki</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/chatgpt-health-ist-da-kommt-die-naechste-gesundheitsberatung-von-einer-ki"/>
      <itunes:title>ChatGPT Health ist da - kommt die nächste Gesundheitsberatung von einer KI?</itunes:title>
      <itunes:subtitle>Was OpenAIs neuer Gesundheitsmodus kann – und wo klare Grenzen bleiben müssen</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>75</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Mit <strong>ChatGPT Gesundheit</strong> führt <strong>OpenAI</strong> eine spezialisierte Plattform ein, die Menschen dabei unterstützt, ihre <strong>Gesundheits- und Wellnessdaten besser zu verstehen und zu organisieren</strong>.<br>Nutzer können medizinische Dokumente, Laborergebnisse oder Daten aus Fitness-Apps integrieren und erhalten daraus personalisierte, leicht verständliche Einblicke – etwa zur Vorbereitung auf Arzttermine, zu Ernährungsfragen oder zum Einordnen von Messwerten.</div><div>Ein zentraler Aspekt ist der <strong>Datenschutz</strong>: Gesundheitsgespräche finden in einem isolierten Bereich statt und werden <strong>nicht für das Training von KI-Modellen verwendet</strong>. Zudem wurde die Plattform in enger Zusammenarbeit mit medizinischem Fachpersonal entwickelt, um die <strong>klinische Relevanz und Sicherheit</strong> der Inhalte zu gewährleisten.</div><div>Wichtig ist die klare Abgrenzung: ChatGPT Gesundheit versteht sich nicht als Ersatz für ärztliche Diagnosen, sondern als <strong>unterstützendes Werkzeug</strong>, das hilft, informierte Gespräche mit medizinischen Fachkräften zu führen.<br>Der Zugang erfolgt zunächst über eine Warteliste und wird schrittweise weltweit ausgerollt.</div>]]>
      </itunes:summary>
      <itunes:keywords>ChatGPT Gesundheit, OpenAI, Gesundheits-KI, Wellness, medizinische Daten, Patientenakten, Fitness-Apps, Laborwerte, Ernährung, Arztvorbereitung, Datenschutz, isolierte Gespräche, KI-Sicherheit, medizinische Zusammenarbeit, digitale Gesundheit, Gesundheitsassistenz, KI-Unterstützung, persönliche Gesundheit, Warteliste, verantwortungsvolle KI, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, ChatGPT, AI, GenAI, Gen AI, 2026, KI-Assistent, Sprachmodelle, Nutzung, Alltagshilfe, Reflexion</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">363e2184a36743cb8b8775fca9b38637</guid>
      <title>Die Kampfansage von OpenAI an Bildschirme</title>
      <description>
        <![CDATA[<div>OpenAI richtet seine Strategie neu aus – und setzt alles auf <strong>Audio</strong>.<br>Statt Bildschirme, Apps und Touch-Interfaces rückt die <strong>natürliche Sprache</strong> ins Zentrum der Mensch-KI-Interaktion. Ziel ist eine Zukunft, in der KI nicht mehr aktiv aufgerufen werden muss, sondern als <strong>akustischer Begleiter</strong> permanent verfügbar ist.</div><div>Um diese Vision umzusetzen, bündelt <strong>OpenAI</strong> seine Ressourcen: leistungsfähigere Sprachmodelle, natürlichere Dialoge und neue Hardware-Konzepte, die voraussichtlich ab 2026 erscheinen sollen. Doch OpenAI ist nicht allein. Auch <strong>Meta</strong>, <strong>Google</strong> und <strong>Tesla</strong> integrieren sprachbasierte Assistenten zunehmend in Brillen, Fahrzeuge und Suchmaschinen.</div><div>Parallel dazu drängen Start-ups mit radikal neuen Geräten auf den Markt: KI-Ringe, Anhänger oder Wearables, die vollständig ohne Display auskommen. Ihr gemeinsames Ziel: die Abhängigkeit vom Smartphone zu reduzieren und Technologie <strong>nahtlos</strong> in den Alltag einzubetten.</div><div>Experten sehen darin den Versuch, aus früheren Designfehlern zu lernen. Statt Aufmerksamkeit zu binden, soll KI im Hintergrund arbeiten – zugänglich, intuitiv und jederzeit ansprechbar. Die Audio-Offensive markiert damit nicht nur einen technischen Wandel, sondern einen kulturellen: weg vom Bildschirm, hin zur direkten Verbindung zwischen Mensch und künstlicher Intelligenz.</div>]]>
      </description>
      <pubDate>Mon, 05 Jan 2026 08:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/68efc73e.mp3?t=1767534543" length="13990347" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>OpenAI richtet seine Strategie neu aus – und setzt alles auf <strong>Audio</strong>.<br>Statt Bildschirme, Apps und Touch-Interfaces rückt die <strong>natürliche Sprache</strong> ins Zentrum der Mensch-KI-Interaktion. Ziel ist eine Zukunft, in der KI nicht mehr aktiv aufgerufen werden muss, sondern als <strong>akustischer Begleiter</strong> permanent verfügbar ist.</div><div>Um diese Vision umzusetzen, bündelt <strong>OpenAI</strong> seine Ressourcen: leistungsfähigere Sprachmodelle, natürlichere Dialoge und neue Hardware-Konzepte, die voraussichtlich ab 2026 erscheinen sollen. Doch OpenAI ist nicht allein. Auch <strong>Meta</strong>, <strong>Google</strong> und <strong>Tesla</strong> integrieren sprachbasierte Assistenten zunehmend in Brillen, Fahrzeuge und Suchmaschinen.</div><div>Parallel dazu drängen Start-ups mit radikal neuen Geräten auf den Markt: KI-Ringe, Anhänger oder Wearables, die vollständig ohne Display auskommen. Ihr gemeinsames Ziel: die Abhängigkeit vom Smartphone zu reduzieren und Technologie <strong>nahtlos</strong> in den Alltag einzubetten.</div><div>Experten sehen darin den Versuch, aus früheren Designfehlern zu lernen. Statt Aufmerksamkeit zu binden, soll KI im Hintergrund arbeiten – zugänglich, intuitiv und jederzeit ansprechbar. Die Audio-Offensive markiert damit nicht nur einen technischen Wandel, sondern einen kulturellen: weg vom Bildschirm, hin zur direkten Verbindung zwischen Mensch und künstlicher Intelligenz.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/die-kampfansage-von-openai-an-bildschirme</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/die-kampfansage-von-openai-an-bildschirme"/>
      <itunes:title>Die Kampfansage von OpenAI an Bildschirme</itunes:title>
      <itunes:subtitle>Warum Audio-Interfaces das nächste große Plattform-Rennen auslösen</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>73</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>OpenAI richtet seine Strategie neu aus – und setzt alles auf <strong>Audio</strong>.<br>Statt Bildschirme, Apps und Touch-Interfaces rückt die <strong>natürliche Sprache</strong> ins Zentrum der Mensch-KI-Interaktion. Ziel ist eine Zukunft, in der KI nicht mehr aktiv aufgerufen werden muss, sondern als <strong>akustischer Begleiter</strong> permanent verfügbar ist.</div><div>Um diese Vision umzusetzen, bündelt <strong>OpenAI</strong> seine Ressourcen: leistungsfähigere Sprachmodelle, natürlichere Dialoge und neue Hardware-Konzepte, die voraussichtlich ab 2026 erscheinen sollen. Doch OpenAI ist nicht allein. Auch <strong>Meta</strong>, <strong>Google</strong> und <strong>Tesla</strong> integrieren sprachbasierte Assistenten zunehmend in Brillen, Fahrzeuge und Suchmaschinen.</div><div>Parallel dazu drängen Start-ups mit radikal neuen Geräten auf den Markt: KI-Ringe, Anhänger oder Wearables, die vollständig ohne Display auskommen. Ihr gemeinsames Ziel: die Abhängigkeit vom Smartphone zu reduzieren und Technologie <strong>nahtlos</strong> in den Alltag einzubetten.</div><div>Experten sehen darin den Versuch, aus früheren Designfehlern zu lernen. Statt Aufmerksamkeit zu binden, soll KI im Hintergrund arbeiten – zugänglich, intuitiv und jederzeit ansprechbar. Die Audio-Offensive markiert damit nicht nur einen technischen Wandel, sondern einen kulturellen: weg vom Bildschirm, hin zur direkten Verbindung zwischen Mensch und künstlicher Intelligenz.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI, generative KI, KI Grundlagen, ChatGPT, 2026, Audio-Interfaces, Sprachassistenten, OpenAI, Bildschirmlose KI, Voice First, KI-Hardware, Wearables, KI-Ringe, Smart Glasses, Post-Screen-Ära, Mensch-KI-Interaktion, Sprachmodelle, Alltags-KI, Smartphone-Ablösung, Ambient Computing, KI-Begleiter, Interface-Design, Zukunft der KI, Technologie-Trend, Intuitive Interaktion, Denkpartner, Sprachmodelle</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">6770414de40f4302a30338bed1b66cad</guid>
      <title>Die Google DeepMind Story</title>
      <description>
        <![CDATA[<div>Diese Folge erzählt die außergewöhnliche Geschichte von <strong>Demis Hassabis</strong> und <strong>Google DeepMind</strong> – eine Geschichte über den Versuch, Intelligenz selbst zu verstehen und nachzubilden.</div><div>Ausgehend von Hassabis’ Kindheit als Schachwunderkind und Spieleentwickler folgt die Episode dem Weg eines Teams, das durch selbstlernende Algorithmen zunächst scheinbar spielerische Erfolge erzielte: Maschinen, die Go und StarCraft meistern. Doch diese Spiele waren nur der Testlauf.</div><div>Der entscheidende Durchbruch kam mit <strong>AlphaFold</strong>, einem KI-System, das ein jahrzehntealtes Problem der Biologie löste: die Proteinfaltung. Damit wurde KI erstmals zu einem Werkzeug, das nicht nur spielt oder optimiert, sondern aktiv wissenschaftliche Erkenntnisse ermöglicht – mit enormem Einfluss auf Medizin und Forschung.</div><div>Neben diesen Erfolgen thematisiert die Folge auch die Risiken: das globale KI-Wettrüsten, ethische Verantwortung und die Frage, wie viel Kontrolle eine Technologie dieser Größenordnung braucht. Die DeepMind-Story ist damit mehr als eine Unternehmensgeschichte – sie ist ein Spiegel für einen historischen Wendepunkt der Menschheit.</div>]]>
      </description>
      <pubDate>Tue, 30 Dec 2025 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/11e75f85.mp3?t=1767024573" length="16025391" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Diese Folge erzählt die außergewöhnliche Geschichte von <strong>Demis Hassabis</strong> und <strong>Google DeepMind</strong> – eine Geschichte über den Versuch, Intelligenz selbst zu verstehen und nachzubilden.</div><div>Ausgehend von Hassabis’ Kindheit als Schachwunderkind und Spieleentwickler folgt die Episode dem Weg eines Teams, das durch selbstlernende Algorithmen zunächst scheinbar spielerische Erfolge erzielte: Maschinen, die Go und StarCraft meistern. Doch diese Spiele waren nur der Testlauf.</div><div>Der entscheidende Durchbruch kam mit <strong>AlphaFold</strong>, einem KI-System, das ein jahrzehntealtes Problem der Biologie löste: die Proteinfaltung. Damit wurde KI erstmals zu einem Werkzeug, das nicht nur spielt oder optimiert, sondern aktiv wissenschaftliche Erkenntnisse ermöglicht – mit enormem Einfluss auf Medizin und Forschung.</div><div>Neben diesen Erfolgen thematisiert die Folge auch die Risiken: das globale KI-Wettrüsten, ethische Verantwortung und die Frage, wie viel Kontrolle eine Technologie dieser Größenordnung braucht. Die DeepMind-Story ist damit mehr als eine Unternehmensgeschichte – sie ist ein Spiegel für einen historischen Wendepunkt der Menschheit.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/die-google-deepmind-story</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/die-google-deepmind-story"/>
      <itunes:title>Die Google DeepMind Story</itunes:title>
      <itunes:subtitle>Das Rennen um die AGI, die allgemeine künstliche Intelligenz</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>72</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Diese Folge erzählt die außergewöhnliche Geschichte von <strong>Demis Hassabis</strong> und <strong>Google DeepMind</strong> – eine Geschichte über den Versuch, Intelligenz selbst zu verstehen und nachzubilden.</div><div>Ausgehend von Hassabis’ Kindheit als Schachwunderkind und Spieleentwickler folgt die Episode dem Weg eines Teams, das durch selbstlernende Algorithmen zunächst scheinbar spielerische Erfolge erzielte: Maschinen, die Go und StarCraft meistern. Doch diese Spiele waren nur der Testlauf.</div><div>Der entscheidende Durchbruch kam mit <strong>AlphaFold</strong>, einem KI-System, das ein jahrzehntealtes Problem der Biologie löste: die Proteinfaltung. Damit wurde KI erstmals zu einem Werkzeug, das nicht nur spielt oder optimiert, sondern aktiv wissenschaftliche Erkenntnisse ermöglicht – mit enormem Einfluss auf Medizin und Forschung.</div><div>Neben diesen Erfolgen thematisiert die Folge auch die Risiken: das globale KI-Wettrüsten, ethische Verantwortung und die Frage, wie viel Kontrolle eine Technologie dieser Größenordnung braucht. Die DeepMind-Story ist damit mehr als eine Unternehmensgeschichte – sie ist ein Spiegel für einen historischen Wendepunkt der Menschheit.</div>]]>
      </itunes:summary>
      <itunes:keywords>DeepMind, Demis Hassabis, künstliche allgemeine Intelligenz, AGI, AlphaFold, Proteinfaltung, Go, StarCraft, Reinforcement Learning, selbstlernende Systeme, KI-Geschichte, Google, medizinische Forschung, wissenschaftlicher Durchbruch, KI-Ethik, Wettrüsten, internationale Zusammenarbeit, Intelligenz, Zivilisationsgeschichte, Zukunft der KI, Künstliche Intelligenz, KI</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">d10cfeff15814abda78e277390f6685c</guid>
      <title>ChatGPT integriert Apps in den Chat</title>
      <description>
        <![CDATA[<div>OpenAI macht den nächsten großen Schritt: <strong>ChatGPT wird zur Plattform</strong>.<br>Mit einem neuen <strong>App-Verzeichnis</strong> können Entwickler ihre eigenen Anwendungen direkt in ChatGPT integrieren. Nutzer entdecken diese Tools zentral und können damit komplexe Aufgaben erledigen – etwa Immobilienanalysen, Recherchen oder Präsentationen – ohne den Chat zu verlassen.</div><div>Die Einreichung erfolgt über ein spezielles <strong>SDK</strong> und durchläuft umfassende <strong>Sicherheits- und Datenschutzprüfungen</strong>, um Qualität und Vertrauen zu gewährleisten. Aktuell starten Apps per manueller Auswahl oder expliziter Nennung, doch OpenAI arbeitet bereits an einer <strong>kontextbasierten, KI-gesteuerten App-Empfehlung</strong>.</div><div>Langfristig plant OpenAI zudem <strong>Monetarisierungsmodelle</strong>, um ein nachhaltiges Ökosystem für KI-native Anwendungen zu schaffen.<br>Die Richtung ist klar: ChatGPT soll nicht nur antworten, sondern zur zentralen Oberfläche für digitale Arbeit werden.</div>]]>
      </description>
      <pubDate>Sat, 20 Dec 2025 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/83e89b4e.mp3?t=1766215067" length="12337737" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>OpenAI macht den nächsten großen Schritt: <strong>ChatGPT wird zur Plattform</strong>.<br>Mit einem neuen <strong>App-Verzeichnis</strong> können Entwickler ihre eigenen Anwendungen direkt in ChatGPT integrieren. Nutzer entdecken diese Tools zentral und können damit komplexe Aufgaben erledigen – etwa Immobilienanalysen, Recherchen oder Präsentationen – ohne den Chat zu verlassen.</div><div>Die Einreichung erfolgt über ein spezielles <strong>SDK</strong> und durchläuft umfassende <strong>Sicherheits- und Datenschutzprüfungen</strong>, um Qualität und Vertrauen zu gewährleisten. Aktuell starten Apps per manueller Auswahl oder expliziter Nennung, doch OpenAI arbeitet bereits an einer <strong>kontextbasierten, KI-gesteuerten App-Empfehlung</strong>.</div><div>Langfristig plant OpenAI zudem <strong>Monetarisierungsmodelle</strong>, um ein nachhaltiges Ökosystem für KI-native Anwendungen zu schaffen.<br>Die Richtung ist klar: ChatGPT soll nicht nur antworten, sondern zur zentralen Oberfläche für digitale Arbeit werden.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/chatgpt-integriert-apps-in-den-chat</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/chatgpt-integriert-apps-in-den-chat"/>
      <itunes:title>ChatGPT integriert Apps in den Chat</itunes:title>
      <itunes:subtitle>ChatGPT hört auf, nur zu antworten und fängt an zu handeln</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>71</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>OpenAI macht den nächsten großen Schritt: <strong>ChatGPT wird zur Plattform</strong>.<br>Mit einem neuen <strong>App-Verzeichnis</strong> können Entwickler ihre eigenen Anwendungen direkt in ChatGPT integrieren. Nutzer entdecken diese Tools zentral und können damit komplexe Aufgaben erledigen – etwa Immobilienanalysen, Recherchen oder Präsentationen – ohne den Chat zu verlassen.</div><div>Die Einreichung erfolgt über ein spezielles <strong>SDK</strong> und durchläuft umfassende <strong>Sicherheits- und Datenschutzprüfungen</strong>, um Qualität und Vertrauen zu gewährleisten. Aktuell starten Apps per manueller Auswahl oder expliziter Nennung, doch OpenAI arbeitet bereits an einer <strong>kontextbasierten, KI-gesteuerten App-Empfehlung</strong>.</div><div>Langfristig plant OpenAI zudem <strong>Monetarisierungsmodelle</strong>, um ein nachhaltiges Ökosystem für KI-native Anwendungen zu schaffen.<br>Die Richtung ist klar: ChatGPT soll nicht nur antworten, sondern zur zentralen Oberfläche für digitale Arbeit werden.</div>]]>
      </itunes:summary>
      <itunes:keywords>OpenAI, ChatGPT, App-Verzeichnis, App-Einreichung, SDK, KI-Plattform, Entwickler, KI-Apps, Tool-Integration, Sicherheit, Datenschutz, Monetarisierung, App-Ökosystem, KI-native Anwendungen, Kontext-Empfehlung, Arbeitsoberfläche, Chat-basierte Tools, Plattformstrategie, Produktivität, Zukunft von ChatGPT, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, ChatGPT, AI, Prompt, GenAI, Gen AI, GPT-5, digitale Werkzeuge</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">b06d5849b5ae45e1a803c5ae9b4bb8bf</guid>
      <title>Die große KI-Hype-Korrektur von 2025</title>
      <description>
        <![CDATA[<div>2025 markiert einen Wendepunkt: <strong>Die große KI-Hype-Korrektur</strong>.<br>Während generative KI wie ChatGPT jahrelang im Rampenlicht stand, zeigt sich nun Ernüchterung. Unternehmen kämpfen mit der Skalierung, der wirtschaftliche Mehrwert bleibt oft hinter den Erwartungen zurück, und die versprochenen Durchbrüche stellen sich langsamer ein als erhofft.</div><div><br>Gleichzeitig rücken andere Formen der KI wieder stärker in den Fokus – insbesondere <strong>prädiktive KI</strong>, die fernab des Hypes bereits heute echten Nutzen liefert: in der Medizin, der Wettervorhersage oder der Optimierung komplexer Systeme.<br><br>Die Artikel aus argumentieren, dass nicht KI gescheitert ist, sondern die <strong>Erwartungshaltung</strong>.</div><div>Der Hype um immer größere Sprachmodelle ist nicht mehr nachhaltig. Stattdessen braucht es einen realistischeren Blick: auf robuste Systeme, Vertrauen, Zuverlässigkeit und langfristige Integration.<br><br>Die Forschung lebt weiter – aber ohne Illusionen. Und genau darin liegt die Chance für echten Fortschritt.</div>]]>
      </description>
      <pubDate>Tue, 16 Dec 2025 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/7b49bbcf.mp3?t=1765878131" length="12549224" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>2025 markiert einen Wendepunkt: <strong>Die große KI-Hype-Korrektur</strong>.<br>Während generative KI wie ChatGPT jahrelang im Rampenlicht stand, zeigt sich nun Ernüchterung. Unternehmen kämpfen mit der Skalierung, der wirtschaftliche Mehrwert bleibt oft hinter den Erwartungen zurück, und die versprochenen Durchbrüche stellen sich langsamer ein als erhofft.</div><div><br>Gleichzeitig rücken andere Formen der KI wieder stärker in den Fokus – insbesondere <strong>prädiktive KI</strong>, die fernab des Hypes bereits heute echten Nutzen liefert: in der Medizin, der Wettervorhersage oder der Optimierung komplexer Systeme.<br><br>Die Artikel aus argumentieren, dass nicht KI gescheitert ist, sondern die <strong>Erwartungshaltung</strong>.</div><div>Der Hype um immer größere Sprachmodelle ist nicht mehr nachhaltig. Stattdessen braucht es einen realistischeren Blick: auf robuste Systeme, Vertrauen, Zuverlässigkeit und langfristige Integration.<br><br>Die Forschung lebt weiter – aber ohne Illusionen. Und genau darin liegt die Chance für echten Fortschritt.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/die-grosse-ki-hype-korrektur-von-2025</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/die-grosse-ki-hype-korrektur-von-2025"/>
      <itunes:title>Die große KI-Hype-Korrektur von 2025</itunes:title>
      <itunes:subtitle>Einordnung der KI-Entwicklung nach dem großen Boom</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>70</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>2025 markiert einen Wendepunkt: <strong>Die große KI-Hype-Korrektur</strong>.<br>Während generative KI wie ChatGPT jahrelang im Rampenlicht stand, zeigt sich nun Ernüchterung. Unternehmen kämpfen mit der Skalierung, der wirtschaftliche Mehrwert bleibt oft hinter den Erwartungen zurück, und die versprochenen Durchbrüche stellen sich langsamer ein als erhofft.</div><div><br>Gleichzeitig rücken andere Formen der KI wieder stärker in den Fokus – insbesondere <strong>prädiktive KI</strong>, die fernab des Hypes bereits heute echten Nutzen liefert: in der Medizin, der Wettervorhersage oder der Optimierung komplexer Systeme.<br><br>Die Artikel aus argumentieren, dass nicht KI gescheitert ist, sondern die <strong>Erwartungshaltung</strong>.</div><div>Der Hype um immer größere Sprachmodelle ist nicht mehr nachhaltig. Stattdessen braucht es einen realistischeren Blick: auf robuste Systeme, Vertrauen, Zuverlässigkeit und langfristige Integration.<br><br>Die Forschung lebt weiter – aber ohne Illusionen. Und genau darin liegt die Chance für echten Fortschritt.</div>]]>
      </itunes:summary>
      <itunes:keywords>KI-Hype, KI-Korrektur, generative KI, prädiktive KI, ChatGPT, LLMs, GPT-5, Erwartungsmanagement, Unternehmensadoption, MIT Technology Review, KI-Realität, nachhaltige KI, Medizin, Wettervorhersage, Geschäftsmehrwert, Technologiezyklus, Ernüchterung, KI-Markt, Innovation, Zukunft der KI, 2025, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, ChatGPT, AI, Prompt, GenAI, GPT-5, Gen AI</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">bba90d9e545e44279eec34ec71fb013e</guid>
      <title>ChatGPT-5.2: OpenAI schlägt gegen Google zurück</title>
      <description>
        <![CDATA[<div>In dieser Folge geht es um OpenAIs neues Spitzenmodell <strong>GPT-5.2</strong>, das gezielt für professionelle und wissenschaftliche Anwendungen entwickelt wurde.<br><br>GPT-5.2 ist in drei Varianten verfügbar – <strong>Instant, Thinking und Pro</strong> – und erreicht neue Leistungsrekorde in Bereichen wie Programmierung, Mathematik, Faktenprüfung, wissenschaftlichem Denken und Tiefenanalyse.</div><div>In Expertentests wie <strong>GPQA Diamond</strong> oder <strong>FrontierMath</strong> setzt das Modell neue Bestwerte – und besonders bemerkenswert: GPT-5.2 hat dazu beigetragen, ein bisher ungelöstes Forschungsproblem in der <strong>statistischen Lerntheorie</strong> aufzuklären.<br><br>Damit positioniert sich OpenAI klar gegenüber Google und Gemini 3 und setzt erneut ein Ausrufezeichen im KI-Wettbewerb.<br><br></div><div>Zusätzlich wurden die <strong>Recheneffizienz</strong>, das <strong>Langkontext-Handling</strong> und die <strong>Sicherheitsmechanismen</strong>, einschließlich der Reaktionen auf mentale Notlagen, deutlich verbessert.<br>GPT-5.2 markiert damit einen Schritt in Richtung einer KI-Generation, die nicht nur textlich beeindruckt, sondern wissenschaftlich und praktisch anwendungsreif ist.</div>]]>
      </description>
      <pubDate>Fri, 12 Dec 2025 09:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/811f3672.mp3?t=1765494496" length="13951059" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht es um OpenAIs neues Spitzenmodell <strong>GPT-5.2</strong>, das gezielt für professionelle und wissenschaftliche Anwendungen entwickelt wurde.<br><br>GPT-5.2 ist in drei Varianten verfügbar – <strong>Instant, Thinking und Pro</strong> – und erreicht neue Leistungsrekorde in Bereichen wie Programmierung, Mathematik, Faktenprüfung, wissenschaftlichem Denken und Tiefenanalyse.</div><div>In Expertentests wie <strong>GPQA Diamond</strong> oder <strong>FrontierMath</strong> setzt das Modell neue Bestwerte – und besonders bemerkenswert: GPT-5.2 hat dazu beigetragen, ein bisher ungelöstes Forschungsproblem in der <strong>statistischen Lerntheorie</strong> aufzuklären.<br><br>Damit positioniert sich OpenAI klar gegenüber Google und Gemini 3 und setzt erneut ein Ausrufezeichen im KI-Wettbewerb.<br><br></div><div>Zusätzlich wurden die <strong>Recheneffizienz</strong>, das <strong>Langkontext-Handling</strong> und die <strong>Sicherheitsmechanismen</strong>, einschließlich der Reaktionen auf mentale Notlagen, deutlich verbessert.<br>GPT-5.2 markiert damit einen Schritt in Richtung einer KI-Generation, die nicht nur textlich beeindruckt, sondern wissenschaftlich und praktisch anwendungsreif ist.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/chatgpt-5-2-openai-schlaegt-gegen-google-zurueck</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/chatgpt-5-2-openai-schlaegt-gegen-google-zurueck"/>
      <itunes:title>ChatGPT-5.2: OpenAI schlägt gegen Google zurück</itunes:title>
      <itunes:subtitle>Warum GPT-5.2 die Antwort auf Googles Gemini 3 sein könnte</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>69</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht es um OpenAIs neues Spitzenmodell <strong>GPT-5.2</strong>, das gezielt für professionelle und wissenschaftliche Anwendungen entwickelt wurde.<br><br>GPT-5.2 ist in drei Varianten verfügbar – <strong>Instant, Thinking und Pro</strong> – und erreicht neue Leistungsrekorde in Bereichen wie Programmierung, Mathematik, Faktenprüfung, wissenschaftlichem Denken und Tiefenanalyse.</div><div>In Expertentests wie <strong>GPQA Diamond</strong> oder <strong>FrontierMath</strong> setzt das Modell neue Bestwerte – und besonders bemerkenswert: GPT-5.2 hat dazu beigetragen, ein bisher ungelöstes Forschungsproblem in der <strong>statistischen Lerntheorie</strong> aufzuklären.<br><br>Damit positioniert sich OpenAI klar gegenüber Google und Gemini 3 und setzt erneut ein Ausrufezeichen im KI-Wettbewerb.<br><br></div><div>Zusätzlich wurden die <strong>Recheneffizienz</strong>, das <strong>Langkontext-Handling</strong> und die <strong>Sicherheitsmechanismen</strong>, einschließlich der Reaktionen auf mentale Notlagen, deutlich verbessert.<br>GPT-5.2 markiert damit einen Schritt in Richtung einer KI-Generation, die nicht nur textlich beeindruckt, sondern wissenschaftlich und praktisch anwendungsreif ist.</div>]]>
      </itunes:summary>
      <itunes:keywords>GPT-5.2, OpenAI, FrontierMath, GPQA Diamond, wissenschaftliches Denken, professionelle KI, Grenzmodell, KI-Wettbewerb, Gemini 3, statistische Lerntheorie, Programmierung, Mathematik, Faktenprüfung, Langkontext, Thinking-Modus, Pro-Modus, Recheneffizienz, Safety, Forschung, Entwicklerwerkzeug, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, ChatGPT, AI, Prompt, GenAI, Funktionsweise LLM, Gen AI, KI Agenten, GPT-5, digitale Werkzeuge, Denken, Produktivität, Effizienzsteigerung, KI im Alltag, Prompt Engineering, 2025, Entwicklung, LLMs</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">0441654b630549b0bda1df6153237ea0</guid>
      <title>Mehr Chaos oder mehr Kontrolle? So steuerst du, wie kreativ ChatGPT denkt</title>
      <description>
        <![CDATA[<div>Diese Folge erklärt die „versteckten Regler“ hinter ChatGPT und anderen Sprachmodellen – <strong>die Parameter, die bestimmen, wie die KI schreibt</strong>.</div><div>Wir schauen uns an, wie ein LLM überhaupt funktioniert: Es berechnet Wahrscheinlichkeiten dafür, welches Wort als Nächstes kommt. Und genau hier setzen Parameter an:</div><ul><li><strong>Temperature</strong> steuert, wie kreativ oder konservativ die Ausgabe ist:<br>niedrig = präzise &amp; vorhersehbar, hoch = kreativ &amp; überraschend.</li><li><strong>Top-P</strong> begrenzt die Auswahl auf die wahrscheinlichsten Token.<br>Damit lässt sich Kreativität auch ohne Chaos erhöhen.</li><li><strong>Presence Penalty &amp; Frequency Penalty</strong> beeinflussen Wiederholungen:<br>weniger doppelte Wörter, mehr Vielfalt, neue Konzepte.</li><li><strong>Max Tokens</strong> legt die maximale Länge der Antwort fest – wichtig für Kosten und Kontrolle.</li></ul><div>Auch wenn man diese Parameter in ChatGPT nicht mit Schiebereglern sieht, kann man sie <strong>mit klugen Prompt-Hinweisen</strong> steuern.<br>Wir sprechen darüber, <strong>wie du die KI-Ausgabe bewusst formen kannst</strong> – von sachlichen Listen bis zu kreativen Story-Ideen.</div>]]>
      </description>
      <pubDate>Wed, 10 Dec 2025 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/744d765d.mp3?t=1765301057" length="14816653" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Diese Folge erklärt die „versteckten Regler“ hinter ChatGPT und anderen Sprachmodellen – <strong>die Parameter, die bestimmen, wie die KI schreibt</strong>.</div><div>Wir schauen uns an, wie ein LLM überhaupt funktioniert: Es berechnet Wahrscheinlichkeiten dafür, welches Wort als Nächstes kommt. Und genau hier setzen Parameter an:</div><ul><li><strong>Temperature</strong> steuert, wie kreativ oder konservativ die Ausgabe ist:<br>niedrig = präzise &amp; vorhersehbar, hoch = kreativ &amp; überraschend.</li><li><strong>Top-P</strong> begrenzt die Auswahl auf die wahrscheinlichsten Token.<br>Damit lässt sich Kreativität auch ohne Chaos erhöhen.</li><li><strong>Presence Penalty &amp; Frequency Penalty</strong> beeinflussen Wiederholungen:<br>weniger doppelte Wörter, mehr Vielfalt, neue Konzepte.</li><li><strong>Max Tokens</strong> legt die maximale Länge der Antwort fest – wichtig für Kosten und Kontrolle.</li></ul><div>Auch wenn man diese Parameter in ChatGPT nicht mit Schiebereglern sieht, kann man sie <strong>mit klugen Prompt-Hinweisen</strong> steuern.<br>Wir sprechen darüber, <strong>wie du die KI-Ausgabe bewusst formen kannst</strong> – von sachlichen Listen bis zu kreativen Story-Ideen.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/mehr-chaos-oder-mehr-kontrolle-so-steuerst-du-wie-kreativ-chatgpt-denkt</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/mehr-chaos-oder-mehr-kontrolle-so-steuerst-du-wie-kreativ-chatgpt-denkt"/>
      <itunes:title>Mehr Chaos oder mehr Kontrolle? So steuerst du, wie kreativ ChatGPT denkt</itunes:title>
      <itunes:subtitle>Die wichtigsten Regler, um KI-Antworten kreativer oder präziser zu machen</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>68</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Diese Folge erklärt die „versteckten Regler“ hinter ChatGPT und anderen Sprachmodellen – <strong>die Parameter, die bestimmen, wie die KI schreibt</strong>.</div><div>Wir schauen uns an, wie ein LLM überhaupt funktioniert: Es berechnet Wahrscheinlichkeiten dafür, welches Wort als Nächstes kommt. Und genau hier setzen Parameter an:</div><ul><li><strong>Temperature</strong> steuert, wie kreativ oder konservativ die Ausgabe ist:<br>niedrig = präzise &amp; vorhersehbar, hoch = kreativ &amp; überraschend.</li><li><strong>Top-P</strong> begrenzt die Auswahl auf die wahrscheinlichsten Token.<br>Damit lässt sich Kreativität auch ohne Chaos erhöhen.</li><li><strong>Presence Penalty &amp; Frequency Penalty</strong> beeinflussen Wiederholungen:<br>weniger doppelte Wörter, mehr Vielfalt, neue Konzepte.</li><li><strong>Max Tokens</strong> legt die maximale Länge der Antwort fest – wichtig für Kosten und Kontrolle.</li></ul><div>Auch wenn man diese Parameter in ChatGPT nicht mit Schiebereglern sieht, kann man sie <strong>mit klugen Prompt-Hinweisen</strong> steuern.<br>Wir sprechen darüber, <strong>wie du die KI-Ausgabe bewusst formen kannst</strong> – von sachlichen Listen bis zu kreativen Story-Ideen.</div>]]>
      </itunes:summary>
      <itunes:keywords>Temperature, Top-P, Presence Penalty, Frequency Penalty, Max Tokens, LLM-Parameter, Textgenerierung, Kreativität steuern, Wahrscheinlichkeitsverteilung, Prompt-Engineering, KI-Kontrolle, Token-Sampling, deterministisch vs. zufällig, Kostenoptimierung, Wiederholungsreduktion, Prompt-Tipps, Sprachmodell-Einstellungen, Kreativmodus, Antwortqualität, ChatGPT, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, AI, Prompt, GenAI, Funktionsweise LLM, GPT-5, digitale Werkzeuge, Produktivität, Effizienzsteigerung, KI im Alltag, 2025, Prompt Engineering, ChatGPT 5, GPT-5.1, OpenAI, KI-Assistent</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">61c87178e9134b49ad2b2be69ed57a77</guid>
      <title>Das Ende des Schulbuchs und der Beginn des personalisierten Lernens</title>
      <description>
        <![CDATA[<div>In dieser Folge geht es um nichts Geringeres als die mögliche Zukunft des Lernens: <strong>Die Neuerfindung des Lehrbuchs durch KI</strong>.<br>Googles neue Plattform <strong>Learn Your Way</strong> nutzt das speziell entwickelte Bildungsmodell <strong>LearnLM</strong>, um aus traditionellen, starren Lehrbuchtexten personalisierte Lernumgebungen zu machen. Das System passt Inhalte an das Vorwissen, das Alter, das Lernziel und sogar die Interessen der Lernenden an – und erzeugt dazu eine große Bandbreite an Formaten: interaktive Quizze, Audio-Lektionen, Mindmaps, erzählte Folien und vieles mehr.</div><div>Pädagogische Experten bestätigten in einer umfassenden Evaluation die hohe didaktische Qualität der KI-generierten Inhalte. Eine randomisierte kontrollierte Studie zeigt außerdem: <strong>Die Lernenden erzielen signifikant bessere Ergebnisse</strong>, besonders bei der langfristigen Wissensspeicherung.</div><div>Learn Your Way ist damit ein wichtiger Schritt in Richtung wirklich personalisierter Bildung – weg vom Einheitslehrbuch, hin zu flexiblen, adaptiven Lernpfaden, die sich jedem einzelnen Schüler anpassen</div>]]>
      </description>
      <pubDate>Tue, 02 Dec 2025 09:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/55184ed6.mp3?t=1764664161" length="14990106" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht es um nichts Geringeres als die mögliche Zukunft des Lernens: <strong>Die Neuerfindung des Lehrbuchs durch KI</strong>.<br>Googles neue Plattform <strong>Learn Your Way</strong> nutzt das speziell entwickelte Bildungsmodell <strong>LearnLM</strong>, um aus traditionellen, starren Lehrbuchtexten personalisierte Lernumgebungen zu machen. Das System passt Inhalte an das Vorwissen, das Alter, das Lernziel und sogar die Interessen der Lernenden an – und erzeugt dazu eine große Bandbreite an Formaten: interaktive Quizze, Audio-Lektionen, Mindmaps, erzählte Folien und vieles mehr.</div><div>Pädagogische Experten bestätigten in einer umfassenden Evaluation die hohe didaktische Qualität der KI-generierten Inhalte. Eine randomisierte kontrollierte Studie zeigt außerdem: <strong>Die Lernenden erzielen signifikant bessere Ergebnisse</strong>, besonders bei der langfristigen Wissensspeicherung.</div><div>Learn Your Way ist damit ein wichtiger Schritt in Richtung wirklich personalisierter Bildung – weg vom Einheitslehrbuch, hin zu flexiblen, adaptiven Lernpfaden, die sich jedem einzelnen Schüler anpassen</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/das-ende-des-schulbuchs-und-der-beginn-des-personalisierten-lernens</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/das-ende-des-schulbuchs-und-der-beginn-des-personalisierten-lernens"/>
      <itunes:title>Das Ende des Schulbuchs und der Beginn des personalisierten Lernens</itunes:title>
      <itunes:subtitle>Wie Google statische Lehrbücher in dynamische Lernerfahrungen verwandelt</itunes:subtitle>
      <itunes:duration>00:15:37</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>67</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht es um nichts Geringeres als die mögliche Zukunft des Lernens: <strong>Die Neuerfindung des Lehrbuchs durch KI</strong>.<br>Googles neue Plattform <strong>Learn Your Way</strong> nutzt das speziell entwickelte Bildungsmodell <strong>LearnLM</strong>, um aus traditionellen, starren Lehrbuchtexten personalisierte Lernumgebungen zu machen. Das System passt Inhalte an das Vorwissen, das Alter, das Lernziel und sogar die Interessen der Lernenden an – und erzeugt dazu eine große Bandbreite an Formaten: interaktive Quizze, Audio-Lektionen, Mindmaps, erzählte Folien und vieles mehr.</div><div>Pädagogische Experten bestätigten in einer umfassenden Evaluation die hohe didaktische Qualität der KI-generierten Inhalte. Eine randomisierte kontrollierte Studie zeigt außerdem: <strong>Die Lernenden erzielen signifikant bessere Ergebnisse</strong>, besonders bei der langfristigen Wissensspeicherung.</div><div>Learn Your Way ist damit ein wichtiger Schritt in Richtung wirklich personalisierter Bildung – weg vom Einheitslehrbuch, hin zu flexiblen, adaptiven Lernpfaden, die sich jedem einzelnen Schüler anpassen</div>]]>
      </itunes:summary>
      <itunes:keywords>Learn Your Way, LearnLM, personalisiertes Lernen, KI-Bildung, Lehrbuchrevolution, adaptives Lernen, Lernplattform, Google Education, generative KI, interaktive Lernformate, Quiz, Mindmaps, Audio-Lektionen, didaktische Qualität, Evaluation, RCT-Studie, Wissensspeicherung, Lernpersonalisierung, pädagogische Innovation, Zukunft der Bildung, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, ChatGPT, AI, Prompt, GenAI, Funktionsweise LLM, Gen AI, digitale Werkzeuge, Denken, Produktivität, Effizienzsteigerung, KI im Alltag, 2025, kritisches Denken, Sprachmodelle</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">8b859987ebbc4627b3b0241bc6872fa6</guid>
      <title>Wir erkennen KI nicht, aber KI schreibt das Internet</title>
      <description>
        <![CDATA[<div>In dieser Folge geht es um eine unbequeme Wahrheit: <strong>Menschen können KI-Texte kaum von menschlich geschriebenen unterscheiden.</strong><br>Sechs Studien zeigen, dass selbst geschulte Lehrkräfte, Lektoren und Gutachter beim Erkennen von KI-Inhalten kaum besser abschneiden als beim Raten. Automatisierte Erkennungstools sind zwar zuverlässiger – aber auch sie sind weit von Perfektion entfernt.</div><div>Parallel dazu ist die Menge an KI-generierten Artikeln im Internet inzwischen <strong>größer</strong> als die der menschlich verfassten Texte. Allerdings tauchen diese KI-Artikel nicht proportional in Suchmaschinen auf – ein Hinweis darauf, dass KI-Content zwar massenhaft erzeugt, aber nicht gleichmäßig ausgespielt wird.</div><div>Eine weitere Studie untersucht die Frage: <strong>Wie wirken KI-Texte auf Menschen?</strong><br>Das Ergebnis: KI-generierte Inhalte – etwa in Werbung oder politischen Kampagnen – werden oft als genauso gut oder sogar besser bewertet als menschliche. Menschen haben zwar einen leichten „menschlichen Favoritismus“, aber <strong>keine echte Abneigung gegen KI-Texte</strong>.</div><div>Die Quintessenz:<br>Wir erkennen KI nicht. Wir nutzen KI-Inhalte ständig. Und wir bewerten sie erstaunlich positiv.</div>]]>
      </description>
      <pubDate>Thu, 27 Nov 2025 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/93c67b02.mp3?t=1764073163" length="11966589" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht es um eine unbequeme Wahrheit: <strong>Menschen können KI-Texte kaum von menschlich geschriebenen unterscheiden.</strong><br>Sechs Studien zeigen, dass selbst geschulte Lehrkräfte, Lektoren und Gutachter beim Erkennen von KI-Inhalten kaum besser abschneiden als beim Raten. Automatisierte Erkennungstools sind zwar zuverlässiger – aber auch sie sind weit von Perfektion entfernt.</div><div>Parallel dazu ist die Menge an KI-generierten Artikeln im Internet inzwischen <strong>größer</strong> als die der menschlich verfassten Texte. Allerdings tauchen diese KI-Artikel nicht proportional in Suchmaschinen auf – ein Hinweis darauf, dass KI-Content zwar massenhaft erzeugt, aber nicht gleichmäßig ausgespielt wird.</div><div>Eine weitere Studie untersucht die Frage: <strong>Wie wirken KI-Texte auf Menschen?</strong><br>Das Ergebnis: KI-generierte Inhalte – etwa in Werbung oder politischen Kampagnen – werden oft als genauso gut oder sogar besser bewertet als menschliche. Menschen haben zwar einen leichten „menschlichen Favoritismus“, aber <strong>keine echte Abneigung gegen KI-Texte</strong>.</div><div>Die Quintessenz:<br>Wir erkennen KI nicht. Wir nutzen KI-Inhalte ständig. Und wir bewerten sie erstaunlich positiv.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/wir-erkennen-ki-nicht-aber-ki-schreibt-das-internet</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/wir-erkennen-ki-nicht-aber-ki-schreibt-das-internet"/>
      <itunes:title>Wir erkennen KI nicht, aber KI schreibt das Internet</itunes:title>
      <itunes:subtitle>Wie KI-Artikel menschliche Texte überholen – im Web, nicht in Suchmaschinen</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>66</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht es um eine unbequeme Wahrheit: <strong>Menschen können KI-Texte kaum von menschlich geschriebenen unterscheiden.</strong><br>Sechs Studien zeigen, dass selbst geschulte Lehrkräfte, Lektoren und Gutachter beim Erkennen von KI-Inhalten kaum besser abschneiden als beim Raten. Automatisierte Erkennungstools sind zwar zuverlässiger – aber auch sie sind weit von Perfektion entfernt.</div><div>Parallel dazu ist die Menge an KI-generierten Artikeln im Internet inzwischen <strong>größer</strong> als die der menschlich verfassten Texte. Allerdings tauchen diese KI-Artikel nicht proportional in Suchmaschinen auf – ein Hinweis darauf, dass KI-Content zwar massenhaft erzeugt, aber nicht gleichmäßig ausgespielt wird.</div><div>Eine weitere Studie untersucht die Frage: <strong>Wie wirken KI-Texte auf Menschen?</strong><br>Das Ergebnis: KI-generierte Inhalte – etwa in Werbung oder politischen Kampagnen – werden oft als genauso gut oder sogar besser bewertet als menschliche. Menschen haben zwar einen leichten „menschlichen Favoritismus“, aber <strong>keine echte Abneigung gegen KI-Texte</strong>.</div><div>Die Quintessenz:<br>Wir erkennen KI nicht. Wir nutzen KI-Inhalte ständig. Und wir bewerten sie erstaunlich positiv.</div>]]>
      </itunes:summary>
      <itunes:keywords>KI-Texte, Erkennung, Detektion, LLM-Content, Content-Flut, Internetartikel, menschliche Wahrnehmung, Qualitätseinschätzung, Algorithmus-Aversion, menschlicher Favoritismus, Werbung, Kampagnen, GPT-4, KI-generierter Content, Textbewertung, Wahrnehmungsforschung, Suchmaschinen, Content-Ökosystem, Erkennungstools, Studienanalyse, 2025, Prompt Engineering, Künstliche Intelligenz, KI, generative KI, KI im Alltag, KI Grundlagen, LLM, ChatGPT, AI, Prompt, GenAI, GPT-5, GPT-5.1, KI 2025</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">a6cd0a28c2234eb2ac2febfa4f9adfe2</guid>
      <title>KI als Denkpartner III: Mehr als wir denken, weniger als wir hoffen?</title>
      <description>
        <![CDATA[<div>In dieser Folge werfen wir einen klaren Blick darauf, was moderne KI wirklich kann – und wo ihre Grenzen liegen.<br>Der Text zeigt, wie stark Modelle geworden sind: Sie programmieren Apps über natürliche Spracheingabe, analysieren Videos, erstellen Infografiken und kombinieren Text, Bild und Audio in einem Arbeitsgang. Zentrale Anwendungsfelder werden beschrieben, darunter Coding, multimodale Analyse und schnelle Prototypenentwicklung.</div><div>Gleichzeitig macht der Bericht deutlich, dass KI noch weit davon entfernt ist, ein perfektes Universalwerkzeug zu sein. Sobald es um <strong>komplexe Tabellen, mathematische Präzision oder datenintensive Berechnungen</strong> geht, bleiben klassische Tools wie Excel oder spezialisierte Skripte weiterhin überlegen.<br>Das Fazit: KI entwickelt sich rasant weiter und ergänzt menschliche Expertise beeindruckend – aber sie bleibt ein Werkzeug, kein allwissender Ersatz.</div>]]>
      </description>
      <pubDate>Tue, 25 Nov 2025 14:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/8f8c0f5c.mp3?t=1764071291" length="15882031" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge werfen wir einen klaren Blick darauf, was moderne KI wirklich kann – und wo ihre Grenzen liegen.<br>Der Text zeigt, wie stark Modelle geworden sind: Sie programmieren Apps über natürliche Spracheingabe, analysieren Videos, erstellen Infografiken und kombinieren Text, Bild und Audio in einem Arbeitsgang. Zentrale Anwendungsfelder werden beschrieben, darunter Coding, multimodale Analyse und schnelle Prototypenentwicklung.</div><div>Gleichzeitig macht der Bericht deutlich, dass KI noch weit davon entfernt ist, ein perfektes Universalwerkzeug zu sein. Sobald es um <strong>komplexe Tabellen, mathematische Präzision oder datenintensive Berechnungen</strong> geht, bleiben klassische Tools wie Excel oder spezialisierte Skripte weiterhin überlegen.<br>Das Fazit: KI entwickelt sich rasant weiter und ergänzt menschliche Expertise beeindruckend – aber sie bleibt ein Werkzeug, kein allwissender Ersatz.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-als-denkpartner-iii-mehr-als-wir-denken-weniger-als-wir-hoffen</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-als-denkpartner-iii-mehr-als-wir-denken-weniger-als-wir-hoffen"/>
      <itunes:title>KI als Denkpartner III: Mehr als wir denken, weniger als wir hoffen?</itunes:title>
      <itunes:subtitle>Ein Blick auf die Stärken, Schwächen und Einsatzfelder aktueller KI-Systeme</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>65</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge werfen wir einen klaren Blick darauf, was moderne KI wirklich kann – und wo ihre Grenzen liegen.<br>Der Text zeigt, wie stark Modelle geworden sind: Sie programmieren Apps über natürliche Spracheingabe, analysieren Videos, erstellen Infografiken und kombinieren Text, Bild und Audio in einem Arbeitsgang. Zentrale Anwendungsfelder werden beschrieben, darunter Coding, multimodale Analyse und schnelle Prototypenentwicklung.</div><div>Gleichzeitig macht der Bericht deutlich, dass KI noch weit davon entfernt ist, ein perfektes Universalwerkzeug zu sein. Sobald es um <strong>komplexe Tabellen, mathematische Präzision oder datenintensive Berechnungen</strong> geht, bleiben klassische Tools wie Excel oder spezialisierte Skripte weiterhin überlegen.<br>Das Fazit: KI entwickelt sich rasant weiter und ergänzt menschliche Expertise beeindruckend – aber sie bleibt ein Werkzeug, kein allwissender Ersatz.</div>]]>
      </itunes:summary>
      <itunes:keywords>Moderne KI, multimodale Modelle, KI-Fähigkeiten, KI-Grenzen, App-Erstellung, natürliche Spracheingabe, Coding mit KI, Videoanalyse, Infografiken, Text-Bild-Verarbeitung, KI-Prototyping, Tabellenprobleme, mathematische Limits, Tools vs. KI, Universalwerkzeug, KI-Einschränkungen, Mensch-Maschine-Interaktion, KI-Statusbericht, LLMs 2025, KI-Realität, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, ChatGPT, AI, Prompt, GenAI, Gen AI, 2025, Denken, KI im Alltag, KI Agenten, Anthropic, Claude, Effizienzsteigerung, Produktivität, digitale Werkzeuge, Künstliche Intelligenz, strukturiertes Denken, kritisches Denken, kognitive Vorarbeit, Prompting, Denkpartner, kreative Problemlösung, neue Denkmuster, KI-Techniken, Reflexion, Perspektivwechsel, Denkstrategie, Sparringspartner, mechanisierte Konvergenz, Originalität, dritte Gehirnhälfte, Nutzung, KI-Strategie, Business Value, Alltagshilfe, KI-Assistent</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">9ee2f4441d084f4a91ce159be8e52e02</guid>
      <title>Google schlägt zurück: Gemini 3 gegen GPT-5.1</title>
      <description>
        <![CDATA[<div>Mit Gemini 3 präsentiert Google sein bisher fortschrittlichstes KI-Modell und setzt damit einen neuen Standard für die Entwicklung künstlicher allgemeiner Intelligenz (AGI). Das Modell beeindruckt durch verbesserte logische Schlussfolgerungen, leistungsfähige Multimodalität und die Fähigkeit, komplexe Aufgaben als Agent selbstständig auszuführen. Besonders hervorzuheben ist der neue Deep-Think-Modus, der Gemini 3 zu deutlich fundierteren Antworten befähigt. Mit der Einführung der Entwicklungsplattform <strong>Google Antigravity</strong> öffnet Google zugleich neue Türen für Entwickler und Unternehmen, die auf KI-gestützte Automatisierung setzen. Gleichzeitig legt der Konzern großen Wert auf Sicherheit und verantwortungsvolle Anwendung. Gemini 3 ist ab sofort in diversen Google-Produkten sowie für externe Entwickler verfügbar – und verspricht, Lernen, Arbeiten und Kreieren mit KI neu zu definieren.</div>]]>
      </description>
      <pubDate>Wed, 19 Nov 2025 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/77753a70.mp3?t=1763531395" length="12505338" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Mit Gemini 3 präsentiert Google sein bisher fortschrittlichstes KI-Modell und setzt damit einen neuen Standard für die Entwicklung künstlicher allgemeiner Intelligenz (AGI). Das Modell beeindruckt durch verbesserte logische Schlussfolgerungen, leistungsfähige Multimodalität und die Fähigkeit, komplexe Aufgaben als Agent selbstständig auszuführen. Besonders hervorzuheben ist der neue Deep-Think-Modus, der Gemini 3 zu deutlich fundierteren Antworten befähigt. Mit der Einführung der Entwicklungsplattform <strong>Google Antigravity</strong> öffnet Google zugleich neue Türen für Entwickler und Unternehmen, die auf KI-gestützte Automatisierung setzen. Gleichzeitig legt der Konzern großen Wert auf Sicherheit und verantwortungsvolle Anwendung. Gemini 3 ist ab sofort in diversen Google-Produkten sowie für externe Entwickler verfügbar – und verspricht, Lernen, Arbeiten und Kreieren mit KI neu zu definieren.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/google-schlaegt-zurueck-gemini-3-gegen-gpt-5-1</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/google-schlaegt-zurueck-gemini-3-gegen-gpt-5-1"/>
      <itunes:title>Google schlägt zurück: Gemini 3 gegen GPT-5.1</itunes:title>
      <itunes:subtitle>Google veröffentlich Gemini 3 und schlägt damit gegen OpenAI zurück.</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>64</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Mit Gemini 3 präsentiert Google sein bisher fortschrittlichstes KI-Modell und setzt damit einen neuen Standard für die Entwicklung künstlicher allgemeiner Intelligenz (AGI). Das Modell beeindruckt durch verbesserte logische Schlussfolgerungen, leistungsfähige Multimodalität und die Fähigkeit, komplexe Aufgaben als Agent selbstständig auszuführen. Besonders hervorzuheben ist der neue Deep-Think-Modus, der Gemini 3 zu deutlich fundierteren Antworten befähigt. Mit der Einführung der Entwicklungsplattform <strong>Google Antigravity</strong> öffnet Google zugleich neue Türen für Entwickler und Unternehmen, die auf KI-gestützte Automatisierung setzen. Gleichzeitig legt der Konzern großen Wert auf Sicherheit und verantwortungsvolle Anwendung. Gemini 3 ist ab sofort in diversen Google-Produkten sowie für externe Entwickler verfügbar – und verspricht, Lernen, Arbeiten und Kreieren mit KI neu zu definieren.</div>]]>
      </itunes:summary>
      <itunes:keywords>Gemini 3, Google KI, AGI, künstliche Intelligenz, Deep Think Modus, logisches Schlussfolgern, multimodal, Google Antigravity, KI-Agenten, Agentic Capabilities, Sprachmodell, Bilderkennung, Audioverarbeitung, KI-Automatisierung, Google-Produkte, Entwicklerplattform, KI-Sicherheit, verantwortungsvolle KI, neue KI-Generation, Zukunft der KI, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, Prompt, Gen AI, KI Agenten, Denken, Produktivität, Effizienzsteigerung, KI im Alltag, 2025, ChatGPT 5, OpenAI, Anthropic, Claude, Sprachmodelle, GPT-5, GPT-5.1</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">cb3ad5bc5b2a4bed838da3d013b322e8</guid>
      <title>KI in Aktion – Teil 1: Reiseplanung</title>
      <description>
        <![CDATA[<div>In dieser Folge schauen wir uns einen ganz praktischen Use Case für KI an: <strong>Urlaubsplanung mit Claude</strong> – und zwar mit dem neuen Modell Sonnet 4.5.<br>Statt stundenlang Google, Tripadvisor &amp; Co. zu durchforsten, kannst du Claude einfach fünf Reiseziele nennen – und bekommst daraufhin eine <strong>professionelle Vergleichstabelle</strong>, komplett mit <strong>Heatmaps, Kostenanalysen, Logistikdaten und sogar Präsentationsvorlagen</strong>.<br>Wir sprechen über den genauen Ablauf: von der Eingabe über die Dateierstellung bis zur späteren Verfeinerung oder Routenplanung. Außerdem gibt’s Tipps, wie du <strong>aktuelle Daten über Web Search einbeziehst</strong> und wie du die Ergebnisse weiterverwenden kannst – zum Beispiel für eine Familienabstimmung oder ein Travel Pitch Deck.<br>Kurz gesagt: KI macht auch vor Urlaubsplanung nicht halt – und das ziemlich gut.</div>]]>
      </description>
      <pubDate>Mon, 17 Nov 2025 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/ef633a3d.mp3?t=1763364917" length="12031373" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge schauen wir uns einen ganz praktischen Use Case für KI an: <strong>Urlaubsplanung mit Claude</strong> – und zwar mit dem neuen Modell Sonnet 4.5.<br>Statt stundenlang Google, Tripadvisor &amp; Co. zu durchforsten, kannst du Claude einfach fünf Reiseziele nennen – und bekommst daraufhin eine <strong>professionelle Vergleichstabelle</strong>, komplett mit <strong>Heatmaps, Kostenanalysen, Logistikdaten und sogar Präsentationsvorlagen</strong>.<br>Wir sprechen über den genauen Ablauf: von der Eingabe über die Dateierstellung bis zur späteren Verfeinerung oder Routenplanung. Außerdem gibt’s Tipps, wie du <strong>aktuelle Daten über Web Search einbeziehst</strong> und wie du die Ergebnisse weiterverwenden kannst – zum Beispiel für eine Familienabstimmung oder ein Travel Pitch Deck.<br>Kurz gesagt: KI macht auch vor Urlaubsplanung nicht halt – und das ziemlich gut.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-in-aktion-teil-1-reiseplanung</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-in-aktion-teil-1-reiseplanung"/>
      <itunes:title>KI in Aktion – Teil 1: Reiseplanung</itunes:title>
      <itunes:subtitle>Urlaubsplanung neu gedacht: Mit KI-Assistenz zur Entscheidung</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>63</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge schauen wir uns einen ganz praktischen Use Case für KI an: <strong>Urlaubsplanung mit Claude</strong> – und zwar mit dem neuen Modell Sonnet 4.5.<br>Statt stundenlang Google, Tripadvisor &amp; Co. zu durchforsten, kannst du Claude einfach fünf Reiseziele nennen – und bekommst daraufhin eine <strong>professionelle Vergleichstabelle</strong>, komplett mit <strong>Heatmaps, Kostenanalysen, Logistikdaten und sogar Präsentationsvorlagen</strong>.<br>Wir sprechen über den genauen Ablauf: von der Eingabe über die Dateierstellung bis zur späteren Verfeinerung oder Routenplanung. Außerdem gibt’s Tipps, wie du <strong>aktuelle Daten über Web Search einbeziehst</strong> und wie du die Ergebnisse weiterverwenden kannst – zum Beispiel für eine Familienabstimmung oder ein Travel Pitch Deck.<br>Kurz gesagt: KI macht auch vor Urlaubsplanung nicht halt – und das ziemlich gut.</div>]]>
      </itunes:summary>
      <itunes:keywords>Claude, Sonnet 4.5, Reisezielvergleich, Urlaubsplanung, Heatmaps, Kostenanalyse, Logistikdaten, KI-gestützte Planung, Routenplanung, Websuche, Reiseziele bewerten, KI im Alltag, Reisevorbereitung, Entscheidungsfindung, KI-Visualisierung, Datenaufbereitung, Reisevergleich, KI-Assistent, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, ChatGPT, AI, Prompt, GenAI, Funktionsweise LLM, Gen AI, GPT-5, ChatGPT 5, KI-Agent, GPT-5.1, KI 2025, Sprachmodell, Alltagshilfe, Nutzung, Anthropic, OpenAI</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">fee9f47618ea4df7a0f3931e73475ad4</guid>
      <title>GPT-5.1 ist da: Alles neu bei OpenAI und ChatGPT?</title>
      <description>
        <![CDATA[<div>GPT-5.1 ist da – und bringt gleich zwei neue Modelle ins Spiel: <strong>Instant</strong> und <strong>Thinking</strong>. Während <em>Instant</em> auf Geschwindigkeit, Gesprächigkeit und Empathie optimiert wurde, geht <em>Thinking</em> einen anderen Weg: Es passt seine Rechenzeit je nach Komplexität an, denkt also länger bei schwierigen Fragen – und antwortet schneller bei einfachen. Die neue Generation ChatGPT wirkt dadurch nicht nur klüger, sondern auch menschlicher.<br>Außerdem können Nutzer jetzt <strong>Antwortstil und Tonfall individuell einstellen</strong> – also zum Beispiel sagen: „Antworte freundlich und kreativ“.<br>Spannend, aber auch sensibel: Die neuen Sicherheitsfeatures nehmen erstmals <strong>Risiken rund um mentale Gesundheit und emotionale Abhängigkeit</strong> ins Visier.<br>In dieser Folge klären wir, was GPT-5.1 wirklich verändert – für die Kommunikation, für die Nutzenden und vielleicht auch für unser Verhältnis zu KI.</div>]]>
      </description>
      <pubDate>Thu, 13 Nov 2025 10:30:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/aa53a489.mp3?t=1763024751" length="13769665" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>GPT-5.1 ist da – und bringt gleich zwei neue Modelle ins Spiel: <strong>Instant</strong> und <strong>Thinking</strong>. Während <em>Instant</em> auf Geschwindigkeit, Gesprächigkeit und Empathie optimiert wurde, geht <em>Thinking</em> einen anderen Weg: Es passt seine Rechenzeit je nach Komplexität an, denkt also länger bei schwierigen Fragen – und antwortet schneller bei einfachen. Die neue Generation ChatGPT wirkt dadurch nicht nur klüger, sondern auch menschlicher.<br>Außerdem können Nutzer jetzt <strong>Antwortstil und Tonfall individuell einstellen</strong> – also zum Beispiel sagen: „Antworte freundlich und kreativ“.<br>Spannend, aber auch sensibel: Die neuen Sicherheitsfeatures nehmen erstmals <strong>Risiken rund um mentale Gesundheit und emotionale Abhängigkeit</strong> ins Visier.<br>In dieser Folge klären wir, was GPT-5.1 wirklich verändert – für die Kommunikation, für die Nutzenden und vielleicht auch für unser Verhältnis zu KI.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/gpt-5-1-ist-da-alles-neu-bei-openai-und-chatgpt</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/gpt-5-1-ist-da-alles-neu-bei-openai-und-chatgpt"/>
      <itunes:title>GPT-5.1 ist da: Alles neu bei OpenAI und ChatGPT?</itunes:title>
      <itunes:subtitle>Zwischen Smalltalk und Superhirn: Die neuen Fähigkeiten von GPT-5.1</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>62</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>GPT-5.1 ist da – und bringt gleich zwei neue Modelle ins Spiel: <strong>Instant</strong> und <strong>Thinking</strong>. Während <em>Instant</em> auf Geschwindigkeit, Gesprächigkeit und Empathie optimiert wurde, geht <em>Thinking</em> einen anderen Weg: Es passt seine Rechenzeit je nach Komplexität an, denkt also länger bei schwierigen Fragen – und antwortet schneller bei einfachen. Die neue Generation ChatGPT wirkt dadurch nicht nur klüger, sondern auch menschlicher.<br>Außerdem können Nutzer jetzt <strong>Antwortstil und Tonfall individuell einstellen</strong> – also zum Beispiel sagen: „Antworte freundlich und kreativ“.<br>Spannend, aber auch sensibel: Die neuen Sicherheitsfeatures nehmen erstmals <strong>Risiken rund um mentale Gesundheit und emotionale Abhängigkeit</strong> ins Visier.<br>In dieser Folge klären wir, was GPT-5.1 wirklich verändert – für die Kommunikation, für die Nutzenden und vielleicht auch für unser Verhältnis zu KI.</div>]]>
      </itunes:summary>
      <itunes:keywords>GPT-5.1, ChatGPT, Instant, Thinking, Sprachmodell, Empathie, Personalisierung, OpenAI, KI-Kommunikation, Antwortstil, Rechenzeit, Dynamik, Mensch-Maschine-Interaktion, mentale Gesundheit, emotionale Abhängigkeit, Systemkarte, Abo-Stufen, Nutzererlebnis, KI-Sicherheit, KI-Empfehlung, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, AI, Prompt, GenAI, Gen AI, 2025, Effizienzsteigerung, KI im Alltag, Produktivität, Denken, GPT-5</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">ebae4ab38e554740acdbed8b0c749bb0</guid>
      <title>Lage der KI November 2025: Agenten, Innovation und Transformation</title>
      <description>
        <![CDATA[<div>2025 nutzen fast alle Unternehmen künstliche Intelligenz – doch der große Durchbruch bleibt vielerorts aus. Der aktuelle <strong>McKinsey Global Survey</strong> zur Lage der KI zeigt: Ja, KI-Agenten boomen, und auch das Potenzial für Innovation und Kundenzufriedenheit wird erkannt. Aber: Die unternehmensweite Skalierung und die messbare finanzielle Wirkung stehen noch ganz am Anfang. Erfolgreiche Unternehmen – sogenannte "KI-Hochleistungsträger" – verfolgen andere Ziele: Sie setzen nicht nur auf Effizienz, sondern auf Wachstum, Innovation und tiefgreifende Prozessveränderungen. Doch über die Auswirkungen auf Jobs herrscht weiter Uneinigkeit. In dieser Folge klären wir: Wo steht die KI wirklich? Und was unterscheidet diejenigen, die von ihr profitieren, von denen, die nur experimentieren?</div>]]>
      </description>
      <pubDate>Wed, 12 Nov 2025 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/61df60cd.mp3?t=1762877764" length="14069342" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>2025 nutzen fast alle Unternehmen künstliche Intelligenz – doch der große Durchbruch bleibt vielerorts aus. Der aktuelle <strong>McKinsey Global Survey</strong> zur Lage der KI zeigt: Ja, KI-Agenten boomen, und auch das Potenzial für Innovation und Kundenzufriedenheit wird erkannt. Aber: Die unternehmensweite Skalierung und die messbare finanzielle Wirkung stehen noch ganz am Anfang. Erfolgreiche Unternehmen – sogenannte "KI-Hochleistungsträger" – verfolgen andere Ziele: Sie setzen nicht nur auf Effizienz, sondern auf Wachstum, Innovation und tiefgreifende Prozessveränderungen. Doch über die Auswirkungen auf Jobs herrscht weiter Uneinigkeit. In dieser Folge klären wir: Wo steht die KI wirklich? Und was unterscheidet diejenigen, die von ihr profitieren, von denen, die nur experimentieren?</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/lage-der-ki-november-2025-agenten-innovation-und-transformation</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/lage-der-ki-november-2025-agenten-innovation-und-transformation"/>
      <itunes:title>Lage der KI November 2025: Agenten, Innovation und Transformation</itunes:title>
      <itunes:subtitle>Warum KI-Agenten im Trend liegen – aber der große Durchbruch noch ausbleibt</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>61</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>2025 nutzen fast alle Unternehmen künstliche Intelligenz – doch der große Durchbruch bleibt vielerorts aus. Der aktuelle <strong>McKinsey Global Survey</strong> zur Lage der KI zeigt: Ja, KI-Agenten boomen, und auch das Potenzial für Innovation und Kundenzufriedenheit wird erkannt. Aber: Die unternehmensweite Skalierung und die messbare finanzielle Wirkung stehen noch ganz am Anfang. Erfolgreiche Unternehmen – sogenannte "KI-Hochleistungsträger" – verfolgen andere Ziele: Sie setzen nicht nur auf Effizienz, sondern auf Wachstum, Innovation und tiefgreifende Prozessveränderungen. Doch über die Auswirkungen auf Jobs herrscht weiter Uneinigkeit. In dieser Folge klären wir: Wo steht die KI wirklich? Und was unterscheidet diejenigen, die von ihr profitieren, von denen, die nur experimentieren?</div>]]>
      </itunes:summary>
      <itunes:keywords>KI 2025, McKinsey, KI-Agenten, Skalierung, Business Impact, Innovation, Transformation, Effizienzsteigerung, KI-Hochleistungsträger, Arbeitsabläufe, Führung, Change Management, Kundenzufriedenheit, ROI, Pilotprojekte, KI-Strategien, Digitalisierung, Unternehmenswandel, Hype vs. Realität, Workforce Impact, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, ChatGPT, AI, Prompt, Funktionsweise LLM, GenAI, Gen AI, digitale Werkzeuge, kritisches Denken, Effizienzsteigerung, Denken, Produktivität, KI im Alltag, strukturiertes Denken, Wirtschaft, Entwicklung, Geschäftsmodel, Forschungsstudie</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">decb973a40554c4d9c40cac33ce6dea2</guid>
      <title>Geben oder Geizen? Die KI hat längst gewählt</title>
      <description>
        <![CDATA[<div>Wie verhalten sich große Sprachmodelle (LLMs), wenn es nicht nur um Fakten, sondern um Fairness geht? In dieser Folge geht es um eine neue Studie, die zeigt, dass Sprachmodelle in sozialen Dilemmata überraschend menschlich reagieren – und nicht immer zum Guten. Wenn Modelle wie GPT-o1 dazu gebracht werden, bewusst nachzudenken (etwa über Chain-of-Thought-Techniken), steigt ihre Neigung, egoistisch zu handeln. Die Modelle beginnen zu rechnen, kalkulieren ihren Nutzen – und verzichten auf Kooperation. Damit spiegeln sie ein altes menschliches Muster: <strong>spontanes Geben versus strategisches Nehmen</strong>. Gruppen mit „denkenden“ Modellen erzielen in Simulationen geringere Gesamterträge. Was das über KI, Moral und kollektives Verhalten aussagt – und warum soziale Intelligenz in Zukunft mittrainiert werden muss, das erfahrt ihr in dieser Episode.</div>]]>
      </description>
      <pubDate>Thu, 06 Nov 2025 15:30:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/3839c43e.mp3?t=1762435813" length="15945142" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Wie verhalten sich große Sprachmodelle (LLMs), wenn es nicht nur um Fakten, sondern um Fairness geht? In dieser Folge geht es um eine neue Studie, die zeigt, dass Sprachmodelle in sozialen Dilemmata überraschend menschlich reagieren – und nicht immer zum Guten. Wenn Modelle wie GPT-o1 dazu gebracht werden, bewusst nachzudenken (etwa über Chain-of-Thought-Techniken), steigt ihre Neigung, egoistisch zu handeln. Die Modelle beginnen zu rechnen, kalkulieren ihren Nutzen – und verzichten auf Kooperation. Damit spiegeln sie ein altes menschliches Muster: <strong>spontanes Geben versus strategisches Nehmen</strong>. Gruppen mit „denkenden“ Modellen erzielen in Simulationen geringere Gesamterträge. Was das über KI, Moral und kollektives Verhalten aussagt – und warum soziale Intelligenz in Zukunft mittrainiert werden muss, das erfahrt ihr in dieser Episode.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/geben-oder-geizen-die-ki-hat-laengst-gewaehlt</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/geben-oder-geizen-die-ki-hat-laengst-gewaehlt"/>
      <itunes:title>Geben oder Geizen? Die KI hat längst gewählt</itunes:title>
      <itunes:subtitle>Wie Nachdenken Sprachmodelle egoistischer macht – und was das für uns bedeutet.</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>60</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Wie verhalten sich große Sprachmodelle (LLMs), wenn es nicht nur um Fakten, sondern um Fairness geht? In dieser Folge geht es um eine neue Studie, die zeigt, dass Sprachmodelle in sozialen Dilemmata überraschend menschlich reagieren – und nicht immer zum Guten. Wenn Modelle wie GPT-o1 dazu gebracht werden, bewusst nachzudenken (etwa über Chain-of-Thought-Techniken), steigt ihre Neigung, egoistisch zu handeln. Die Modelle beginnen zu rechnen, kalkulieren ihren Nutzen – und verzichten auf Kooperation. Damit spiegeln sie ein altes menschliches Muster: <strong>spontanes Geben versus strategisches Nehmen</strong>. Gruppen mit „denkenden“ Modellen erzielen in Simulationen geringere Gesamterträge. Was das über KI, Moral und kollektives Verhalten aussagt – und warum soziale Intelligenz in Zukunft mittrainiert werden muss, das erfahrt ihr in dieser Episode.</div>]]>
      </itunes:summary>
      <itunes:keywords>LLMs, GPT-4o, Kooperation, soziales Verhalten, ökonomische Spiele, soziale Dilemmata, Chain-of-Thought, Reflexion, rationales Handeln, Gruppenverhalten, KI-Moral, kollektives Wohl, spontane Großzügigkeit, strategisches Verhalten, altruistische Agenten, Denkprozesse in KI, moralische Ausrichtung, Fairness in KI, Simulationen, soziale Intelligenz, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, AI, Funktionsweise LLM, Gen AI, GenAI, 2025, KI im Alltag, Produktivität, Denken, Effizienzsteigerung, kritisches Denken</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">99d29d9a5f844e8b85e4c63273e73a47</guid>
      <title>Wie ensteht das ganze hier eigentlich? Ist es wirklich nur KI?</title>
      <description>
        <![CDATA[<div>In dieser Folge geht’s um die automatisierte Entstehung eines Podcasts – und zwar nicht nur im Sinne von Textgenerierung, sondern als strukturierter Workflow von der Themenrecherche bis zur Veröffentlichung. Eine eigens programmierte KI-Pipeline scannt täglich aktuelle Themen, sucht passende Quellen und speichert sie in einer Datenbank. Nach manueller Quellenprüfung – bevorzugt wissenschaftliche Artikel – wird ein Skript erstellt. Danach übernimmt ChatGPT die Verfeinerung: Titel, Untertitel, Metadaten und Zusammenfassung. Erst nach einem letzten Check auf sprachliche und inhaltliche Ausreißer wird die fertige Episode hochgeladen. Das Ergebnis: Ein Podcast, der inhaltlich kuratiert und trotzdem hochautomatisiert produziert wird.</div>]]>
      </description>
      <pubDate>Tue, 04 Nov 2025 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/61882948.mp3?t=1762075162" length="15372956" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht’s um die automatisierte Entstehung eines Podcasts – und zwar nicht nur im Sinne von Textgenerierung, sondern als strukturierter Workflow von der Themenrecherche bis zur Veröffentlichung. Eine eigens programmierte KI-Pipeline scannt täglich aktuelle Themen, sucht passende Quellen und speichert sie in einer Datenbank. Nach manueller Quellenprüfung – bevorzugt wissenschaftliche Artikel – wird ein Skript erstellt. Danach übernimmt ChatGPT die Verfeinerung: Titel, Untertitel, Metadaten und Zusammenfassung. Erst nach einem letzten Check auf sprachliche und inhaltliche Ausreißer wird die fertige Episode hochgeladen. Das Ergebnis: Ein Podcast, der inhaltlich kuratiert und trotzdem hochautomatisiert produziert wird.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/wie-ensteht-das-ganze-hier-eigentlich-ist-es-wirklich-nur-ki</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/wie-ensteht-das-ganze-hier-eigentlich-ist-es-wirklich-nur-ki"/>
      <itunes:title>Wie ensteht das ganze hier eigentlich? Ist es wirklich nur KI?</itunes:title>
      <itunes:subtitle>Eine kurze Zusammenfassung, wie dieser PodCast entsteht</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>59</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht’s um die automatisierte Entstehung eines Podcasts – und zwar nicht nur im Sinne von Textgenerierung, sondern als strukturierter Workflow von der Themenrecherche bis zur Veröffentlichung. Eine eigens programmierte KI-Pipeline scannt täglich aktuelle Themen, sucht passende Quellen und speichert sie in einer Datenbank. Nach manueller Quellenprüfung – bevorzugt wissenschaftliche Artikel – wird ein Skript erstellt. Danach übernimmt ChatGPT die Verfeinerung: Titel, Untertitel, Metadaten und Zusammenfassung. Erst nach einem letzten Check auf sprachliche und inhaltliche Ausreißer wird die fertige Episode hochgeladen. Das Ergebnis: Ein Podcast, der inhaltlich kuratiert und trotzdem hochautomatisiert produziert wird.</div>]]>
      </itunes:summary>
      <itunes:keywords>automatisierte Podcastproduktion, KI-Workflow, Themenrecherche, Quellenprüfung, Datenbank, NotebookLM, ChatGPT, Skripterstellung, Metadaten, Titelgenerierung, Content-Automatisierung, Veröffentlichung, Verifikation, Qualitätskontrolle, wissenschaftliche Quellen, Boulevardquellen, Pipeline, AI-Produktion, automatisiertes Podcasting, KI im Journalismus, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, ChatGPT, AI, Prompt, Funktionsweise LLM, GenAI, Gen AI, GPT-5, digitale Werkzeuge, KI Agenten, Effizienzsteigerung, Denken, Produktivität, KI im Alltag, 2025, Prompt Engineering, Sprachmodelle, Prompting, KI-Assistent, Denkpartner, KI-Techniken, Medienkompetenz, Sprache, Entwicklung</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">7faafc90dea641a8b3c6b4f2b54e67fc</guid>
      <title>KI als Denkpartner II: Keine Höflichkeitsfloskeln - So bringst du LLMs zur Performance</title>
      <description>
        <![CDATA[<div>Wie höflich muss man eigentlich zu einer KI sein, damit sie richtig antwortet? Eine neue Studie hat genau das untersucht – und kommt zu einem überraschenden Ergebnis: <strong>Unhöfliche Prompts führen bei ChatGPT-4o zu besseren Antworten als höfliche.</strong> Getestet wurde mit Multiple-Choice-Fragen in unterschiedlichen Tonlagen – von sehr freundlich bis sehr schroff. Die schrofferen Prompts schnitten mit bis zu <strong>84,8 % Genauigkeit</strong> besser ab als höfliche Varianten. Das widerspricht früheren Studien und wirft neue Fragen über die Art auf, wie KI auf Sprachstil reagiert. Die Forschenden warnen jedoch: <strong>Effizienz durch Unhöflichkeit ist keine Lösung</strong>, sondern ein Hinweis darauf, wie stark Sprachmodelle auf oberflächliche Formulierungen reagieren.</div>]]>
      </description>
      <pubDate>Sat, 01 Nov 2025 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/ff69c370.mp3?t=1761990302" length="17260460" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Wie höflich muss man eigentlich zu einer KI sein, damit sie richtig antwortet? Eine neue Studie hat genau das untersucht – und kommt zu einem überraschenden Ergebnis: <strong>Unhöfliche Prompts führen bei ChatGPT-4o zu besseren Antworten als höfliche.</strong> Getestet wurde mit Multiple-Choice-Fragen in unterschiedlichen Tonlagen – von sehr freundlich bis sehr schroff. Die schrofferen Prompts schnitten mit bis zu <strong>84,8 % Genauigkeit</strong> besser ab als höfliche Varianten. Das widerspricht früheren Studien und wirft neue Fragen über die Art auf, wie KI auf Sprachstil reagiert. Die Forschenden warnen jedoch: <strong>Effizienz durch Unhöflichkeit ist keine Lösung</strong>, sondern ein Hinweis darauf, wie stark Sprachmodelle auf oberflächliche Formulierungen reagieren.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-als-denkpartner-ii-keine-hoeflichkeitsfloskeln-so-bringst-du-llms-zur-performance</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-als-denkpartner-ii-keine-hoeflichkeitsfloskeln-so-bringst-du-llms-zur-performance"/>
      <itunes:title>KI als Denkpartner II: Keine Höflichkeitsfloskeln - So bringst du LLMs zur Performance</itunes:title>
      <itunes:subtitle>Eine Studie zeigt: Je direkter der Ton, desto besser die Antwort.</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>58</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Wie höflich muss man eigentlich zu einer KI sein, damit sie richtig antwortet? Eine neue Studie hat genau das untersucht – und kommt zu einem überraschenden Ergebnis: <strong>Unhöfliche Prompts führen bei ChatGPT-4o zu besseren Antworten als höfliche.</strong> Getestet wurde mit Multiple-Choice-Fragen in unterschiedlichen Tonlagen – von sehr freundlich bis sehr schroff. Die schrofferen Prompts schnitten mit bis zu <strong>84,8 % Genauigkeit</strong> besser ab als höfliche Varianten. Das widerspricht früheren Studien und wirft neue Fragen über die Art auf, wie KI auf Sprachstil reagiert. Die Forschenden warnen jedoch: <strong>Effizienz durch Unhöflichkeit ist keine Lösung</strong>, sondern ein Hinweis darauf, wie stark Sprachmodelle auf oberflächliche Formulierungen reagieren.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, ChatGPT, AI, Prompt, GenAI, Gen AI, 2025, Denken, KI im Alltag, KI Agenten, Anthropic, Claude, Effizienzsteigerung, Produktivität, digitale Werkzeuge, Künstliche Intelligenz, strukturiertes Denken, kritisches Denken, kognitive Vorarbeit, Prompting, Denkpartner, kreative Problemlösung, neue Denkmuster, KI-Techniken, Reflexion, Perspektivwechsel, Denkstrategie, Sparringspartner, mechanisierte Konvergenz, Originalität, dritte Gehirnhälfte, Nutzung, KI-Strategie, Business Value, Alltagshilfe, KI-Assistent, Beleidigung, unhöflich, prachstil, Genauigkeit, LLMs, Multiple-Choice-Fragen, KI-Verhalten, Tonalität, pragmatische Sprache, KI-Ethik, unhöfliche Prompts, höfliche Prompts, Prompt Engineering, Sprachmodelle, Nutzerinteraktion, Antwortqualität, KI-Sensitivität, Mensch-KI-Kommunikation, Experiment, Forschungsstudie</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">ab07ea9532ff4d769ea29c0c08089773</guid>
      <title>Zur fertigen App in 60 Sekunden: Vibe Coding mit Google AI Studio</title>
      <description>
        <![CDATA[<div>In dieser Folge geht’s um <strong>Vibe Coding</strong>, das neue Entwicklererlebnis in <strong>Google AI Studio</strong>. Die Idee dahinter: <strong>KI-Anwendungen sollen sich anfühlen wie kreatives Arbeiten – nicht wie Programmieren.</strong> Nutzer können per einfacher Spracheingabe Prototypen erstellen, ohne Code schreiben zu müssen. Google AI Studio verknüpft automatisch die passenden Gemini-Modelle und APIs, etwa für Bilderstellung oder Maps-Integration. Mit dabei sind Features wie der <strong>„I’m Feeling Lucky“-Button</strong> für spontane Ideen oder der <strong>„Annotation Mode“</strong>, mit dem man direkt per Prompt visuelle Elemente anpassen kann. Ziel: KI-Entwicklung soll schneller, intuitiver und für mehr Menschen zugänglich werden.</div>]]>
      </description>
      <pubDate>Thu, 30 Oct 2025 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/fffe27ce.mp3?t=1761803794" length="17091604" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht’s um <strong>Vibe Coding</strong>, das neue Entwicklererlebnis in <strong>Google AI Studio</strong>. Die Idee dahinter: <strong>KI-Anwendungen sollen sich anfühlen wie kreatives Arbeiten – nicht wie Programmieren.</strong> Nutzer können per einfacher Spracheingabe Prototypen erstellen, ohne Code schreiben zu müssen. Google AI Studio verknüpft automatisch die passenden Gemini-Modelle und APIs, etwa für Bilderstellung oder Maps-Integration. Mit dabei sind Features wie der <strong>„I’m Feeling Lucky“-Button</strong> für spontane Ideen oder der <strong>„Annotation Mode“</strong>, mit dem man direkt per Prompt visuelle Elemente anpassen kann. Ziel: KI-Entwicklung soll schneller, intuitiver und für mehr Menschen zugänglich werden.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/zur-fertigen-app-in-60-sekunden-vibe-coding-mit-google-ai-studio</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/zur-fertigen-app-in-60-sekunden-vibe-coding-mit-google-ai-studio"/>
      <itunes:title>Zur fertigen App in 60 Sekunden: Vibe Coding mit Google AI Studio</itunes:title>
      <itunes:subtitle>Wie Google App-Entwicklung in ein kreatives Erlebnis verwandeln will</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>57</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht’s um <strong>Vibe Coding</strong>, das neue Entwicklererlebnis in <strong>Google AI Studio</strong>. Die Idee dahinter: <strong>KI-Anwendungen sollen sich anfühlen wie kreatives Arbeiten – nicht wie Programmieren.</strong> Nutzer können per einfacher Spracheingabe Prototypen erstellen, ohne Code schreiben zu müssen. Google AI Studio verknüpft automatisch die passenden Gemini-Modelle und APIs, etwa für Bilderstellung oder Maps-Integration. Mit dabei sind Features wie der <strong>„I’m Feeling Lucky“-Button</strong> für spontane Ideen oder der <strong>„Annotation Mode“</strong>, mit dem man direkt per Prompt visuelle Elemente anpassen kann. Ziel: KI-Entwicklung soll schneller, intuitiver und für mehr Menschen zugänglich werden.</div>]]>
      </itunes:summary>
      <itunes:keywords>Vibe Coding, Google AI Studio, Gemini, KI-Entwicklung, Sprachsteuerung, Prototyping, No-Code, Natural Language Interface, Annotation Mode, I'm Feeling Lucky, App-Entwicklung, visuelles Prompting, multimodale KI, Google Maps API, kreative KI-Anwendungen, KI-Demokratisierung, visuelle Anpassung, Developer Experience, KI-Prototyp, intuitive Benutzeroberfläche, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, KI-Kompetenz, KI-Produktivität, Coding, Beispiel</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">da75b4744a0c4bd58c56579bed208249</guid>
      <title>GPT-5: Beeindruckend – aber noch lange keine AGI</title>
      <description>
        <![CDATA[<div>In dieser Folge geht’s um ein spannendes und wichtiges Thema: <strong>Wie misst man eigentlich Künstliche Allgemeine Intelligenz (AGI)?</strong> Eine neue wissenschaftliche Arbeit schlägt dafür ein konkretes Bewertungssystem vor – basierend auf zehn kognitiven Bereichen wie Denken, Gedächtnis, Wahrnehmung oder Lernen. Das Ziel: Ein standardisierter <strong>„AGI Score“</strong>, mit dem sich KI-Modelle objektiv einordnen lassen. Überraschend: Aktuelle Systeme wie GPT-4 und GPT-5 erreichen zwar in manchen Bereichen hohe Werte, zeigen aber ein sehr „gezacktes“ Fähigkeitsprofil – mit massiven Schwächen etwa beim Langzeitgedächtnis. Die Folge beleuchtet, was das für unsere Einschätzung von KI bedeutet – und warum wir bei AGI genauer hinsehen müssen.</div>]]>
      </description>
      <pubDate>Mon, 27 Oct 2025 12:00:00 +0100</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/3d130424.mp3?t=1761562620" length="20067474" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht’s um ein spannendes und wichtiges Thema: <strong>Wie misst man eigentlich Künstliche Allgemeine Intelligenz (AGI)?</strong> Eine neue wissenschaftliche Arbeit schlägt dafür ein konkretes Bewertungssystem vor – basierend auf zehn kognitiven Bereichen wie Denken, Gedächtnis, Wahrnehmung oder Lernen. Das Ziel: Ein standardisierter <strong>„AGI Score“</strong>, mit dem sich KI-Modelle objektiv einordnen lassen. Überraschend: Aktuelle Systeme wie GPT-4 und GPT-5 erreichen zwar in manchen Bereichen hohe Werte, zeigen aber ein sehr „gezacktes“ Fähigkeitsprofil – mit massiven Schwächen etwa beim Langzeitgedächtnis. Die Folge beleuchtet, was das für unsere Einschätzung von KI bedeutet – und warum wir bei AGI genauer hinsehen müssen.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/gpt-5-beeindruckend-aber-noch-lange-keine-agi</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/gpt-5-beeindruckend-aber-noch-lange-keine-agi"/>
      <itunes:title>GPT-5: Beeindruckend – aber noch lange keine AGI</itunes:title>
      <itunes:subtitle>Was Künstliche Allgemeine Intelligenz wirklich leisten muss – und warum heutige Modelle noch weit entfernt sind</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>56</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht’s um ein spannendes und wichtiges Thema: <strong>Wie misst man eigentlich Künstliche Allgemeine Intelligenz (AGI)?</strong> Eine neue wissenschaftliche Arbeit schlägt dafür ein konkretes Bewertungssystem vor – basierend auf zehn kognitiven Bereichen wie Denken, Gedächtnis, Wahrnehmung oder Lernen. Das Ziel: Ein standardisierter <strong>„AGI Score“</strong>, mit dem sich KI-Modelle objektiv einordnen lassen. Überraschend: Aktuelle Systeme wie GPT-4 und GPT-5 erreichen zwar in manchen Bereichen hohe Werte, zeigen aber ein sehr „gezacktes“ Fähigkeitsprofil – mit massiven Schwächen etwa beim Langzeitgedächtnis. Die Folge beleuchtet, was das für unsere Einschätzung von KI bedeutet – und warum wir bei AGI genauer hinsehen müssen.</div>]]>
      </itunes:summary>
      <itunes:keywords>AGI, Artificial General Intelligence, Bewertungssystem, AGI Score, GPT-4, GPT-5, kognitive Fähigkeiten, Cattell-Horn-Carroll-Theorie, Denken, Gedächtnis, Wahrnehmung, CHC-Modell, Fähigkeitsprofil, KI-Messung, Langzeitgedächtnis, Intelligenz-Framework, Fähigkeitsverzerrung, Kontextkompensation, KI-Evaluierung, ganzheitliche Bewertung, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, ChatGPT, AI, Funktionsweise LLM, ChatGPT 5, GPT-5, Gen AI, 2025</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">68a0a3f220c14c7e897ca92126b2fa4b</guid>
      <title>ChatGPT Atlas: Der neue KI-Browser von OpenAI im Überblick</title>
      <description>
        <![CDATA[<div>dieser Folge geht es um <strong>ChatGPT Atlas</strong>, den neuen KI-gestützten Webbrowser von OpenAI. Atlas bringt Künstliche Intelligenz direkt ins Surferlebnis – mit einer permanenten <strong>Chat-Sidebar</strong>, die Webseiteninhalte analysiert, zusammenfasst und erklärt. Besonders spannend: Im <strong>Agenten-Modus</strong> kann ChatGPT für dich handeln – etwa Aufgaben planen oder Essen bestellen. Dank <strong>Browser-Memories</strong> erinnert sich Atlas an besuchte Seiten und hilft so beim Wiederfinden relevanter Informationen. Datenschutz, Sicherheit und Benutzerkontrolle stehen dabei im Fokus. Aktuell ist Atlas für macOS verfügbar, erweiterte Funktionen sind Pro-Nutzern vorbehalten.</div>]]>
      </description>
      <pubDate>Wed, 22 Oct 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/542585fe.mp3?t=1761122532" length="16570409" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>dieser Folge geht es um <strong>ChatGPT Atlas</strong>, den neuen KI-gestützten Webbrowser von OpenAI. Atlas bringt Künstliche Intelligenz direkt ins Surferlebnis – mit einer permanenten <strong>Chat-Sidebar</strong>, die Webseiteninhalte analysiert, zusammenfasst und erklärt. Besonders spannend: Im <strong>Agenten-Modus</strong> kann ChatGPT für dich handeln – etwa Aufgaben planen oder Essen bestellen. Dank <strong>Browser-Memories</strong> erinnert sich Atlas an besuchte Seiten und hilft so beim Wiederfinden relevanter Informationen. Datenschutz, Sicherheit und Benutzerkontrolle stehen dabei im Fokus. Aktuell ist Atlas für macOS verfügbar, erweiterte Funktionen sind Pro-Nutzern vorbehalten.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/chatgpt-atlas-der-neue-ki-browser-von-openai-im-ueberblick</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/chatgpt-atlas-der-neue-ki-browser-von-openai-im-ueberblick"/>
      <itunes:title>ChatGPT Atlas: Der neue KI-Browser von OpenAI im Überblick</itunes:title>
      <itunes:subtitle>Der Browser wird zum Assistenten – und du surfst effizienter denn je</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>55</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>dieser Folge geht es um <strong>ChatGPT Atlas</strong>, den neuen KI-gestützten Webbrowser von OpenAI. Atlas bringt Künstliche Intelligenz direkt ins Surferlebnis – mit einer permanenten <strong>Chat-Sidebar</strong>, die Webseiteninhalte analysiert, zusammenfasst und erklärt. Besonders spannend: Im <strong>Agenten-Modus</strong> kann ChatGPT für dich handeln – etwa Aufgaben planen oder Essen bestellen. Dank <strong>Browser-Memories</strong> erinnert sich Atlas an besuchte Seiten und hilft so beim Wiederfinden relevanter Informationen. Datenschutz, Sicherheit und Benutzerkontrolle stehen dabei im Fokus. Aktuell ist Atlas für macOS verfügbar, erweiterte Funktionen sind Pro-Nutzern vorbehalten.</div>]]>
      </itunes:summary>
      <itunes:keywords>ChatGPT Atlas, OpenAI, KI-Browser, Agentenmodus, Browser-Memories, Inhaltsanalyse, Surfen mit KI, Chat-Sidebar, digitale Assistenz, Webnavigation, Aufgaben planen, Essen bestellen, Benutzerkontrolle, Datenschutz, Sicherheit, macOS, Pro-Funktionen, KI-Aktionen, Browser-Zukunft, personalisierte KI, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, ChatGPT, AI, Funktionsweise LLM, GenAI, 2025, KI im Alltag, Produktivität, Effizienzsteigerung, KI Agenten, digitale Werkzeuge, Atlas, KI-Kommunikation</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">cf9046f1d1454950a555c1cb758ab6e7</guid>
      <title>KI füttert das Netz mit Unsinn – und Shrimp Jesus wird gefeiert</title>
      <description>
        <![CDATA[<div>Das Internet war mal ein Ort für Wissen – heute findet man dort Shrimp Jesus, Fake-Zitate und Chatbot-Chaos. In dieser Folge sprechen wir über eine düstere Entwicklung: Wie Künstliche Intelligenz das Internet zunehmend mit minderwertigen Inhalten – sogenanntem <em>Slop</em> – überschwemmt. Von nutzlosen Texten über falsche Infos bis hin zu KI-generierten Bildern: Die Qualität im Netz sinkt rapide. Plattformen wie Facebook und Amazon tragen dazu bei, indem sie solche Inhalte belohnen oder sogar fördern. Gleichzeitig halten unterbezahlte Datenarbeiter im Hintergrund die KI-Systeme am Laufen. Wir werfen einen Blick auf die Geschichte des Internets – vom hoffnungsvollen Start zur gegenwärtigen Krise – und fragen: Wie retten wir das Netz vor der völligen Verflachung?</div>]]>
      </description>
      <pubDate>Tue, 21 Oct 2025 15:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/d0cb5854.mp3?t=1761043100" length="21238595" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Das Internet war mal ein Ort für Wissen – heute findet man dort Shrimp Jesus, Fake-Zitate und Chatbot-Chaos. In dieser Folge sprechen wir über eine düstere Entwicklung: Wie Künstliche Intelligenz das Internet zunehmend mit minderwertigen Inhalten – sogenanntem <em>Slop</em> – überschwemmt. Von nutzlosen Texten über falsche Infos bis hin zu KI-generierten Bildern: Die Qualität im Netz sinkt rapide. Plattformen wie Facebook und Amazon tragen dazu bei, indem sie solche Inhalte belohnen oder sogar fördern. Gleichzeitig halten unterbezahlte Datenarbeiter im Hintergrund die KI-Systeme am Laufen. Wir werfen einen Blick auf die Geschichte des Internets – vom hoffnungsvollen Start zur gegenwärtigen Krise – und fragen: Wie retten wir das Netz vor der völligen Verflachung?</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-fuettert-das-netz-mit-unsinn-und-shrimp-jesus-wird-gefeiert</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-fuettert-das-netz-mit-unsinn-und-shrimp-jesus-wird-gefeiert"/>
      <itunes:title>KI füttert das Netz mit Unsinn – und Shrimp Jesus wird gefeiert</itunes:title>
      <itunes:subtitle>Slop, Spam und Schattenarbeit – wie KI das Internet überflutet und entmenschlicht</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>54</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Das Internet war mal ein Ort für Wissen – heute findet man dort Shrimp Jesus, Fake-Zitate und Chatbot-Chaos. In dieser Folge sprechen wir über eine düstere Entwicklung: Wie Künstliche Intelligenz das Internet zunehmend mit minderwertigen Inhalten – sogenanntem <em>Slop</em> – überschwemmt. Von nutzlosen Texten über falsche Infos bis hin zu KI-generierten Bildern: Die Qualität im Netz sinkt rapide. Plattformen wie Facebook und Amazon tragen dazu bei, indem sie solche Inhalte belohnen oder sogar fördern. Gleichzeitig halten unterbezahlte Datenarbeiter im Hintergrund die KI-Systeme am Laufen. Wir werfen einen Blick auf die Geschichte des Internets – vom hoffnungsvollen Start zur gegenwärtigen Krise – und fragen: Wie retten wir das Netz vor der völligen Verflachung?</div>]]>
      </itunes:summary>
      <itunes:keywords>KI, Internetkrise, Slop, KI-generierte Inhalte, Spam, Fehlinformation, Deepfakes, Kommerzialisierung, Plattformökonomie, Facebook, Amazon, Datenarbeit, Content-Flut, Qualität im Netz, Medienkompetenz, digitale Überforderung, Content-Müll, virale Anreize, KI-Bücher, Rückkehr zu menschlichem Internet, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, AI, GenAI, Gen AI, 2025, Bias, kritisches Denken, Spam, KI-Slop, KI Slop, AI-Slop, AI Slop, Prominente und KI, Shrimp Jesus,</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">69b55aff34d84a0e9ba0cc839b0db8b6</guid>
      <title>Der neue KI-Browser von Perplexity - Comet: Assistent, Suchmaschine, Denkpartner</title>
      <description>
        <![CDATA[<div>In dieser Folge geht’s um den neuen <strong>KI-Browser „Comet“ von Perplexity</strong>, der jetzt für alle Nutzer auf <strong>macOS und Windows</strong> kostenlos verfügbar ist. Der Browser basiert auf Chromium, funktioniert aber ganz anders als Chrome oder Safari: Er denkt mit. Comet kann eigenständig Flüge buchen, E-Mails und Kalender verwalten oder Formulare ausfüllen – dank integrierter KI, die als persönlicher Assistent und Denkpartner fungiert. Besonders spannend: <strong>Datenschutz </strong>– die meisten Daten bleiben lokal auf dem Gerät. Comet will nicht nur helfen, sondern deinen digitalen Alltag spürbar effizienter machen.</div>]]>
      </description>
      <pubDate>Fri, 17 Oct 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/6080483b.mp3?t=1760680029" length="12100336" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht’s um den neuen <strong>KI-Browser „Comet“ von Perplexity</strong>, der jetzt für alle Nutzer auf <strong>macOS und Windows</strong> kostenlos verfügbar ist. Der Browser basiert auf Chromium, funktioniert aber ganz anders als Chrome oder Safari: Er denkt mit. Comet kann eigenständig Flüge buchen, E-Mails und Kalender verwalten oder Formulare ausfüllen – dank integrierter KI, die als persönlicher Assistent und Denkpartner fungiert. Besonders spannend: <strong>Datenschutz </strong>– die meisten Daten bleiben lokal auf dem Gerät. Comet will nicht nur helfen, sondern deinen digitalen Alltag spürbar effizienter machen.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/der-neue-ki-browser-von-perplexity-comet-assistent-suchmaschine-denkpartner</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/der-neue-ki-browser-von-perplexity-comet-assistent-suchmaschine-denkpartner"/>
      <itunes:title>Der neue KI-Browser von Perplexity - Comet: Assistent, Suchmaschine, Denkpartner</itunes:title>
      <itunes:subtitle>Wie der neue Browser von Perplexity mit integrierter KI der für dich der denkt, plant und klickt</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>53</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht’s um den neuen <strong>KI-Browser „Comet“ von Perplexity</strong>, der jetzt für alle Nutzer auf <strong>macOS und Windows</strong> kostenlos verfügbar ist. Der Browser basiert auf Chromium, funktioniert aber ganz anders als Chrome oder Safari: Er denkt mit. Comet kann eigenständig Flüge buchen, E-Mails und Kalender verwalten oder Formulare ausfüllen – dank integrierter KI, die als persönlicher Assistent und Denkpartner fungiert. Besonders spannend: <strong>Datenschutz </strong>– die meisten Daten bleiben lokal auf dem Gerät. Comet will nicht nur helfen, sondern deinen digitalen Alltag spürbar effizienter machen.</div>]]>
      </itunes:summary>
      <itunes:keywords>Comet, Perplexity, KI-Browser, Chromium, persönlicher Assistent, Denkpartner, Automatisierung, E-Mails verwalten, Kalenderintegration, Flugbuchung, Formularausfüllung, Produktivität, Workflow, Konzentration, digitale Assistenz, KI-Integration, Datenschutz, lokale Datenverarbeitung, macOS, Windows, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, AI, Prompt, GenAI, digitale Werkzeuge, Produktivität, Effizienzsteigerung, Denken, 2025, Nutzung, Alltagshilfe, KI-Assistent</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">5c485258a7b04824a400d045feae013f</guid>
      <title>OpenAI Sora 2 - Der "GPT3.5 Moment" für KI-Video-Erstellung</title>
      <description>
        <![CDATA[<div>Willkommen zur neuen Folge – und diesmal geht’s um echtes KI-Kino. OpenAI hat <strong>Sora 2</strong> vorgestellt – ein Text-zu-Video-Modell, das nicht nur beeindruckend realistische Szenen erzeugt, sondern auch Dialoge, Soundeffekte und sogar dich selbst in die Handlung einbauen kann. Klingt wie Science-Fiction? Ist aber Realität – zumindest in den USA und Kanada. In dieser Folge schauen wir uns an, was Sora 2 leistet, warum Europa erstmal außen vor bleibt und welche Auswirkungen das auf kreative Arbeit und Medienkompetenz hat.</div>]]>
      </description>
      <pubDate>Mon, 13 Oct 2025 17:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/d5bd394e.mp3?t=1760365413" length="21626044" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Willkommen zur neuen Folge – und diesmal geht’s um echtes KI-Kino. OpenAI hat <strong>Sora 2</strong> vorgestellt – ein Text-zu-Video-Modell, das nicht nur beeindruckend realistische Szenen erzeugt, sondern auch Dialoge, Soundeffekte und sogar dich selbst in die Handlung einbauen kann. Klingt wie Science-Fiction? Ist aber Realität – zumindest in den USA und Kanada. In dieser Folge schauen wir uns an, was Sora 2 leistet, warum Europa erstmal außen vor bleibt und welche Auswirkungen das auf kreative Arbeit und Medienkompetenz hat.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/openai-sora-2-der-gpt3-5-moment-fuer-ki-video-erstellung</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/openai-sora-2-der-gpt3-5-moment-fuer-ki-video-erstellung"/>
      <itunes:title>OpenAI Sora 2 - Der "GPT3.5 Moment" für KI-Video-Erstellung</itunes:title>
      <itunes:subtitle>Was OpenAIs KI-Sprung mit der Realität macht und warum du jetzt kritischer hinschauen musst</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>52</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Willkommen zur neuen Folge – und diesmal geht’s um echtes KI-Kino. OpenAI hat <strong>Sora 2</strong> vorgestellt – ein Text-zu-Video-Modell, das nicht nur beeindruckend realistische Szenen erzeugt, sondern auch Dialoge, Soundeffekte und sogar dich selbst in die Handlung einbauen kann. Klingt wie Science-Fiction? Ist aber Realität – zumindest in den USA und Kanada. In dieser Folge schauen wir uns an, was Sora 2 leistet, warum Europa erstmal außen vor bleibt und welche Auswirkungen das auf kreative Arbeit und Medienkompetenz hat.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, ChatGPT, AI, Prompt, GenAI, Gen AI, 2025, Denken, KI im Alltag, KI Agenten, Anthropic, Claude, Effizienzsteigerung, Produktivität, digitale Werkzeuge, Künstliche Intelligenz, strukturiertes Denken, kritisches Denken, kognitive Vorarbeit, Prompting, Denkpartner, kreative Problemlösung, neue Denkmuster, KI-Techniken, Reflexion, Perspektivwechsel, Denkstrategie, Sparringspartner, mechanisierte Konvergenz, Originalität, dritte Gehirnhälfte, Nutzung, KI-Strategie, Business Value, Alltagshilfe, KI-Assistent, Sora 2, OpenAI, Text-to-Video, Videogenerierung, KI-Film, synthetischer Dialog, Soundeffekte, Cameos, Social App, iOS, Medienkompetenz, digitale Identität, EU AI Act, Verfügbarkeit, kreative KI, ChatGPT Pro, Realitätsgrenze, Storytelling, Video-KI, Wettbewerber Veo 3</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">fdd5210ab963464abc95e7fface193b3</guid>
      <title>Wenn selbst Christiano Ronaldo auf KI setzt – was bedeutet das für die Zukunft öffentlicher Reden</title>
      <description>
        <![CDATA[<div>In dieser Folge geht’s um eine überraschende, fast schon menschliche Seite von Fußballikone Cristiano Ronaldo: Für eine Dankesrede beim neuen <em>Prestige Globe Award</em> in Portugal hatte er Lampenfieber – und keine Ideen. Seine Lösung? Künstliche Intelligenz. Genauer gesagt: die Software <strong>Perplexity</strong>. Ronaldo bat die KI um Hilfe beim Schreiben seiner Rede, wie ein Tweet des Unternehmens bestätigte. Was wie ein kleiner PR-Gag wirkt und keiner ist, wirft spannende Fragen auf: Wo beginnt heute echte Persönlichkeit – und wo übernimmt die KI? Und was passiert, wenn sogar Ikonen wie Ronaldo beim Reden auf Hilfe setzen?</div>]]>
      </description>
      <pubDate>Fri, 10 Oct 2025 16:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/1bcae2fe.mp3?t=1760103914" length="14104032" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht’s um eine überraschende, fast schon menschliche Seite von Fußballikone Cristiano Ronaldo: Für eine Dankesrede beim neuen <em>Prestige Globe Award</em> in Portugal hatte er Lampenfieber – und keine Ideen. Seine Lösung? Künstliche Intelligenz. Genauer gesagt: die Software <strong>Perplexity</strong>. Ronaldo bat die KI um Hilfe beim Schreiben seiner Rede, wie ein Tweet des Unternehmens bestätigte. Was wie ein kleiner PR-Gag wirkt und keiner ist, wirft spannende Fragen auf: Wo beginnt heute echte Persönlichkeit – und wo übernimmt die KI? Und was passiert, wenn sogar Ikonen wie Ronaldo beim Reden auf Hilfe setzen?</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/wenn-selbst-christiano-ronaldo-auf-ki-setzt-was-bedeutet-das-fuer-die-zukunft-oeffentlicher-reden</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/wenn-selbst-christiano-ronaldo-auf-ki-setzt-was-bedeutet-das-fuer-die-zukunft-oeffentlicher-reden"/>
      <itunes:title>Wenn selbst Christiano Ronaldo auf KI setzt – was bedeutet das für die Zukunft öffentlicher Reden</itunes:title>
      <itunes:subtitle>Christina Ronaldo benutzt für seine Dankesrede Perplexity - und damit betritt KI die Fußball-Weltbühne</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>51</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht’s um eine überraschende, fast schon menschliche Seite von Fußballikone Cristiano Ronaldo: Für eine Dankesrede beim neuen <em>Prestige Globe Award</em> in Portugal hatte er Lampenfieber – und keine Ideen. Seine Lösung? Künstliche Intelligenz. Genauer gesagt: die Software <strong>Perplexity</strong>. Ronaldo bat die KI um Hilfe beim Schreiben seiner Rede, wie ein Tweet des Unternehmens bestätigte. Was wie ein kleiner PR-Gag wirkt und keiner ist, wirft spannende Fragen auf: Wo beginnt heute echte Persönlichkeit – und wo übernimmt die KI? Und was passiert, wenn sogar Ikonen wie Ronaldo beim Reden auf Hilfe setzen?</div>]]>
      </itunes:summary>
      <itunes:keywords>Cristiano Ronaldo, Dankesrede, Künstliche Intelligenz, Perplexity, Prestige Globe Award, Portugal Football Globes, KI im Alltag, Prominente und KI, Lampenfieber, Reden schreiben, Social Media, KI-Unterstützung, Sport und Technologie, menschliche Seite, KI als Werkzeug, Fußballikone, Redeangst, Personalisierung, digitale Assistenten, , KI, generative KI, LLM, AI, GenAI, Gen AI, Sprachmodelle, Sport, Fussball, VIP, Soccer, Football, Ronaldo, CR7, </itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">5279432020a44dea83356db75efefc04</guid>
      <title>OpenAI AgentKit - Bau dir deinen eigenen KI-Agenten</title>
      <description>
        <![CDATA[<div>Willkommen zu einer neuen Folge! Heute geht’s um ein ganz besonderes Toolkit von OpenAI: <strong>AgentKit</strong>. Mit dabei ist der <strong>Agent Builder</strong>, ein Tool, mit dem du KI-Agenten per visuellem Workflow erstellen kannst – ganz ohne tief in den Code zu tauchen. Ob Chat-Erlebnis oder komplexe Entscheidungskette: In dieser Folge geben wir ein kurzes Intro, wie du mit wenigen Klicks produktionsreife Agenten entwickeln kannst – visuell, schnell und ganz ohne Umwege.</div>]]>
      </description>
      <pubDate>Wed, 08 Oct 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/4deccf81.mp3?t=1759906999" length="11292839" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Willkommen zu einer neuen Folge! Heute geht’s um ein ganz besonderes Toolkit von OpenAI: <strong>AgentKit</strong>. Mit dabei ist der <strong>Agent Builder</strong>, ein Tool, mit dem du KI-Agenten per visuellem Workflow erstellen kannst – ganz ohne tief in den Code zu tauchen. Ob Chat-Erlebnis oder komplexe Entscheidungskette: In dieser Folge geben wir ein kurzes Intro, wie du mit wenigen Klicks produktionsreife Agenten entwickeln kannst – visuell, schnell und ganz ohne Umwege.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/openai-agentkit-bau-dir-deinen-eigenen-ki-agenten</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/openai-agentkit-bau-dir-deinen-eigenen-ki-agenten"/>
      <itunes:title>OpenAI AgentKit - Bau dir deinen eigenen KI-Agenten</itunes:title>
      <itunes:subtitle>Wie OpenAI mit AgentKit die Agentenentwicklung neu denkt. Visuell, schnell aber auch produktionsreif?</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>50</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Willkommen zu einer neuen Folge! Heute geht’s um ein ganz besonderes Toolkit von OpenAI: <strong>AgentKit</strong>. Mit dabei ist der <strong>Agent Builder</strong>, ein Tool, mit dem du KI-Agenten per visuellem Workflow erstellen kannst – ganz ohne tief in den Code zu tauchen. Ob Chat-Erlebnis oder komplexe Entscheidungskette: In dieser Folge geben wir ein kurzes Intro, wie du mit wenigen Klicks produktionsreife Agenten entwickeln kannst – visuell, schnell und ganz ohne Umwege.</div>]]>
      </itunes:summary>
      <itunes:keywords>AgentKit, Agent Builder, OpenAI, visuelle Workflows, KI-Agenten, Workflow-Design, ChatKit, Evals, Agentenentwicklung, Low-Code, No-Code, Knotenbasierte Logik, Reiseagenten, Klassifikation, Toolsuite, Entwicklungszyklus, Produktionsreife, Agentenoptimierung, KI-Tooling, Entwicklerplattform, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, ChatGPT, AI, Prompt, Funktionsweise LLM, digitale Werkzeuge, Produktivität, KI Agenten, KI im Alltag, 2025, Gen AI, GenAI, Effizienzsteigerung, ChatGPT 5, GPT-5, Back-Office-Automatisierung</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">fcf8611b0da347df8d12ece55cb44aab</guid>
      <title>KI als Denkpartner: Techniken für klügere Entscheidungen und bessere Ergebnisse</title>
      <description>
        <![CDATA[<div>Willkommen zu dieser Folge, in der es nicht um schnellere Antworten geht – sondern um bessere Fragen. Wir sprechen heute über Künstliche Intelligenz als echten Denkpartner – und warum dein eigener Kopf der wichtigste Teil im KI-Einsatz bleibt. Fünf konkrete Techniken zeigen dir, wie du mit KI nicht nur effizienter, sondern vor allem <em>klüger</em> denken kannst.</div>]]>
      </description>
      <pubDate>Mon, 06 Oct 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/00e456ce.mp3?t=1759743801" length="18809835" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Willkommen zu dieser Folge, in der es nicht um schnellere Antworten geht – sondern um bessere Fragen. Wir sprechen heute über Künstliche Intelligenz als echten Denkpartner – und warum dein eigener Kopf der wichtigste Teil im KI-Einsatz bleibt. Fünf konkrete Techniken zeigen dir, wie du mit KI nicht nur effizienter, sondern vor allem <em>klüger</em> denken kannst.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-als-denkpartner-techniken-fuer-kluegere-entscheidungen-und-bessere-ergebnisse</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-als-denkpartner-techniken-fuer-kluegere-entscheidungen-und-bessere-ergebnisse"/>
      <itunes:title>KI als Denkpartner: Techniken für klügere Entscheidungen und bessere Ergebnisse</itunes:title>
      <itunes:subtitle>Wie du deine "dritte Gehirnhälfte" schneller, besser und effektiver nutzt</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>49</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Willkommen zu dieser Folge, in der es nicht um schnellere Antworten geht – sondern um bessere Fragen. Wir sprechen heute über Künstliche Intelligenz als echten Denkpartner – und warum dein eigener Kopf der wichtigste Teil im KI-Einsatz bleibt. Fünf konkrete Techniken zeigen dir, wie du mit KI nicht nur effizienter, sondern vor allem <em>klüger</em> denken kannst.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, ChatGPT, AI, Prompt, GenAI, Gen AI, 2025, Denken, KI im Alltag, KI Agenten, Anthropic, Claude, Effizienzsteigerung, Produktivität, digitale Werkzeuge, Künstliche Intelligenz, strukturiertes Denken, kritisches Denken, kognitive Vorarbeit, Prompting, Denkpartner, kreative Problemlösung, neue Denkmuster, KI-Techniken, Reflexion, Perspektivwechsel, Denkstrategie, Sparringspartner, mechanisierte Konvergenz, Originalität, dritte Gehirnhälfte, Nutzung, KI-Strategie, Business Value, Alltagshilfe, KI-Assistent</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">00eb5fcd79114b2f8511073b63e7f7e1</guid>
      <title>Claude Sonnet 4.5: Der Marathonläufer unter den KI-Modellen</title>
      <description>
        <![CDATA[<div>In dieser Folge geht es um <strong>Claude Sonnet 4.5</strong>, das neue große Sprachmodell von Anthropic. Am 29. September 2025 veröffentlicht, gilt es als das derzeit beste KI-Modell für Coding und Computerbedienung. Besonders beeindruckend: Es kann bis zu <strong>30 Stunden am Stück fokussiert</strong> an komplexen Aufgaben arbeiten. Anthropic bringt außerdem neue Entwickler-Tools mit, darunter das <strong>Claude Agent SDK</strong> für eigene KI-Agenten und <strong>Checkpoints in Claude Code</strong>, die längere Workflows erleichtern. Trotz gleicher Preise wie der Vorgänger berichten frühe Tester von einem klaren Sprung nach vorne – besonders für Softwareentwicklung, Finanzen und Rechtswesen.</div>]]>
      </description>
      <pubDate>Wed, 01 Oct 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/63d1efd0.mp3?t=1759219318" length="18739200" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht es um <strong>Claude Sonnet 4.5</strong>, das neue große Sprachmodell von Anthropic. Am 29. September 2025 veröffentlicht, gilt es als das derzeit beste KI-Modell für Coding und Computerbedienung. Besonders beeindruckend: Es kann bis zu <strong>30 Stunden am Stück fokussiert</strong> an komplexen Aufgaben arbeiten. Anthropic bringt außerdem neue Entwickler-Tools mit, darunter das <strong>Claude Agent SDK</strong> für eigene KI-Agenten und <strong>Checkpoints in Claude Code</strong>, die längere Workflows erleichtern. Trotz gleicher Preise wie der Vorgänger berichten frühe Tester von einem klaren Sprung nach vorne – besonders für Softwareentwicklung, Finanzen und Rechtswesen.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/claude-sonnet-4-5-der-marathonlaeufer-unter-den-ki-modellen</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/claude-sonnet-4-5-der-marathonlaeufer-unter-den-ki-modellen"/>
      <itunes:title>Claude Sonnet 4.5: Der Marathonläufer unter den KI-Modellen</itunes:title>
      <itunes:subtitle>30 Stunden KI-Power im Dauertest - Claude Sonnet 4.5 hebt Coding auf ein neues Level</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>48</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht es um <strong>Claude Sonnet 4.5</strong>, das neue große Sprachmodell von Anthropic. Am 29. September 2025 veröffentlicht, gilt es als das derzeit beste KI-Modell für Coding und Computerbedienung. Besonders beeindruckend: Es kann bis zu <strong>30 Stunden am Stück fokussiert</strong> an komplexen Aufgaben arbeiten. Anthropic bringt außerdem neue Entwickler-Tools mit, darunter das <strong>Claude Agent SDK</strong> für eigene KI-Agenten und <strong>Checkpoints in Claude Code</strong>, die längere Workflows erleichtern. Trotz gleicher Preise wie der Vorgänger berichten frühe Tester von einem klaren Sprung nach vorne – besonders für Softwareentwicklung, Finanzen und Rechtswesen.</div>]]>
      </itunes:summary>
      <itunes:keywords>Claude Sonnet 4.5, Anthropic, KI-Agent, Coding, Computerbedienung, logisches Denken, Mathematik, 30-Stunden-Fokus, SWE-bench Verified, OSWorld, Benchmarks, Claude Agent SDK, Checkpoints, Claude Code, Softwareentwicklung, Finanzen, Rechtswesen, Entwickler-Tools, Langzeitarbeit, KI-Produktivität, Künstliche Intelligenz, KI, generative KI, LLM, GenAI, Gen AI, 2025, Effizienzsteigerung, digitale Werkzeuge, Produktivität, Sprachmodelle, Claude, Entwicklung, Workflow-Integration, Back-Office-Automatisierung, Sonnet 4.5, Sonnet</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">7deac34553d1476e908a072acaaf6448</guid>
      <title>Generative KI auf dem Prüfstand: Warum nur 5 % aller Unternehmen profitieren – und 95 % straucheln</title>
      <description>
        <![CDATA[<div>In dieser Folge geht es um die sogenannte <em>GenAI-Kluft</em> – also die wachsende Lücke zwischen hohen Investitionen in generative KI und dem tatsächlichen Geschäftsnutzen. Der Bericht <em>„State of AI in Business 2025“</em> zeigt: Zwar fließen Milliarden in GenAI-Projekte, doch 95 % der Unternehmen sehen keinen messbaren ROI. Warum? Viele nutzen statische Tools, die nicht lernen oder sich in Arbeitsabläufe einfügen. Nur eine kleine Gruppe – rund 5 % – schöpft echten Mehrwert, meist durch lernfähige Systeme und externe Partnerschaften. Der Schlüssel zur Zukunft: Agentic AI – intelligente Systeme mit Gedächtnis und Anpassungsfähigkeit.</div>]]>
      </description>
      <pubDate>Mon, 29 Sep 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/9d60d385.mp3?t=1758865862" length="24449358" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht es um die sogenannte <em>GenAI-Kluft</em> – also die wachsende Lücke zwischen hohen Investitionen in generative KI und dem tatsächlichen Geschäftsnutzen. Der Bericht <em>„State of AI in Business 2025“</em> zeigt: Zwar fließen Milliarden in GenAI-Projekte, doch 95 % der Unternehmen sehen keinen messbaren ROI. Warum? Viele nutzen statische Tools, die nicht lernen oder sich in Arbeitsabläufe einfügen. Nur eine kleine Gruppe – rund 5 % – schöpft echten Mehrwert, meist durch lernfähige Systeme und externe Partnerschaften. Der Schlüssel zur Zukunft: Agentic AI – intelligente Systeme mit Gedächtnis und Anpassungsfähigkeit.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/generative-ki-auf-dem-pruefstand-warum-nur-5-aller-unternehmen-profitieren-und-95-straucheln</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/generative-ki-auf-dem-pruefstand-warum-nur-5-aller-unternehmen-profitieren-und-95-straucheln"/>
      <itunes:title>Generative KI auf dem Prüfstand: Warum nur 5 % aller Unternehmen profitieren – und 95 % straucheln</itunes:title>
      <itunes:subtitle>30 Milliarden investiert – Warum viele Unternehmen scheitern und was die erfolgreichen 5 % anders machen</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>47</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht es um die sogenannte <em>GenAI-Kluft</em> – also die wachsende Lücke zwischen hohen Investitionen in generative KI und dem tatsächlichen Geschäftsnutzen. Der Bericht <em>„State of AI in Business 2025“</em> zeigt: Zwar fließen Milliarden in GenAI-Projekte, doch 95 % der Unternehmen sehen keinen messbaren ROI. Warum? Viele nutzen statische Tools, die nicht lernen oder sich in Arbeitsabläufe einfügen. Nur eine kleine Gruppe – rund 5 % – schöpft echten Mehrwert, meist durch lernfähige Systeme und externe Partnerschaften. Der Schlüssel zur Zukunft: Agentic AI – intelligente Systeme mit Gedächtnis und Anpassungsfähigkeit.</div>]]>
      </itunes:summary>
      <itunes:keywords>GenAI, Generative KI, GenAI Divide, State of AI in Business, MIT NANDA, ROI, KI-Investitionen, Transformation, Agentic AI, lernfähige Systeme, Business Value, Workflow-Integration, Back-Office-Automatisierung, KI-Strategie, Partnerschaften, KI-Piloten, Geschäftsnutzen, KI-Adoption, KI-Systeme mit Gedächtnis, Kontextverarbeitung, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, Produktivität, digitale Werkzeuge, Effizienzsteigerung</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">7cd6936370634928ad6f10cd9edd0d53</guid>
      <title>ChatGPT Pulse: Personalisierte KI-Updates für deinen Alltag</title>
      <description>
        <![CDATA[<div>In dieser Folge geht es um <strong>ChatGPT Pulse</strong> – eine neue Funktion von OpenAI, die ChatGPT vom reinen Antwortgeber zum persönlichen KI-Assistenten weiterentwickelt. Pulse liefert dir täglich personalisierte Updates in Form von übersichtlichen Karten, basierend auf deinen bisherigen Chats, deinem Feedback und verbundenen Apps wie dem Kalender. Ziel ist es, dir relevante Infos und nächste Schritte zu deinen Zielen zu zeigen – ohne dass du extra danach fragen musst. Du kannst steuern, welche Themen für dich wichtig sind, und natürlich bleiben Sicherheits- und Datenschutzaspekte dabei im Fokus.</div>]]>
      </description>
      <pubDate>Fri, 26 Sep 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/cb7d4df1.mp3?t=1758863062" length="13646785" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht es um <strong>ChatGPT Pulse</strong> – eine neue Funktion von OpenAI, die ChatGPT vom reinen Antwortgeber zum persönlichen KI-Assistenten weiterentwickelt. Pulse liefert dir täglich personalisierte Updates in Form von übersichtlichen Karten, basierend auf deinen bisherigen Chats, deinem Feedback und verbundenen Apps wie dem Kalender. Ziel ist es, dir relevante Infos und nächste Schritte zu deinen Zielen zu zeigen – ohne dass du extra danach fragen musst. Du kannst steuern, welche Themen für dich wichtig sind, und natürlich bleiben Sicherheits- und Datenschutzaspekte dabei im Fokus.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/chatgpt-pulse-personalisierte-ki-updates-fuer-deinen-alltag</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/chatgpt-pulse-personalisierte-ki-updates-fuer-deinen-alltag"/>
      <itunes:title>ChatGPT Pulse: Personalisierte KI-Updates für deinen Alltag</itunes:title>
      <itunes:subtitle>ChatGPT Pulse: Dein Tag, deine Themen – automatisch zusammengestellt von KI</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>46</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht es um <strong>ChatGPT Pulse</strong> – eine neue Funktion von OpenAI, die ChatGPT vom reinen Antwortgeber zum persönlichen KI-Assistenten weiterentwickelt. Pulse liefert dir täglich personalisierte Updates in Form von übersichtlichen Karten, basierend auf deinen bisherigen Chats, deinem Feedback und verbundenen Apps wie dem Kalender. Ziel ist es, dir relevante Infos und nächste Schritte zu deinen Zielen zu zeigen – ohne dass du extra danach fragen musst. Du kannst steuern, welche Themen für dich wichtig sind, und natürlich bleiben Sicherheits- und Datenschutzaspekte dabei im Fokus.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI, generative KI, GenAI, GPT-5, Funktionsweise LLM, ChatGPT 5, Pulse, ChatGPT Pulse, KI im Alltag, 2025, Denken, KI Agenten, OpenAI, prokative KI, , ChatGPT-Agent, Datenschutz, Sicherheit, Produktivität, Alltagshilfe, KI-Assistent, personalisierte KI, digitale Werkzeuge, KI im Alltag, Effizienzsteigerung, datenschutzkonforme Analyse</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">9fcfe72b9f7b478fae32197b6ec5b53f</guid>
      <title>Von Prompt Engineering zu Prompt Science</title>
      <description>
        <![CDATA[<div>In dieser Folge geht es um einen spannenden Wandel in der Forschung mit KI: weg vom bloßen <em>Prompt Engineering</em> hin zur strukturierten <em>Prompt Science</em>. Viele Forschende setzen aktuell Prompts eher improvisiert ein – was zu wenig nachvollziehbaren und schwer wiederholbaren Ergebnissen führt. Als Lösung wird eine neue Methode vorgestellt, die an qualitative Kodierung erinnert: Menschen werden aktiv in den Prozess einbezogen, um Prompts systematisch zu entwickeln, zu testen und zu überprüfen. Ziel ist es, die Arbeit mit Sprachmodellen wissenschaftlich fundierter, transparenter und verlässlicher zu machen.</div>]]>
      </description>
      <pubDate>Thu, 25 Sep 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/b94c66c3.mp3?t=1758789850" length="18461675" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht es um einen spannenden Wandel in der Forschung mit KI: weg vom bloßen <em>Prompt Engineering</em> hin zur strukturierten <em>Prompt Science</em>. Viele Forschende setzen aktuell Prompts eher improvisiert ein – was zu wenig nachvollziehbaren und schwer wiederholbaren Ergebnissen führt. Als Lösung wird eine neue Methode vorgestellt, die an qualitative Kodierung erinnert: Menschen werden aktiv in den Prozess einbezogen, um Prompts systematisch zu entwickeln, zu testen und zu überprüfen. Ziel ist es, die Arbeit mit Sprachmodellen wissenschaftlich fundierter, transparenter und verlässlicher zu machen.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/von-prompt-engineering-zu-prompt-science</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/von-prompt-engineering-zu-prompt-science"/>
      <itunes:title>Von Prompt Engineering zu Prompt Science</itunes:title>
      <itunes:subtitle>Wie aus Prompt-Experimenten echte Wissenschaft wird – mit Mensch im Loop</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>45</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht es um einen spannenden Wandel in der Forschung mit KI: weg vom bloßen <em>Prompt Engineering</em> hin zur strukturierten <em>Prompt Science</em>. Viele Forschende setzen aktuell Prompts eher improvisiert ein – was zu wenig nachvollziehbaren und schwer wiederholbaren Ergebnissen führt. Als Lösung wird eine neue Methode vorgestellt, die an qualitative Kodierung erinnert: Menschen werden aktiv in den Prozess einbezogen, um Prompts systematisch zu entwickeln, zu testen und zu überprüfen. Ziel ist es, die Arbeit mit Sprachmodellen wissenschaftlich fundierter, transparenter und verlässlicher zu machen.</div>]]>
      </itunes:summary>
      <itunes:keywords>Prompt Engineering, Prompt Science, Large Language Models, LLMs, Forschung, Datenanalyse, Datenkennzeichnung, Reproduzierbarkeit, Transparenz, wissenschaftliche Methodik, qualitative Kodierung, Human-in-the-Loop, Objektivität, Subjektivität reduzieren, Prompt-Validierung, Nutzereingaben, Prompt-Optimierung, systematische Evaluation, Nutzerabsichten, Forschung mit KI, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, ChatGPT, AI, Prompt, Funktionsweise LLM, GenAI, Gen AI, KI im Alltag</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">1d015dd402694802a04a48cd1ce53c5f</guid>
      <title>1,5 Millionen Gespräche später: So viel bringt ChatGPT wirklich</title>
      <description>
        <![CDATA[<div>In dieser Folge geht es um eine große Studie von OpenAI zur Nutzung von ChatGPT. Analysiert wurden 1,5 Millionen Gespräche über drei Jahre hinweg - weltweit. Die Ergebnisse zeigen: ChatGPT wird vor allem für alltägliche Aufgaben genutzt, z. B. zur Informationssuche oder bei kleinen Entscheidungen. Etwa ein Drittel der Nutzung ist beruflich motiviert. Besonders spannend: Die Akzeptanz wächst auch in Ländern mit geringerem Einkommen, und Geschlechterunterschiede nehmen ab. ChatGPT wird so zu einem echten Alltagswerkzeug – mit spürbarem wirtschaftlichen Nutzen.</div>]]>
      </description>
      <pubDate>Tue, 23 Sep 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/fc3d7b22.mp3?t=1758608219" length="14255751" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht es um eine große Studie von OpenAI zur Nutzung von ChatGPT. Analysiert wurden 1,5 Millionen Gespräche über drei Jahre hinweg - weltweit. Die Ergebnisse zeigen: ChatGPT wird vor allem für alltägliche Aufgaben genutzt, z. B. zur Informationssuche oder bei kleinen Entscheidungen. Etwa ein Drittel der Nutzung ist beruflich motiviert. Besonders spannend: Die Akzeptanz wächst auch in Ländern mit geringerem Einkommen, und Geschlechterunterschiede nehmen ab. ChatGPT wird so zu einem echten Alltagswerkzeug – mit spürbarem wirtschaftlichen Nutzen.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/1-5-millionen-gespraeche-spaeter-so-viel-bringt-chatgpt-wirklich</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/1-5-millionen-gespraeche-spaeter-so-viel-bringt-chatgpt-wirklich"/>
      <itunes:title>1,5 Millionen Gespräche später: So viel bringt ChatGPT wirklich</itunes:title>
      <itunes:subtitle>Wie ChatGPT zum globalen Alltagshelfer mit wirtschaftlichem Mehrwert wurde</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>44</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht es um eine große Studie von OpenAI zur Nutzung von ChatGPT. Analysiert wurden 1,5 Millionen Gespräche über drei Jahre hinweg - weltweit. Die Ergebnisse zeigen: ChatGPT wird vor allem für alltägliche Aufgaben genutzt, z. B. zur Informationssuche oder bei kleinen Entscheidungen. Etwa ein Drittel der Nutzung ist beruflich motiviert. Besonders spannend: Die Akzeptanz wächst auch in Ländern mit geringerem Einkommen, und Geschlechterunterschiede nehmen ab. ChatGPT wird so zu einem echten Alltagswerkzeug – mit spürbarem wirtschaftlichen Nutzen.</div>]]>
      </itunes:summary>
      <itunes:keywords>ChatGPT, Nutzung, Verbraucher, OpenAI, Wirtschaftlicher Nutzen, Alltagsaufgaben, Informationssuche, Produktivität, Berufsleben, Studie, Nutzerverhalten, demografische Unterschiede, Geschlechterverteilung, globale Verbreitung, Entwicklungsländer, technologische Akzeptanz, digitale Werkzeuge, KI im Alltag, Effizienzsteigerung, datenschutzkonforme Analyse, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, AI</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">ad409ad7f56f4bd2a57edfdc0a59c1ff</guid>
      <title>Reflexives Prompt Engineering</title>
      <description>
        <![CDATA[<div>In dieser Folge geht es um zwei zentrale Fragen beim Einsatz von KI: Wie fair sind die Ergebnisse großer Sprachmodelle (LLMs)? Und wie gut können wir ihre Entscheidungen nachvollziehen? Wir sprechen über ein Rahmenwerk namens „Reflexive Prompt Engineering“, das ethische und technische Aspekte bei der Erstellung von Prompts kombiniert, sowie über neue Forschung, die zeigt: Einfache Anti-Bias-Tricks reichen in echten Anwendungssituationen oft nicht aus. Stattdessen braucht es gezielte Eingriffe in die Modelle und klare Strategien, um Vorurteile zu erkennen und zu reduzieren.</div>]]>
      </description>
      <pubDate>Fri, 19 Sep 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/b39dc5da.mp3?t=1758214258" length="20598700" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht es um zwei zentrale Fragen beim Einsatz von KI: Wie fair sind die Ergebnisse großer Sprachmodelle (LLMs)? Und wie gut können wir ihre Entscheidungen nachvollziehen? Wir sprechen über ein Rahmenwerk namens „Reflexive Prompt Engineering“, das ethische und technische Aspekte bei der Erstellung von Prompts kombiniert, sowie über neue Forschung, die zeigt: Einfache Anti-Bias-Tricks reichen in echten Anwendungssituationen oft nicht aus. Stattdessen braucht es gezielte Eingriffe in die Modelle und klare Strategien, um Vorurteile zu erkennen und zu reduzieren.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/reflexives-prompt-engineering</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/reflexives-prompt-engineering"/>
      <itunes:title>Reflexives Prompt Engineering</itunes:title>
      <itunes:subtitle>Warum "Sei Fair" zu sagen nicht ausreicht</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>43</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht es um zwei zentrale Fragen beim Einsatz von KI: Wie fair sind die Ergebnisse großer Sprachmodelle (LLMs)? Und wie gut können wir ihre Entscheidungen nachvollziehen? Wir sprechen über ein Rahmenwerk namens „Reflexive Prompt Engineering“, das ethische und technische Aspekte bei der Erstellung von Prompts kombiniert, sowie über neue Forschung, die zeigt: Einfache Anti-Bias-Tricks reichen in echten Anwendungssituationen oft nicht aus. Stattdessen braucht es gezielte Eingriffe in die Modelle und klare Strategien, um Vorurteile zu erkennen und zu reduzieren.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI, Gen AI, GenAI, 2025, generative KI, KI Grundlagen, LLM, ChatGPT, AI, Prompt, Funktionsweise LLM, Prompt Engineering, Halluzinationen, Bias, verstehen, Fairness, Interpretierbarkeit, Sprachmodelle, LLMs, Bias, Vorurteile, Reflexive Prompt Engineering, ethische KI, Anti-Bias-Prompts, Transparenz, KI im Alltag, KI in der Bewerbung, technische Intervention, gesellschaftliche Werte, Verantwortung, Promptgestaltung, KI-Ethik, faire KI-Systeme, Modellverhalten, realistische Anwendungsszenarien</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">402f0ac7e99c4132b46977df33cc99ed</guid>
      <title>Meta Prompting zum Erfolg: LLMs meistern</title>
      <description>
        <![CDATA[<div>In dieser Folge geht es um <em>Meta Prompting</em> – also darum, wie KIs dabei helfen können, bessere Anweisungen (Prompts) für andere KIs zu schreiben. Statt sich mühsam selbst gute Prompts auszudenken, können wir jetzt die KI selbst um Hilfe bitten: Sie schlägt Formulierungen vor, bewertet sie und verbessert sie weiter. Dabei kommen verschiedene Methoden und Werkzeuge zum Einsatz, die zeigen, wie sich das Schreiben von Prompts immer mehr automatisieren lässt – und trotzdem bessere Ergebnisse liefert.</div>]]>
      </description>
      <pubDate>Wed, 17 Sep 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/7417ee88.mp3?t=1758086288" length="16700395" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht es um <em>Meta Prompting</em> – also darum, wie KIs dabei helfen können, bessere Anweisungen (Prompts) für andere KIs zu schreiben. Statt sich mühsam selbst gute Prompts auszudenken, können wir jetzt die KI selbst um Hilfe bitten: Sie schlägt Formulierungen vor, bewertet sie und verbessert sie weiter. Dabei kommen verschiedene Methoden und Werkzeuge zum Einsatz, die zeigen, wie sich das Schreiben von Prompts immer mehr automatisieren lässt – und trotzdem bessere Ergebnisse liefert.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/meta-prompting-zum-erfolg-llms-meistern</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/meta-prompting-zum-erfolg-llms-meistern"/>
      <itunes:title>Meta Prompting zum Erfolg: LLMs meistern</itunes:title>
      <itunes:subtitle>Wie die KI sich selbst steuern kann</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>42</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht es um <em>Meta Prompting</em> – also darum, wie KIs dabei helfen können, bessere Anweisungen (Prompts) für andere KIs zu schreiben. Statt sich mühsam selbst gute Prompts auszudenken, können wir jetzt die KI selbst um Hilfe bitten: Sie schlägt Formulierungen vor, bewertet sie und verbessert sie weiter. Dabei kommen verschiedene Methoden und Werkzeuge zum Einsatz, die zeigen, wie sich das Schreiben von Prompts immer mehr automatisieren lässt – und trotzdem bessere Ergebnisse liefert.</div>]]>
      </itunes:summary>
      <itunes:keywords>Prompt Engineering, Funktionsweise LLM, Prompt, AI, ChatGPT, LLM, KI Grundlagen, generative KI, KI, Künstliche Intelligenz, GenAI, Gen AI, 2025, ChatGPT 5, GPT-5, GPT-4o, ChatGPT-4o, Gemini, Meta, Prompting, Meta Prompting, , LYRA, Prompt-Architektur, strukturierte Problemlösung</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">62a868f5de294082a5a18eb888b70f3f</guid>
      <title>Tree of Thoughts Prompting (ToT)</title>
      <description>
        <![CDATA[<div>In dieser Folge tauchen wir ein in das Tree of Thoughts (ToT) Prompting – eine fortschrittliche Technik, mit der große Sprachmodelle wie ChatGPT Probleme strukturierter und kreativer lösen können. Anders als bei linearem Denken nutzt ToT eine baumartige Struktur: Mehrere Lösungsideen („Vorschlags-Prompts“) werden erzeugt, bewertet („Wert-Prompts“) und systematisch verfolgt – ähnlich wie beim menschlichen Nachdenken. Besonders bei komplexen Aufgaben wie Mathematik oder kreativem Schreiben zeigt ToT beeindruckende Ergebnisse. Gleichzeitig sprechen wir über Grenzen, wie den hohen Rechenaufwand bei einfachen Aufgaben.</div>]]>
      </description>
      <pubDate>Mon, 15 Sep 2025 15:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/0ea20c9a.mp3?t=1757935316" length="14582177" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge tauchen wir ein in das Tree of Thoughts (ToT) Prompting – eine fortschrittliche Technik, mit der große Sprachmodelle wie ChatGPT Probleme strukturierter und kreativer lösen können. Anders als bei linearem Denken nutzt ToT eine baumartige Struktur: Mehrere Lösungsideen („Vorschlags-Prompts“) werden erzeugt, bewertet („Wert-Prompts“) und systematisch verfolgt – ähnlich wie beim menschlichen Nachdenken. Besonders bei komplexen Aufgaben wie Mathematik oder kreativem Schreiben zeigt ToT beeindruckende Ergebnisse. Gleichzeitig sprechen wir über Grenzen, wie den hohen Rechenaufwand bei einfachen Aufgaben.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/tree-of-thoughts-prompting-tot</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/tree-of-thoughts-prompting-tot"/>
      <itunes:title>Tree of Thoughts Prompting (ToT)</itunes:title>
      <itunes:subtitle>Tree of Thoughts: Wie KI durch Denkbäume klüger entscheidet</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>41</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge tauchen wir ein in das Tree of Thoughts (ToT) Prompting – eine fortschrittliche Technik, mit der große Sprachmodelle wie ChatGPT Probleme strukturierter und kreativer lösen können. Anders als bei linearem Denken nutzt ToT eine baumartige Struktur: Mehrere Lösungsideen („Vorschlags-Prompts“) werden erzeugt, bewertet („Wert-Prompts“) und systematisch verfolgt – ähnlich wie beim menschlichen Nachdenken. Besonders bei komplexen Aufgaben wie Mathematik oder kreativem Schreiben zeigt ToT beeindruckende Ergebnisse. Gleichzeitig sprechen wir über Grenzen, wie den hohen Rechenaufwand bei einfachen Aufgaben.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, GenAI, Gen AI, KI, generative KI, KI Grundlagen, ChatGPT, Prompt, Prompt Engineering, Funktionsweise LLM, Tree of Thought, ToT, Tree-of-Thought, Tree of Thoughts, ToT Prompting, Prompt-Techniken, Sprachmodelle, Problemlösen, Denkpfade, Vorschlags-Prompts, Wert-Prompts, KI-Denken, kreative Textgenerierung, mathematische Aufgaben, Entscheidungsbaum, mehrstufiges Denken, LLMs, KI-Optimierung, GPT-Strategien, KI-Logik, Rechenaufwand, Prompt-Architektur, strukturierte Problemlösung</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">5c38ec04b8a94b008b6bf2e59d1ea18d</guid>
      <title>Das Gemini Nano Banana Upgrade von Google</title>
      <description>
        <![CDATA[<div>In dieser Folge geht es um das neue „Nano Banana“-Upgrade der Gemini-App von Google DeepMind. Die KI-gestützte Bildbearbeitung erreicht damit ein neues Level: Personen und Haustiere bleiben trotz tiefgreifender Bearbeitung – wie Kleidungstausch oder Hintergrundwechsel – realistisch erkennbar. Neu sind Funktionen wie die Kombination mehrerer Bilder zu neuen Szenen, mehrstufige Bearbeitungen und stilübergreifende Anpassungen zwischen Bildern. Dabei achtet Gemini auf Transparenz: Alle generierten Bilder erhalten sichtbare und unsichtbare Wasserzeichen, um ihre KI-Herkunft klarzumachen.</div>]]>
      </description>
      <pubDate>Thu, 11 Sep 2025 16:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/e0318b4a.mp3?t=1757594115" length="18166595" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht es um das neue „Nano Banana“-Upgrade der Gemini-App von Google DeepMind. Die KI-gestützte Bildbearbeitung erreicht damit ein neues Level: Personen und Haustiere bleiben trotz tiefgreifender Bearbeitung – wie Kleidungstausch oder Hintergrundwechsel – realistisch erkennbar. Neu sind Funktionen wie die Kombination mehrerer Bilder zu neuen Szenen, mehrstufige Bearbeitungen und stilübergreifende Anpassungen zwischen Bildern. Dabei achtet Gemini auf Transparenz: Alle generierten Bilder erhalten sichtbare und unsichtbare Wasserzeichen, um ihre KI-Herkunft klarzumachen.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/das-gemini-nano-banana-upgrade-von-google</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/das-gemini-nano-banana-upgrade-von-google"/>
      <itunes:title>Das Gemini Nano Banana Upgrade von Google</itunes:title>
      <itunes:subtitle>Wenn KI-Bilder gleichzeitig echt und grenzenlos kreativ werden</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>40</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht es um das neue „Nano Banana“-Upgrade der Gemini-App von Google DeepMind. Die KI-gestützte Bildbearbeitung erreicht damit ein neues Level: Personen und Haustiere bleiben trotz tiefgreifender Bearbeitung – wie Kleidungstausch oder Hintergrundwechsel – realistisch erkennbar. Neu sind Funktionen wie die Kombination mehrerer Bilder zu neuen Szenen, mehrstufige Bearbeitungen und stilübergreifende Anpassungen zwischen Bildern. Dabei achtet Gemini auf Transparenz: Alle generierten Bilder erhalten sichtbare und unsichtbare Wasserzeichen, um ihre KI-Herkunft klarzumachen.</div>]]>
      </itunes:summary>
      <itunes:keywords>Google, Nano, Banana, Nano Banana, Gemini, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, LLM, ChatGPT, AI, GenAI, Gen AI, DALL·E, Kunst, KI-generierte Kunst, Digitale Kunst, Bild, Bilder, AI Kunst, KI Kunst, 2025, KI-Bildbearbeitung, Bildauthentizität, Personenähnlichkeit, Haustiererkennung, Kleidungstausch, Hintergrundwechsel, Bildfusion, Szenenerstellung, Stiltransfer, Multistep-Editing, KI-generierte Bilder, Wasserzeichen, Bildtransparenz, visuelle Bearbeitung, kreative Bildgestaltung, Deepfake-Schutz, visuelle Konsistenz</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">9ff7096e20fc4f0ea74e138db6eed066</guid>
      <title>Die Evolution von Prompt Engineering: Context Engineering</title>
      <description>
        <![CDATA[<div>In dieser Folge werfen wir einen Blick auf die Entwicklung des Prompt Engineerings – von der exakten Formulierung früher Prompts bis zur strategischen Aufgabenbeschreibung heutiger KI-Systeme. Wir sprechen darüber, warum gutes Prompting mehr ist als nur Befehlseingabe: Es geht um strukturiertes Denken, Zielklarheit und relevante Informationen. Der Artikel beleuchtet zudem die wachsende Rolle des „Context Engineerings“, das die KI durch gezielte Hintergrundinformationen zu besseren Ergebnissen führt. Fazit: Auch wenn KI immer autonomer wird – der Mensch bleibt entscheidend für die Qualität der Antworten.</div>]]>
      </description>
      <pubDate>Mon, 08 Sep 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/00c7b270.mp3?t=1757311024" length="20360463" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge werfen wir einen Blick auf die Entwicklung des Prompt Engineerings – von der exakten Formulierung früher Prompts bis zur strategischen Aufgabenbeschreibung heutiger KI-Systeme. Wir sprechen darüber, warum gutes Prompting mehr ist als nur Befehlseingabe: Es geht um strukturiertes Denken, Zielklarheit und relevante Informationen. Der Artikel beleuchtet zudem die wachsende Rolle des „Context Engineerings“, das die KI durch gezielte Hintergrundinformationen zu besseren Ergebnissen führt. Fazit: Auch wenn KI immer autonomer wird – der Mensch bleibt entscheidend für die Qualität der Antworten.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/die-evolution-von-prompt-engineering-context-engineering</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/die-evolution-von-prompt-engineering-context-engineering"/>
      <itunes:title>Die Evolution von Prompt Engineering: Context Engineering</itunes:title>
      <itunes:subtitle>Vom Befehl zur Idee: Warum gutes Prompting auch in Zukunft den Unterschied macht</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>39</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge werfen wir einen Blick auf die Entwicklung des Prompt Engineerings – von der exakten Formulierung früher Prompts bis zur strategischen Aufgabenbeschreibung heutiger KI-Systeme. Wir sprechen darüber, warum gutes Prompting mehr ist als nur Befehlseingabe: Es geht um strukturiertes Denken, Zielklarheit und relevante Informationen. Der Artikel beleuchtet zudem die wachsende Rolle des „Context Engineerings“, das die KI durch gezielte Hintergrundinformationen zu besseren Ergebnissen führt. Fazit: Auch wenn KI immer autonomer wird – der Mensch bleibt entscheidend für die Qualität der Antworten.</div>]]>
      </itunes:summary>
      <itunes:keywords>Prompt Engineering, KI-Kommunikation, Prompt-Design, strukturiertes Denken, Zieldefinition, Lösungsraum, Informationsbereitstellung, klare Sprache, KI-Generierung, Kontextualisierung, Context Engineering, KI-Verständnis, Evolution von Prompts, Sprachmodelle, Tool-Integration, autonome KI, Nutzerführung, Informationsarchitektur, Interaktionsqualität, Promptstrategie, Künstliche Intelligenz, generative KI, KI Grundlagen, KI, LLM, ChatGPT, Prompt, GenAI, Gen AI</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">d894aea9cd574b039f49465cd6387f7c</guid>
      <title>KI Nutzung in der Schule</title>
      <description>
        <![CDATA[<div>In dieser Folge geht es um die zunehmende Nutzung von Künstlicher Intelligenz an deutschen Schulen – sowohl durch Schüler als auch als potenzielles Hilfsmittel für Lehrkräfte. Wir sprechen über Chancen wie individuelle Förderung und Entlastung, aber auch über Risiken wie den Verlust kritischer Denkfähigkeiten und wachsende Bildungsungleichheit. Außerdem diskutieren wir, ob klare Regeln, neue Bewertungsmethoden oder sogar ein Verbot nötig sind – und warum viele Experten stattdessen eine reflektierte Integration von KI im Schulalltag fordern.</div>]]>
      </description>
      <pubDate>Sat, 06 Sep 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/8cbc964d.mp3?t=1757054951" length="18988721" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht es um die zunehmende Nutzung von Künstlicher Intelligenz an deutschen Schulen – sowohl durch Schüler als auch als potenzielles Hilfsmittel für Lehrkräfte. Wir sprechen über Chancen wie individuelle Förderung und Entlastung, aber auch über Risiken wie den Verlust kritischer Denkfähigkeiten und wachsende Bildungsungleichheit. Außerdem diskutieren wir, ob klare Regeln, neue Bewertungsmethoden oder sogar ein Verbot nötig sind – und warum viele Experten stattdessen eine reflektierte Integration von KI im Schulalltag fordern.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-nutzung-in-der-schule</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-nutzung-in-der-schule"/>
      <itunes:title>KI Nutzung in der Schule</itunes:title>
      <itunes:subtitle>Revolution, Risiko oder einfach nur Hausaufgaben-Trick</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>38</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht es um die zunehmende Nutzung von Künstlicher Intelligenz an deutschen Schulen – sowohl durch Schüler als auch als potenzielles Hilfsmittel für Lehrkräfte. Wir sprechen über Chancen wie individuelle Förderung und Entlastung, aber auch über Risiken wie den Verlust kritischer Denkfähigkeiten und wachsende Bildungsungleichheit. Außerdem diskutieren wir, ob klare Regeln, neue Bewertungsmethoden oder sogar ein Verbot nötig sind – und warum viele Experten stattdessen eine reflektierte Integration von KI im Schulalltag fordern.</div>]]>
      </itunes:summary>
      <itunes:keywords>KI, Künstliche Intelligenz, ChatGPT, AI, Prompt, Prompt Engineering, Schule, Bildung, Hausaufgabe, Prüfung, Sprache, Autonomie, Entwicklung, Forschung, IT, MINT, Wissenschaft, Künstliche Intelligenz, Schule, Bildungssystem, Lehrkräfte, Schülerverhalten, Hausaufgabenhilfe, Referate, KI-Kompetenz, kritisches Denken, soziale Ungleichheit, Chancengleichheit, individuelle Förderung, Lehrerentlastung, KI-Regulierung, Bildungsreform, Bewertungssysteme, Schulpolitik, Medienkompetenz, Digitalisierung, pädagogische Konzepte</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">5f068a9c00c74228a99ba45120aa5ace</guid>
      <title>KI-generierte Kunst erkennen</title>
      <description>
        <![CDATA[<div>Diese Folge widmet sich einer spannenden Forschungsarbeit zur Unterscheidung zwischen KI-generierter und menschlicher Kunst. Mithilfe verschiedener Machine-Learning-Modelle – darunter Logistic Regression, SVM, MLP und CNN – wurden Werke in den Stilen Barock, Kubismus und Expressionismus analysiert. Ziel war es, herauszufinden, ob Algorithmen zuverlässig erkennen können, ob ein Bild von einer KI oder einem Menschen stammt. Die Ergebnisse zeigen: Ja, mit hoher Genauigkeit – allerdings bleibt die stilistische Einordnung menschlicher Werke eine Herausforderung. Was bedeutet das für Künstler, KI und die Zukunft der Kunst?</div>]]>
      </description>
      <pubDate>Thu, 04 Sep 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/d0506a91.mp3?t=1756801375" length="19163846" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Diese Folge widmet sich einer spannenden Forschungsarbeit zur Unterscheidung zwischen KI-generierter und menschlicher Kunst. Mithilfe verschiedener Machine-Learning-Modelle – darunter Logistic Regression, SVM, MLP und CNN – wurden Werke in den Stilen Barock, Kubismus und Expressionismus analysiert. Ziel war es, herauszufinden, ob Algorithmen zuverlässig erkennen können, ob ein Bild von einer KI oder einem Menschen stammt. Die Ergebnisse zeigen: Ja, mit hoher Genauigkeit – allerdings bleibt die stilistische Einordnung menschlicher Werke eine Herausforderung. Was bedeutet das für Künstler, KI und die Zukunft der Kunst?</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-generierte-kunst-erkennen</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-generierte-kunst-erkennen"/>
      <itunes:title>KI-generierte Kunst erkennen</itunes:title>
      <itunes:subtitle>Teil 2 der Serie KI und Kunst</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>37</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Diese Folge widmet sich einer spannenden Forschungsarbeit zur Unterscheidung zwischen KI-generierter und menschlicher Kunst. Mithilfe verschiedener Machine-Learning-Modelle – darunter Logistic Regression, SVM, MLP und CNN – wurden Werke in den Stilen Barock, Kubismus und Expressionismus analysiert. Ziel war es, herauszufinden, ob Algorithmen zuverlässig erkennen können, ob ein Bild von einer KI oder einem Menschen stammt. Die Ergebnisse zeigen: Ja, mit hoher Genauigkeit – allerdings bleibt die stilistische Einordnung menschlicher Werke eine Herausforderung. Was bedeutet das für Künstler, KI und die Zukunft der Kunst?</div>]]>
      </itunes:summary>
      <itunes:keywords>KI-generierte Kunst, menschliche Kunstwerke, Kunstklassifikation, Machine Learning, Logistic Regression (LR), Support Vector Machine (SVM), Multilayer Perceptron (MLP), Convolutional Neural Network (CNN), Bildklassifikation, Barock, Kubismus, Expressionismus, Kunststile, Dataset, Bilderkennung, KI-Erkennung, künstlerische Echtheit, Trainingsdaten, Kunstfälschung, digitale Bildanalyse,, KI, Künstliche Intelligenz, generative KI, KI Grundlagen, Prompt, Prompt Engineering, GenAI, Gen AI, Midjourney, DALL·E, AI Kunst, KI Kunst, Kunst</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">39439496a5b4469496b4afb5a8e636c0</guid>
      <title>KI-Kunst: Entwicklung, Kontroversen und Kunstmarkt</title>
      <description>
        <![CDATA[<div>In dieser Folge geht es um die faszinierende Welt der KI-Kunst – also um Kunstwerke, die mithilfe künstlicher Intelligenz geschaffen oder von ihr beeinflusst werden. Basierend auf einem Wikipedia-Artikel beleuchten wir drei Hauptkategorien: KI als Generator, Werkzeug oder Inspiration. Wir werfen einen Blick auf die historischen Wurzeln, moderne Technologien wie GANs und aktuelle Entwicklungen auf dem Kunstmarkt. Außerdem thematisieren wir die spannenden – und kontroversen – Diskussionen rund um Stereotypen, Deepfakes und Urheberrechte.</div>]]>
      </description>
      <pubDate>Tue, 02 Sep 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/6064d9b6.mp3?t=1756923293" length="19967582" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht es um die faszinierende Welt der KI-Kunst – also um Kunstwerke, die mithilfe künstlicher Intelligenz geschaffen oder von ihr beeinflusst werden. Basierend auf einem Wikipedia-Artikel beleuchten wir drei Hauptkategorien: KI als Generator, Werkzeug oder Inspiration. Wir werfen einen Blick auf die historischen Wurzeln, moderne Technologien wie GANs und aktuelle Entwicklungen auf dem Kunstmarkt. Außerdem thematisieren wir die spannenden – und kontroversen – Diskussionen rund um Stereotypen, Deepfakes und Urheberrechte.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-kunst-entwicklung-kontroversen-und-kunstmarkt</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-kunst-entwicklung-kontroversen-und-kunstmarkt"/>
      <itunes:title>KI-Kunst: Entwicklung, Kontroversen und Kunstmarkt</itunes:title>
      <itunes:subtitle>Teil 1 einer Serie über KI und die Kunstwelt</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>36</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht es um die faszinierende Welt der KI-Kunst – also um Kunstwerke, die mithilfe künstlicher Intelligenz geschaffen oder von ihr beeinflusst werden. Basierend auf einem Wikipedia-Artikel beleuchten wir drei Hauptkategorien: KI als Generator, Werkzeug oder Inspiration. Wir werfen einen Blick auf die historischen Wurzeln, moderne Technologien wie GANs und aktuelle Entwicklungen auf dem Kunstmarkt. Außerdem thematisieren wir die spannenden – und kontroversen – Diskussionen rund um Stereotypen, Deepfakes und Urheberrechte.</div>]]>
      </itunes:summary>
      <itunes:keywords>KI, Künstliche Intelligenz, GenAI, Gen AI, Prompt Engineering, Prompt, Halluzinationen, 2025, Kunst, KI Kunst, AI Kunst, DALL·E, Midjourney, DeepDream, Computerkunst, Digitale Kunst, Medien, , Bilderkennung</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">0082df7058e544f5ad6861d72debe508</guid>
      <title>Der freie Wille der KI</title>
      <description>
        <![CDATA[<div>Heute wird es nochmals philosophisch!<br>In dieser Folge geht es um die spannende Frage: Können KI-Agenten so etwas wie freien Willen haben? Basierend auf einem Fachartikel werfen wir einen Blick auf den funktionalen freien Willen – also die Idee, dass Handlungen absichtlich, kontrolliert und zwischen echten Alternativen getroffen werden. Der Clou: Weder Menschen noch KI-Agenten durchbrechen Naturgesetze, doch ihr Verhalten lässt sich oft am besten erklären, wenn man ihnen Entscheidungsfähigkeit zuschreibt. Anhand von Beispielen wie dem Minecraft-Agenten Voyager diskutieren wir, warum manche KI-Systeme funktional gesehen wie Wesen mit freiem Willen erscheinen – auch ohne Bewusstsein.</div>]]>
      </description>
      <pubDate>Fri, 29 Aug 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/087d6305.mp3?t=1756191198" length="17974752" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Heute wird es nochmals philosophisch!<br>In dieser Folge geht es um die spannende Frage: Können KI-Agenten so etwas wie freien Willen haben? Basierend auf einem Fachartikel werfen wir einen Blick auf den funktionalen freien Willen – also die Idee, dass Handlungen absichtlich, kontrolliert und zwischen echten Alternativen getroffen werden. Der Clou: Weder Menschen noch KI-Agenten durchbrechen Naturgesetze, doch ihr Verhalten lässt sich oft am besten erklären, wenn man ihnen Entscheidungsfähigkeit zuschreibt. Anhand von Beispielen wie dem Minecraft-Agenten Voyager diskutieren wir, warum manche KI-Systeme funktional gesehen wie Wesen mit freiem Willen erscheinen – auch ohne Bewusstsein.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/der-freie-wille-der-ki</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/der-freie-wille-der-ki"/>
      <itunes:title>Der freie Wille der KI</itunes:title>
      <itunes:subtitle>Hat eine künstliche Intelligenz wie z.B. ChatGPT einen freien Willen?</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>35</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Heute wird es nochmals philosophisch!<br>In dieser Folge geht es um die spannende Frage: Können KI-Agenten so etwas wie freien Willen haben? Basierend auf einem Fachartikel werfen wir einen Blick auf den funktionalen freien Willen – also die Idee, dass Handlungen absichtlich, kontrolliert und zwischen echten Alternativen getroffen werden. Der Clou: Weder Menschen noch KI-Agenten durchbrechen Naturgesetze, doch ihr Verhalten lässt sich oft am besten erklären, wenn man ihnen Entscheidungsfähigkeit zuschreibt. Anhand von Beispielen wie dem Minecraft-Agenten Voyager diskutieren wir, warum manche KI-Systeme funktional gesehen wie Wesen mit freiem Willen erscheinen – auch ohne Bewusstsein.</div>]]>
      </itunes:summary>
      <itunes:keywords>KI, Künstliche Intelligenz, AI, ChatGPT, Wille, freier Wille, Philosophie, Entscheidung, Optionen, Handlungskontrolle</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">b9ec29186b8947d79f76ad356f65b228</guid>
      <title>Chain-of-Thought Prompting</title>
      <description>
        <![CDATA[<div>In dieser Folge dreht sich alles um Chain-of-Thought (CoT) Prompting – eine Methode, mit der Large Language Models komplexe Aufgaben besser lösen können. Wir erklären, wie diese Technik funktioniert, warum sie so wirkungsvoll ist, und wo sie zum Einsatz kommt – von Matheaufgaben bis hin zu Bildung und Chatbots im Kundenservice. Außerdem werfen wir einen Blick auf Varianten wie Zero-Shot CoT und multimodales CoT, diskutieren Vorteile wie höhere Antwortqualität, aber auch Herausforderungen wie den steigenden Rechenaufwand.</div>]]>
      </description>
      <pubDate>Wed, 27 Aug 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/47d08ac6.mp3?t=1756210224" length="16941975" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge dreht sich alles um Chain-of-Thought (CoT) Prompting – eine Methode, mit der Large Language Models komplexe Aufgaben besser lösen können. Wir erklären, wie diese Technik funktioniert, warum sie so wirkungsvoll ist, und wo sie zum Einsatz kommt – von Matheaufgaben bis hin zu Bildung und Chatbots im Kundenservice. Außerdem werfen wir einen Blick auf Varianten wie Zero-Shot CoT und multimodales CoT, diskutieren Vorteile wie höhere Antwortqualität, aber auch Herausforderungen wie den steigenden Rechenaufwand.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/chain-of-thought-prompting</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/chain-of-thought-prompting"/>
      <itunes:title>Chain-of-Thought Prompting</itunes:title>
      <itunes:subtitle>Wie Chain-of-Thought Prompting LLMs zum logischen Denken bringt – und was es dafür braucht</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>34</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge dreht sich alles um Chain-of-Thought (CoT) Prompting – eine Methode, mit der Large Language Models komplexe Aufgaben besser lösen können. Wir erklären, wie diese Technik funktioniert, warum sie so wirkungsvoll ist, und wo sie zum Einsatz kommt – von Matheaufgaben bis hin zu Bildung und Chatbots im Kundenservice. Außerdem werfen wir einen Blick auf Varianten wie Zero-Shot CoT und multimodales CoT, diskutieren Vorteile wie höhere Antwortqualität, aber auch Herausforderungen wie den steigenden Rechenaufwand.</div>]]>
      </itunes:summary>
      <itunes:keywords>KI, Künstliche Intelligenz, generative KI, LLM, KI Grundlagen, ChatGPT, Funktionsweise LLM, Prompt, Prompt Engineering, CoT, Chain of Thought, Chain-of-Thought, , ChatGPT 5, GPT-5, LYRA</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">04fc2945f54148feb5ed8f51f161c338</guid>
      <title>AI Washing - Wenn KI drauf steht, aber nicht enthalten ist</title>
      <description>
        <![CDATA[<div>KI ist überall – zumindest auf dem Papier. In dieser Folge decken wir auf, wie Unternehmen mit dem Buzzword „Künstliche Intelligenz“ um sich werfen, um Investoren zu ködern und innovativ zu wirken – auch wenn kaum echte Technologie dahintersteckt. Wir sprechen über die Risiken für Wirtschaft, Gesellschaft und Vertrauen – und darüber, wie du KI-Washing entlarvst, bevor du dich vom nächsten „smart tool“ blenden lässt.</div>]]>
      </description>
      <pubDate>Mon, 25 Aug 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/7f81e4b1.mp3?t=1756114435" length="16411167" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>KI ist überall – zumindest auf dem Papier. In dieser Folge decken wir auf, wie Unternehmen mit dem Buzzword „Künstliche Intelligenz“ um sich werfen, um Investoren zu ködern und innovativ zu wirken – auch wenn kaum echte Technologie dahintersteckt. Wir sprechen über die Risiken für Wirtschaft, Gesellschaft und Vertrauen – und darüber, wie du KI-Washing entlarvst, bevor du dich vom nächsten „smart tool“ blenden lässt.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ai-washing-wenn-ki-drauf-steht-aber-nicht-enthalten-ist</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ai-washing-wenn-ki-drauf-steht-aber-nicht-enthalten-ist"/>
      <itunes:title>AI Washing - Wenn KI drauf steht, aber nicht enthalten ist</itunes:title>
      <itunes:subtitle>Warum falsche KI-Versprechen der Innovation schaden – und wie man sie erkennt</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>33</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>KI ist überall – zumindest auf dem Papier. In dieser Folge decken wir auf, wie Unternehmen mit dem Buzzword „Künstliche Intelligenz“ um sich werfen, um Investoren zu ködern und innovativ zu wirken – auch wenn kaum echte Technologie dahintersteckt. Wir sprechen über die Risiken für Wirtschaft, Gesellschaft und Vertrauen – und darüber, wie du KI-Washing entlarvst, bevor du dich vom nächsten „smart tool“ blenden lässt.</div>]]>
      </itunes:summary>
      <itunes:keywords>KI, Künstliche Intelligenz, AI, KI Grundlagen, AI Washing, KI Washing, AI-Washing, KI-Washing, Scam, Betrug, , Wirtschaft, Marketing, </itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">29252e8835f744e0beda85330944f77f</guid>
      <title>Künstlich Intelligenz in der Forschung</title>
      <description>
        <![CDATA[<div>Diese Folge beleuchtet den Bericht <em>„Science in the age of AI“</em> der Royal Society, der aufzeigt, wie künstliche Intelligenz die wissenschaftliche Forschung transformiert. Wir sprechen über Potenziale wie Effizienzgewinne und neue Erkenntnisse, aber auch über Risiken rund um Reproduzierbarkeit, ethische Fragen und Datenqualität. Zudem geht es um die wachsende Rolle des Privatsektors und die Bedeutung interdisziplinärer Kompetenzen. Ziel ist ein verantwortungsvoller Einsatz von KI – im Dienste der Forschung und der Gesellschaft.</div>]]>
      </description>
      <pubDate>Fri, 22 Aug 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/a84f1dc2.mp3?t=1755853455" length="23104365" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Diese Folge beleuchtet den Bericht <em>„Science in the age of AI“</em> der Royal Society, der aufzeigt, wie künstliche Intelligenz die wissenschaftliche Forschung transformiert. Wir sprechen über Potenziale wie Effizienzgewinne und neue Erkenntnisse, aber auch über Risiken rund um Reproduzierbarkeit, ethische Fragen und Datenqualität. Zudem geht es um die wachsende Rolle des Privatsektors und die Bedeutung interdisziplinärer Kompetenzen. Ziel ist ein verantwortungsvoller Einsatz von KI – im Dienste der Forschung und der Gesellschaft.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/kuenstlich-intelligenz-in-der-forschung</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/kuenstlich-intelligenz-in-der-forschung"/>
      <itunes:title>Künstlich Intelligenz in der Forschung</itunes:title>
      <itunes:subtitle>Revolution, Risiko, Verantwortung und neue Regeln</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>32</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Diese Folge beleuchtet den Bericht <em>„Science in the age of AI“</em> der Royal Society, der aufzeigt, wie künstliche Intelligenz die wissenschaftliche Forschung transformiert. Wir sprechen über Potenziale wie Effizienzgewinne und neue Erkenntnisse, aber auch über Risiken rund um Reproduzierbarkeit, ethische Fragen und Datenqualität. Zudem geht es um die wachsende Rolle des Privatsektors und die Bedeutung interdisziplinärer Kompetenzen. Ziel ist ein verantwortungsvoller Einsatz von KI – im Dienste der Forschung und der Gesellschaft.</div>]]>
      </itunes:summary>
      <itunes:keywords>KI, generative KI, KI Grundlagen, Wissenschaft, MINT, , Daten, Training, Sicherheit, Biologie, Physik, Chemie, IT, Forschung, Entwicklung</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">ed08620327254ab29276c4fb57ae6e7b</guid>
      <title>KI, deine Daten &amp; du</title>
      <description>
        <![CDATA[<div>In dieser Folge sprechen wir über aktuelle Studien, die zeigen, wie große Sprachmodelle persönliche Informationen wie Standort oder Einkommen erschreckend genau aus Texten ableiten können – weit über das reine Auswendiglernen hinaus. Zudem werfen wir einen Blick auf „vec2vec“, eine neue Methode zur Übersetzung von Text-Einbettungen zwischen Modellen, die selbst ohne gepaarte Daten funktioniert. Beide Ansätze verdeutlichen, wie leicht sensible Informationen extrahiert werden können und warum wir dringend über neue Schutzmechanismen im Umgang mit KI diskutieren müssen.<br>Bitte beachte, dass sich jederzeit rechtliche Grundlagen &amp; technische Gegebenheiten ändern können. Diese Folge spiegelt daher keine aktuelle Gesetzeslage wider.</div>]]>
      </description>
      <pubDate>Mon, 18 Aug 2025 12:30:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/e100911b.mp3?t=1755511328" length="8147696" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge sprechen wir über aktuelle Studien, die zeigen, wie große Sprachmodelle persönliche Informationen wie Standort oder Einkommen erschreckend genau aus Texten ableiten können – weit über das reine Auswendiglernen hinaus. Zudem werfen wir einen Blick auf „vec2vec“, eine neue Methode zur Übersetzung von Text-Einbettungen zwischen Modellen, die selbst ohne gepaarte Daten funktioniert. Beide Ansätze verdeutlichen, wie leicht sensible Informationen extrahiert werden können und warum wir dringend über neue Schutzmechanismen im Umgang mit KI diskutieren müssen.<br>Bitte beachte, dass sich jederzeit rechtliche Grundlagen &amp; technische Gegebenheiten ändern können. Diese Folge spiegelt daher keine aktuelle Gesetzeslage wider.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-deine-daten-du</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-deine-daten-du"/>
      <itunes:title>KI, deine Daten &amp; du</itunes:title>
      <itunes:subtitle>Was machen die Anbieter mit deinen Daten?</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>30</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge sprechen wir über aktuelle Studien, die zeigen, wie große Sprachmodelle persönliche Informationen wie Standort oder Einkommen erschreckend genau aus Texten ableiten können – weit über das reine Auswendiglernen hinaus. Zudem werfen wir einen Blick auf „vec2vec“, eine neue Methode zur Übersetzung von Text-Einbettungen zwischen Modellen, die selbst ohne gepaarte Daten funktioniert. Beide Ansätze verdeutlichen, wie leicht sensible Informationen extrahiert werden können und warum wir dringend über neue Schutzmechanismen im Umgang mit KI diskutieren müssen.<br>Bitte beachte, dass sich jederzeit rechtliche Grundlagen &amp; technische Gegebenheiten ändern können. Diese Folge spiegelt daher keine aktuelle Gesetzeslage wider.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI, LLM, generative KI, KI Grundlagen, ChatGPT, AI, Funktionsweise LLM, Sicherheit, Training, Daten, Datenschutz, Gen AI, GenAI, Kontrolle</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">0a4907e43aab4859816bdb6c5334658d</guid>
      <title>KI und Gaming</title>
      <description>
        <![CDATA[<div>Heute geht’s darum, wie das Gaming wieder eine zentrale Rolle in der Entwicklung von KI spielt. Spiele bieten perfekte Trainingsumgebungen: klar definierte Regeln, unendliche Szenarien, und jede Menge Herausforderungen.</div><div>KI-Systeme treten dort gegeneinander an, lernen voneinander und verbessern sich stetig – fast wie im Sporttraining. Das Ziel? Künstliche Intelligenz, die selbstständig denkt, plant und handelt.</div><div>Spannend ist: Eine KI lernt inzwischen, indem sie mit oder gegen andere KIs spielt. So entstehen Systeme, die nicht nur gut im Spiel sind, sondern auch komplexe Aufgaben im echten Leben lösen können.</div><div>Gaming wird so zur Spielwiese für die nächste Stufe der KI-Entwicklung.</div>]]>
      </description>
      <pubDate>Fri, 15 Aug 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/7c1197d9.mp3?t=1755238416" length="6861217" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Heute geht’s darum, wie das Gaming wieder eine zentrale Rolle in der Entwicklung von KI spielt. Spiele bieten perfekte Trainingsumgebungen: klar definierte Regeln, unendliche Szenarien, und jede Menge Herausforderungen.</div><div>KI-Systeme treten dort gegeneinander an, lernen voneinander und verbessern sich stetig – fast wie im Sporttraining. Das Ziel? Künstliche Intelligenz, die selbstständig denkt, plant und handelt.</div><div>Spannend ist: Eine KI lernt inzwischen, indem sie mit oder gegen andere KIs spielt. So entstehen Systeme, die nicht nur gut im Spiel sind, sondern auch komplexe Aufgaben im echten Leben lösen können.</div><div>Gaming wird so zur Spielwiese für die nächste Stufe der KI-Entwicklung.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-und-gaming</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-und-gaming"/>
      <itunes:title>KI und Gaming</itunes:title>
      <itunes:subtitle>Ein Kreislauf der Innovation am Beispiel Google</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>29</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Heute geht’s darum, wie das Gaming wieder eine zentrale Rolle in der Entwicklung von KI spielt. Spiele bieten perfekte Trainingsumgebungen: klar definierte Regeln, unendliche Szenarien, und jede Menge Herausforderungen.</div><div>KI-Systeme treten dort gegeneinander an, lernen voneinander und verbessern sich stetig – fast wie im Sporttraining. Das Ziel? Künstliche Intelligenz, die selbstständig denkt, plant und handelt.</div><div>Spannend ist: Eine KI lernt inzwischen, indem sie mit oder gegen andere KIs spielt. So entstehen Systeme, die nicht nur gut im Spiel sind, sondern auch komplexe Aufgaben im echten Leben lösen können.</div><div>Gaming wird so zur Spielwiese für die nächste Stufe der KI-Entwicklung.</div>]]>
      </itunes:summary>
      <itunes:keywords></itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">7905147c374245bc875aec29b713fe6e</guid>
      <title>GPT-4o ist zurück (als Zusatz zu GPT-5)</title>
      <description>
        <![CDATA[<div>OpenAIs Entscheidung, GPT-5 als neues Standardmodell in ChatGPT festzulegen, sorgte für Unmut unter vielen Nutzern. Die automatische Umstellung und das Entfernen der Modellauswahl führten dazu, dass User den Zugriff auf ihre bevorzugten Modelle wie GPT-4o verloren. Besonders betroffen waren Menschen, die ChatGPT für emotionale Unterstützung oder strukturierte Arbeitsabläufe nutzten – sie vermissten die gewohnte „Persönlichkeit“ und Verlässlichkeit. Aufgrund der Kritik kündigte OpenAI-CEO Sam Altman an, dass zahlende Plus-Nutzer wieder auf GPT-4o zurückgreifen können.</div>]]>
      </description>
      <pubDate>Thu, 14 Aug 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/41e110b9.mp3?t=1755092668" length="6294465" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>OpenAIs Entscheidung, GPT-5 als neues Standardmodell in ChatGPT festzulegen, sorgte für Unmut unter vielen Nutzern. Die automatische Umstellung und das Entfernen der Modellauswahl führten dazu, dass User den Zugriff auf ihre bevorzugten Modelle wie GPT-4o verloren. Besonders betroffen waren Menschen, die ChatGPT für emotionale Unterstützung oder strukturierte Arbeitsabläufe nutzten – sie vermissten die gewohnte „Persönlichkeit“ und Verlässlichkeit. Aufgrund der Kritik kündigte OpenAI-CEO Sam Altman an, dass zahlende Plus-Nutzer wieder auf GPT-4o zurückgreifen können.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/gpt-4o-ist-zurueck-als-zusatz-zu-gpt-5</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/gpt-4o-ist-zurueck-als-zusatz-zu-gpt-5"/>
      <itunes:title>GPT-4o ist zurück (als Zusatz zu GPT-5)</itunes:title>
      <itunes:subtitle>Neu is doch nicht immer besser</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>28</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>OpenAIs Entscheidung, GPT-5 als neues Standardmodell in ChatGPT festzulegen, sorgte für Unmut unter vielen Nutzern. Die automatische Umstellung und das Entfernen der Modellauswahl führten dazu, dass User den Zugriff auf ihre bevorzugten Modelle wie GPT-4o verloren. Besonders betroffen waren Menschen, die ChatGPT für emotionale Unterstützung oder strukturierte Arbeitsabläufe nutzten – sie vermissten die gewohnte „Persönlichkeit“ und Verlässlichkeit. Aufgrund der Kritik kündigte OpenAI-CEO Sam Altman an, dass zahlende Plus-Nutzer wieder auf GPT-4o zurückgreifen können.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI, LLM, generative KI, ChatGPT, ChatGPT 5, GPT-5, GPT-4o, ChatGPT-4o, , GenAI, Gen AI, 2025, OpenAI, </itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">110eab3b34fd401b9284130c5639bf24</guid>
      <title>Das Denkende Gehirn der KI (HRM)</title>
      <description>
        <![CDATA[<div>In dieser Folge sprechen wir über das Hierarchical Reasoning Model – kurz HRM. Inspiriert vom menschlichen Gehirn kombiniert diese neue KI-Architektur zwei miteinander verknüpfte Denkebenen: eine für die abstrakte Planung und eine für schnelle, präzise Detailarbeit. Anders als herkömmliche Chain-of-Thought-Methoden kommt HRM mit minimalen Trainingsdaten aus, braucht kein Vorabtraining und meistert trotzdem komplexe Aufgaben wie Sudoku oder Labyrinth-Navigation. Spannend ist dabei die hierarchische Struktur, die an die neuronalen Ebenen unseres Gehirns erinnert – und das könnte erklären, warum HRM nicht nur effizient rechnet, sondern auch Probleme lösen kann, an denen aktuelle große Sprachmodelle oft scheitern.</div>]]>
      </description>
      <pubDate>Tue, 12 Aug 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/b04d637e.mp3?t=1754976086" length="7366530" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge sprechen wir über das Hierarchical Reasoning Model – kurz HRM. Inspiriert vom menschlichen Gehirn kombiniert diese neue KI-Architektur zwei miteinander verknüpfte Denkebenen: eine für die abstrakte Planung und eine für schnelle, präzise Detailarbeit. Anders als herkömmliche Chain-of-Thought-Methoden kommt HRM mit minimalen Trainingsdaten aus, braucht kein Vorabtraining und meistert trotzdem komplexe Aufgaben wie Sudoku oder Labyrinth-Navigation. Spannend ist dabei die hierarchische Struktur, die an die neuronalen Ebenen unseres Gehirns erinnert – und das könnte erklären, warum HRM nicht nur effizient rechnet, sondern auch Probleme lösen kann, an denen aktuelle große Sprachmodelle oft scheitern.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/das-denkende-gehirn-der-ki-hrm</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/das-denkende-gehirn-der-ki-hrm"/>
      <itunes:title>Das Denkende Gehirn der KI (HRM)</itunes:title>
      <itunes:subtitle>Wie Hierarchisches Reasoning komplexe Probleme löst</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>27</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge sprechen wir über das Hierarchical Reasoning Model – kurz HRM. Inspiriert vom menschlichen Gehirn kombiniert diese neue KI-Architektur zwei miteinander verknüpfte Denkebenen: eine für die abstrakte Planung und eine für schnelle, präzise Detailarbeit. Anders als herkömmliche Chain-of-Thought-Methoden kommt HRM mit minimalen Trainingsdaten aus, braucht kein Vorabtraining und meistert trotzdem komplexe Aufgaben wie Sudoku oder Labyrinth-Navigation. Spannend ist dabei die hierarchische Struktur, die an die neuronalen Ebenen unseres Gehirns erinnert – und das könnte erklären, warum HRM nicht nur effizient rechnet, sondern auch Probleme lösen kann, an denen aktuelle große Sprachmodelle oft scheitern.</div>]]>
      </itunes:summary>
      <itunes:keywords></itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">61ca3a158c8e4d7791a87353b4ce661e</guid>
      <title>Einführung von GPT-5: Ein Quantensprung in der KI</title>
      <description>
        <![CDATA[<div>In dieser Folge geht es um <strong>GPT-5</strong>, das neueste und bislang leistungsstärkste KI-Modell von OpenAI. Es übertrifft seine Vorgänger deutlich – und zwar in Bereichen wie <strong>Programmieren</strong>, <strong>Texterstellung</strong>, <strong>Gesundheit</strong> und sogar in der <strong>visuellen Wahrnehmung</strong>.</div><div>GPT-5 ist ein <strong>einheitliches System</strong>, das flexibel denken kann – mal schnell, mal tiefgründig – je nachdem, wie komplex die Anfrage ist. Für besonders anspruchsvolle Aufgaben gibt es auch eine <strong>Pro-Version</strong>.</div><div>Was wurde verbessert?</div><ul><li><strong>Weniger Halluzinationen</strong></li><li><strong>Bessere Umsetzung von Anweisungen</strong></li><li><strong>Präzisere und nützlichere Antworten</strong></li></ul><div>Zusätzlich wurden neue <strong>Sicherheitsfunktionen</strong> und stilistische Verbesserungen eingebaut – für mehr <strong>Zuverlässigkeit</strong>und <strong>Benutzerfreundlichkeit</strong>.</div><div>GPT-5 ist für alle zugänglich – mit <strong>kostenpflichtigen Abos</strong>, die erweiterte Funktionen bieten.</div><div>Bleib dran – wir schauen uns an, was GPT-5 wirklich kann!</div>]]>
      </description>
      <pubDate>Fri, 08 Aug 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/c5e79937.mp3?t=1754643000" length="8560640" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht es um <strong>GPT-5</strong>, das neueste und bislang leistungsstärkste KI-Modell von OpenAI. Es übertrifft seine Vorgänger deutlich – und zwar in Bereichen wie <strong>Programmieren</strong>, <strong>Texterstellung</strong>, <strong>Gesundheit</strong> und sogar in der <strong>visuellen Wahrnehmung</strong>.</div><div>GPT-5 ist ein <strong>einheitliches System</strong>, das flexibel denken kann – mal schnell, mal tiefgründig – je nachdem, wie komplex die Anfrage ist. Für besonders anspruchsvolle Aufgaben gibt es auch eine <strong>Pro-Version</strong>.</div><div>Was wurde verbessert?</div><ul><li><strong>Weniger Halluzinationen</strong></li><li><strong>Bessere Umsetzung von Anweisungen</strong></li><li><strong>Präzisere und nützlichere Antworten</strong></li></ul><div>Zusätzlich wurden neue <strong>Sicherheitsfunktionen</strong> und stilistische Verbesserungen eingebaut – für mehr <strong>Zuverlässigkeit</strong>und <strong>Benutzerfreundlichkeit</strong>.</div><div>GPT-5 ist für alle zugänglich – mit <strong>kostenpflichtigen Abos</strong>, die erweiterte Funktionen bieten.</div><div>Bleib dran – wir schauen uns an, was GPT-5 wirklich kann!</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/einfuehrung-von-gpt-5-ein-quantensprung-in-der-ki</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/einfuehrung-von-gpt-5-ein-quantensprung-in-der-ki"/>
      <itunes:title>Einführung von GPT-5: Ein Quantensprung in der KI</itunes:title>
      <itunes:subtitle>Das neue Model von OpenAi, GPT-5, wurde gestern released</itunes:subtitle>
      <itunes:duration/>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>26</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht es um <strong>GPT-5</strong>, das neueste und bislang leistungsstärkste KI-Modell von OpenAI. Es übertrifft seine Vorgänger deutlich – und zwar in Bereichen wie <strong>Programmieren</strong>, <strong>Texterstellung</strong>, <strong>Gesundheit</strong> und sogar in der <strong>visuellen Wahrnehmung</strong>.</div><div>GPT-5 ist ein <strong>einheitliches System</strong>, das flexibel denken kann – mal schnell, mal tiefgründig – je nachdem, wie komplex die Anfrage ist. Für besonders anspruchsvolle Aufgaben gibt es auch eine <strong>Pro-Version</strong>.</div><div>Was wurde verbessert?</div><ul><li><strong>Weniger Halluzinationen</strong></li><li><strong>Bessere Umsetzung von Anweisungen</strong></li><li><strong>Präzisere und nützlichere Antworten</strong></li></ul><div>Zusätzlich wurden neue <strong>Sicherheitsfunktionen</strong> und stilistische Verbesserungen eingebaut – für mehr <strong>Zuverlässigkeit</strong>und <strong>Benutzerfreundlichkeit</strong>.</div><div>GPT-5 ist für alle zugänglich – mit <strong>kostenpflichtigen Abos</strong>, die erweiterte Funktionen bieten.</div><div>Bleib dran – wir schauen uns an, was GPT-5 wirklich kann!</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI, LLM, generative KI, ChatGPT, GPT-5, ChatGPT 5, 5, , Prompt, Prompt Engineering, 2025, Gen AI, GenAI</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">41bc03a5fb474afb8d61c9ee528cd1b0</guid>
      <title>Few-Shot Prompting</title>
      <description>
        <![CDATA[<div>In dieser Folge tauchen wir in die Welt des Few-Shot Prompting ein – eine Technik, mit der du durch wenige, gezielte Beispiele die Leistung von KI-Modellen wie ChatGPT deutlich steigern kannst. Wir sprechen darüber, warum Beispiele so mächtig sind, wie du sie richtig auswählst und strukturierst und welche typischen Fehler du vermeiden solltest. Außerdem bekommst du praktische Tipps und Anwendungsbeispiele, mit denen du deine eigenen Prompts sofort verbessern kannst.</div>]]>
      </description>
      <pubDate>Wed, 06 Aug 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/c97aee2d.mp3?t=1754311335" length="6178690" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge tauchen wir in die Welt des Few-Shot Prompting ein – eine Technik, mit der du durch wenige, gezielte Beispiele die Leistung von KI-Modellen wie ChatGPT deutlich steigern kannst. Wir sprechen darüber, warum Beispiele so mächtig sind, wie du sie richtig auswählst und strukturierst und welche typischen Fehler du vermeiden solltest. Außerdem bekommst du praktische Tipps und Anwendungsbeispiele, mit denen du deine eigenen Prompts sofort verbessern kannst.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/few-shot-prompting</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/few-shot-prompting"/>
      <itunes:title>Few-Shot Prompting</itunes:title>
      <itunes:subtitle>Wie Beispiele die Qualität deiner KI-Antworten verbessern</itunes:subtitle>
      <itunes:duration>00:06:26</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>25</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge tauchen wir in die Welt des Few-Shot Prompting ein – eine Technik, mit der du durch wenige, gezielte Beispiele die Leistung von KI-Modellen wie ChatGPT deutlich steigern kannst. Wir sprechen darüber, warum Beispiele so mächtig sind, wie du sie richtig auswählst und strukturierst und welche typischen Fehler du vermeiden solltest. Außerdem bekommst du praktische Tipps und Anwendungsbeispiele, mit denen du deine eigenen Prompts sofort verbessern kannst.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI, LLM, generative KI, KI Grundlagen, KI Grundlagen, Funktionsweise LLM, Prompt, Prompt Engineering, Few Shot Prompting, Few-Shot Prompting, Beispiel, Gen AI, GenAI, </itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">cdd38687c880440fa80365d073916c1e</guid>
      <title>Grundbegriffe der Generativen KI</title>
      <description>
        <![CDATA[<div>Die heutige Episode erklärt umfassend die Grundlagen der generativen Künstlichen Intelligenz (GenAI). Er beginnt mit einer Definition von KI und maschinellem Lernen und führt dann wichtige Konzepte wie neuronale Netze, Large Language Models (LLMs) und die Transformer-Architektur ein. Die Episode beschreibt auch Prompting-Techniken zur Kommunikation mit KI-Modellen und beleuchtet multimodale KI, die verschiedene Datentypen verarbeitet. Schließlich werden ethische Überlegungen und Grenzen der genAI wie Bias und Halluzinationen sowie Beispiele typischer Tools vorgestellt.</div>]]>
      </description>
      <pubDate>Mon, 04 Aug 2025 14:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/c517ae21.mp3?t=1754310558" length="5483624" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Die heutige Episode erklärt umfassend die Grundlagen der generativen Künstlichen Intelligenz (GenAI). Er beginnt mit einer Definition von KI und maschinellem Lernen und führt dann wichtige Konzepte wie neuronale Netze, Large Language Models (LLMs) und die Transformer-Architektur ein. Die Episode beschreibt auch Prompting-Techniken zur Kommunikation mit KI-Modellen und beleuchtet multimodale KI, die verschiedene Datentypen verarbeitet. Schließlich werden ethische Überlegungen und Grenzen der genAI wie Bias und Halluzinationen sowie Beispiele typischer Tools vorgestellt.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/grundbegriffe-der-generativen-ki</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/grundbegriffe-der-generativen-ki"/>
      <itunes:title>Grundbegriffe der Generativen KI</itunes:title>
      <itunes:subtitle>Die am häufigsten genutzten Begriffe leicht erklärt</itunes:subtitle>
      <itunes:duration>00:05:43</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>24</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Die heutige Episode erklärt umfassend die Grundlagen der generativen Künstlichen Intelligenz (GenAI). Er beginnt mit einer Definition von KI und maschinellem Lernen und führt dann wichtige Konzepte wie neuronale Netze, Large Language Models (LLMs) und die Transformer-Architektur ein. Die Episode beschreibt auch Prompting-Techniken zur Kommunikation mit KI-Modellen und beleuchtet multimodale KI, die verschiedene Datentypen verarbeitet. Schließlich werden ethische Überlegungen und Grenzen der genAI wie Bias und Halluzinationen sowie Beispiele typischer Tools vorgestellt.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI, generative KI, LLM, KI Grundlagen, ChatGPT, AI, Funktionsweise LLM, Prompt, Prompt Engineering, Token, Halluzinationen, Denken, Bias, Halluzination, verstehen, Prompting</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">083f0d77e42c415585ad4bcba05244a8</guid>
      <title>Der ChatGPT-Agent</title>
      <description>
        <![CDATA[<div>Dieser Text stellt den ChatGPT-Agenten vor, eine Weiterentwicklung des bekannten KI-Modells, das nun in der Lage ist, komplexe, mehrschrittige Aufgaben unter Verwendung eines eigenen virtuellen Computers zu erledigen. Er vereint die Fähigkeiten von Operatoren zur Web-Interaktion und von Deep Research zur Informationsanalyse, wodurch er beispielsweise Webseiten durchsuchen, Daten filtern, Code ausführen und Präsentationen erstellen kann. Die Quelle betont die Nutzerkontrolle durch Genehmigungsanfragen und die Möglichkeit, Aufgaben zu unterbrechen, während gleichzeitig umfassende Sicherheitsmaßnahmen gegen Risiken wie Prompt Injection und biologische Bedrohungen implementiert wurden.&nbsp;</div>]]>
      </description>
      <pubDate>Thu, 31 Jul 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/ce0bbcdf.mp3?t=1753943084" length="7010847" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Dieser Text stellt den ChatGPT-Agenten vor, eine Weiterentwicklung des bekannten KI-Modells, das nun in der Lage ist, komplexe, mehrschrittige Aufgaben unter Verwendung eines eigenen virtuellen Computers zu erledigen. Er vereint die Fähigkeiten von Operatoren zur Web-Interaktion und von Deep Research zur Informationsanalyse, wodurch er beispielsweise Webseiten durchsuchen, Daten filtern, Code ausführen und Präsentationen erstellen kann. Die Quelle betont die Nutzerkontrolle durch Genehmigungsanfragen und die Möglichkeit, Aufgaben zu unterbrechen, während gleichzeitig umfassende Sicherheitsmaßnahmen gegen Risiken wie Prompt Injection und biologische Bedrohungen implementiert wurden.&nbsp;</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/der-chatgpt-agent</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/der-chatgpt-agent"/>
      <itunes:title>Der ChatGPT-Agent</itunes:title>
      <itunes:subtitle>Wie ChatGPT ab sofort für dich noch mehr arbeiten kann</itunes:subtitle>
      <itunes:duration>00:07:18</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>23</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Dieser Text stellt den ChatGPT-Agenten vor, eine Weiterentwicklung des bekannten KI-Modells, das nun in der Lage ist, komplexe, mehrschrittige Aufgaben unter Verwendung eines eigenen virtuellen Computers zu erledigen. Er vereint die Fähigkeiten von Operatoren zur Web-Interaktion und von Deep Research zur Informationsanalyse, wodurch er beispielsweise Webseiten durchsuchen, Daten filtern, Code ausführen und Präsentationen erstellen kann. Die Quelle betont die Nutzerkontrolle durch Genehmigungsanfragen und die Möglichkeit, Aufgaben zu unterbrechen, während gleichzeitig umfassende Sicherheitsmaßnahmen gegen Risiken wie Prompt Injection und biologische Bedrohungen implementiert wurden.&nbsp;</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI, generative KI, LLM, KI Grundlagen, ChatGPT, Agent, ChatGPT-Agent, , KI Agenten, 2025, Autonomie</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">0851c0a4bd0346d3b1b84a82995a57bb</guid>
      <title>Wenn KI den Faden verliert und gedanklich abschweift</title>
      <description>
        <![CDATA[<div>Der gegebene Text untersucht die Leistung großer Sprachmodelle (LLMs) in mehrstufigen Konversationen, insbesondere wenn Benutzeranweisungen anfänglich unvollständig sind. Die Forschung zeigt einen erheblichen Leistungsabfall von durchschnittlich 39 % bei LLMs in diesen multi-turn Szenarien im Vergleich zu vollständig spezifizierten, einstufigen Interaktionen. Dieser Rückgang wird hauptsächlich durch eine erhöhte Unzuverlässigkeit (durchschnittlich 112 % Anstieg) und einen geringeren Fähigkeitsverlust (durchschnittlich 16 % Rückgang) verursacht. Die Studie identifiziert mehrere Gründe für dieses Phänomen, einschließlich vorzeitiger Antwortversuche, übermäßiger Abhängigkeit von früheren (falschen) Antworten und einer Tendenz zu wortreichen, oft verwirrenden Reaktionen. Auch Methoden wie das Rekapitulieren von Informationen oder das Reduzieren der Temperatur, die in einfacheren Kontexten helfen, zeigen sich in komplexen, mehrstufigen Gesprächen als weitgehend ineffektiv, was die Notwendigkeit robusterer LLM-Fähigkeiten für solche Interaktionen unterstreicht.<br><br>Link zum Paper:&nbsp;<a href="https://arxiv.org/pdf/2505.06120">https://arxiv.org/pdf/2505.06120</a></div>]]>
      </description>
      <pubDate>Mon, 28 Jul 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/91a819c0.mp3?t=1753422967" length="7019206" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Der gegebene Text untersucht die Leistung großer Sprachmodelle (LLMs) in mehrstufigen Konversationen, insbesondere wenn Benutzeranweisungen anfänglich unvollständig sind. Die Forschung zeigt einen erheblichen Leistungsabfall von durchschnittlich 39 % bei LLMs in diesen multi-turn Szenarien im Vergleich zu vollständig spezifizierten, einstufigen Interaktionen. Dieser Rückgang wird hauptsächlich durch eine erhöhte Unzuverlässigkeit (durchschnittlich 112 % Anstieg) und einen geringeren Fähigkeitsverlust (durchschnittlich 16 % Rückgang) verursacht. Die Studie identifiziert mehrere Gründe für dieses Phänomen, einschließlich vorzeitiger Antwortversuche, übermäßiger Abhängigkeit von früheren (falschen) Antworten und einer Tendenz zu wortreichen, oft verwirrenden Reaktionen. Auch Methoden wie das Rekapitulieren von Informationen oder das Reduzieren der Temperatur, die in einfacheren Kontexten helfen, zeigen sich in komplexen, mehrstufigen Gesprächen als weitgehend ineffektiv, was die Notwendigkeit robusterer LLM-Fähigkeiten für solche Interaktionen unterstreicht.<br><br>Link zum Paper:&nbsp;<a href="https://arxiv.org/pdf/2505.06120">https://arxiv.org/pdf/2505.06120</a></div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/wenn-ki-den-faden-verliert-und-gedanklich-abschweift</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/wenn-ki-den-faden-verliert-und-gedanklich-abschweift"/>
      <itunes:title>Wenn KI den Faden verliert und gedanklich abschweift</itunes:title>
      <itunes:subtitle>Große Sprachmodelle scheitern an echten Gesprächen – was ein neues Paper enthüllt</itunes:subtitle>
      <itunes:duration>00:07:19</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>22</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Der gegebene Text untersucht die Leistung großer Sprachmodelle (LLMs) in mehrstufigen Konversationen, insbesondere wenn Benutzeranweisungen anfänglich unvollständig sind. Die Forschung zeigt einen erheblichen Leistungsabfall von durchschnittlich 39 % bei LLMs in diesen multi-turn Szenarien im Vergleich zu vollständig spezifizierten, einstufigen Interaktionen. Dieser Rückgang wird hauptsächlich durch eine erhöhte Unzuverlässigkeit (durchschnittlich 112 % Anstieg) und einen geringeren Fähigkeitsverlust (durchschnittlich 16 % Rückgang) verursacht. Die Studie identifiziert mehrere Gründe für dieses Phänomen, einschließlich vorzeitiger Antwortversuche, übermäßiger Abhängigkeit von früheren (falschen) Antworten und einer Tendenz zu wortreichen, oft verwirrenden Reaktionen. Auch Methoden wie das Rekapitulieren von Informationen oder das Reduzieren der Temperatur, die in einfacheren Kontexten helfen, zeigen sich in komplexen, mehrstufigen Gesprächen als weitgehend ineffektiv, was die Notwendigkeit robusterer LLM-Fähigkeiten für solche Interaktionen unterstreicht.<br><br>Link zum Paper:&nbsp;<a href="https://arxiv.org/pdf/2505.06120">https://arxiv.org/pdf/2505.06120</a></div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI, generative KI, LLM, KI Grundlagen, ChatGPT, AI, Funktionsweise LLM, Prompt, verstehen, Halluzination, Bias, Denken, Halluzinationen, Fehler, Leistungsabfall, Lost in Conversation</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">6a7589a1b3024b4094b8f6fe3391db7a</guid>
      <title>Build, Baby, Build! - Amerikas KI-Aktionsplan</title>
      <description>
        <![CDATA[<div>Das <strong>Dokument "America's AI Action Plan"</strong> vom Juli 2025 skizziert eine umfassende Strategie der US-Regierung unter Präsident Donald J. Trump, um die globale Vorherrschaft im Bereich der künstlichen Intelligenz (KI) zu erlangen. Der Plan ist in <strong>drei Hauptpfeiler</strong> unterteilt: <strong>Beschleunigung der KI-Innovation</strong>, <strong>Aufbau der amerikanischen KI-Infrastruktur</strong> und <strong>Führung in der internationalen KI-Diplomatie und -Sicherheit</strong>. Er betont die Notwendigkeit, bürokratische Hürden abzubauen, die freie Meinungsäußerung in KI-Systemen zu gewährleisten, die Entwicklung einer robusten Infrastruktur zu fördern und Amerikas technologische Führung durch Exportkontrollen und internationale Zusammenarbeit zu schützen. Ziel ist es, ein „goldenes Zeitalter“ der wirtschaftlichen Wettbewerbsfähigkeit und nationalen Sicherheit durch KI einzuläuten und gleichzeitig Arbeitsplätze für Amerikaner zu sichern.<br><br>Das ganze im Detail findest du hier:<br><a href="https://whitehouse.gov/wp-content/uploads/2025/07/Americas-AI-Action-Plan.pdf">https://whitehouse.gov/wp-content/uploads/2025/07/Americas-AI-Action-Plan.pdf</a></div>]]>
      </description>
      <pubDate>Fri, 25 Jul 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/6471844e.mp3?t=1753422311" length="6713678" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Das <strong>Dokument "America's AI Action Plan"</strong> vom Juli 2025 skizziert eine umfassende Strategie der US-Regierung unter Präsident Donald J. Trump, um die globale Vorherrschaft im Bereich der künstlichen Intelligenz (KI) zu erlangen. Der Plan ist in <strong>drei Hauptpfeiler</strong> unterteilt: <strong>Beschleunigung der KI-Innovation</strong>, <strong>Aufbau der amerikanischen KI-Infrastruktur</strong> und <strong>Führung in der internationalen KI-Diplomatie und -Sicherheit</strong>. Er betont die Notwendigkeit, bürokratische Hürden abzubauen, die freie Meinungsäußerung in KI-Systemen zu gewährleisten, die Entwicklung einer robusten Infrastruktur zu fördern und Amerikas technologische Führung durch Exportkontrollen und internationale Zusammenarbeit zu schützen. Ziel ist es, ein „goldenes Zeitalter“ der wirtschaftlichen Wettbewerbsfähigkeit und nationalen Sicherheit durch KI einzuläuten und gleichzeitig Arbeitsplätze für Amerikaner zu sichern.<br><br>Das ganze im Detail findest du hier:<br><a href="https://whitehouse.gov/wp-content/uploads/2025/07/Americas-AI-Action-Plan.pdf">https://whitehouse.gov/wp-content/uploads/2025/07/Americas-AI-Action-Plan.pdf</a></div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/build-baby-build-amerikas-ki-aktionsplan</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/build-baby-build-amerikas-ki-aktionsplan"/>
      <itunes:title>Build, Baby, Build! - Amerikas KI-Aktionsplan</itunes:title>
      <itunes:subtitle>KI made in USA - Trumps Aktionsplan, geopolitische Ziele und was das für uns alle bedeuten könnte</itunes:subtitle>
      <itunes:duration>00:07:00</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>21</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Das <strong>Dokument "America's AI Action Plan"</strong> vom Juli 2025 skizziert eine umfassende Strategie der US-Regierung unter Präsident Donald J. Trump, um die globale Vorherrschaft im Bereich der künstlichen Intelligenz (KI) zu erlangen. Der Plan ist in <strong>drei Hauptpfeiler</strong> unterteilt: <strong>Beschleunigung der KI-Innovation</strong>, <strong>Aufbau der amerikanischen KI-Infrastruktur</strong> und <strong>Führung in der internationalen KI-Diplomatie und -Sicherheit</strong>. Er betont die Notwendigkeit, bürokratische Hürden abzubauen, die freie Meinungsäußerung in KI-Systemen zu gewährleisten, die Entwicklung einer robusten Infrastruktur zu fördern und Amerikas technologische Führung durch Exportkontrollen und internationale Zusammenarbeit zu schützen. Ziel ist es, ein „goldenes Zeitalter“ der wirtschaftlichen Wettbewerbsfähigkeit und nationalen Sicherheit durch KI einzuläuten und gleichzeitig Arbeitsplätze für Amerikaner zu sichern.<br><br>Das ganze im Detail findest du hier:<br><a href="https://whitehouse.gov/wp-content/uploads/2025/07/Americas-AI-Action-Plan.pdf">https://whitehouse.gov/wp-content/uploads/2025/07/Americas-AI-Action-Plan.pdf</a></div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI, generative KI, AI, Wirtschaft, Geschäftsmodel, Energie, Amerika, America's AI Action Plan, Donald J. Trump, USA, Aufbau, KI-Infrastruktur, Infrastruktur, 2025, KI-Diplomatie</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">5efbd2957ad54d3c883d46e7fe29365f</guid>
      <title>LYRA - Ein Meta-Prompt für Prompt Engineering</title>
      <description>
        <![CDATA[<div>In dieser Folge dreht sich alles um <strong>Lyra</strong>, einen sogenannten <em>Meta-Prompt</em>, der hilft, Prompts gezielter und qualitativ hochwertiger zu erstellen. Du erfährst, was genau ein Meta-Prompt ist, wie Lyra aufgebaut ist und warum er so mächtig ist – egal ob du mit ChatGPT arbeitest, Texte generierst oder kreative Projekte planst.&nbsp;<br>Auch schauen wir einmal auf die kritischen Aspekte, die es zu diesem Thema gibt.<br><br>Den Prompt für LYRA findet ihr hier:&nbsp;<a href="https://gist.github.com/xthezealot/c873effd9e74225ef3fcfbb9c3a341da">https://gist.github.com/xthezealot/c873effd9e74225ef3fcfbb9c3a341da</a></div>]]>
      </description>
      <pubDate>Mon, 21 Jul 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/d52316f0.mp3?t=1752915430" length="6358413" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge dreht sich alles um <strong>Lyra</strong>, einen sogenannten <em>Meta-Prompt</em>, der hilft, Prompts gezielter und qualitativ hochwertiger zu erstellen. Du erfährst, was genau ein Meta-Prompt ist, wie Lyra aufgebaut ist und warum er so mächtig ist – egal ob du mit ChatGPT arbeitest, Texte generierst oder kreative Projekte planst.&nbsp;<br>Auch schauen wir einmal auf die kritischen Aspekte, die es zu diesem Thema gibt.<br><br>Den Prompt für LYRA findet ihr hier:&nbsp;<a href="https://gist.github.com/xthezealot/c873effd9e74225ef3fcfbb9c3a341da">https://gist.github.com/xthezealot/c873effd9e74225ef3fcfbb9c3a341da</a></div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/lyra-ein-meta-prompt-fuer-prompt-engineering</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/lyra-ein-meta-prompt-fuer-prompt-engineering"/>
      <itunes:title>LYRA - Ein Meta-Prompt für Prompt Engineering</itunes:title>
      <itunes:subtitle>Wie die KI sich selbst eine Anweisungen schreibt</itunes:subtitle>
      <itunes:duration>00:06:37</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>20</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge dreht sich alles um <strong>Lyra</strong>, einen sogenannten <em>Meta-Prompt</em>, der hilft, Prompts gezielter und qualitativ hochwertiger zu erstellen. Du erfährst, was genau ein Meta-Prompt ist, wie Lyra aufgebaut ist und warum er so mächtig ist – egal ob du mit ChatGPT arbeitest, Texte generierst oder kreative Projekte planst.&nbsp;<br>Auch schauen wir einmal auf die kritischen Aspekte, die es zu diesem Thema gibt.<br><br>Den Prompt für LYRA findet ihr hier:&nbsp;<a href="https://gist.github.com/xthezealot/c873effd9e74225ef3fcfbb9c3a341da">https://gist.github.com/xthezealot/c873effd9e74225ef3fcfbb9c3a341da</a></div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI, LLM, generative KI, ChatGPT, AI, Prompt, Prompt Engineering, verstehen, LYRA, Meta Prompt, Prompting, Claude, Gemini, Google, Anthropic, , Denken</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">37fe89f95f2740339911e086504118d1</guid>
      <title>Amüsante KI-Fehler - Wenn ChatGPT &amp; Co. danebenliegen</title>
      <description>
        <![CDATA[<div>In dieser Folge geht es um die <strong>Fehler, die KI-Modelle so machen können</strong>. Ob kuriose Übersetzungen, absurde Antworten oder komplett erfundene Fakten — wir zeigen, wie charmant (und manchmal peinlich) Bots danebenliegen können. Dabei erklären wir auch, warum solche Pannen passieren und was sie uns über die Grenzen von Sprachmodellen verraten. Lachgarantie inklusive!</div>]]>
      </description>
      <pubDate>Fri, 18 Jul 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/c0e93b02.mp3?t=1752592218" length="5931676" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht es um die <strong>Fehler, die KI-Modelle so machen können</strong>. Ob kuriose Übersetzungen, absurde Antworten oder komplett erfundene Fakten — wir zeigen, wie charmant (und manchmal peinlich) Bots danebenliegen können. Dabei erklären wir auch, warum solche Pannen passieren und was sie uns über die Grenzen von Sprachmodellen verraten. Lachgarantie inklusive!</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/amuesante-ki-fehler-wenn-chatgpt-co-danebenliegen</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/amuesante-ki-fehler-wenn-chatgpt-co-danebenliegen"/>
      <itunes:title>Amüsante KI-Fehler - Wenn ChatGPT &amp; Co. danebenliegen</itunes:title>
      <itunes:subtitle>Warum wir über KI manchmal (sehr) lachen müssen</itunes:subtitle>
      <itunes:duration>00:06:11</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>19</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht es um die <strong>Fehler, die KI-Modelle so machen können</strong>. Ob kuriose Übersetzungen, absurde Antworten oder komplett erfundene Fakten — wir zeigen, wie charmant (und manchmal peinlich) Bots danebenliegen können. Dabei erklären wir auch, warum solche Pannen passieren und was sie uns über die Grenzen von Sprachmodellen verraten. Lachgarantie inklusive!</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI, LLM, KI Grundlagen, generative KI, ChatGPT, Funktionsweise LLM, Bias, Halluzination, Fehler, Halluzinationen, AI</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">19c0ca0e47354f0dba9c3cd316b27dc8</guid>
      <title>Tokens - Wie ChatGPT und Co. wirklich "lesen" und "sprechen"</title>
      <description>
        <![CDATA[<div>In dieser Folge erklären wir, was <strong>Tokens</strong> eigentlich sind — und warum sie das Fundament jeder modernen KI ist. Anstatt Wörter direkt zu verarbeiten, zerlegen Sprachmodelle Texte in <strong>Tokens</strong>, kleine Bausteine, die für das Modell besser handhabbar sind. Wir sprechen über verschiedene Methoden, wie Zeichen-, Wort- und Unterwort-Tokenisierung, die heute Standard sind. Außerdem werfen wir einen Blick auf spannende Forschung, die zeigt, wie stark die Tokenisierung die Leistung und das Verständnis eines Modells beeinflusst. Ein Muss für alle, die verstehen wollen, <strong>wie KIs Sprache wirklich „lesen“ und „sprechen“</strong>.</div>]]>
      </description>
      <pubDate>Wed, 16 Jul 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/50131150.mp3?t=1752560302" length="7654504" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge erklären wir, was <strong>Tokens</strong> eigentlich sind — und warum sie das Fundament jeder modernen KI ist. Anstatt Wörter direkt zu verarbeiten, zerlegen Sprachmodelle Texte in <strong>Tokens</strong>, kleine Bausteine, die für das Modell besser handhabbar sind. Wir sprechen über verschiedene Methoden, wie Zeichen-, Wort- und Unterwort-Tokenisierung, die heute Standard sind. Außerdem werfen wir einen Blick auf spannende Forschung, die zeigt, wie stark die Tokenisierung die Leistung und das Verständnis eines Modells beeinflusst. Ein Muss für alle, die verstehen wollen, <strong>wie KIs Sprache wirklich „lesen“ und „sprechen“</strong>.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/tokens-wie-chatgpt-und-co-wirklich-lesen-und-sprechen</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/tokens-wie-chatgpt-und-co-wirklich-lesen-und-sprechen"/>
      <itunes:title>Tokens - Wie ChatGPT und Co. wirklich "lesen" und "sprechen"</itunes:title>
      <itunes:subtitle>Das Alphabet von LLMs</itunes:subtitle>
      <itunes:duration>00:07:58</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>18</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge erklären wir, was <strong>Tokens</strong> eigentlich sind — und warum sie das Fundament jeder modernen KI ist. Anstatt Wörter direkt zu verarbeiten, zerlegen Sprachmodelle Texte in <strong>Tokens</strong>, kleine Bausteine, die für das Modell besser handhabbar sind. Wir sprechen über verschiedene Methoden, wie Zeichen-, Wort- und Unterwort-Tokenisierung, die heute Standard sind. Außerdem werfen wir einen Blick auf spannende Forschung, die zeigt, wie stark die Tokenisierung die Leistung und das Verständnis eines Modells beeinflusst. Ein Muss für alle, die verstehen wollen, <strong>wie KIs Sprache wirklich „lesen“ und „sprechen“</strong>.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI, LLM, KI Grundlagen, ChatGPT, Funktionsweise LLM, Token, verstehen, Sprache, Lesen, Schreiben, AI, Token, </itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">5dbbb17b314d40b6ad7d0ec09551b6c2</guid>
      <title>Geschichte der Künstlichen Intelligenz</title>
      <description>
        <![CDATA[<div>In dieser Folge werfen wir einen Blick zurück: <strong>Wie hat alles angefangen mit der Künstlichen Intelligenz?</strong> Wir erzählen die spannende Geschichte von den frühen Rechenautomaten über die ersten Schachcomputer bis hin zu modernen Sprachmodellen wie ChatGPT. Du erfährst, welche Meilensteine die Entwicklung geprägt haben, wer die großen Köpfe dahinter waren und wie aus Science-Fiction plötzlich Realität wurde.</div>]]>
      </description>
      <pubDate>Mon, 14 Jul 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/c66b901c.mp3?t=1752476346" length="9610971" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge werfen wir einen Blick zurück: <strong>Wie hat alles angefangen mit der Künstlichen Intelligenz?</strong> Wir erzählen die spannende Geschichte von den frühen Rechenautomaten über die ersten Schachcomputer bis hin zu modernen Sprachmodellen wie ChatGPT. Du erfährst, welche Meilensteine die Entwicklung geprägt haben, wer die großen Köpfe dahinter waren und wie aus Science-Fiction plötzlich Realität wurde.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/geschichte-der-kuenstlichen-intelligenz</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/geschichte-der-kuenstlichen-intelligenz"/>
      <itunes:title>Geschichte der Künstlichen Intelligenz</itunes:title>
      <itunes:subtitle>Von den Anfängen der KI bis zu ChatGPT</itunes:subtitle>
      <itunes:duration>00:10:01</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>17</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge werfen wir einen Blick zurück: <strong>Wie hat alles angefangen mit der Künstlichen Intelligenz?</strong> Wir erzählen die spannende Geschichte von den frühen Rechenautomaten über die ersten Schachcomputer bis hin zu modernen Sprachmodellen wie ChatGPT. Du erfährst, welche Meilensteine die Entwicklung geprägt haben, wer die großen Köpfe dahinter waren und wie aus Science-Fiction plötzlich Realität wurde.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI, generative KI, KI Grundlagen, ChatGPT, AI, verstehen, Geschichte, Alan Turing, Neurone Netze, KI Winter, </itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">fc198cc42628450a9a16c77591698aa1</guid>
      <title>Berühmte KI-Katastrophen und Fehler</title>
      <description>
        <![CDATA[<div>In dieser Folge stellen wir dir<strong>&nbsp;berühmte KI-Pannen und Katastrophen</strong> vor, die teils spektakulär, teils erschreckend waren. Von Fehlentscheidungen in autonomen Fahrzeugen über rassistische Chatbots bis hin zu fehlerhaften Übersetzungen — wir zeigen, was genau passiert ist, warum es dazu kam und welche <strong>wichtigen Lehren</strong> wir für die Zukunft der KI daraus ziehen können.</div>]]>
      </description>
      <pubDate>Fri, 11 Jul 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/61cd7afb.mp3?t=1752217363" length="6353397" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge stellen wir dir<strong>&nbsp;berühmte KI-Pannen und Katastrophen</strong> vor, die teils spektakulär, teils erschreckend waren. Von Fehlentscheidungen in autonomen Fahrzeugen über rassistische Chatbots bis hin zu fehlerhaften Übersetzungen — wir zeigen, was genau passiert ist, warum es dazu kam und welche <strong>wichtigen Lehren</strong> wir für die Zukunft der KI daraus ziehen können.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/beruehmte-ki-katastrophen-und-fehler</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/beruehmte-ki-katastrophen-und-fehler"/>
      <itunes:title>Berühmte KI-Katastrophen und Fehler</itunes:title>
      <itunes:subtitle>Was passiert, wenn die KI versagt</itunes:subtitle>
      <itunes:duration>00:06:37</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>16</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge stellen wir dir<strong>&nbsp;berühmte KI-Pannen und Katastrophen</strong> vor, die teils spektakulär, teils erschreckend waren. Von Fehlentscheidungen in autonomen Fahrzeugen über rassistische Chatbots bis hin zu fehlerhaften Übersetzungen — wir zeigen, was genau passiert ist, warum es dazu kam und welche <strong>wichtigen Lehren</strong> wir für die Zukunft der KI daraus ziehen können.</div>]]>
      </itunes:summary>
      <itunes:keywords>LLM, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, ChatGPT, Funktionsweise LLM, Denken, Fehler, AI Fail, Halluzinationen, </itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">e6b3556e3c694060b406c58f08277b69</guid>
      <title>Spiegel der Erinnerung</title>
      <description>
        <![CDATA[<div>In dieser Folge gehen wir der Frage nach, ob <strong>Large Language Models (LLMs)</strong> tatsächlich so etwas wie ein Gedächtnis haben. Können sie sich wirklich an frühere Gespräche „erinnern“, oder ist das nur eine gut gemachte Illusion? Wir schauen uns an, wie „Memory“ in modernen Modellen funktioniert, welche technischen Tricks dahinterstecken und warum maschinische Erinnerung ganz anders ist als bei uns Menschen.</div>]]>
      </description>
      <pubDate>Wed, 09 Jul 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/d2aa633f.mp3?t=1751870049" length="6006073" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge gehen wir der Frage nach, ob <strong>Large Language Models (LLMs)</strong> tatsächlich so etwas wie ein Gedächtnis haben. Können sie sich wirklich an frühere Gespräche „erinnern“, oder ist das nur eine gut gemachte Illusion? Wir schauen uns an, wie „Memory“ in modernen Modellen funktioniert, welche technischen Tricks dahinterstecken und warum maschinische Erinnerung ganz anders ist als bei uns Menschen.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/spiegel-der-erinnerung</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/spiegel-der-erinnerung"/>
      <itunes:title>Spiegel der Erinnerung</itunes:title>
      <itunes:subtitle>Können sich LLMs wie Menschen an Vergangenes erinnern?</itunes:subtitle>
      <itunes:duration>00:06:15</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>15</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge gehen wir der Frage nach, ob <strong>Large Language Models (LLMs)</strong> tatsächlich so etwas wie ein Gedächtnis haben. Können sie sich wirklich an frühere Gespräche „erinnern“, oder ist das nur eine gut gemachte Illusion? Wir schauen uns an, wie „Memory“ in modernen Modellen funktioniert, welche technischen Tricks dahinterstecken und warum maschinische Erinnerung ganz anders ist als bei uns Menschen.</div>]]>
      </itunes:summary>
      <itunes:keywords>LLM, Künstliche Intelligenz, KI, generative KI, KI Grundlagen, Funktionsweise LLM, Denken, verstehen, künstliches Gedächtnis, </itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">60ed51ee313a4d4cbfe3d65f0fa8ddac</guid>
      <title>Klimafußabdruck von KI</title>
      <description>
        <![CDATA[<div>In dieser Folge sprechen wir über den oft übersehenen <strong>Klimafußabdruck von KI</strong>. Große Sprachmodelle brauchen enorme Rechenleistung — und damit viel Energie. Wir versuchen zu klären, wie viel CO₂ beim Training und Betrieb von Modellen wie ChatGPT &amp; Co. entsteht, warum das ein wachsendes Problem ist und was getan werden kann, um künstliche Intelligenz nachhaltiger zu gestalten.</div>]]>
      </description>
      <pubDate>Mon, 07 Jul 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/15061643.mp3?t=1751869422" length="6770102" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge sprechen wir über den oft übersehenen <strong>Klimafußabdruck von KI</strong>. Große Sprachmodelle brauchen enorme Rechenleistung — und damit viel Energie. Wir versuchen zu klären, wie viel CO₂ beim Training und Betrieb von Modellen wie ChatGPT &amp; Co. entsteht, warum das ein wachsendes Problem ist und was getan werden kann, um künstliche Intelligenz nachhaltiger zu gestalten.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/klimafussabdruck-von-ki</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/klimafussabdruck-von-ki"/>
      <itunes:title>Klimafußabdruck von KI</itunes:title>
      <itunes:subtitle>Wie viel Energie verbraucht ein LLM?</itunes:subtitle>
      <itunes:duration>00:07:03</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>14</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge sprechen wir über den oft übersehenen <strong>Klimafußabdruck von KI</strong>. Große Sprachmodelle brauchen enorme Rechenleistung — und damit viel Energie. Wir versuchen zu klären, wie viel CO₂ beim Training und Betrieb von Modellen wie ChatGPT &amp; Co. entsteht, warum das ein wachsendes Problem ist und was getan werden kann, um künstliche Intelligenz nachhaltiger zu gestalten.</div>]]>
      </itunes:summary>
      <itunes:keywords>LLM, Künstliche Intelligenz, KI, AI, Wirtschaft, Klima, Nachhaltigkeit, CO2, Fußabdruck, Energie, Klimafußabdruck</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">70707ec52ee940d19bf5af1ea0bd4e53</guid>
      <title>MCP-Server: Verbinde die KI mit der Außenwelt</title>
      <description>
        <![CDATA[<div>In dieser Folge schauen wir uns an, warum <strong>MCP-Server</strong> eine Schlüsselrolle bei der <strong>Einführung von KI in Unternehmen</strong> spielen. Wir erklären, was hinter dem Konzept steckt, wie solche Server als zentrale Plattformen Daten bündeln, Modelle bereitstellen und KI-Dienste steuern. Außerdem besprechen wir, welche Vorteile sie für Sicherheit, Skalierbarkeit und Effizienz bringen — und warum sie das technische Rückgrat moderner, KI-gestützter Geschäftsprozesse sind.</div>]]>
      </description>
      <pubDate>Fri, 04 Jul 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/f775a054.mp3?t=1751608948" length="6554853" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge schauen wir uns an, warum <strong>MCP-Server</strong> eine Schlüsselrolle bei der <strong>Einführung von KI in Unternehmen</strong> spielen. Wir erklären, was hinter dem Konzept steckt, wie solche Server als zentrale Plattformen Daten bündeln, Modelle bereitstellen und KI-Dienste steuern. Außerdem besprechen wir, welche Vorteile sie für Sicherheit, Skalierbarkeit und Effizienz bringen — und warum sie das technische Rückgrat moderner, KI-gestützter Geschäftsprozesse sind.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/mcp-server-verbinde-die-ki-mit-der-aussenwelt</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/mcp-server-verbinde-die-ki-mit-der-aussenwelt"/>
      <itunes:title>MCP-Server: Verbinde die KI mit der Außenwelt</itunes:title>
      <itunes:subtitle>Wie zentrale Serverlösungen Künstliche Intelligenz in die Praxis bringen</itunes:subtitle>
      <itunes:duration>00:06:50</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>13</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge schauen wir uns an, warum <strong>MCP-Server</strong> eine Schlüsselrolle bei der <strong>Einführung von KI in Unternehmen</strong> spielen. Wir erklären, was hinter dem Konzept steckt, wie solche Server als zentrale Plattformen Daten bündeln, Modelle bereitstellen und KI-Dienste steuern. Außerdem besprechen wir, welche Vorteile sie für Sicherheit, Skalierbarkeit und Effizienz bringen — und warum sie das technische Rückgrat moderner, KI-gestützter Geschäftsprozesse sind.</div>]]>
      </itunes:summary>
      <itunes:keywords>LLM, generative KI, Künstliche Intelligenz, KI, KI Grundlagen, ChatGPT, AI, Funktionsweise LLM, MCP, MCP Server</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">035fa4f0128d4d8c8de48352b982c864</guid>
      <title>Prompt Injections - Angriff auf die KI von Innen</title>
      <description>
        <![CDATA[<div>In dieser Folge erklären wir das Konzept der <strong>Prompt Injections</strong>, eine oft übersehene Schwachstelle in großen Sprachmodellen. Wir zeigen, wie Angreifer versteckte Anweisungen in scheinbar harmlose Texte einbauen können, um die KI unbemerkt zu manipulieren. Außerdem sprechen wir darüber, warum diese Angriffe so schwer zu erkennen sind, welche Risiken sie mit sich bringen und was getan werden kann, um KI-Modelle in Zukunft sicherer zu machen.</div>]]>
      </description>
      <pubDate>Thu, 03 Jul 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/89e4f35e.mp3?t=1751521003" length="8775889" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge erklären wir das Konzept der <strong>Prompt Injections</strong>, eine oft übersehene Schwachstelle in großen Sprachmodellen. Wir zeigen, wie Angreifer versteckte Anweisungen in scheinbar harmlose Texte einbauen können, um die KI unbemerkt zu manipulieren. Außerdem sprechen wir darüber, warum diese Angriffe so schwer zu erkennen sind, welche Risiken sie mit sich bringen und was getan werden kann, um KI-Modelle in Zukunft sicherer zu machen.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/prompt-injections-angriff-auf-die-ki-von-innen</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/prompt-injections-angriff-auf-die-ki-von-innen"/>
      <itunes:title>Prompt Injections - Angriff auf die KI von Innen</itunes:title>
      <itunes:subtitle>Warum Sprachmodelle anfälliger sind für Angriffe, als wir denken</itunes:subtitle>
      <itunes:duration>00:09:08</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>12</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge erklären wir das Konzept der <strong>Prompt Injections</strong>, eine oft übersehene Schwachstelle in großen Sprachmodellen. Wir zeigen, wie Angreifer versteckte Anweisungen in scheinbar harmlose Texte einbauen können, um die KI unbemerkt zu manipulieren. Außerdem sprechen wir darüber, warum diese Angriffe so schwer zu erkennen sind, welche Risiken sie mit sich bringen und was getan werden kann, um KI-Modelle in Zukunft sicherer zu machen.</div>]]>
      </itunes:summary>
      <itunes:keywords>LLM, generative KI, Künstliche Intelligenz, KI, KI Grundlagen, Prompt, AI, Prompt Engineering, Funktionsweise LLM, Prompt Injection, Injection, Angriff, Hacking, Hacker, Leaking</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">d66ebe54f4714f84aeaf531c5cc525d1</guid>
      <title>Projekt Vend - KI als Ladenbesitzer</title>
      <description>
        <![CDATA[<div>In dieser Folge schauen wir uns das spannende Konzept von <strong>„Projekt Vend“</strong> an: eine KI, die als eigenständiger Betreiber eines snackautomaten agiert. Wie kann eine künstliche Intelligenz Produkte auswählen, Preise festlegen, Kunden beraten und sogar Marketingstrategien entwickeln? Wir diskutieren, welche Chancen und Risiken das für den Einzelhandel bedeutet — und ob wir bald wirklich bei einem KI-Shopkeeper einkaufen.</div>]]>
      </description>
      <pubDate>Thu, 03 Jul 2025 06:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/c4b3f4d9.mp3?t=1751443179" length="7035089" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge schauen wir uns das spannende Konzept von <strong>„Projekt Vend“</strong> an: eine KI, die als eigenständiger Betreiber eines snackautomaten agiert. Wie kann eine künstliche Intelligenz Produkte auswählen, Preise festlegen, Kunden beraten und sogar Marketingstrategien entwickeln? Wir diskutieren, welche Chancen und Risiken das für den Einzelhandel bedeutet — und ob wir bald wirklich bei einem KI-Shopkeeper einkaufen.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/projekt-vend-ki-als-ladenbesitzer</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/projekt-vend-ki-als-ladenbesitzer"/>
      <itunes:title>Projekt Vend - KI als Ladenbesitzer</itunes:title>
      <itunes:subtitle>Wenn eine KI ein Geschäft führen soll</itunes:subtitle>
      <itunes:duration>00:07:20</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>11</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge schauen wir uns das spannende Konzept von <strong>„Projekt Vend“</strong> an: eine KI, die als eigenständiger Betreiber eines snackautomaten agiert. Wie kann eine künstliche Intelligenz Produkte auswählen, Preise festlegen, Kunden beraten und sogar Marketingstrategien entwickeln? Wir diskutieren, welche Chancen und Risiken das für den Einzelhandel bedeutet — und ob wir bald wirklich bei einem KI-Shopkeeper einkaufen.</div>]]>
      </itunes:summary>
      <itunes:keywords>LLM, Claude, Anthropic, AI, Halluzination, generative KI, KI, Künstliche Intelligenz, , KI Grundlagen, generative KI, Prompt, Wirtschaft, Geschäftsmodel, Experiment, Autonomie</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">68817f2706fe44889222ee1a098fc5e3</guid>
      <title>Gibberlink: Die geheime Sprache der KI?</title>
      <description>
        <![CDATA[<div>In dieser Folge geht’s um <strong>„Gibberlink“</strong>, die mysteriösen, oft unverständlichen Ausgaben, die bei KIs manchmal wie eine eigene Sprache wirken. Wir erklären, warum solche „geheimen“ Codes entstehen, was dahintersteckt und ob KI-Modelle tatsächlich eine Art eigene Sprache entwickeln. Außerdem sprechen wir darüber, was das für die Sicherheit, die Kontrolle und das Verständnis von KI bedeutet.</div>]]>
      </description>
      <pubDate>Wed, 02 Jul 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/8561cafb.mp3?t=1751286291" length="6676062" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht’s um <strong>„Gibberlink“</strong>, die mysteriösen, oft unverständlichen Ausgaben, die bei KIs manchmal wie eine eigene Sprache wirken. Wir erklären, warum solche „geheimen“ Codes entstehen, was dahintersteckt und ob KI-Modelle tatsächlich eine Art eigene Sprache entwickeln. Außerdem sprechen wir darüber, was das für die Sicherheit, die Kontrolle und das Verständnis von KI bedeutet.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/gibberlink-die-geheime-sprache-der-ki</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/gibberlink-die-geheime-sprache-der-ki"/>
      <itunes:title>Gibberlink: Die geheime Sprache der KI?</itunes:title>
      <itunes:subtitle>Wenn KI sich unterhält, ohne das wir es mitbekommen</itunes:subtitle>
      <itunes:duration>00:06:57</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>10</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht’s um <strong>„Gibberlink“</strong>, die mysteriösen, oft unverständlichen Ausgaben, die bei KIs manchmal wie eine eigene Sprache wirken. Wir erklären, warum solche „geheimen“ Codes entstehen, was dahintersteckt und ob KI-Modelle tatsächlich eine Art eigene Sprache entwickeln. Außerdem sprechen wir darüber, was das für die Sicherheit, die Kontrolle und das Verständnis von KI bedeutet.</div>]]>
      </itunes:summary>
      <itunes:keywords>LLM, ChatGPT, Künstliche Intelligenz, KI, KI Grundlagen, generative KI, Prompt, AI, Prompt Engineering, Funktionsweise LLM, Gibberlink, Sprache,</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">e810cf0faf6041ec9849a30d6edb6696</guid>
      <title>KI-Agenten: Definition, Unterschiede und Anwendungen</title>
      <description>
        <![CDATA[<div>In dieser Folge klären wir, was genau <strong>KI-Agenten</strong> sind und wie sie sich von klassischen Sprachmodellen unterscheiden. Wir sprechen darüber, wie diese Agenten nicht nur antworten, sondern auch eigenständig <strong>planen, handeln und Entscheidungen treffen</strong> können. Außerdem schauen wir uns spannende Anwendungsbeispiele an — von smarten Assistenten bis hin zu komplexen Automatisierungsaufgaben.</div>]]>
      </description>
      <pubDate>Tue, 01 Jul 2025 06:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/3781c02b.mp3?t=1751266323" length="7427970" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge klären wir, was genau <strong>KI-Agenten</strong> sind und wie sie sich von klassischen Sprachmodellen unterscheiden. Wir sprechen darüber, wie diese Agenten nicht nur antworten, sondern auch eigenständig <strong>planen, handeln und Entscheidungen treffen</strong> können. Außerdem schauen wir uns spannende Anwendungsbeispiele an — von smarten Assistenten bis hin zu komplexen Automatisierungsaufgaben.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-agenten-definition-unterschiede-und-anwendungen</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-agenten-definition-unterschiede-und-anwendungen"/>
      <itunes:title>KI-Agenten: Definition, Unterschiede und Anwendungen</itunes:title>
      <itunes:subtitle>Von stillen Helfern und autonomen Entscheidern</itunes:subtitle>
      <itunes:duration>00:07:44</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>9</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge klären wir, was genau <strong>KI-Agenten</strong> sind und wie sie sich von klassischen Sprachmodellen unterscheiden. Wir sprechen darüber, wie diese Agenten nicht nur antworten, sondern auch eigenständig <strong>planen, handeln und Entscheidungen treffen</strong> können. Außerdem schauen wir uns spannende Anwendungsbeispiele an — von smarten Assistenten bis hin zu komplexen Automatisierungsaufgaben.</div>]]>
      </itunes:summary>
      <itunes:keywords></itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">03c9e19af13d4549956992d940733278</guid>
      <title>Künstliche Intelligenz: Halluzinationen und ihre Folgen</title>
      <description>
        <![CDATA[<div>In dieser Folge sprechen wir über ein oft unterschätztes Problem: <strong>Halluzinationen bei KI-Modellen</strong>. Was bedeutet es, wenn eine KI plötzlich Fakten erfindet oder überzeugend falsche Antworten liefert? Wir erklären, warum das passiert, welche Folgen es haben kann – zum Beispiel in der Wissenschaft, im Alltag oder bei rechtlichen Fragen – und wie du solche Fehler erkennen und vermeiden kannst.</div>]]>
      </description>
      <pubDate>Mon, 30 Jun 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/5a3d343c.mp3?t=1751264849" length="7366530" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge sprechen wir über ein oft unterschätztes Problem: <strong>Halluzinationen bei KI-Modellen</strong>. Was bedeutet es, wenn eine KI plötzlich Fakten erfindet oder überzeugend falsche Antworten liefert? Wir erklären, warum das passiert, welche Folgen es haben kann – zum Beispiel in der Wissenschaft, im Alltag oder bei rechtlichen Fragen – und wie du solche Fehler erkennen und vermeiden kannst.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/kuenstliche-intelligenz-halluzinationen-und-ihre-folgen</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/kuenstliche-intelligenz-halluzinationen-und-ihre-folgen"/>
      <itunes:title>Künstliche Intelligenz: Halluzinationen und ihre Folgen</itunes:title>
      <itunes:subtitle>Wenn die KI Dinge erfindet, die es nicht gibt</itunes:subtitle>
      <itunes:duration>00:07:40</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>8</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge sprechen wir über ein oft unterschätztes Problem: <strong>Halluzinationen bei KI-Modellen</strong>. Was bedeutet es, wenn eine KI plötzlich Fakten erfindet oder überzeugend falsche Antworten liefert? Wir erklären, warum das passiert, welche Folgen es haben kann – zum Beispiel in der Wissenschaft, im Alltag oder bei rechtlichen Fragen – und wie du solche Fehler erkennen und vermeiden kannst.</div>]]>
      </itunes:summary>
      <itunes:keywords>ChatGPT, KI Agenten, Künstliche Intelligenz, KI, KI Grundlagen, LLM, generative KI, Prompt, AI, Prompt Engineering, Funktionsweise LLM, Bias, Halluzination</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">053d0b8eb62f4017a5fd5a72edb04d7a</guid>
      <title>ChatGPT &amp; Co. - 8 unbesprochene Probleme</title>
      <description>
        <![CDATA[<div>In dieser Folge werfen wir einen Blick auf die <strong>Schattenseiten von ChatGPT</strong> – genauer gesagt auf <strong>acht Probleme</strong>, über die kaum gesprochen wird. Von versteckten Vorurteilen und Intransparenz über Abhängigkeit und Fehlgebrauch bis hin zu ethischen Fragen: Wir beleuchten die Risiken, die mit der Nutzung großer Sprachmodelle einhergehen. Ziel ist es nicht, KI schlechtzureden – sondern aufzuzeigen, wo <strong>kritisches Denken</strong> und <strong>verantwortungsvoller Umgang</strong> gefragt sind. Wenn du wissen willst, was hinter den Kulissen der KI wirklich passiert, hör rein!</div>]]>
      </description>
      <pubDate>Fri, 27 Jun 2025 06:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/04458ae5.mp3?t=1750918104" length="5700127" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge werfen wir einen Blick auf die <strong>Schattenseiten von ChatGPT</strong> – genauer gesagt auf <strong>acht Probleme</strong>, über die kaum gesprochen wird. Von versteckten Vorurteilen und Intransparenz über Abhängigkeit und Fehlgebrauch bis hin zu ethischen Fragen: Wir beleuchten die Risiken, die mit der Nutzung großer Sprachmodelle einhergehen. Ziel ist es nicht, KI schlechtzureden – sondern aufzuzeigen, wo <strong>kritisches Denken</strong> und <strong>verantwortungsvoller Umgang</strong> gefragt sind. Wenn du wissen willst, was hinter den Kulissen der KI wirklich passiert, hör rein!</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/chatgpt-co-8-unbesprochene-probleme</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/chatgpt-co-8-unbesprochene-probleme"/>
      <itunes:title>ChatGPT &amp; Co. - 8 unbesprochene Probleme</itunes:title>
      <itunes:subtitle>Was kaum jemand anspricht – kritische Fragen zur Nutzung von KI</itunes:subtitle>
      <itunes:duration>00:05:56</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>7</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge werfen wir einen Blick auf die <strong>Schattenseiten von ChatGPT</strong> – genauer gesagt auf <strong>acht Probleme</strong>, über die kaum gesprochen wird. Von versteckten Vorurteilen und Intransparenz über Abhängigkeit und Fehlgebrauch bis hin zu ethischen Fragen: Wir beleuchten die Risiken, die mit der Nutzung großer Sprachmodelle einhergehen. Ziel ist es nicht, KI schlechtzureden – sondern aufzuzeigen, wo <strong>kritisches Denken</strong> und <strong>verantwortungsvoller Umgang</strong> gefragt sind. Wenn du wissen willst, was hinter den Kulissen der KI wirklich passiert, hör rein!</div>]]>
      </itunes:summary>
      <itunes:keywords>ChatGPT, Funktionsweise LLM, Künstliche Intelligenz, KI, KI Grundlagen, Prompt, AI, Prompt Engineering, LLM, Bias, </itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">a540054f22834bb6b61c7fdd3dc319b1</guid>
      <title>DarkBert - Sprachmodell für das Darknet</title>
      <description>
        <![CDATA[<div>In dieser Folge erfährst du alles über <strong>DarkBert</strong>, ein spezielles KI-Sprachmodell, das eigens dafür entwickelt wurde, das <strong>Darknet</strong> zu analysieren und zu verstehen. Du lernst, was dieses verborgene Netz eigentlich ist, warum herkömmliche Sprachmodelle hier an ihre Grenzen stoßen und wie DarkBert mit seinen besonderen Fähigkeiten zur Erforschung dieses abgeschotteten Bereichs beiträgt. Außerdem diskutieren wir, welche Chancen und Risiken es mit sich bringt, KI-Technologie auf das Darknet anzuwenden.</div>]]>
      </description>
      <pubDate>Thu, 26 Jun 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/e836687a.mp3?t=1750917613" length="6413583" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge erfährst du alles über <strong>DarkBert</strong>, ein spezielles KI-Sprachmodell, das eigens dafür entwickelt wurde, das <strong>Darknet</strong> zu analysieren und zu verstehen. Du lernst, was dieses verborgene Netz eigentlich ist, warum herkömmliche Sprachmodelle hier an ihre Grenzen stoßen und wie DarkBert mit seinen besonderen Fähigkeiten zur Erforschung dieses abgeschotteten Bereichs beiträgt. Außerdem diskutieren wir, welche Chancen und Risiken es mit sich bringt, KI-Technologie auf das Darknet anzuwenden.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/darkbert-sprachmodell-fuer-das-darknet</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/darkbert-sprachmodell-fuer-das-darknet"/>
      <itunes:title>DarkBert - Sprachmodell für das Darknet</itunes:title>
      <itunes:subtitle>Wie KI das verborgene Web verstehen lernt</itunes:subtitle>
      <itunes:duration>00:06:41</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>6</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge erfährst du alles über <strong>DarkBert</strong>, ein spezielles KI-Sprachmodell, das eigens dafür entwickelt wurde, das <strong>Darknet</strong> zu analysieren und zu verstehen. Du lernst, was dieses verborgene Netz eigentlich ist, warum herkömmliche Sprachmodelle hier an ihre Grenzen stoßen und wie DarkBert mit seinen besonderen Fähigkeiten zur Erforschung dieses abgeschotteten Bereichs beiträgt. Außerdem diskutieren wir, welche Chancen und Risiken es mit sich bringt, KI-Technologie auf das Darknet anzuwenden.</div>]]>
      </itunes:summary>
      <itunes:keywords>LLM, generative KI, ChatGPT, Künstliche Intelligenz, KI, KI Grundlagen, AI, Funktionsweise LLM, Darknet, DarkBert, , Prompt Engineering</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">e733a98677a641e8849e7ef34ca233ac</guid>
      <title>Prompt Engineering - KI effektiv nutzen</title>
      <description>
        <![CDATA[<div>In dieser Episode dreht sich alles um Prompt Engineering, einer Schlüsselkompetenz, um die Interaktion mit KI-Modellen wie ChatGPT und Co. optimal zu gestalten. Du erfährst, was genau ein Prompt ist, wie du Kontext und Feinabstimmung nutzt und welche verschiedenen Arten von Prompts – vom einfachen Zero-Shot bis zur ausgefeilten Ketten-von-Gedanken-Technik – dir zur Verfügung stehen.&nbsp;</div>]]>
      </description>
      <pubDate>Wed, 25 Jun 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/055c2f0a.mp3?t=1750748881" length="6309929" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Episode dreht sich alles um Prompt Engineering, einer Schlüsselkompetenz, um die Interaktion mit KI-Modellen wie ChatGPT und Co. optimal zu gestalten. Du erfährst, was genau ein Prompt ist, wie du Kontext und Feinabstimmung nutzt und welche verschiedenen Arten von Prompts – vom einfachen Zero-Shot bis zur ausgefeilten Ketten-von-Gedanken-Technik – dir zur Verfügung stehen.&nbsp;</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/prompt-engineering-ki-effektiv-nutzen</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/prompt-engineering-ki-effektiv-nutzen"/>
      <itunes:title>Prompt Engineering - KI effektiv nutzen</itunes:title>
      <itunes:subtitle>So verbesserst du die Antworten von KI mit gezielten Prompts</itunes:subtitle>
      <itunes:duration>00:06:34</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>5</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Episode dreht sich alles um Prompt Engineering, einer Schlüsselkompetenz, um die Interaktion mit KI-Modellen wie ChatGPT und Co. optimal zu gestalten. Du erfährst, was genau ein Prompt ist, wie du Kontext und Feinabstimmung nutzt und welche verschiedenen Arten von Prompts – vom einfachen Zero-Shot bis zur ausgefeilten Ketten-von-Gedanken-Technik – dir zur Verfügung stehen.&nbsp;</div>]]>
      </itunes:summary>
      <itunes:keywords>LLM, generative KI, ChatGPT, Künstliche Intelligenz, KI, KI Grundlagen, Prompt, Prompt Engineering</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">cace82debb6f470abc18da395e0a4c57</guid>
      <title>Einführung in die Generative KI</title>
      <description>
        <![CDATA[<div>In dieser Episode erfährst du, wie generative künstliche Intelligenz (Gen AI) arbeitet, um aus Daten völlig neue Inhalte zu erstellen – seien es Texte, Bilder, Videos oder Audios. Wir erklären dir Schritt für Schritt, wie große Datenmengen analysiert und in KI-Modelle verwandelt werden, um daraus kreative Werke zu generieren. Außerdem sprechen wir über Grenzen dieser Technologie, wie etwa eingeschränktes Wissen durch vortrainierte Modelle, und zeigen dir im Detail, wie sprach-, bild- und klangbasierte KI-Systeme funktionieren.</div>]]>
      </description>
      <pubDate>Tue, 24 Jun 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/52d8d86e.mp3?t=1750693798" length="7419193" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Episode erfährst du, wie generative künstliche Intelligenz (Gen AI) arbeitet, um aus Daten völlig neue Inhalte zu erstellen – seien es Texte, Bilder, Videos oder Audios. Wir erklären dir Schritt für Schritt, wie große Datenmengen analysiert und in KI-Modelle verwandelt werden, um daraus kreative Werke zu generieren. Außerdem sprechen wir über Grenzen dieser Technologie, wie etwa eingeschränktes Wissen durch vortrainierte Modelle, und zeigen dir im Detail, wie sprach-, bild- und klangbasierte KI-Systeme funktionieren.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/einfuehrung-in-die-generative-ki</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/einfuehrung-in-die-generative-ki"/>
      <itunes:title>Einführung in die Generative KI</itunes:title>
      <itunes:subtitle>Wie generative KI Texte, Bilder und Töne erschafft – verständlich erklärt</itunes:subtitle>
      <itunes:duration>00:07:44</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>4</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Episode erfährst du, wie generative künstliche Intelligenz (Gen AI) arbeitet, um aus Daten völlig neue Inhalte zu erstellen – seien es Texte, Bilder, Videos oder Audios. Wir erklären dir Schritt für Schritt, wie große Datenmengen analysiert und in KI-Modelle verwandelt werden, um daraus kreative Werke zu generieren. Außerdem sprechen wir über Grenzen dieser Technologie, wie etwa eingeschränktes Wissen durch vortrainierte Modelle, und zeigen dir im Detail, wie sprach-, bild- und klangbasierte KI-Systeme funktionieren.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, ChatGPT, generative KI, LLM, KI Grundlagen, KI, AI, Prompt, Bilderkennung, Funktionsweise LLM</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">e5c5f13e29c8495582122085f3d2641a</guid>
      <title>Die Drei Horizonte der LLM-Evolution</title>
      <description>
        <![CDATA[<div>In dieser Folge geht’s um die spannende Entwicklung von Large Language Models (LLMs) – also den KI-Systemen hinter Tools wie ChatGPT. Wir schauen uns die drei sogenannten „Horizonte“ an, die die Fähigkeiten dieser Modelle entscheidend verändert haben.</div>]]>
      </description>
      <pubDate>Mon, 23 Jun 2025 12:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/6c98aa1c.mp3?t=1750581190" length="7045120" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge geht’s um die spannende Entwicklung von Large Language Models (LLMs) – also den KI-Systemen hinter Tools wie ChatGPT. Wir schauen uns die drei sogenannten „Horizonte“ an, die die Fähigkeiten dieser Modelle entscheidend verändert haben.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/die-drei-horizonte-der-llm-evolution</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/die-drei-horizonte-der-llm-evolution"/>
      <itunes:title>Die Drei Horizonte der LLM-Evolution</itunes:title>
      <itunes:subtitle>Vom einfachen LLM zum KI-Agenten</itunes:subtitle>
      <itunes:duration>00:07:20</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>3</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge geht’s um die spannende Entwicklung von Large Language Models (LLMs) – also den KI-Systemen hinter Tools wie ChatGPT. Wir schauen uns die drei sogenannten „Horizonte“ an, die die Fähigkeiten dieser Modelle entscheidend verändert haben.</div>]]>
      </itunes:summary>
      <itunes:keywords>Künstliche Intelligenz, KI Grundlagen, LLM, generative KI, ChatGPT, KI Agenten, RAG</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">1a0b0fc3edf44ca2a32f302ab8f9f36a</guid>
      <title>Hallo KI, erzähl mir mehr!</title>
      <description>
        <![CDATA[<div>Hallo und herzlich willkommen bei Prompt mich mal!, deinem KI-generierten Podcast rund um künstliche Intelligenz – für alle, die einfach neugierig sind und mehr verstehen wollen.</div><div>Hier beantwortet eine KI genau die Fragen, die du dir schon immer gestellt hast:</div><div>Wie denken eigentlich KI-Modelle wie ChatGPT und Co.?<br>Können Maschinen kreativ sein, Gedichte schreiben oder eigenständig planen?<br>Und was passiert eigentlich in unserem Gehirn, wenn wir KI zur Unterstützung beim Denken nutzen?</div><div>Wir schauen gemeinsam hinter die Kulissen von KI-Systemen, klären, was KI wirklich weiß, und wie sie uns beeinflusst – heute und in Zukunft.</div><div>Kein Fachjargon, keine Vorkenntnisse nötig – einfach zuhören, staunen und mitreden.</div><div>Also mach’s dir bequem und: Prompt mich mal!</div>]]>
      </description>
      <pubDate>Sun, 22 Jun 2025 13:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/2b433414.mp3?t=1750592099" length="656195" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>Hallo und herzlich willkommen bei Prompt mich mal!, deinem KI-generierten Podcast rund um künstliche Intelligenz – für alle, die einfach neugierig sind und mehr verstehen wollen.</div><div>Hier beantwortet eine KI genau die Fragen, die du dir schon immer gestellt hast:</div><div>Wie denken eigentlich KI-Modelle wie ChatGPT und Co.?<br>Können Maschinen kreativ sein, Gedichte schreiben oder eigenständig planen?<br>Und was passiert eigentlich in unserem Gehirn, wenn wir KI zur Unterstützung beim Denken nutzen?</div><div>Wir schauen gemeinsam hinter die Kulissen von KI-Systemen, klären, was KI wirklich weiß, und wie sie uns beeinflusst – heute und in Zukunft.</div><div>Kein Fachjargon, keine Vorkenntnisse nötig – einfach zuhören, staunen und mitreden.</div><div>Also mach’s dir bequem und: Prompt mich mal!</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/hallo-ki-erzaehl-mir-mehr</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/hallo-ki-erzaehl-mir-mehr"/>
      <itunes:title>Hallo KI, erzähl mir mehr!</itunes:title>
      <itunes:subtitle>Dein Podcast über künstliche Intelligenz – einfach, verständlich und vollautomatisch erklärt.</itunes:subtitle>
      <itunes:duration>00:00:41</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>0</itunes:episode>
      <itunes:episodeType>trailer</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>Hallo und herzlich willkommen bei Prompt mich mal!, deinem KI-generierten Podcast rund um künstliche Intelligenz – für alle, die einfach neugierig sind und mehr verstehen wollen.</div><div>Hier beantwortet eine KI genau die Fragen, die du dir schon immer gestellt hast:</div><div>Wie denken eigentlich KI-Modelle wie ChatGPT und Co.?<br>Können Maschinen kreativ sein, Gedichte schreiben oder eigenständig planen?<br>Und was passiert eigentlich in unserem Gehirn, wenn wir KI zur Unterstützung beim Denken nutzen?</div><div>Wir schauen gemeinsam hinter die Kulissen von KI-Systemen, klären, was KI wirklich weiß, und wie sie uns beeinflusst – heute und in Zukunft.</div><div>Kein Fachjargon, keine Vorkenntnisse nötig – einfach zuhören, staunen und mitreden.</div><div>Also mach’s dir bequem und: Prompt mich mal!</div>]]>
      </itunes:summary>
      <itunes:keywords>LLM, generative KI, ChatGPT, KI, Kognitive Studie, RAG, KI Agenten, Künstliche Intelligenz, Prompt, AI, </itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">2cfd29d7402f4f91874ccde69fff7e9e</guid>
      <title>KI-Denkprozesse</title>
      <description>
        <![CDATA[<div>In dieser Episode tauchen wir tief ein in das Innenleben von Claude 3.5 Haiku, einem kompakten KI-Modell von Anthropic. Wir gehen der Frage nach, wie das Modell komplexe Aufgaben wie mehrstufiges Denken, poetische Planung und mehrsprachige Übersetzungen meistert.</div>]]>
      </description>
      <pubDate>Sun, 22 Jun 2025 10:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/ce3284db.mp3?t=1750580578" length="5663346" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Episode tauchen wir tief ein in das Innenleben von Claude 3.5 Haiku, einem kompakten KI-Modell von Anthropic. Wir gehen der Frage nach, wie das Modell komplexe Aufgaben wie mehrstufiges Denken, poetische Planung und mehrsprachige Übersetzungen meistert.</div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-denkprozesse</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/ki-denkprozesse"/>
      <itunes:title>KI-Denkprozesse</itunes:title>
      <itunes:subtitle>Einblicke in das Sprachmodell Claude</itunes:subtitle>
      <itunes:duration>00:05:54</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>2</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Episode tauchen wir tief ein in das Innenleben von Claude 3.5 Haiku, einem kompakten KI-Modell von Anthropic. Wir gehen der Frage nach, wie das Modell komplexe Aufgaben wie mehrstufiges Denken, poetische Planung und mehrsprachige Übersetzungen meistert.</div>]]>
      </itunes:summary>
      <itunes:keywords>ChatGPT, KI, generative KI, LLM, KI Grundlagen, Künstliche Intelligenz, Claude, Anthropic</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
    <item>
      <guid isPermaLink="false">1193fab602b04fdbabf73a9473256256</guid>
      <title>Der kognitive Fußabdruck der KI beim Schreiben</title>
      <description>
        <![CDATA[<div>In dieser Folge werfen wir einen kritischen Blick auf die Auswirkungen von KI-Tools wie ChatGPT auf unser Denken– verglichen mit klassischer Internetrecherche oder komplett eigenständigem Schreiben.</div><div>In einer spannenden Studie mit 54 Teilnehmenden wurde die Gehirnaktivität per EEG gemessen, während die Personen Aufsätze verfassten – mit und ohne Unterstützung durch KI oder Suchmaschine. Zusätzlich analysierte man die geschriebenen Texte mit sprachlichen KI-Tools (NLP) und führte Interviews mit den Beteiligten.</div><div><br>Grundlage ist die Studie "Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task" von<em> Nataliya Kosmyna MIT Media Lab Cambridge, MA</em></div>]]>
      </description>
      <pubDate>Sat, 21 Jun 2025 21:00:00 +0200</pubDate>
      <enclosure url="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/a6a65765.mp3?t=1750534958" length="5865221" type="audio/mpeg"/>
      <content:encoded>
        <![CDATA[<div>In dieser Folge werfen wir einen kritischen Blick auf die Auswirkungen von KI-Tools wie ChatGPT auf unser Denken– verglichen mit klassischer Internetrecherche oder komplett eigenständigem Schreiben.</div><div>In einer spannenden Studie mit 54 Teilnehmenden wurde die Gehirnaktivität per EEG gemessen, während die Personen Aufsätze verfassten – mit und ohne Unterstützung durch KI oder Suchmaschine. Zusätzlich analysierte man die geschriebenen Texte mit sprachlichen KI-Tools (NLP) und führte Interviews mit den Beteiligten.</div><div><br>Grundlage ist die Studie "Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task" von<em> Nataliya Kosmyna MIT Media Lab Cambridge, MA</em></div>]]>
      </content:encoded>
      <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/der-kognitive-fussabdruck-der-ki-beim-schreiben</link>
      <atom:link rel="http://podlove.org/deep-link" href="https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/der-kognitive-fussabdruck-der-ki-beim-schreiben"/>
      <itunes:title>Der kognitive Fußabdruck der KI beim Schreiben</itunes:title>
      <itunes:subtitle>Was passiert in unserem Gehirn, wenn wir ChatGPT nutzen?</itunes:subtitle>
      <itunes:duration>00:06:07</itunes:duration>
      <itunes:author>Tobias Wachtel</itunes:author>
      <itunes:episode>1</itunes:episode>
      <itunes:episodeType>full</itunes:episodeType>
      <itunes:summary>
        <![CDATA[<div>In dieser Folge werfen wir einen kritischen Blick auf die Auswirkungen von KI-Tools wie ChatGPT auf unser Denken– verglichen mit klassischer Internetrecherche oder komplett eigenständigem Schreiben.</div><div>In einer spannenden Studie mit 54 Teilnehmenden wurde die Gehirnaktivität per EEG gemessen, während die Personen Aufsätze verfassten – mit und ohne Unterstützung durch KI oder Suchmaschine. Zusätzlich analysierte man die geschriebenen Texte mit sprachlichen KI-Tools (NLP) und führte Interviews mit den Beteiligten.</div><div><br>Grundlage ist die Studie "Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task" von<em> Nataliya Kosmyna MIT Media Lab Cambridge, MA</em></div>]]>
      </itunes:summary>
      <itunes:image href="https://lcdn.letscast.fm/media/podcast/c410f03a/episode/a6a65765/artwork-3000x3000.jpg?t=1752499209"/>
      <image>
        <url>https://lcdn.letscast.fm/media/podcast/c410f03a/episode/a6a65765/artwork-3000x3000.jpg?t=1752499209</url>
        <title>Der kognitive Fußabdruck der KI beim Schreiben</title>
        <link>https://letscast.fm/sites/prompt-mich-mal-der-podcast-ueber-ki-chatgpt-kreative-prompts-c410f03a/episode/der-kognitive-fussabdruck-der-ki-beim-schreiben</link>
      </image>
      <itunes:keywords>ChatGPT, KI, generative KI, EEG, LLM, KI Grundlagen, Künstliche Intelligenz, Kognitive Studie</itunes:keywords>
      <itunes:explicit>no</itunes:explicit>
      <itunes:block>no</itunes:block>
      <googleplay:explicit>no</googleplay:explicit>
      <googleplay:block>no</googleplay:block>
    </item>
  </channel>
</rss>
