Wissenschaft Veränderung

Sebastian Fischer

#15 Von der Halluzination zur Präzision: Ein Blick in die Trickkiste der KI-Entwicklung

25.07.2025 70 min

Zusammenfassung & Show Notes

Wir alle nutzen KI-Sprachmodelle, doch wie verlässlich sind ihre Antworten wirklich? Studien zeigen, dass selbst fortschrittliche Modelle wie GPT-4 bei Faktenfragen oft nur eine Trefferquote von rund 60 % erreichen und zum "Halluzinieren" neigen. Aber es gibt Methoden, das zu ändern.
In dieser Folge sprechen wir mit Nicolas Kohl, der sich im Rahmen seiner Bachelorarbeit bei SAP genau diesem Problem gewidmet hat. Er erklärt den Ansatz der "Retrieval-Augmented Generation" (RAG), bei dem eine KI lernt, ihre Antworten auf Basis externer, verlässlicher Dokumente zu formulieren, anstatt sich auf ihr eigenes, manchmal fehlerhaftes Wissen zu verlassen.
Wir tauchen tief ein in die Optimierung dieser Methode und klären, warum es nicht nur darauf ankommt, der KI überhaupt Daten zu geben, sondern auch darauf, ihr die richtigen Daten in der richtigen Menge zu präsentieren.