Die KI Kantine - Der Podcast

Michael Busch

KI-Workflow: So funktioniert mein Empfehlungssystem (Teil 2)

Vom Embedding Agent bis zur semantischen Suche: Wie mein KI-System passende Produkte vorschlägt.

08.10.2025 5 min

Zusammenfassung & Show Notes

In dieser Folge der KI Kantine erklärt Buschi, wie sein KI-gestütztes Empfehlungssystem für Online-Shops technisch funktioniert. Er beschreibt die Rolle von Embeddings, Payload-Filtern und Vektordatenbanken – und wie alles zusammenspielt, um passende Produktempfehlungen zu generieren. Ganz nebenbei erfährt man auch, was ein “Embedding Agent” ist und warum eine zweite Folge nötig war, um den komplexen Workflow verständlich zu machen. 

Die KI-Kantine ist ein Projekt von Michael Busch – Entwickler, Unternehmer und neugieriger Kantinenphilosoph.

Hier geht’s regelmäßig zur Mittagspause um Künstliche Intelligenz im echten Entwickleralltag – verständlich, praxisnah und mit einer Prise Skepsis.

Neue Folgen erscheinen regelmäßig – meistens genau dann, wenn du dir eh gerade ein Tablett schnappst.

📬 Fragen, Feedback oder eigene KI-Erlebnisse? Schreib mir an podcast@ki-kantine.de

Alle Folgen & mehr: https://ki-kantine.letscast.fm/

Transkript

(Transkribiert von TurboScribe.ai. Upgrade auf Unbegrenzt, um diese Nachricht zu entfernen.) Mahlzeit. Mahlzeit. Sag mal, kannst dich noch daran erinnern, dass wir über den Workflow zu meinem Projekt mit den KI-Empfehlungen für Online-Shops gesprochen haben? Klar kann ich mich dran erinnern. Aber es war schon schwierig, so richtig verstanden habe ich das nicht. Ich hatte erzählt, dass ich da eine Vektordatenbank für die semantische Suche benutze. Und wenn du dich erinnerst, so die LLM zerlegt ja Sätze in Tokens. Und diese kleinen Teile, diese Tokens, werden ja dann in Vektoren, sogenannte Embeddings umgewandelt. Über diese Zahlenreihe, diese Vektoren, findet dann die KI Ähnlichkeiten über Winkel im Raum und so. Aha. Das heißt ja, ich muss den Beschreibungstext für einen Artikel in so ein Embedding umwandeln. Und das kann man mit OpenAI machen oder mit Gemini. Wichtig ist aber dabei, dass man das für alle Artikel mit dem gleichen Modell macht. Sonst findet er keine sinnvollen Ähnlichkeiten. Das ist echt günstig. Ich mache das mit Gemini. Aber wenn man das mal umstellen will, weil es zum Beispiel teurer geworden ist, dann muss man das für alle Artikel in der Vektordatenbank nochmal neu machen. Interessant. Das heißt also, um für einen speziellen Artikel passende Empfehlungen zu finden, müssen erstmal alle Artikel in dieser Vektordatenbank sein. Und da wir ja bereits GIGO kennen, also Garbage In, Garbage Out, müssen wir schon dafür sorgen, dass die Artikelbeschreibungen für jeden Artikel so gut wie möglich sind. Und das kriegt man halt am besten mit einer festen Struktur für diese Beschreibungstexte. Und dafür nutze ich dann auch die KI, der ich so viele Daten wie möglich gebe, also Titel, Beschreibung, Kategorien, zusätzliche Parameter. Und dann mit einem guten Prompt darum bitte, die Beschreibung fürs Embedding so informationsdicht wie möglich zu machen. Und sowas ist im Prinzip ein KI-Agent, dem ich eine Aufgabe gebe. Wir nennen ihn mal den Embedding Agent. Aha. Das Projekt wird ja ein Software-as-a -Service. Und deshalb muss man davon ausgehen, dass hoffentlich in dieser Vektordatenbank Artikel von mehr als einem Shop untergebracht werden müssen. Jetzt kann man aber in diesen Embeddings nicht auch noch den Shop-Namen unterbringen und hoffen, dass das dann in einer Ähnlichkeitssuche gefunden wird. Deshalb gibt es für jeden Artikeldatensatz in so einer Vektordatenbank auch noch sowas, was man Payload nennt. Und da kann man also Daten hinterlegen, die man nicht semantisch flexibel finden will, sondern präzise und exakt. Und hier packt man halt zum Beispiel eine Shop-ID rein. Dann kann man bei der semantischen Suche noch zusätzlich angeben, bitte mach eine Ähnlichkeitssuche nur für Einträge, die in der Payload mit der Shop -ID sagen wir mal 6 sind. Das ist also quasi ein Filter auf die semantische Suche. Ich sag mal, aha, jetzt habe ich aber noch die Superbase. Das ist so eine Postgres-Datenbank. Und in dieser Datenbank führe ich natürlich Buch über alle Artikel, die ich in die Vektordatenbank geschoben habe. Und ich merke mir auch diesen Embedding-Vektor, der nach der Verschlankung und Anreicherung der Beschreibung entstanden ist. Und der Ablauf bei so einer Abfrage von Empfehlungen ist also wie folgt. Über die Schnittstelle kommt eine Artikelnummer. In Superbase suche ich diese Artikelnummer und nehme dann den dort gespeicherten Vektor und übergebe den einem zweiten Agenten, den ich noch habe. Der kontaktiert die Vektordatenbank, macht eine semantische Suche mit Vektor und diesen Payload-Filtern. Und der Agent hat dann noch die zusätzliche Aufgabe, in der Rückmeldung eine Erklärung zu geben, wieso denn dieser Artikel eine sinnvolle Empfehlung ist. Und dazu kriegt er halt auch nochmal ein ausführliches Prompt, das er mit der KI erarbeitet. Und die Aufgabe des Agenten ist dann eben, ein Array zurückzumelden über die Schnittstelle mit der Artikelnummer der Empfehlungen und jeweils einer Begründung, warum dieser Artikel eine Empfehlung ist. Wenn du für die Artikelnummer immer die Beschreibung raussuchst, könnte man da nicht einfach gleich die Beschreibung eingeben, also so wie ein Prompt. Super mitgedacht. Die Idee kam mir nämlich auch und daran arbeite ich sogar gerade. Aber das ist schon ziemlich komplex und darüber kann ich jetzt noch nicht viel erzählen. Aber ich kann dir was von meinem Hunger erzählen. Können wir jetzt Edlimor essen? Das ist die KI-Kantine. Wir sitzen in der KI-Kantine. Die KI-Kantine ist ein Projekt von Michael Busch, der auch beim nächsten Mal wieder ein frisches KI-Gericht auftischt mit einer Prise Pommes und einer Beilage Skepsis. Wir sitzen in der KI-Kantine. Hier ist die KI-Kantine.