KI-Workflow: So funktioniert mein Empfehlungssystem (Teil 2)
Vom Embedding Agent bis zur semantischen Suche: Wie mein KI-System passende Produkte vorschlägt.
08.10.2025 5 min
Zusammenfassung & Show Notes
In dieser Folge der KI Kantine erklärt Buschi, wie sein KI-gestütztes Empfehlungssystem für Online-Shops technisch funktioniert. Er beschreibt die Rolle von Embeddings, Payload-Filtern und Vektordatenbanken – und wie alles zusammenspielt, um passende Produktempfehlungen zu generieren. Ganz nebenbei erfährt man auch, was ein “Embedding Agent” ist und warum eine zweite Folge nötig war, um den komplexen Workflow verständlich zu machen.
Die KI-Kantine ist ein Projekt von Michael Busch – Entwickler, Unternehmer und neugieriger Kantinenphilosoph.
Hier geht’s regelmäßig zur Mittagspause um Künstliche Intelligenz im echten Entwickleralltag – verständlich, praxisnah und mit einer Prise Skepsis.
Neue Folgen erscheinen regelmäßig – meistens genau dann, wenn du dir eh gerade ein Tablett schnappst.
Hier geht’s regelmäßig zur Mittagspause um Künstliche Intelligenz im echten Entwickleralltag – verständlich, praxisnah und mit einer Prise Skepsis.
Neue Folgen erscheinen regelmäßig – meistens genau dann, wenn du dir eh gerade ein Tablett schnappst.
📬 Fragen, Feedback oder eigene KI-Erlebnisse? Schreib mir an podcast@ki-kantine.de
Alle Folgen & mehr: https://ki-kantine.letscast.fm/
Alle Folgen & mehr: https://ki-kantine.letscast.fm/
Transkript
(Transkribiert von TurboScribe.ai. Upgrade auf Unbegrenzt, um diese Nachricht zu entfernen.) Mahlzeit.
Mahlzeit.
Sag mal, kannst dich noch daran erinnern, dass
wir über den Workflow zu meinem Projekt mit
den KI-Empfehlungen für Online-Shops gesprochen haben?
Klar kann ich mich dran erinnern.
Aber es war schon schwierig, so richtig verstanden
habe ich das nicht.
Ich hatte erzählt, dass ich da eine Vektordatenbank
für die semantische Suche benutze.
Und wenn du dich erinnerst, so die LLM
zerlegt ja Sätze in Tokens.
Und diese kleinen Teile, diese Tokens, werden ja
dann in Vektoren, sogenannte Embeddings umgewandelt.
Über diese Zahlenreihe, diese Vektoren, findet dann die
KI Ähnlichkeiten über Winkel im Raum und so.
Aha.
Das heißt ja, ich muss den Beschreibungstext für
einen Artikel in so ein Embedding umwandeln.
Und das kann man mit OpenAI machen oder
mit Gemini.
Wichtig ist aber dabei, dass man das für
alle Artikel mit dem gleichen Modell macht.
Sonst findet er keine sinnvollen Ähnlichkeiten.
Das ist echt günstig.
Ich mache das mit Gemini.
Aber wenn man das mal umstellen will, weil
es zum Beispiel teurer geworden ist, dann muss
man das für alle Artikel in der Vektordatenbank
nochmal neu machen.
Interessant.
Das heißt also, um für einen speziellen Artikel
passende Empfehlungen zu finden, müssen erstmal alle Artikel
in dieser Vektordatenbank sein.
Und da wir ja bereits GIGO kennen, also
Garbage In, Garbage Out, müssen wir schon dafür
sorgen, dass die Artikelbeschreibungen für jeden Artikel so
gut wie möglich sind.
Und das kriegt man halt am besten mit
einer festen Struktur für diese Beschreibungstexte.
Und dafür nutze ich dann auch die KI,
der ich so viele Daten wie möglich gebe,
also Titel, Beschreibung, Kategorien, zusätzliche Parameter.
Und dann mit einem guten Prompt darum bitte,
die Beschreibung fürs Embedding so informationsdicht wie möglich
zu machen.
Und sowas ist im Prinzip ein KI-Agent,
dem ich eine Aufgabe gebe.
Wir nennen ihn mal den Embedding Agent.
Aha.
Das Projekt wird ja ein Software-as-a
-Service.
Und deshalb muss man davon ausgehen, dass hoffentlich
in dieser Vektordatenbank Artikel von mehr als einem
Shop untergebracht werden müssen.
Jetzt kann man aber in diesen Embeddings nicht
auch noch den Shop-Namen unterbringen und hoffen,
dass das dann in einer Ähnlichkeitssuche gefunden wird.
Deshalb gibt es für jeden Artikeldatensatz in so
einer Vektordatenbank auch noch sowas, was man Payload
nennt.
Und da kann man also Daten hinterlegen, die
man nicht semantisch flexibel finden will, sondern präzise
und exakt.
Und hier packt man halt zum Beispiel eine
Shop-ID rein.
Dann kann man bei der semantischen Suche noch
zusätzlich angeben, bitte mach eine Ähnlichkeitssuche nur für
Einträge, die in der Payload mit der Shop
-ID sagen wir mal 6 sind.
Das ist also quasi ein Filter auf die
semantische Suche.
Ich sag mal, aha, jetzt habe ich aber
noch die Superbase.
Das ist so eine Postgres-Datenbank.
Und in dieser Datenbank führe ich natürlich Buch
über alle Artikel, die ich in die Vektordatenbank
geschoben habe.
Und ich merke mir auch diesen Embedding-Vektor,
der nach der Verschlankung und Anreicherung der Beschreibung
entstanden ist.
Und der Ablauf bei so einer Abfrage von
Empfehlungen ist also wie folgt.
Über die Schnittstelle kommt eine Artikelnummer.
In Superbase suche ich diese Artikelnummer und nehme
dann den dort gespeicherten Vektor und übergebe den
einem zweiten Agenten, den ich noch habe.
Der kontaktiert die Vektordatenbank, macht eine semantische Suche
mit Vektor und diesen Payload-Filtern.
Und der Agent hat dann noch die zusätzliche
Aufgabe, in der Rückmeldung eine Erklärung zu geben,
wieso denn dieser Artikel eine sinnvolle Empfehlung ist.
Und dazu kriegt er halt auch nochmal ein
ausführliches Prompt, das er mit der KI erarbeitet.
Und die Aufgabe des Agenten ist dann eben,
ein Array zurückzumelden über die Schnittstelle mit der
Artikelnummer der Empfehlungen und jeweils einer Begründung, warum
dieser Artikel eine Empfehlung ist.
Wenn du für die Artikelnummer immer die Beschreibung
raussuchst, könnte man da nicht einfach gleich die
Beschreibung eingeben, also so wie ein Prompt.
Super mitgedacht.
Die Idee kam mir nämlich auch und daran
arbeite ich sogar gerade.
Aber das ist schon ziemlich komplex und darüber
kann ich jetzt noch nicht viel erzählen.
Aber ich kann dir was von meinem Hunger
erzählen.
Können wir jetzt Edlimor essen?
Das ist die KI-Kantine.
Wir sitzen in der KI-Kantine.
Die KI-Kantine ist ein Projekt von Michael
Busch, der auch beim nächsten Mal wieder ein
frisches KI-Gericht auftischt mit einer Prise Pommes
und einer Beilage Skepsis.
Wir sitzen in der KI-Kantine.
Hier ist die KI-Kantine.