Geben oder Geizen? Die KI hat längst gewählt
Wie Nachdenken Sprachmodelle egoistischer macht – und was das für uns bedeutet.
06.11.2025
Zusammenfassung & Show Notes
Wie verhalten sich große Sprachmodelle (LLMs), wenn es nicht nur um Fakten, sondern um Fairness geht? In dieser Folge geht es um eine neue Studie, die zeigt, dass Sprachmodelle in sozialen Dilemmata überraschend menschlich reagieren – und nicht immer zum Guten. Wenn Modelle wie GPT-o1 dazu gebracht werden, bewusst nachzudenken (etwa über Chain-of-Thought-Techniken), steigt ihre Neigung, egoistisch zu handeln. Die Modelle beginnen zu rechnen, kalkulieren ihren Nutzen – und verzichten auf Kooperation. Damit spiegeln sie ein altes menschliches Muster: spontanes Geben versus strategisches Nehmen. Gruppen mit „denkenden“ Modellen erzielen in Simulationen geringere Gesamterträge. Was das über KI, Moral und kollektives Verhalten aussagt – und warum soziale Intelligenz in Zukunft mittrainiert werden muss, das erfahrt ihr in dieser Episode.