Der Weg nach KAI

Michael Berndt
Since 05/2024 53 Episoden

Ilya Sutskever, SSI, OpenAI, Google und NVIDIA: Die KI-Wette auf eine sichere Superintelligenz (Teil 1)

16.04.2025 23 min

Zusammenfassung & Show Notes

Der Weg nach KAI – Episode 53: Ilya Sutskever, SSI, OpenAI, Google und NVIDIA: Die KI-Wette auf eine sichere Superintelligenz (Teil 1)

Diesmal untersuchen wir die Entwicklung hin zu sicherer Superintelligenz (ASI), ein Ziel, das über die aktuelle Jagd nach Künstlicher Allgemeiner Intelligenz hinausgeht und besonders durch das neue Unternehmen 'Safe Superintelligence Inc.' (SSI) verkörpert wird.
Im Zentrum steht Ilya Sutskever, Mitbegründer von OpenAI und Pionier des Deep Learning (AlexNet). Nach internen Konflikten bei OpenAI über die Priorisierung von Sicherheit gründete er SSI. Unterstützt von Investoren wie Google (Alphabet) und NVIDIA, verfolgt SSI das erklärte Ziel, ausschließlich sichere Superintelligenz zu entwickeln. Das Unternehmen betont seine Unabhängigkeit von kurzfristigem kommerziellem Druck und Produktzyklen, ein Ansatz, der als "Straight-Shot"-Strategie bezeichnet wird. 
ASI beschreibt eine hypothetische KI, die menschliche Intelligenz in praktisch allen kognitiven Aufgaben übertrifft. Die zentrale technische Herausforderung ist das Alignment-Problem: Wie stellt man sicher, dass eine ASI zuverlässig menschliche Werte und Absichten verfolgt, um katastrophale Fehlinterpretationen oder gar "deceptive alignment" (trügerische Anpassung) zu vermeiden?