Die KI Kantine - Der Podcast

Michael Busch

Pentagon vs. Anthropic – Wenn KI-Ethik auf Militärlogik trifft

Warum eine einfache Nachfrage eines KI-Labors einen offenen Konflikt mit dem Pentagon ausgelöst hat – und was dieser Streit über die Zukunft militärischer KI verrät.

11.03.2026 7 min

Zusammenfassung & Show Notes

In dieser Folge der KI Kantine erzählt Buschi von einem ungewöhnlichen Konflikt zwischen dem KI-Unternehmen Anthropic und dem US-Verteidigungsministerium. Ausgelöst durch eine scheinbar harmlose Nachfrage zur Nutzung des Sprachmodells Claude in einer Militäraktion, entwickelte sich ein Streit über Kontrolle, Verantwortung und Ethik beim Einsatz von KI. 
 
Das Pentagon reagierte drastisch und stufte Anthropic plötzlich als Risiko in der Lieferkette ein – eine Kategorie, die normalerweise für geopolitische Rivalen reserviert ist. Gleichzeitig nutzt das Militär die Technologie weiterhin und erwägt sogar gesetzliche Maßnahmen, um die Zusammenarbeit zu erzwingen. 
 
Buschi erklärt, warum hinter diesem Konflikt ein tiefer Kulturunterschied steckt: Das Militär betrachtet KI als Werkzeug wie jedes andere Rüstungsgut, während KI-Labore ihre Systeme eher als verantwortungspflichtigen Service sehen. Außerdem wird deutlich, welche Rolle KI aktuell tatsächlich im Militär spielt – und warum Sprachmodelle noch weit davon entfernt sind, autonome Waffen zu steuern. 
 
Am Ende bleibt eine offene Frage: Gefährdet ein solcher Konflikt zwischen Staat und Tech-Industrie langfristig die Innovationskraft, auf die moderne Militärtechnologie angewiesen ist? 

Die KI-Kantine ist ein Projekt von Michael Busch – Entwickler, Unternehmer und neugieriger Kantinenphilosoph.

Hier geht’s regelmäßig zur Mittagspause um Künstliche Intelligenz im echten Entwickleralltag – verständlich, praxisnah und mit einer Prise Skepsis.

Neue Folgen erscheinen regelmäßig – meistens genau dann, wenn du dir eh gerade ein Tablett schnappst.

📬 Fragen, Feedback oder eigene KI-Erlebnisse? Schreib mir an podcast@ki-kantine.de

Alle Folgen & mehr: https://ki-kantine.letscast.fm/

Transkript

(Transkribiert von TurboScribe. Upgrade auf Unbegrenzt, um diese Nachricht zu entfernen.) Mahlzeit. Sag mal, hast du von dem Streit zwischen Anthropic und dem Pentagon mitbekommen? Nö, das hab ich nicht wirklich. Anthropic, also die Firma hinter Claude und das Verteidigungsministerium, waren eigentlich Partner im Entwickeln von Techniken, die man in der Kriegsführung braucht. Und eigentlich war sogar Anthropic das eines der wenigen KI-Labore, das überhaupt bereit war, mit dem Militär zusammenzuarbeiten. Also auch an Projekten, die im Bereich der nationalen Sicherheit laufen. Und jetzt hat das Pentagon die Firma praktisch auf eine schwarze Liste gesetzt. Die Begründung ist, dass Anthropic ein Supply Chain Risk ist, also ein Risiko in der Lieferkette. Und in diese Kategorie fallen eigentlich nur so Firmen, die Gefahr versprühen, dass sie Hintertürchen einbauen in die Software oder halt von fremden Mächten, wie China unterstützt wird. Huawei war zum Beispiel so eine Firma, die auf diese Liste kam. Und jetzt ist es plötzlich so ein amerikanisches KI-Startup. Aha. Und wie man so hört, ist der Auslöser dafür eigentlich ziemlich banal. Als die Amerikaner in Venezuela den Machthaber Maduro gefangen genommen haben. Da hat ein Mitarbeiter von Anthropic bei Palantir angerufen und hat gesagt, sag mal, wird unser Modell Claude eigentlich für diese Operation verwendet? Das ist jetzt gar nicht so eine streng geheime Nachfrage, immerhin arbeiten die ja zusammen. Aber aus der Sicht des Militärs war es ein Tabubruch. In dem militärischen Denken hat so ein Zulieferer einfach keine Fragen zu stellen. Der soll liefern und fertig. Und die Idee, dass so ein privates Unternehmen wissen möchte, wie seine Technologie in der Operation eingesetzt wird, gilt wohl als Vertrauensbruch. Da sieht man eigentlich schon ganz gut, wie unterschiedlich doch die Kulturen sind. Im Silicon Valley denkt man eher, Technologien hat Konsequenzen, also wollen wir mal wissen, wie sie eingesetzt wird. Und im Militär denkt man, wenn etwas rechtlich erlaubt ist, entscheidet der Staat selber, nicht der Hersteller. Und als Reaktion wird jetzt Anthropic als Sicherheitsrisiko eingestuft. Das Absurde an der ganzen Geschichte ist, dass sie natürlich weiterhin das nutzen wollen. Denn gerade im Iran ist es ein Tool, das seinen Einsatz findet. Interessant. Und jetzt hat das Militär gesagt, also das Pentagon gesagt, wir benötigen jetzt sechs Monate, um quasi Cloth überall raus zu operieren. Aber wenn das schon so ein großes Sicherheitsrisiko ist, wieso kann man sich dann jetzt noch sechs Monate erlauben? Hinter dem ganzen steckt so ein viel tieferer Konflikt. Denn das Pentagon betrachtet KI so eher als Hardware, also so ähnlich wie ein Flugzeug oder Rakete. Wenn Lockheed Martin eine F-35 liefert, dann entscheidet der Staat ja nun alleine, wie er das einsetzt. Und Lockheed Martin wird sich schön zurückhalten, um zu sagen, ja, aber die und die und die Länder sollst du damit nicht angreifen. Natürlich hat so eine Firma nach dem Verkauf kein Mitsprachrecht. Aber Anthropx sieht natürlich die KI eher als ein Service. Weil diese Modelle werden ja auch ständig weiterentwickelt durch die Lernweite, sie verändern sich und reagieren halt auf Daten. Und deshalb sagen die, wir wollen so gewisse Leitplanken. Zum Beispiel wollen wir keine Massenüberwachung an amerikanische Staatsbürgern. Und wir wollen auch nicht, dass unsere KI in autonomen Kampfmaschinen, Raketen oder was auch immer eingesetzt wird. Aber für das Militär wirkt das natürlich wie ein Angriff auf die eigene Souveränität. Aha. Dort ist die Logik, solange etwas legal ist, darf es auch eingesetzt werden. Und irgendein Lieferant hat da ganz sicher nicht mitzubestimmen, was ethisch ist. Wir haben aber natürlich auch in der Vergangenheit jetzt schon erlebt, wie schnell etwas legal wird, auch wenn es vorher nicht legal war. Die Argumentation finde ich schon ein bisschen schwach, lesen die keine eigenen Zeitungen in Amerika. Aber was in der öffentlichen Debatte auch völlig durcheinander geht, ist, dass diese Sprachmodelle überhaupt keine Drohnen oder Panzer oder irgendwas steuern. Es gab noch überhaupt keinen Einsatz in irgendetwas, was diese Leitplanken überhaupt nur berührt hätten. Man redet also hier über einen hypothetischen Fall. In den Tools, die die nutzen, das ist zum Beispiel Marvin heißt es, das ist das von Palantir, die Oberfläche, die werden für Entscheidungshilfen eingesetzt. Also da filtert die KI nur riesige Datenmengen, Satellitenbilder, Funksignale, Nachrichtenströme oder sowas. Und versucht dann, Analysen zu machen und Muster zu erkennen. Und bevor die sowas in ein autonomes Waffensystem einbauen, müssen auch viele, viele Tests gemacht werden und so weiter. Das ist ja auch ein Beamterapparat. Jetzt denkst du, wie viele Zwischenschritte es da gibt. Wir kennen das ja, die Bürokratie auch in Deutschland. Deshalb gibt es natürlich auch die Überlegung, hat das Anthropic einfach nur aus Marketinggründen so an die große Glocke gehängt. Denn was tatsächlich passiert ist, die sind aufgrund ihrer ablehnenden Haltung sehr positiv aufgenommen worden von der Gemeinschaft und haben dann sich im Ranking der genutzten Apps ziemlich weit nach oben gekämpft. Ich könnte mir natürlich auch vorstellen, dass die sich jetzt schon absichern wollen, falls dann doch mal irgendeine KI-Entscheidung getroffen wird, die sich fatal auswirkt. Dann können sie immer sagen, hey, wir haben ja gesagt, wir wollen nicht, dass es dafür benutzt wird, denn unsere KI ist noch nicht so weit, solche weitreichenden Entscheidungen allein zu treffen. Interessant. Wenn man sich das so anschaut, dann gibt es eigentlich einen größeren Schaden und zwar für die gesamte Tech-Industrie. Wenn ein Unternehmen versucht, ethische Grenzen zu definieren und dann vom Staat praktisch dafür abgestraft wird, dann könnte es die anderen Firmen doch ziemlich vorsichtig machen. Die könnten sogar überlegen, Amerika zu verlassen und nach Europa zu gehen. Das ist ja dann doch berechenbarer alles. Und so bleibt dann doch so ein bisschen das Gefühl, dass das hier eher ein Kampf der Egos ist, als wirklich ein ethischer Kampf. Auf jeden Fall ist jetzt OpenAI eingesprungen und wird diese Tätigkeiten übernehmen. Die werden bei Palantir eingebaut werden und Claude fliegt da raus. Aber die ChatGBT-App ist im App Store nach unten gerutscht. Mein Magen rutscht auch immer weiter runter. Können wir jetzt Edlinor essen? Das ist die KI-Kantine. Wir sitzen in der KI-Kantine. Die KI-Kantine ist ein Projekt von Michael Busch, der auch beim nächsten Mal wieder ein frisches KI-Gericht auftischt mit einer Prise Pommes und einer Beilage Skepsis. Wir sitzen in der KI-Kantine. Hier ist die KI-Kantine.