Ultimatum aus Washington KI fürs Militär: Wo sind die Grenzen?
Das Pentagon fordert von Anthropic die volle Freigabe seiner KI für militärische Anwendungen - und setzt eine Frist. Der Konflikt berührt Grundsatzfragen zu Sicherheit und Einsatzgrenzen von KI.
Das US-Verteidigungsministerium verlangt, dass der KI-Entwickler Anthropic seine Technologie umfassend für militärische Anwendungen öffnet - und das bis Freitag, 17:01 Uhr. Sollte der CEO von Anthropic, Dario Amodei, dem nicht zustimmen, droht das Pentagon mit scharfen Konsequenzen.
Gesetz aus dem Kalten Krieg als Teil der Drohkulisse
Sollte Anthropic nicht nachgeben, könnte das Pentagon den laufenden Deal über bis zu 200 Millionen Dollar kündigen. Das US-Militär hatte im Sommer 2025 Großaufträge an mehrere Unternehmen vergeben, um Unterstützung im Bereich Künstlicher Intelligenz zu bekommen.
Verteidigungsminister Pete Hegseth stellte zudem klar, das Pentagon werde vom Defense Production Act (DPA) Gebrauch machen und Anthropic zwingen, seine Produkte für "alle rechtmäßigen Zwecke" des Militärs freizugeben.
Das DPA ist ein Gesetz aus den Zeiten des Kalten Krieges: Es ermöglicht der Regierung, die Kontrolle über Unternehmen und deren Produkte zu erlangen - im Namen der nationalen Sicherheit. Zuletzt wurde es während der Covid-Pandemie genutzt, um Engpässe bei der medizinischen Versorgung zu beheben.
Kommt Anthropic auf die "schwarze Liste" des Pentagon?
Außerdem drohte Hegseth, Anthropic als Lieferkettenrisiko einzustufen. Eine solche Einstufung ist üblicherweise Unternehmen vorbehalten, die als verlängerter Arm ausländischer Gegner wie Russland oder China gelten.
Geriete Anthropic auf diese "schwarze Liste", wäre das ein schwerer Schlag für das Unternehmen - und würde seinen Ruf schwer beschädigen. Auch Aufträge von anderen Unternehmen gerieten in Gefahr. Für Anthropic geht es damit um viel Geld - warum also zögert Amodei?
Risiken bei Massenüberwachung und KI-gesteuerten Waffen
Hintergrund sind die Nutzungsrichtlinien von Anthropic: Hier hat das Unternehmen ganz klare rote Linien festgelegt. Mit Blick auf den Pentagon-Auftrag hat Anthropic vor allem bei zwei Punkten große Bedenken: KI-gesteuerte Waffen und die massenhafte Überwachung von US-Bürgern im Inland.
Denn Anthropic ist sich der Grenzen von KI sehr bewusst - generative KI-Modelle können halluzinieren, also überzeugend formulierte, aber falsche Inhalte produzieren. Im militärischen Kontext, bei der Überwachung oder gar Waffensteuerung, könnten solche Fehler gravierende Folgen haben.
Anthropic ist Sicherheit von KI-Anwendungen wichtig
Dass Anthropic hier zurückhaltend ist, hängt auch mit seiner Geschichte zusammen: Die Firmengründer sind alle ehemalige OpenAI-Mitarbeiter, die die ChatGPT-Firma aufgrund von Meinungsverschiedenheiten über die strategische Ausrichtung und den Sicherheitsansatz verlassen hatten.
Seit seiner Gründung positioniert sich Anthropic als das KI-Unternehmen, dem die Sicherheit von KI-Anwendungen am wichtigsten ist. Mit dieser Haltung steht es unter den großen Tech-Konzern allerdings recht allein da.
Andere KI-Firmen kooperieren bereits
So hat etwa OpenAI bereits Anfang 2024 eine Formulierung aus seinen Richtlinien entfernt, die die militärische Nutzung seiner KI-Tools explizit ausschloss. Die Änderung erfolgte im Zuge einer engeren Zusammenarbeit mit dem Pentagon.
Zudem betonten hochrangige Verteidigungsbeamte der Washington Post zufolge, dass andere Unternehmen wie etwa Elon Musks xAI der umfassenden Nutzung ihrer KI-Modelle für militärische Zwecke bereits zugestimmt hätten.
Machtfrage der KI-Ära
Der Streit zwischen Anthropic und dem Pentagon berührt somit Grundsatzfragen der KI-Ära: Wie weit darf der Einsatz von KI für militärische Zwecke gehen? Und wer setzt die Leitplanken: Unternehmen oder Staat?
Erst Anfang Januar veröffentlichte Amodei einen Essay, in dem er vor den Gefahren vollautonomer Waffensysteme und Massenüberwachungsinstrumente warnt. Danach könnte man zwar von demokratischen Ländern Beschränkungen für den Einsatz solcher Systeme erwarten - "doch einige dieser Schutzmechanismen werden in manchen Demokratien bereits schrittweise abgebaut".