Der Einstieg ist frei. Ab Teil 2 in Loreley+

Veröffentlicht im Mai 2026

KI – die Schlüsseltechnologie, über die niemand ehrlich spricht

Im Februar 2026 erklärt der nordrhein-westfälische Innenminister Herbert Reul (CDU) gegenüber dem WDR-Magazin Westpol, das Land suche einen neuen Anbieter für seine polizeiliche Datenanalyse-Software. Begründung: die Entwicklung in den USA. Wörtlich:

„Wir suchen, und mehrere Bundesländer und der Bund auch. Wir sind alle auf der Pirsch, eine Firma zu finden, die das auch bieten kann, zumindest in etwa.“

Bemerkenswert ist daran nicht der Satz. Bemerkenswert ist der Sprecher. Reul hat seit Oktober 2020 die Software des US-Konzerns Palantir in Nordrhein-Westfalen einsetzen lassen – zunächst im Testbetrieb, ab 2022 im Regelbetrieb. Als die NRW-Datenschutzbeauftragte 2021 öffentlich erklärte, der Einsatz mit Echtdaten sei rechtswidrig, widersprach Reul. Als die Gesellschaft für Freiheitsrechte 2023 erfolgreich vor dem Bundesverfassungsgericht klagte und das Gericht die hessische und hamburgische Schwester-Software für verfassungswidrig erklärte, blieb der NRW-Einsatz bestehen. Auch nach dem Urteil hat Reul die Software nicht eingeschränkt, sondern die polizeilichen Befugnisse durch das neue Polizeigesetz erweitert – einschließlich KI-Training auf Polizeidaten. Fünf Jahre lang wurde gegen Bedenken regiert. Was sich 2026 geändert hat, ist nicht die Software, nicht die Eigentümerstruktur, nicht der Geheimdiensthintergrund des Anbieters. Geändert hat sich, wer im Weißen Haus sitzt.

Das ist die deutsche KI-Debatte 2026 in einem einzigen Vorgang: Eine strukturelle Frage – wer kontrolliert die Analyseinfrastruktur deutscher Polizeibehörden – wird jahrelang weggewischt, bis tagespolitische Opportunität erlaubt, sie als europäisches Souveränitätsanliegen zu entdecken.

Die Stellvertreterdebatte

Was im politischen und medialen Diskurs aktuell als KI-Frage verhandelt wird, lautet: regulieren oder skalieren? EU-Kommission und Bundesregierung streiten darüber, ob der AI Act den Standort Deutschland gefährde, ob deutsche Startups in den USA besser aufgehoben wären, ob die Bundesnetzagentur als Aufsichtsbehörde geeignet sei. Verbände warnen vor Abwanderung. Politiker fordern Vereinfachung. Brüssel diskutiert Verschiebungen.

Das ist eine Debatte. Sie ist nicht falsch. Aber sie ist nicht die wichtigste.

Die These dieses Textes lautet: Die Debatte „regulieren oder skalieren“ ist eine Stellvertreterdebatte. Die drei eigentlichen Machtfragen, die mit Künstlicher Intelligenz in Deutschland und Europa entschieden werden, stehen außerhalb dieses Diskursrahmens. Sie werden nicht öffentlich verhandelt, sondern in Rahmenverträgen, Beschaffungsausschüssen, Trilogverhandlungen und Untersuchungsausschüssen – an Orten, an denen die Standortdebatte nicht hinreicht und nicht hinreichen soll.

Diese drei Machtfragen lauten:

Erstens: Wer kontrolliert die Analyseinfrastruktur deutscher Polizei- und Sicherheitsbehörden?

Zweitens: Wer rüstet die Bundeswehr mit Künstlicher Intelligenz aus, mit welchem Personal und unter welcher demokratischen Kontrolle?

Drittens: Wer schreibt die Regeln des AI Act – und in wessen Interesse?

Hinter allen drei Fragen steht eine vierte, die selten benannt wird: die Frage nach der strukturellen Abhängigkeit Europas von amerikanischer Compute-Infrastruktur, von Hyperscalern, Modellanbietern und Cloud-Architekturen, die unter US-Recht stehen.

Eine alte Geschichte – kurz erinnert

Am 19. Juni 2013, auf einer Pressekonferenz mit Barack Obama im Bundeskanzleramt, antwortete Bundeskanzlerin Angela Merkel auf eine Frage zum NSA-Überwachungsprogramm PRISM mit dem Satz:

„Das Internet ist für uns alle Neuland, und es ermöglicht auch Feinden und Gegnern unserer demokratischen Grundordnung natürlich, mit völlig neuen Möglichkeiten und völlig neuen Herangehensweisen unsere Art zu leben in Gefahr zu bringen.“

Der Satz wurde ein Meme. Das war unfair, denn Merkel meinte nicht, dass sie das Internet nicht kenne. Sie meinte, dass die rechtliche und sicherheitspolitische Lage neu sei. Das war richtig. Was sie nicht sagte: Sie sagte es zwölf Jahre, nachdem der erste deutsche E-Mail-Standard verabschiedet worden war. Sie sagte es ausgerechnet auf einer Pressekonferenz, deren Anlass die nachrichtendienstliche Massenüberwachung deutscher Bürger durch einen verbündeten Geheimdienst war. Und sie sagte es als Repräsentantin einer Regierung, die zu diesem Zeitpunkt seit fast einem Jahrzehnt regierte.

Was an dem Satz tatsächlich problematisch war, ist die strategische Funktion des Eingeständnisses: Wer eine Materie zu „Neuland“ erklärt, entzieht sich der Verantwortung, sie zu regieren. Was 2013 für das Internet galt, gilt 2026 für Künstliche Intelligenz. Mit einem Unterschied: Diesmal ist die Infrastruktur, in die sich der deutsche Staat hineinbegibt, nicht zivil. Sie ist polizeilich, nachrichtendienstlich, militärisch.

Im selben Verteidigungsministerium, das ab 2014 unter Ursula von der Leyen seine grundlegende Reorganisation begann, wurden zwischen 2014 und 2018 pro Jahr mehr als 100 Millionen Euro für externe Berater ausgegeben. Der Bundesrechnungshof rügte Vergabeverstöße, fehlende Dokumentation, freihändige Auftragsvergabe. Der parlamentarische Untersuchungsausschuss tagte zwischen 2019 und 2020. Diensthandys der Ministerin wurden gelöscht. Die zentrale Personalentscheidung – die Berufung der McKinsey-Seniorpartnerin Katrin Suder zur Staatssekretärin im August 2014 – führte zu einer Auftragsstruktur, in deren Zentrum das Beratungsmilieu stand, dem die Staatssekretärin entstammte. Mitarbeiter aus diesem Milieu fanden später in deutschen Verteidigungs-Startups wieder zusammen. Helsing-Mitgründer Gundbert Scherf war zuvor McKinsey-Berater und parallel im Verteidigungsministerium tätig.

Auch der private Bereich der zuständigen Ministerin war mit dem Beratungskomplex verflochten. Sohn David von der Leyen absolvierte im Januar 2015 ein Praktikum als Summer Associate bei McKinsey & Company in San Francisco. Tochter Johanna arbeitete später festangestellt in der Berliner McKinsey-Dependance. Das ist kein Beleg für direkten Auftragsmissbrauch – Praktika sind keine Aufträge, und ein Sohn wird irgendwann einen Job brauchen. Aber es ist ein Hinweis auf die familiäre Selbstverständlichkeit eines Milieus, dessen strukturelle Verflechtung mit der Bundeswehr-Reform im Untersuchungsausschuss aktenkundig wurde.

Das ist die Vorgeschichte. Sie ist nicht abgeschlossen. Sie schreibt sich fort.

Die drei Machtfragen, ausgepackt

Erste Machtfrage: Polizeiliche Datenanalyse

Das Bundesverfassungsgericht hat am 16. Februar 2023 entschieden, dass die hessische und hamburgische Rechtsgrundlage zur automatisierten polizeilichen Datenanalyse das Grundrecht auf informationelle Selbstbestimmung verletzt. Im Verfahren ging es um die Software der US-Firma Palantir, die in Hessen unter dem Namen „hessenDATA“ eingesetzt wurde. Eine verfassungsgemäße Ausgestaltung sei möglich – aber nur unter strengen Voraussetzungen.

Was seither geschehen ist, lässt sich kurz zusammenfassen: Die Bundesländer haben die Voraussetzungen weniger ernst genommen als die Möglichkeit. Bayern hat 2022 einen Rahmenvertrag mit Palantir geschlossen, dem alle Bundesländer und der Bund ohne neue Vergabeverfahren beitreten können – gültig bis April 2027, viermal um je ein Jahr verlängerbar. Bayern, Hessen und Nordrhein-Westfalen nutzen die Software bereits. Baden-Württemberg hat sein Polizeigesetz im November 2025 entsprechend geändert, der Einsatz beginnt im zweiten Quartal 2026. Die ehemalige Bundesinnenministerin Nancy Faeser hat im Juli 2023 dem Bundeskriminalamt und der Bundespolizei die Nutzung untersagt – diese Entscheidung steht aktuell zur Disposition.

Erst 2026, nachdem Donald Trump erneut Präsident geworden ist und Palantir sich öffentlich als Teil der „Trump-Truppe“ inszeniert, beginnen deutsche Innenpolitiker, sich besorgt zu zeigen. Niedersachsen und Bremen wollen auf eine europäische Lösung setzen. Reul kündigt die Suche an. Bundesjustizministerin Stefanie Hubig äußert Bedenken. Die Innenministerkonferenz beschließt, die digitale Souveränität Europas anzustreben.

Die Software, die Daten zusammenführt, Persönlichkeitsprofile generiert und damit nach BVerfG-Maßstäben tief in Grundrechte eingreift, war strukturell schon 2020 problematisch. Sie war 2022 problematisch. Sie war 2023 problematisch. Was sich 2026 ändert, ist nicht das System – es ist die parteipolitische Verträglichkeit des Anbieters.

Zweite Machtfrage: KI-Rüstung

Der Verteidigungshaushalt der Bundesrepublik steigt 2026 auf 108,2 Milliarden Euro – mehr als das Doppelte des Wertes von 2022. Die mittelfristigen Beschaffungspläne summieren sich auf rund 400 Milliarden Euro. Davon sollen laut aktuellen Planungen 64 Milliarden Euro nicht mehr in offenen Ausschreibungen vergeben werden, sondern als Direktvergaben oder im engen Bieterkreis. Das Planungs- und Beschaffungsbeschleunigungsgesetz, das der Bundestag am 15. Januar 2026 beschlossen hat, hebt die aufschiebende Wirkung von Vergaberügen auf, verzichtet auf die Losvergabe-Pflicht, ermöglicht Direktvergaben und Vorauszahlungen. Was als Tempogewinn präsentiert wird, ist zugleich eine Reduktion des Rechtsschutzes: Wo Bieter ihre Vergaberügen nicht mehr aufschiebend wirksam einlegen können, verliert die externe Kontrolle eines Beschaffungsverfahrens an Gewicht – ausgerechnet in einem Bereich, in dem Rüstungsausgaben auf 400 Milliarden Euro skaliert werden.

In dieser Architektur entstehen die neuen Träger der deutschen KI-Rüstung. Helsing, 2021 gegründet, im Februar 2026 mit zwölf bis dreizehn Milliarden US-Dollar bewertet, gilt als wertvollstes deutsches Startup. Stark Defence, 2024 vom Quantum-Systems-Gründer Florian Seibel mit Kapital Peter Thiels gegründet. Beide haben im Februar 2026 Rahmenverträge mit der Bundeswehr über zusammen 4,4 Milliarden Euro vorgelegt bekommen, die der Haushaltsausschuss bewilligte; aktiviert wurden zunächst 540 Millionen Euro für etwa 7.000 Kamikaze-Drohnen.

Helsing kam laut Recherchen der Informationsstelle Militarisierung erstaunlich schnell an Bundeswehr-Aufträge nach seiner Gründung – darunter den Auftrag, den Eurofighter zum elektronischen Kampf zu befähigen. Ein wesentlicher Faktor dieser Geschwindigkeit war das Personal: Mitgründer Gundbert Scherf war zuvor McKinsey-Berater und parallel im Verteidigungsministerium tätig. Als Technologie-Chef gewann Helsing kurz nach Gründung Robert Fink, einen führenden Entwickler von Palantir.

Das ist die strukturelle Pointe: Die Reorganisation des deutschen Verteidigungsministeriums durch ein US-Beratungsmilieu in den Jahren 2014 bis 2019 hat ein Personalreservoir geschaffen, das ein Jahrzehnt später die KI-Rüstung der Bundeswehr operativ trägt. Die Verbindung zu Palantir – jenem Unternehmen, dessen Software gleichzeitig in deutschen Polizeibehörden steht – läuft auf personeller Ebene weiter, jenseits aller Anbieterwechsel-Debatten.

Wer den Eurofighter mit elektronischem Kampf rüstet, wer KI-Aufklärungssysteme an der NATO-Ostflanke installiert, wer 7.000 autonome Kampfdrohnen produziert: Diese Entscheidungen werden nicht in der „regulieren oder skalieren“-Debatte getroffen. Sie werden in Beschaffungsausschüssen getroffen, an denen die Öffentlichkeit nicht teilnimmt.

Dritte Machtfrage: Wer schreibt den AI Act?

Der AI Act gilt seit Februar 2025 in Teilen, die Hochrisiko-Bestimmungen sollen ab August 2026 wirksam werden – aktuell wird über Verschiebungen verhandelt. Vorbereitet wurde er in Trilogverhandlungen zwischen Kommission, Rat und Parlament zwischen 2021 und 2024. An diesen Verhandlungen waren zwei Akteursgruppen besonders aktiv beteiligt: BigTech-Lobbyisten, die Foundation-Models aus der Regulierung herausverhandeln wollten, und ein Cluster von NGOs, die unter dem Banner der KI-Sicherheit auftraten.

Zu Letzteren gehörte das Future of Life Institute, eine US-Nonprofit-Organisation mit Brüsseler Büro in der Avenue des Arts 44, deren Endowment laut eigenen Angaben vom Krypto-Unternehmer Vitalik Buterin stammt. FLI betreibt die meistgelesene AI-Act-Newsletter-Plattform und hat als „selbsterklärte non-commercial organisation“ seit 2021 keine Lobbybudgets mehr offenzulegen. AlgorithmWatch, eine deutsch-schweizerische Organisation, hat sich öffentlich vom Longtermism-Diskurs des FLI distanziert, treibt aber parallel zur Regulierungsverschärfung. Beide Organisationen koordinieren mit über 150 weiteren NGOs gemeinsame Stellungnahmen.

Das ist nicht die Frage, ob NGOs Mitsprache haben sollen – sie sollen. Die Frage ist, wessen Definitionen von Risiko, Fairness und „demokratischer Kontrolle“ am Ende in einer Verordnung mit unmittelbarer Geltung in 27 Mitgliedstaaten stehen. Die Antwort lässt sich an den Ausnahmen ablesen: Militärische und nachrichtendienstliche Anwendungen sind aus dem AI Act explizit herausgenommen. Reguliert wird die zivile, kommerzielle, mittelständische Anwendung. Helsing reguliert der AI Act nicht. Palantir reguliert der AI Act nicht, soweit die Software in Sicherheitsbehörden eingesetzt wird.

Das ist die strukturelle Konstellation: Die Regulierung trifft die Schwachen. Die starken Akteure – Pentagon, US-Hyperscaler, europäische Rüstungs-KI – operieren in den Ausnahmen.

Die USA-Brücke

Am 1. Mai 2026 hat das Pentagon klassifizierte AI-Verträge an mehrere Anbieter vergeben. Die genaue Zahl variiert je nach Quelle: Reuters nennt sieben (SpaceX, OpenAI, Google, NVIDIA, Reflection, Microsoft, AWS), die offizielle Mitteilung des War Department zusätzlich Oracle. Die Verträge umfassen Bereitstellung in Impact-Level-6- und -7-Umgebungen, also klassifizierten Sicherheitsstufen. Das Pentagon-interne KI-Portal GenAI.mil hat nach US-Berichten über 1,3 Millionen Nutzer und beherbergt hunderttausende durch Mitarbeiter erstellte AI-Agenten.

Das ist die Realität, in die sich europäische KI-Politik hineinverhandelt: ein US-Sicherheitsapparat, der KI nicht reguliert, sondern operationalisiert. Mit Hardware (Nvidia), Compute (AWS, Google, Microsoft), Modellen (OpenAI), Software-Layern (Palantir – formal nicht im Mai-Vertrag, aber als IL6-akkreditierter Plattform-Anbieter strukturell unentbehrlich). Wer in Europa den AI Act diskutiert, redet über die Spielregeln einer Schicht, die unter dieser Architektur liegt. Die Architektur selbst wird in Washington gebaut.

Bei den am 1. Mai 2026 bekanntgegebenen Vereinbarungen des Pentagon bzw. War Department mit führenden AI-Anbietern fehlt Anthropic auffällig. Wie Reuters berichtet, umfasst die Runde SpaceX, OpenAI, Google, NVIDIA, Reflection, Microsoft und AWS; die offizielle Mitteilung des War Department führt zusätzlich Oracle auf. Hintergrund ist ein seit März eskalierter Konflikt zwischen Anthropic und dem Pentagon über die Bedingungen, unter denen Claude in militärischen und nachrichtendienstnahen Umgebungen eingesetzt werden darf.

Das Pentagon bzw. War Department hatte Anthropic im März 2026 als „supply chain risk“ eingestuft. Anthropic bestreitet die Rechtmäßigkeit dieser Einstufung und argumentiert, seine Einwände richteten sich vor allem gegen unzureichend abgesicherte Nutzungen im Bereich vollautonomer Waffen und massenhafter inländischer Überwachung. Die US-Regierung hält dagegen, dass der Einsatz für rechtmäßige militärische Zwecke möglich bleiben müsse und bestehende Gesetze, Richtlinien und Vertragsklauseln ausreichende Grenzen setzten.

Ein Bundesgericht im Northern District of California hat bestimmte Regierungsmaßnahmen gegen Anthropic vorläufig blockiert; parallel läuft die Auseinandersetzung im D.C. Circuit weiter. Damit ist der Vorgang rechtlich nicht abschließend entschieden. OpenAI ist an den neuen Pentagon-Vereinbarungen beteiligt und stellt seine eigene Vereinbarung als mit zusätzlichen Schutzklauseln versehen dar. Diese Darstellung ist jedoch ebenfalls interessengeleitet und sollte nicht als neutrale Bewertung übernommen werden.

Was folgt

Die Klammer, die hier endet, war Diagnose. Die drei Machtfragen sind angerissen, nicht beantwortet. Was sie verbindet, ist eine strukturelle Konstellation, in der zivile Regulierungsdebatten und sicherheitsstaatliche Operationalisierung zwei verschiedene Sphären bewohnen. Die deutsche Öffentlichkeit verhandelt die erste; die zweite wird ihr verhandelt. Die Stellvertreterdebatte „regulieren oder skalieren“ hat die nützliche Eigenschaft, dass sie alle Beteiligten beschäftigt hält, ohne die Macht zu verschieben.

In den folgenden Tiefenartikeln werden die drei Machtfragen gesondert ausgepackt. Zwei stehen fest, der dritte folgt nur, wenn die Quellenlage rechtssicher trägt: Wer den AI Act geschrieben hat. Wer die Compute-Tribute zahlt. Und – als methodischer Schluss – wer eigentlich über KI schreibt, mit welchen Werkzeugen und unter welchen Bedingungen.

Bis dahin gilt der Satz, mit dem dieser Text begann. Er stammt nicht von Reul. Er stammt von Merkel, dreizehn Jahre alt, am 19. Juni 2013, neben Barack Obama im Bundeskanzleramt: Das Internet ist für uns alle Neuland.

Es ist immer noch Neuland.

Nur die Eigentumsverhältnisse stehen fest.

Artikel weiterempfehlen: