Wir predigen Werte und Datenschutz, nutzen aber KI-Modelle, die entweder historische Massaker leugnen oder uns jederzeit den Stecker ziehen können. Ist das der Preis, den Europa für technologisches Versagen bei High Tech Infrastruktur zahlen muss?

KI ist als neue Basistechnologie analog zu Elektrizität, Internet und Dampfmaschine zu sehen. Foundation Models – die technologische Basis für ChatGPT, Claude und andere KI-Systeme – werden zur unverzichtbaren Infrastruktur für Geschäftsprozesse und Innovation. Diese Modelle werden oft noch Large Language Models genannt – ihre Vielseitigkeit und die nicht zu beziffernde Zahl an Use Cases machen sie zur Allzwecktechnologie unserer Zeit. Doch Europa steht vor einer bemerkenswerten Wahl: Entweder nutzen wir chinesische Modelle, die keine Fragen zum Tiananmen-Platz beantworten, oder wir verlassen uns auf US-amerikanische Modelle, die jederzeit zum geopolitischen Druckmittel werden können.

Foundation Models als neue Basistechnologie

Foundation Models sind vortrainierte KI-Modelle, die als Fundament für spezialisierte Anwendungen dienen. Sie verarbeiten nicht nur Text, sondern auch Bild, Audio und Video. Das Prinzip, auf dem sie beruhen (die Transformer-Architektur), kommt auch gut mit Molekülstrukturen zurecht. Das zeigt uns die Bandbreite.

Die Dimensionen der europäischen Abhängigkeit sind ernüchternd. Während das US-Projekt „Stargate” 500 Milliarden Dollar mobilisiert, wirken Europas Bemühungen bescheiden: Die EU hat ihre Investitionen zwar auf 200 Milliarden Euro hochgeschraubt – mit 20 Milliarden für „KI-Gigafactories” –, doch diese Summen verblassen gegen die Realität. Meta trainiert Llama 4 auf über 100.000 H100-GPUs, eine Rechenpower, die in Europa schlicht nicht verfügbar ist. Der Grund: Europa hat bis heute keinen eigenen Hyperscaler hervorgebracht. Diese Versäumnisse der Vergangenheit rächen sich jetzt bitter.

Die chinesische Alternative: Leistung mit plitischem Filter

DeepSeek demonstrierte mit seinem R1-Modell, dass Frontier-Modelle nicht zwangsläufig auf gigantischen Datenbergen trainiert werden müssen. Mit etwa 6 Millionen Dollar erreichte das Vorgängermodell V3 Spitzenleistungen – ein Bruchteil westlicher Investitionen. Die Innovation liegt in der Kombination von Reinforcement Learning mit Test-Time-Compute. Beim Reinforcement Learning lernt die KI durch Belohnung und Bestrafung – sie erhält automatisiertes Feedback für richtige und falsche Antworten, ohne dass Menschen jeden Schritt korrigieren müssen. Konkret wurde dem Modell beigebracht, vor der finalen Antwort erst einen „Denkprozess” zu durchlaufen und diesen auch auszugeben. Test-Time-Compute bedeutet: Statt alle Intelligenz vorab ins Training zu stecken, „denkt” das Modell bei komplexen Fragen länger nach – wie ein Mensch, der sich für schwierige Probleme mehr Zeit nimmt (und darüber redet). Diese Architektur verschiebt Rechenarbeit geschickt vom teuren Pre-Training in die günstigere Antwortphase (die Inferenz).

Im Juli 2025 landete dann ein zweiter Wal: Kimi v2. Das mit einer Trillion (1T) Parametern größte, bisher bekannte, semi-offene Modell – ohne Reasoning, wohlgemerkt. Dafür mit extrem ausgeprägten agentischen Fähigkeiten.

Alibabas Qwen-Familie geht noch weiter: Qwen3 ist zwar selbst nicht multimodal, aber Alibaba bietet mit Qwen2.5-VL (Vision-Language), Qwen2-Audio und Qwen2.5-Omni hochentwickelte multimodale Modelle. Qwen3 selbst brilliert als erstes chinesisches „Hybrid-Reasoning-Modell”, das zwischen schnellen Antworten und tieferem Nachdenken wechseln kann. Qwen legte im Juli mit einer weiteren Coding-fokussierten Modellfamilie nach: Qwen3-Coder, das absolut konkurrenzfähig ist. Ebenso legten zahlreiche weitere chinesische Labs Modelle mit extrem hoher agentischer Performance vor (Z.ai mit GLM 4.5 bspw.). Doch der Preis zeigt sich in der Praxis: Fragen Sie nach dem 4. Juni 1989 in Peking, erhalten Sie Schweigen. Diese eingebaute Zensur ist kein Bug, sondern ein Feature.

Das amerikansiche Dilemma: Scheinbare Offenheit

Metas Llama 4 illustriert das Problem perfekt. Als „Open” beworben, schließt die Lizenz EU-Nutzer:innen explizit aus – angeblich wegen regulatorischer Hürden durch DSGVO und EU AI Act. Die Begründung verschleiert Metas eigentliche Botschaft: Europas Datenschutzstandards machen uns zu digitalen Bürger:innen zweiter Klasse.

Erschwerend kommt der Benchmark-Skandal hinzu: Meta verwendete für die bekannten Leaderboards eine speziell optimierte Version von Llama 4, die öffentlich nicht verfügbar ist. Diese Praxis untergräbt das Vertrauen in amerikanische „Offenheit” zusätzlich. Aber seien wir ehrlich: Meta hat in dieser Hinsicht ohnehin keinen guten Ruf.

Unter der Trump-Administration verschärft sich die Lage. KI-Technologie wird zur Verhandlungsmasse, Exportkontrollen für KI-Chips zum politischen Druckmittel. Der Geschäftsmann im Weißen Haus versteht Leverage – und Europas Abhängigkeit bietet reichlich davon.

Im August dann der Paukenschlag: OpenAI veröffentlichte eine semi-offene Reasoning-Modell-Familie in zwei Größenklassen (20B und 120B). Auf dem Niveau ihres geschlossenen o4-mini. Die große Variante kann auf auf einer Nvidia H100 GPU laufen, mit einer zügigen Inferenzgeschwindigkeit. Dazu kommt eine Apache 2.0 Lizenz. Man könnte also sagen: Das ist der heilige Gral für Europas Unternehmen! Und tatsächlich gibt es wenig dagegen zu sagen. Die Entwicklung von semi-offenen Modellen ist sogar in „America’s AI Action Plan” von der US-Administration explizit gewünscht. Man fragt sich allerdings, wo der Haken ist.

Europas Optionen: Zwischen Pragmatismus und Vision 

Das kleine, gallische Dorf Mistral zeigt, was hier möglich ist – und wo die Grenzen liegen. Das französische Unternehmen bietet spezialisierte Lösungen wie Document AI für Dokumentenauswertung (ein wichtiger Use Case in einem Kontinent mit heterogenem Digitalisierungsstand) und Devstral für Softwareentwicklung. Ihre Allzweckmodelle Small 3 und Medium 3 erreichen bei einigen Aufgaben GPT-4-Niveau. Doch bei multimodalen Frontier-Modellen und Reasoning-Fähigkeiten fehlt der Anschluss. Mistral hat zwar Anfang Juni 2025 mit dem Modell Magistral ein Reasoning-Modell in zwei Größen vorgelegt. Multimodalität findet man hier aber noch nicht – im Gegensatz zu OpenAI, Anthropic und Google. Zudem scheint Magistral immer noch kein State of the Art zu sein. Ärgerlich darüber hinaus: Die Verträge zur Auftragsdatenverarbeitung der Mistral Cloud schließen den Weg über die USA nicht restlos aus.

Die Effizienz-Revolution von DeepSeek zeigt jedoch: Es geht nicht nur um das Training auf gigantischen Datenbergen mit teils ungeklärtem Verwendungszweck. DeepSeeks R-Zero-Experiment – ein Modell, das ausschließlich durch Reinforcement Learning trainiert wurde – war als Laborvorstufe nicht praxistauglich, weist aber den Weg zu effizienteren Entwicklungspfaden. Das finale R1 kombiniert clevere Architekturen mit innovativen Trainingsmethoden.

Fazit

Handlungsempfehlungen

  • Sofortmaßnahmen: Entwickeln Sie eine KI-Strategie, die verschiedene Szenarien berücksichtigt. Kritische Anwendungen können auf europäischen oder selbst gehosteten Modellen basieren. Air-gapped Deployments bieten zusätzliche Kontrolle. Für weniger sensible Bereiche können internationale Lösungen genutzt werden – mit klarem Bewusstsein für die Abhängigkeiten. Wichtig ist hierbei, jederzeit den sich schnell weiterentwickelnden State of the Art zu kennen. Und der wird erstmal weiterhin aus den USA und China kommen.
  • Mittelfristige Strategie: Investieren Sie in KI-Kompetenz im eigenen Haus. Warten ist keine Option – während Sie zögern, bauen Wettbewerber wertvolle Erfahrungen auf. Nutzen Sie die verfügbaren europäischen Modelle, um Expertise zu entwickeln. Nicht jede Anwendung braucht ein Frontier-Modell. KI betrifft alles und jeden, und muss daher in die Hände der Mitarbeitenden.
  • Langfristige Vision: Unterstützen Sie europäische KI-Initiativen aktiv. Die DeepSeek-Zahlen beweisen: Ein europäisches Frontier-Modell ist technisch machbar. Es fehlt am politischen Willen und der koordinierten Umsetzung. Machen Sie Druck – als Einzelunternehmen und über Verbände.

Die Analogie zur Elektrizität trägt weiter als gedacht. So wie Europa im 20. Jahrhundert seine Energieunabhängigkeit sichern musste, steht nun die digitale Souveränität auf dem Spiel. Die Alternative – zwischen Zensur und geopolitischer Erpressung zu wählen – kann nicht in unserem Interesse sein. Der DeepSeek-R1-Moment sollte ein Weckruf sein: Europa muss jetzt handeln, bevor die Abhängigkeit irreversibel wird.

Autor: Robert Glaser, Head of Data & AI, INNOQ Deutschland GmbH

Dieser Artikel ist Teil des INNOQ Technology Briefings – unserem Report für Technologieentscheider:innen. Jetzt herunterladen und mehr zum Thema digitale Souveränität erfahren.

Über die innoQ Deutschland GmbH

INNOQ ist ein Technologie-Beratungsunternehmen. Wir beraten ehrlich, denken innovativ und entwickeln leidenschaftlich gern. Das Ergebnis sind erfolgreiche Softwarelösungen, Infrastrukturen und Geschäftsmodelle. Unsere Leistungen teilen sich in folgende Schwerpunkte auf:

– Strategie- und Technologieberatung
– Softwarearchitektur und -entwicklung
– Data & AI
– Entwicklung digitaler Produkte
– Digitale Plattformen und Infrastrukturen
– Wissenstransfer, Coaching und Trainings

Unsere Standorte sind Monheim (bei Düsseldorf), Berlin, Hamburg, Zürich, Offenbach, Köln und München.

Firmenkontakt und Herausgeber der Meldung:

innoQ Deutschland GmbH
Krischerstr. 100
40789 Monheim am Rhein
Telefon: +49 (2102) 77162-100
Telefax: +49 (2102) 7716-01
http://www.innoq.com

Ansprechpartner:
Stefanie Heinrich
Head of Marketing
E-Mail: stefanie.heinrich@innoq.com
Für die oben stehende Story ist allein der jeweils angegebene Herausgeber (siehe Firmenkontakt oben) verantwortlich. Dieser ist in der Regel auch Urheber des Pressetextes, sowie der angehängten Bild-, Ton-, Video-, Medien- und Informationsmaterialien. Die United News Network GmbH übernimmt keine Haftung für die Korrektheit oder Vollständigkeit der dargestellten Meldung. Auch bei Übertragungsfehlern oder anderen Störungen haftet sie nur im Fall von Vorsatz oder grober Fahrlässigkeit. Die Nutzung von hier archivierten Informationen zur Eigeninformation und redaktionellen Weiterverarbeitung ist in der Regel kostenfrei. Bitte klären Sie vor einer Weiterverwendung urheberrechtliche Fragen mit dem angegebenen Herausgeber. Eine systematische Speicherung dieser Daten sowie die Verwendung auch von Teilen dieses Datenbankwerks sind nur mit schriftlicher Genehmigung durch die United News Network GmbH gestattet.

counterpixel