DeepSeek und der Wandel der KI-Ökonomie

Mitte 2024 stießen große Sprachmodelle (LLMs) in der künstlichen Intelligenz auf sinkende Erträge durch weitere Skalierung. Die Entwicklung verlagerte sich zunehmend von kostenintensivem Pre-Training hin zu günstigeren Verfahren wie Fine-Tuning sowie längerer „Denkzeit“ bei der Antwortgenerierung (Inference).

Beim Fine-Tuning wird mit sogenannten Chain-of-Thought-Daten (CoT) gearbeitet, die nicht nur Antworten, sondern auch den logischen Lösungsweg beinhalten. Dadurch können kleinere Modelle, wie etwa DeepSeek, effizienter trainiert werden. Diese CoT-Daten lassen sich mithilfe großer „Teacher“-Modelle extrahieren und dienen anschließend als Trainingsgrundlage für kleinere „Student“-Modelle.

Diese Veränderungen verschieben die Kostenstruktur der KI: von hohen Vorlaufkosten beim Pre-Training hin zu niedrigeren Fine-Tuning-Kosten für Entwickler – und hin zu höheren Nutzungskosten beim Inference-Prozess für Anwender. Kleinere Modelle sind in der Anwendung günstiger, die gestiegene Nachfrage nach KI-Leistung dürfte jedoch die Preissenkung überkompensieren. Der Wettbewerb unter Anbietern nimmt zu, Margen sinken. Dennoch bleibt Raum für spezialisierte Premium-Modelle.

Für europäische Unternehmen ergeben sich neue Chancen: Sie können mit kleineren Modellen und Anwendungen aufholen, ohne massiv in riesige Trainingsinfrastruktur zu investieren. Gleichzeitig entsteht politischer Handlungsbedarf: Soll Wissensextraktion zwischen Modellen zugelassen werden, um Innovation zu fördern – oder eingeschränkt, um Investitionen zu schützen? Klassische Industriepolitik greift hier nicht mehr. Neue Formen von Wissensallokation und Wettbewerbsregeln sind gefragt.


1. Einleitung: Der Einstieg von DeepSeek

Der Start ins Jahr 2025 wurde durch die Veröffentlichung des chinesischen KI-Modells DeepSeek R1 am 22. Januar geprägt. Die Ankündigung löste einen massiven Ausverkauf von KI-Aktien aus, da erwartet wurde, dass DeepSeek mit seinem günstigen Modell US-Anbieter unter Druck setzen würde.

Zwar sorgte DeepSeek für Schlagzeilen, doch ist es weniger eine technologische Revolution als eine konsequente Weiterentwicklung bestehender Trends. DeepSeek nutzt weiterhin das seit 2017 etablierte Transformer-Paradigma, kombiniert dieses jedoch mit effizienteren Trainingsmethoden, insbesondere CoT-basiertes Fine-Tuning und „Mixture-of-Experts“-Modelle. Damit wurde eine neue Generation kosteneffizienter, kleinerer KI-Modelle angestoßen.


2. Was hat sich verändert – und warum?

Seit Mitte 2024 war klar: Das Wachstum durch bloße Skalierung von Daten und Rechenleistung bringt abnehmende Erträge. Vortrainierte Modelle waren teuer, langsam und zunehmend limitiert durch verfügbare Datenmengen.

DeepSeek verfolgte daher einen anderen Ansatz:

  • Fine-Tuning mit CoT-Daten: Logisch strukturierte Trainingsdaten verbessern die Lernkurve kleiner Modelle erheblich.
  • Distillation: Extraktion von Wissen aus leistungsfähigeren LLMs (z. B. OpenAI o1, Qwen, LLaMA) zur Schulung kleinerer Modelle.
  • Mixture-of-Experts: Modularer Aufbau großer Modelle in spezialisierten Untereinheiten zur Effizienzsteigerung.

Diese Verfahren ermöglichen es kleineren Modellen, kostengünstig zu lernen und dennoch starke Leistungen zu erbringen. Die Ergebnisse: kürzere Trainingszeiten, niedrigere Kosten, mehr Transparenz – und wachsende Beliebtheit unter Nutzern und Entwicklern.


3. Brechen reasoning-basierte Modelle das Skalierungsgesetz?

Manche behaupteten, DeepSeek habe das Skalierungsgesetz der KI durchbrochen. Doch das stimmt nur bedingt. Die Effizienzsteigerungen durch Fine-Tuning und Distillation verändern zwar die Kostenstruktur, ersetzen jedoch nicht den Bedarf an großen Modellen vollständig.

Wenn man Vor- und Nachbearbeitung (Pre-Training + Fine-Tuning) gemeinsam betrachtet, bleibt DeepSeek auf der bekannten Effizienzkurve. Das Modell ist eher ein Produkt intelligenter Ressourcennutzung als eine fundamentale Abkehr von bisherigen Prinzipien.

Allerdings ermöglicht die zunehmende Rechenzeit beim Inference eine neue Art von Skalierung: nicht über Datenmengen, sondern über komplexere, bessere Denkprozesse. Das verschiebt die Rechenlast von der Entwicklung hin zur Nutzung – mit Konsequenzen für Infrastruktur und Geschäftsmodelle.


4. Die neue Kostenstruktur der KI

Die technischen Veränderungen führen zu einer tiefgreifenden Verschiebung der Kostenstruktur:

  • Weniger Fixkosten beim Training (Fine-Tuning statt Pre-Training)
  • Mehr variable Kosten bei der Nutzung (Inference)
  • Günstigere Modelle, aber höhere Gesamtnachfrage

Das verändert die Geschäftslogik vieler Anbieter. Während große Modelle enorme Vorabinvestitionen benötigen, lassen sich kleinere, spezialisierte Modelle schneller anpassen und nutzen. Gleichzeitig steigt der Bedarf an Rechenleistung in der Breite – ein Potenzial für neue Infrastrukturprojekte, insbesondere in Europa.

Zudem wird die Preisgestaltung komplexer. Entwickler müssen Nutzerpreise so gestalten, dass sie sowohl Inference-Kosten als auch Trainingsaufwand abdecken. Gleichzeitig wächst der Druck durch offene Konkurrenz und das Potenzial zur Wissensextraktion zwischen Modellen.


5. Was bedeutet das für Europa?

Die EU hat bislang keine eigenen Tech-Giganten mit hyperskalierten KI-Systemen. Doch die neuen Entwicklungen eröffnen Chancen:

  • Markteintritt über spezialisierte kleinere Modelle
  • Entwicklung von Anwendungen auf Basis bestehender LLMs
  • Ausbau regionaler Rechenzentren für Inference-Nutzung

Initiativen wie InvestAI, AI Factories oder das französische €109-Milliarden-Programm setzen auf öffentliche und private Finanzierung von Infrastruktur. Eine Fokussierung auf kleinere Modelle und nutzernahe Infrastruktur könnte die Produktivität steigern – ohne die Risiken milliardenschwerer Grundmodell-Entwicklung.

Zukunftsträchtig ist ein europäisches Ökosystem spezialisierter, feinjustierter KI-Anwendungen auf Basis bestehender Modelle. Damit könnten europäische Firmen gezielt Innovationspotenziale nutzen, ohne sich im globalen Wettbewerb um Infrastruktur und Training zu überheben.


6. Politische Handlungsspielräume

Die politischen Herausforderungen sind komplex:

  • Wettbewerbspolitik: Soll der Zugang zu Modellwissen eingeschränkt werden, um Investitionen zu schützen?
  • Innovationspolitik: Oder soll Wissen möglichst frei zirkulieren, um dynamische Entwicklung zu ermöglichen?

Das zentrale Dilemma lautet: Investitionsschutz vs. Wissensallokation. Der regulatorische Rahmen – etwa über das Digital Markets Act (DMA) – könnte zukünftig auch für KI-Modelle gelten, wenn diese mit anderen marktbeherrschenden Diensten gebündelt werden.

Gleichzeitig könnte der Staat neue Regeln und technische Schutzmaßnahmen ermöglichen, etwa zur Einschränkung von automatisierter Distillation. Denkbar wären differenzierte Preisstrukturen, Zugriffsbeschränkungen oder Mechanismen zur Profilerkennung.

Letztlich müssen Geschäftsmodelle so aufgestellt werden, dass sie Mehrwert schaffen – etwa durch spezialisierte vertikale Anwendungen –, um marktfähig zu bleiben.


Fazit

DeepSeek hat einen technologischen und ökonomischen Wandel sichtbar gemacht, der sich bereits abzeichnete: weg von extrem großen Modellen hin zu effizienteren, spezialisierten Systemen. Diese Veränderung verschiebt den Fokus von Pre-Training auf Fine-Tuning und Inference – und eröffnet neuen Akteuren den Zugang zum Markt.

Für Europa ergibt sich daraus ein strategisches Zeitfenster: durch den gezielten Aufbau von Inference-Infrastruktur, Förderung kleinerer KI-Anbieter und Spezialisierung auf marktfähige Anwendungen. Klassische Investitionsstrategien in riesige LLMs sind mit hohen Risiken behaftet.

Die Politik sollte sich darauf konzentrieren, Wettbewerbsfähigkeit und Innovation in Einklang zu bringen – durch kluge Regulierung, gezielte Förderung und Offenheit für neue Formen von Wissenskooperation. In der Welt der KI von morgen wird nicht die größte Rechenleistung entscheiden, sondern die Fähigkeit, intelligente Systeme effizient und sinnvoll einzusetzen.

Teilen Sie den Beitrag:

Verwandte Beiträge

Vergleich der besten KI-Kompetenz-Websites für die Einhaltung von Artikel 4 des EU-KI-Gesetzes: Wie schneidet ai-competence.eu ab?

Seit Februar 2025 ist das EU-KI-Gesetz in Kraft, und die Anforderungen an KI-Kompetenz und Schulung gemäß Artikel 4 sind für Organisationen, die KI einsetzen, verpflichtend. Die richtige Ressource für KI-Kompetenz (oder „KI-Kompetenz“) kann den Unterschied machen – entweder Sie bleiben wettbewerbsfähig oder kämpfen mit der Umsetzung. In diesem Beitrag vergleiche ich meine Plattform, ai-competence.eu, mit drei weiteren herausragenden Websites, die sich mit der Einhaltung von Artikel 4 beschäftigen: cert4startups.de/eu-ai-act/, ki-company.ai und spongecompliance.com/de/compliance-themen/ki-compliance. Schauen wir, wie sie abschneiden und warum ai-competence.eu im Jahr 2025 Ihre erste Wahl sein könnte.

Mehr erfahren

OpenAI integriert Bildgenerierung direkt in ChatGPT

OpenAI hat eine bedeutende Neuerung angekündigt: Die Bildgenerierung ist nun direkt in ChatGPT integriert. Nutzer können damit Bilder erstellen, ohne die Chat-Oberfläche zu verlassen. Dieses Update ist Teil der Strategie von OpenAI, KI-Tools vielseitiger und zugänglicher zu machen und gleichzeitig im Bereich der KI-generierten Kunst relevant zu bleiben.

Mehr erfahren

Kontaktieren Sie uns

Füllen Sie das untenstehende Formular aus und wir werden uns in Kürze bei Ihnen melden.

Kontaktinformationen
Unternehmensinformationen