Zuletzt aktualisiert: 2. Februar 2025
Ein chinesisches KI-Startup namens DeepSeek sorgt für Aufsehen in der Technologiebranche. Innerhalb kürzester Zeit hat das Unternehmen ein leistungsfähiges Sprachmodell entwickelt, das mit den großen US-amerikanischen KI-Modellen mithalten kann – und das zu einem Bruchteil der Kosten. Doch was steckt hinter DeepSeek, und welche Auswirkungen hat sein Erfolg auf den globalen KI-Markt?
DeepSeek wurde 2023 von Liang Wenfeng gegründet, einem ehemaligen Hedgefonds-Manager, der bereits mit seinem Investmentunternehmen High-Flyer auf KI setzte. Trotz US-Sanktionen gegen den Export von Hochleistungschips nach China konnte DeepSeek mit begrenzten Ressourcen ein leistungsfähiges Modell entwickeln. Laut Unternehmensangaben kostete die Entwicklung des neuesten Modells DeepSeek R1 nur rund 5,6 Millionen US-Dollar – eine Summe, die im Vergleich zu den Milliardenbudgets von OpenAI, Google oder Meta verschwindend gering erscheint.
Mit dem Open-Source-Ansatz versucht DeepSeek, den KI-Markt neu zu definieren. Das Modell kann nicht nur über die Webseite und Apps genutzt, sondern auch heruntergeladen und auf eigener Hardware betrieben werden. Doch was bedeutet „Open Source“ wirklich? Kritiker bemängeln, dass die Trainingsdaten nicht offengelegt wurden und politische Zensur in den Antworten sichtbar ist. Trotzdem hat DeepSeek innerhalb weniger Tage ChatGPT in den Download-Charts überholt und über zwei Millionen Nutzer gewonnen.
DeepSeek R1: Ein Gamechanger?
DeepSeek hat zwei zentrale KI-Modelle im Angebot: DeepSeek-V3, ein allgemeines Sprachmodell, und DeepSeek R1, das für komplexe Denkaufgaben optimiert wurde. R1 soll in bestimmten Benchmarks bereits mit OpenAIs GPT-4o und dem reasoning-basierten o1-Modell konkurrieren.
Wie funktioniert DeepSeek?
DeepSeek nutzt eine Mixture-of-Experts-Architektur (MoE), die es ermöglicht, nur einen Teil der insgesamt 671 Milliarden Parameter des Modells zu aktivieren – je nachdem, welche Art von Anfrage gestellt wird. Dadurch werden Rechenkapazitäten effizient genutzt, und das Modell benötigt weniger Hardwareleistung als seine US-amerikanischen Konkurrenten.
DeepSeek vs. OpenAI: Ein Vergleich
Merkmal | DeepSeek R1 | OpenAI GPT-4o / o1 |
---|---|---|
Entwicklungskosten | ca. 5,6 Millionen USD | geschätzte 100+ Millionen USD |
Open-Source-Ansatz | Teilweise offen (keine Trainingsdaten) | Proprietär |
Kosten für API-Nutzung | 0,55 USD pro Mio. Tokens (Input) | 15 USD pro Mio. Tokens (Input) |
Funktionalität | Stark in logischem Denken, Codegenerierung | Multimodal (Text, Bild, Sprache) |
Zensur | Einschränkungen bei China-kritischen Themen | Weniger politisch gefiltert |
Die niedrigen Kosten und die hohe Effizienz haben viele überrascht. Während OpenAI und andere Tech-Riesen Milliardenbeträge in KI-Infrastruktur investieren, zeigt DeepSeek, dass auch mit begrenzten Ressourcen leistungsfähige Modelle möglich sind. Das führte zu einem massiven Kursrutsch bei US-Tech-Aktien – Nvidia verlor binnen eines Tages 12 %, auch Meta, Alphabet und andere Tech-Giganten erlitten Verluste.
Kontroversen und Herausforderungen
Trotz aller Euphorie gibt es auch Kritik an DeepSeek. Zum einen steht das Unternehmen wegen seiner Nähe zur chinesischen Regierung in der Kritik. Politische Themen werden in den Antworten der KI vermieden oder zugunsten der offiziellen chinesischen Position dargestellt. Westliche Beobachter befürchten daher eine gezielte Desinformation oder Zensur.
Ein weiteres Problem war ein groß angelegter Cyberangriff kurz nach der Veröffentlichung von DeepSeek R1. Das Unternehmen meldete eine massive Attacke auf seine Server, die zu Einschränkungen bei der Registrierung neuer Nutzer führte. Ob es sich um einen koordinierten Angriff westlicher Konkurrenten oder eine Überlastung durch den plötzlichen Ansturm handelte, bleibt unklar.
Zudem wurde kürzlich eine schwerwiegende Sicherheitslücke entdeckt: Eine frei zugängliche Datenbank von DeepSeek enthielt interne Protokolle, API-Schlüssel und Chatverläufe von Nutzern. Die Schwachstelle wurde zwar schnell geschlossen, doch sie wirft Fragen zur Datensicherheit auf.
Auch interessant
Die Zukunft von DeepSeek
Die rasante Entwicklung von DeepSeek zeigt, dass China im Bereich der Künstlichen Intelligenz nicht mehr nur aufholen, sondern eigene Innovationen vorantreiben kann. Das Modell könnte eine Blaupause für zukünftige KI-Entwicklungen sein: weniger Rechenaufwand, mehr Effizienz.
Westliche Unternehmen werden nun überlegen müssen, ob sie weiterhin auf immer größere Serverfarmen setzen oder ob sie ähnliche Wege der Optimierung beschreiten. OpenAI untersucht zudem, ob DeepSeek sein Modell mit Ausgaben von ChatGPT trainiert hat – eine Praxis, die gegen die Nutzungsbedingungen verstoßen würde.
Ob sich DeepSeek langfristig auf dem Markt behaupten kann, hängt von mehreren Faktoren ab: Kann es mit künftigen Generationen von OpenAI und Google mithalten? Wird es internationale Nutzer überzeugen, trotz der chinesischen Zensur? Und wie reagiert die Politik auf die neue Konkurrenz? Klar ist: DeepSeek hat die KI-Landschaft bereits nachhaltig verändert.
Wissenswert
Fakt | Detail |
---|---|
Gründungsjahr | 2023 |
Gründer | Liang Wenfeng |
Sitz | Hangzhou, China |
Hauptmodell | DeepSeek R1 |
Parametergröße | 671 Milliarden |
Erstveröffentlichung | Januar 2025 |
Kosten für Entwicklung | 5,6 Millionen USD |
Vergleichbare Modelle | GPT-4o, Meta Llama, Google Gemini |
App-Downloads | Über 2 Millionen in wenigen Tagen |
Zensur | Politische Themen in China eingeschränkt |