Die chinesische KI DeepSeek mischt die Tech-Branche derzeit mit ihrer effizienten Arbeitsweise gehörig auf. Mit nur etwa 200 Leuten und 5,6 Millionen Dollar soll die letzte Version davon entwickelt worden sein. Das ist erstaunlich, bedenkt man die Milliarden-Investitionskosten beim US-Giganten OpenAI. Noch dazu konnte man all das mit schlechterer Hardware realisieren. Hier liegt auch der Knackpunkt und die Ursache für den großen Aufschrei derzeit. Um die KI-Vormachtstellung der USA zu stärken, durften die leistungsstärksten Chips von NVIDIA nämlich bereits seit 2022 nicht mehr nach China exportiert werden. Dieser Versuch, die chinesische Entwicklung zu blockieren, hat letztendlich nur zu mehr Innovation auf dem Gebiet geführt, bekanntlich macht Not ja erfinderisch. Und so brauchten die chinesischen AI-Entwickler die besseren Chips von NVIDIA gar nicht, da ihre KI auch mit schwächerer Hardware zurechtkommt. Folge dieser Entwicklung war ein Aktienabsturz bei NVIDIA, obwohl auch DeepSeek mit NVIDIA Chips arbeitet und die Aktie im Vergleich zu Zeiten vor dem KI-Boom immer noch auf hohem Niveau bleibt.
DeepSeek und ChatGPT im Vergleich
Auf den ersten Blick sieht DeepSeek eigentlich ziemlich genauso aus wie sein amerikanischer Konkurrent und auch die Ergebnisse sind gut. Bei manchen KI-Benchmarks soll DeepSeek R1 ChatGPT o1 sogar knapp geschlagen haben. Die Stärken von DeepSeek liegen in den Bereichen Mathematik, Programmierung und Wissenschaft, während ChatGPT mehr auf menschenähnliche Sprache ausgelegt ist. ChatGPT ist bereits auf viele Sprachen trainiert und liefert auch auf Deutsch gute Ergebnisse. DeepSeek spricht zwar auch Deutsch, liefert aber auf Chinesisch und Englisch bessere Ergebnisse.
Wichtigste Vorteile von DeepSeek
-
Kosten:
Für den Nutzer sticht natürlich vor allem der Preis ins Auge. Das neueste Modell von DeepSeek kann gratis genutzt werden. Man erhält dadurch eine ähnliche Leistung wie mit dem kostenpflichtigen ChatGPT o1. Auch die Anbindung mittels API ist deutlich günstiger als bei ChatGPT.
-
Energieverbrauch:
DeepSeek arbeitet beim Training und bei der Nutzung deutlich ressourcenschonender. Das löst ein großes Problem anderer KIs, deren riesige Rechenzentren nicht nur enorme Mengen an Hardware und Strom benötigen, auch Trinkwasser wird für die Kühlung in großen Mengen verbraucht. Angaben sind z.B. für das Training von GPT-3 bekannt. Dieses soll knapp 1.300 Megawattstunden Strom und 700.000 Liter Trinkwasser zur Kühlung der Systeme benötigt haben. Auch im Betrieb verbraucht ChatGPT für jede einzelne Konversation mit 25 bis 50 Fragen rund 500 Milliliter Wasser. Wenn moderne Systeme hier Einsparungen machen können, dann ist dies ein eindeutiger Vorteil.
-
Schnelligkeit:
DeepSeek generiert Antworten in der Regel schneller als ChatGPT o1.
Was macht DeepSeek anders?
DeepSeek nutzt eine Mixture-of-Experts (MoE)-Architektur, die es ermöglicht, je nach Anfrage unterschiedliche “Experten” zu nutzen und nicht immer alle Parameter auf einmal zu verwenden. Durch Multi-Head Latent Attention hat DeepSeek außerdem eine Möglichkeit gefunden, um den Verbrauch an Arbeitsspeicher durch Komprimierung zu verringern. Der Qualitätsverlust, der dabei entsteht, scheint nicht ausschlaggebend zu sein.
-
Weiterentwicklung:
DeepSeek ist ein sog. Open-Weights Model. Es kann heruntergeladen, auf eigenen Rechnern (mit genügend Arbeitsspeicher) laufen gelassen, adaptiert und weiterentwickelt werden. Das ist ein entscheidender Vorteil für die Weiterentwicklung von LLMs. DeepSeek kann genutzt werden, um eigene AI-Tools zu bauen, die in der EU nicht verfügbar und außerdem kostspielig sind, wie den ChatGPT Operator. Sollte man dies tun, muss man sich allerdings selbst über die Datenschutz-Regelungen für derartige Systeme informieren.
Nachteile von DeepSeek
-
Datenschutz und Zensur:
Datenschützer bekritteln die schwierige Lage für den Datenschutz in China. Auch Zensur spielt eine Rolle, so gibt DeepSeek keine Informationen aus, die den Ansichten der chinesischen Regierung widersprechen würden. Allerdings haben amerikanische Modelle hier dieselben Probleme, auch dort entspricht der Datenschutz nicht den EU-Vorgaben.
-
Konkurrenz:
Zwar ist der Hype um DeepSeek groß, vor allem weil seine Entwicklung als direkte Reaktion auf den Hardware-Bann der USA beeindruckend erscheint. Vergleichbare Leistungen können aber auch andere Konkurrenten wie Gemini Flash 2.0 von Google erzielen.
-
Datenklau:
Nachdem auch DeepSeek nicht bekannt gibt, welche Daten zum Training verwendet wurden, liegt die Vermutung nahe, dass man sich nicht nur an allem, was man im Internet finden konnte, bedient hat, sondern auch an den Ausgaben vorhandener Modelle der Konkurrenz. Somit konnte viel Zeit und Aufwand eingespart werden, den andere bereits geleistet hatten.
-
Sicherheit:
DeepSeeks Sicherheitsstandards sind noch nicht die Besten. Derzeit ist es noch sehr anfällig für Jailbreaks und somit leicht für illegale Aktivitäten zu nutzen.
-
Bilder und Dateiupload:
DeepSeek unterstützt theoretisch Dateiuploads bis 100 MB und kann dann lediglich Text extrahieren. ChatGPT unterstützt auch größere Dateien bis 512 MB und kann Bilder analysieren. Der Upload funktioniert bei DeepSeek leider auch häufig nicht, wenn die Server überlastet sind. ChatGPT ist außerdem mit DALL-E verknüpft und kann deswegen selbst Bilder generieren.
Praxistest: ChatGPT oder DeepSeek für Social Media Texte?
Wir haben beiden KIs dieselbe minimalistische Angabe gegeben und zwar einen Social Media Post über einen Mantel von H&M zu schreiben, den wir als Link zur Verfügung gestellt haben. Das sind die Ergebnisse:
ChatGPT o1:
Zeitloser Chic trifft auf modernen Komfort: Unser neuer Mantel ist DAS Must-have der Saison! Ob lässig zur Jeans oder elegant über dem Kleid – sein vielseitiger Schnitt und das weiche Material sorgen für den perfekten Mix aus Style und Gemütlichkeit. Hol dir jetzt den ultimativen Herbst-Look und mache jeden Spaziergang zum Fashion-Statement. Entdecke ihn online oder in deinem H&M Store!
#HM #NewIn #AutumnVibes #MantelLiebe #StyleInspiration
DeepSeek V3:
Dein neuer Liebling für die kalte Jahreszeit ist da! ❄️👌
Entdecke unseren Oversized-Wollmantel – zeitlos, elegant und perfekt für jeden Anlass. Mit seinem weichen Wollmaterial und dem lässigen Oversized-Schnitt sorgst du für stilvolle Wärme an grauen Herbsttagen oder frostigen Winterabenden. 🧥✨
Ob zum Büro-Look, über deinem Lieblings-Pulli oder zu deinen Jeans – dieser Mantel ist der ultimative Allrounder für deine Wardrobe. 👗👖
Schnapp ihn dir, bevor er weg ist! 🛒
#HM #WinterStyle #Wollmantel #OversizedFashion
Beide KI’s liefern sinnvolle, grammatikalisch richtige Texte, die man verwenden könnte. Auffällig ist die exzessive Nutzung von Emojis bei DeepSeek, welche bei ChatGPT allerdings in spezialisierten GPTs ähnlich ausfallen kann. DeepSeeks Vorliebe für Emojis fällt allerdings auch in anderem weniger passenden Kontext auf, wenn man z.B. längere Fließtexte erstellt. Dies könnte mit einer stärkeren Nutzung von Emojis in China zusammenhängen. DeepSeek scheint Schwierigkeiten dabei zu haben, die deutsche Quellen sinnerfassend einzubinden. So wurde aus dem Mantel aus Polyester, Baumwolle und Polyamid einfach ein Wollmantel. ChatGPT kommt mit deutschsprachigen Inhalten besser zurecht. Trotzdem sollten die Aussagen von KIs immer auf Fehler überprüft werden.
Fazit:
Für spezifische deutschsprachige Produktposts, die anhand von Links schnell und ohne Eingabe aller Basisdaten erfolgen sollen, scheint ChatGPT vorerst die genauere Alternative zu sein. Auch bei den Zusatzfunktionen wie Bildanalyse und Bildgeneration punktet ChatGPT, wenn man diese Features nutzen möchte.
Quellen:
Koch, Simeon: DeepSeek-Panik bei Bitcoin und Tech-Aktien: Frisst die KI-Revolution ihre Kinder?.- 27.1.2025, URL: https://hkcmanagement.de/hkcmnews/deepseek-panik-bei-bitcoin-und-tech-aktien-frisst-die-ki-revolution-ihre-kinder
Mumba, Emmanuel: How to Use DeepSeek R1 to Build an Open Source ChatGPT Operator Alternative.- 27.1.2025, URL: https://apidog.com/blog/how-to-use-deepseek-r1-to-build-an-open-source-chatgpt-operator-alternative/
Brien, Jörn: 1 Liter für 50 Fragen: So viel Wasser verbraucht ChatGPT.- t3n, 12.04.2023, URL: https://t3n.de/news/ki-chatgpt-wasser-verbrauch-1546732/
Bechtold, Franziska: Riesen-Hype um DeepSeek: Was steckt dahinter?.- Futurezone, 28.1.2025, URL: https://futurezone.at/digital-life/deepseek-ki-kuenstliche-intelligenz-chatbot-china-chatgpt-gemini-meta/403003978
Ramlochan, Sunil : Openness in Language Models: Open Source vs Open Weights vs Restricted Weights.- 12.12.2023, URL: https://promptengineering.org/llm-open-source-vs-open-weights-vs-restricted-weights/
Proschofsky, Andreas: Deepseek: Was am Hype um die chinesische KI wirklich dran ist.- Der Standard, 28.1.2025, URL: https://www.derstandard.at/story/3000000254861/deepseek-was-am-hype-um-die-chinesische-ki-wirklich-dran-ist
Stoppel, Kai: Hype um Billig-KI aus China Wie gut ist Deepseek eigentlich?.- NTV, 29.1.2025, URL: https://www.n-tv.de/wissen/Wie-gut-ist-Deepseek-eigentlich-article25520289.html
Bölling, Noëlle: Deepseek scheitert an Sicherheitstests – Forscher warnen vor den Risiken.- t3n, 3.2.2025, URL: https://t3n.de/news/deepseek-scheitert-an-sicherheitstests-forscher-warnen-vor-den-risiken-1671146/