7 Fragen und Antworten zu DeepSeek
Der chinesische Chatbot DeepSeek rüttelt seit einer Woche die Tech-Welt auf. Warum die Aufregung? Wer steckt hinter der neuen KI? Und ist das Modell wirklich Open Source? Antworten auf die drängendsten Fragen.
Letzte Woche sorgte eine Künstliche Intelligenz (KI) aus China für Aufregung. Scheinbar aus dem Nichts katapultierte sich DeepSeek an die Spitze der App Stores. Nach der anfänglichen Panik im Silicon Valley hat sich der Staub langsam gelegt und wir wissen mehr. Zeit für eine Auslegeordnung.
1. Was macht DeepSeek besonders?
DeepSeek ist ein kostenloser KI-Chatbot, der sich ähnlich anfühlt wie zum Beispiel ChatGPT. Es gibt ihn als Browserversion und als App. Der Bot basiert auf DeepSeek R1 – einem KI-Modell, das logisches «Denken» beherrscht («Reasoning Engine»). Das können auch neue Versionen von ChatGPT (OpenAI o1) und Google Gemini (Gemini 2.0 Flash Thinking).
Laut eigenen Angaben konkurriert DeepSeek in diversen Benchmarks mit den besten US-Modellen. Die Meinungen von Usern und unabhängige Experten sind durchmischt – je nach Anwendung liefert wohl DeepSeek oder eine andere KI die besten Resultate. Insgesamt ist man sich jedoch einig, dass die chinesische KI mit den etablierten Modellen mithalten kann. Besonders stark ist sie bei technischen Aufgaben wie Coding.
2. Ist DeepSeek R1 wirklich Open Source?
Jein. Du kannst das Modell herunterladen und selber lokal betreiben. DeepSeek R1 ist aber nur «Open Weight»: Die Daten, aus dem es seine Antworten generiert («Weights»), sind öffentlich zugänglich. Unter Verschluss bleiben hingegen die darunter liegenden Algorithmen und Trainingsdaten. Bei einem wahren Open-Source-Modell wären auch diese offen.
Das einzige andere grosse Open-Weight-Modell ist Metas Llama. OpenAI, Google und Anthropic behalten die Quellcodes ihrer Bots komplett für sich. Eine Gruppe auf der Plattform Hugging Face versucht bereits, eine vollständig offene Version von DeepSeek zu reproduzieren. Open-Weight- und insbesondere Open-Source-Modelle können als Bausteine für neue Chatbots dienen und so deren Entwicklung einfacher und günstiger machen.
3. Hat DeepSeek bei OpenAI geklaut?
Das ist eine Frage der Perspektive. OpenAI und Microsoft haben eine Untersuchung eingeleitet. Sie hätten Beweise, dass DeepSeek Ende 2024 grosse Mengen an Daten von ChatGPT über einen Entwickleraccount bezog. Diese Daten wurden danach wohl verwendet, um das eigene Modell zu trainieren.
Diese Technik nennt sich «Distillation» und verstösst gegen die Nutzungsbedingungen. Entwickler dürfen die KI-Modelle von OpenAI nur über eine Schnittstelle in eigene Applikationen integrieren, aber keine Konkurrenzprodukte damit bauen. Ob sich das rechtlich überhaupt durchsetzen lässt, steht aber auf einem anderen Blatt.
Die Ironie daran: OpenAI, Google und Co. haben für das Training ihrer Modelle selber ohne Erlaubnis das ganze Internet durchkämmt – und dabei mutmasslich gegen tonnenweise Urheberrechte verstossen. Das T in ChatGPT steht zudem für ein «Transformer»-Modell, das ursprünglich von Google entwickelt wurde. Das Mitleid für Sam Altman hält sich deshalb in engen Grenzen.
4. Wie steht es um Datenschutz und Zensur?
Gemäss den eigenen Richtlinien sammeln die Online-Versionen von DeepSeek jede Menge Nutzerdaten. Unter anderem:
- E-Mail-Adresse, Telefonnummer, Geburtsdatum
- Chatverläufe und jeglichen Input, auch «Keystroke-Patterns»
- IP-Adressen und technische Informationen zu deinem Gerät
Alle diese Informationen verwendet DeepSeek einerseits, um die «Sicherheit und Stabilität» seiner Dienste zu verbessern. Andererseits dürfen sie die Daten auch mit Werbepartnern teilen und «so lange wie nötig» speichern.
Auch andere Chatbots sammeln Daten. Die Richtlinien von OpenAI und Google sehen ähnlich aus. Der Firmensitz in China sorgt bei DeepSeek jedoch für zusätzliche Bedenken – ob zu Recht oder zu Unrecht, sei dahingestellt. Italien hat die App deswegen blockiert, Australiens Wissenschaftsminister Ed Husic mahnt ebenfalls zur Vorsicht.
Greifbarer ist die inhaltliche Zensur gewisser Themen, die in China als politisch heikel gelten. Der Bot blockt zum Beispiel Anfragen zum Tian’anmen-Platz, Tibet oder Xi Jinping, während er über andere politische Persönlichkeiten bereitwillig Auskunft gibt. Mit Tricks lassen sich die Restriktionen umgehen, doch die Antworten wirken politisch gefärbt.
Zensurvorwürfe gibt es nicht nur gegen DeepSeek. Alle grossen Chatbots weichen gewissen Themen aus, etwa Gewalt und Sexualität. Und auch OpenAI sah sich schon mit dem Vorwurf konfrontiert, politisch nicht neutral zu sein.
5. Wer steckt hinter DeepSeek?
Ein Ingenieur und Unternehmer namens Liang Wenfeng. Das chinesische Gegenstück zu Sam Altman wurde 1985 in Zhangjang geboren und besuchte die renommierte Zheijang-Universität. 2015 gründete er mit zwei Freunden einen Hedgefonds namens High-Flyer und verdiente mit KI-gestütztem Aktienhandel ein Vermögen. High-Flyer verwaltete zeitweise knapp 14 Milliarden US-Dollar.
2023 gründete Liang Wenfeng mit den Gewinnen aus seinem Hedgefonds DeepSeek. Er stellte ein Team aus jungen Talenten zusammen und kaufte KI-Beschleuniger im grossen Stil. Der 40-Jährige gilt als technikfokussierter Ideologe. Er will Chinas Rückstand auf die USA aufholen, sein erklärtes Ziel ist die Entwicklung von Artificial General Intelligence (A.G.I.). Soweit ersichtlich, hatte er bisher keine direkte Verbindung zur chinesischen Regierung.
6. Warum die anfängliche Panik an der Börse?
Die Wall Street hat in den letzten zwei Jahren Billionen an US-Dollar in Big Tech investiert – in der Hoffnung, dass KI in Zukunft zu hohen Gewinnen führt. Diese Rechnung geht nur auf, wenn Microsoft, Google und Co. ihre Chatbots am Ende teuer verkauft können. DeepSeek stellt einerseits dieses Geschäftsmodell und andererseits die Vorherrschaft der USA in Frage. Der bekannte Venture Capitalist Marc Andreessen bezeichnete R1 als «Sputnik-Moment von KI».
Der grösste Schock für die Investoren: DeepSeek gibt für R1 Entwicklungskosten von bloss 5,6 Millionen US-Dollar und relativ wenig GPU-Stunden fürs Training an. Bisher war die gängige Weisheit, dass ein gutes Modell Unmengen an Kapital, Know-How, Zeit und Energie braucht. OpenAI's GPT-4o kostete über 100 Millionen, Anthropic nennt für ein Trainingsmodell von Claude eine Spanne von 100 Millionen bis zu einer Milliarde.
Die US-Modelle benötigen die neuesten H100-GPUs von Nvidia. In China sind wegen eines Exportverbots theoretisch nur ältere H800 verfügbar. Es gibt jedoch Hinweise, dass sich DeepSeek über Umwege trotzdem H100-Beschleuniger besorgt und diese zumindest fürs Training des Modells eingesetzt hat. Der Betrieb läuft Berichten zufolge auf Huawei-Chips.
7. Ist die Aufregung gerechtfertigt?
Darüber diskutieren sich Analysten den Mund wund. Einerseits könnte DeepSeek die Kosten seines Modells beschönigt haben. Und es scheint sich zumindest zum Teil auf Innovationen aus den USA zu stützen. Andererseits zeigen sich auch unabhängige Experten beeindruckt von DeepSeeks Effizienz. Dank cleverer Lösungen erreiche das Modell eine Performance auf dem Level von OpenAI o1 mit deutlich weniger Rechenaufwand.
Im Minimum zeigt die Episode, dass sich die marktführenden Chatbots relativ einfach kopieren lassen. Ob es DeepSeek gelingt, sich nachhaltig an der Spitze zu etablieren, bleibt abzuwarten. Die Serverfarmen von OpenAI und Co. sind zudem nicht plötzlich wertlos. Sie bleiben wichtig, um Künstliche Intelligenz voranzubringen. Die Aktienkurse der US-Firmen erholten sich bis zum Freitag denn auch einigermassen von ihrem Absturz.
Die heftige Reaktion verdeutlicht jedoch die Nervosität der Investoren. Über die letzten Jahre kannten die Bewertungen von KI-nahen Unternehmen nur eine Richtung: nach oben. Das durchschnittliche Kurs-Gewinn-Verhältnis von Nvidia, Alphabet, Microsoft, Meta und Amazon liegt bei 38 – fast doppelt so hoch wie der Schnitt der 500 grössten US-Firmen (S&P 500 Equal Weight). Je nach Ansicht sind die teuren Tech-Aktien eine Investition in die Zukunft oder ein Kartenhaus. Die Realität dürfte irgendwo dazwischen liegen.
Mein Fingerabdruck verändert sich regelmässig so stark, dass mein MacBook ihn nicht mehr erkennt. Der Grund: Wenn ich nicht gerade vor einem Bildschirm oder hinter einer Kamera hänge, dann an meinen Fingerspitzen in einer Felswand.