'DeepSeek doet gevestigde AI-orde op zijn grondvesten trillen'

07 FEB 2025 12:28 | Boer & Croon
Dit is een expertquote via ANP Expert Support

Johan Traa

Aanleiding:
Frans AI-platform Mistral slaat terug na lancering DeepSeek | BNR Nieuwsradio

De afgelopen weken gaat het binnen de AI-wereld alleen maar over DeepSeek. Het wordt al het Spoetnik-moment van de Vijfde Industriële Revolutie (die van kunstmatige intelligentie) genoemd. Dit is met recht een gamechanging moment voor de toekomst van AI. DeepSeek heeft een machtsstructuur doorbroken die jarenlang onwrikbaar leek.

Niet meer het exclusieve domein van Big Tech

Terwijl Big Tech miljarden investeert in steeds grotere en duurdere AI-modellen en de Amerikaanse overheid met Project Stargate een strategische voorsprong op China dacht te kunnen behouden, komt het kleine DeepSeek uit het niets met krachtige AI-modellen. Ontwikkeld met een krap budget en zonder de modernste chips. En: open source. Hiermee is de muur doorbroken en kunnen universiteiten en ontwikkelaars hun eigen AI-omgeving opzetten. Met een hardwarebudget van minder dan 10.000 euro kunnen zij zelf verder ontwikkelen.

Nieuwe trainingsmethode

Een andere fundamentele verandering die DeepSeek heeft geïntroduceerd is de manier waarop AI-modellen worden getraind. Waar de meeste Large Language Models vertrouwen op enorme hoeveelheden gelabelde data en Supervised Fine-Tuning, heeft DeepSeek-R1 laten zien dat dit sterke redeneervermogen ook kan worden bereikt met een aanpak die puur gebaseerd is op Reinforcement Learning (RL).

DeepSeek-R1-Zero is volledig getraind met RL en heeft een enorme sprong gemaakt in prestaties. Dit laat zien dat AI zelfstandig kan leren en generaliseren zonder afhankelijkheid van handmatig gelabelde datasets – een gamechanger die AI-ontwikkeling toegankelijker maakt voor partijen zonder gigantische datasets en annotatiecapaciteiten.

Slimmere en kleinere modellen

DeepSeek-R1 maakt gebruik van een Chain of Thought-benadering, waardoor AI stap-voor-stapredeneringen kan uitvoeren. Dat verbetert de probleemoplossende vaardigheden van modellen, met name op wiskundige en logische vraagstukken. Het model leert intern monologen te genereren die bijdragen aan een betere analyse en besluitvorming.

Daarnaast heeft DeepSeek bewezen dat grote modellen gedistilleerd kunnen worden naar kleinere modellen zonder significant prestatieverlies. Dit betekent dat krachtige AI-modellen niet per se enorme hardwarevereisten nodig hebben, waardoor ze breder toegankelijk worden.

Prestaties

Wat DeepSeek echt opmerkelijk maakt is dat hun modellen, ondanks hun relatief lage kosten, kunnen concurreren met de meest geavanceerde modellen van OpenAI en Google. DeepSeek-R1 scoort gelijkwaardig of zelfs beter op verschillende benchmarks, zoals wiskundige taken, codering en algemene kennis. Daarnaast blinkt het model uit in creatief schrijven en complexe redeneertaken, wat bewijst dat een efficiëntere en democratischere AI-ontwikkeling niet ten koste hoeft te gaan van prestaties.

Meer binnen de rubriek IT, tech en social media