DeepSeek-V3.2: den kinesiska modellen som vill konkurrera med GPT-5 och Gemini-3 Pro

  • DeepSeek lanserar DeepSeek-V3.2 och V3.2-Speciale med ambitionen att konkurrera med GPT-5 och Gemini-3 Pro inom avancerad resonemang.
  • Modellen integrerar "tänkeläget" direkt i användningen av externa verktyg och stöder kontexter med upp till 128 000 tokens.
  • V3.2-Speciale utmärker sig inom matematik och datavetenskap, med prestationer pÃ¥ guldmedaljnivÃ¥ i internationella olympiader.
  • Företaget publicerar viktningar och en teknisk rapport, vilket förstärker kampen mellan Kina, Europa och USA om ledarskap inom öppen AI.

DeepSeek-V3.2

Det kinesiska företaget DeepSeek har tagit ytterligare ett steg i den globala kapplöpningen om artificiell intelligens. när man tillkännager DeepSeek-V3.2 och dess variant V3.2-SpecialeDessa två modeller med öppen källkod riktar sig direkt mot den övre delen av marknaden. Företaget hävdar att deras resonemangssystem är jämförbart med ledande riktmärken som GPT-5 och Gemini-3 Pro, vilket sätter press på de amerikanska jättarna i en tid av intensiv teknisk konkurrens.

I Europa, där debatter om Ansvarsfull AI, reglering och teknologisk suveränitet Dessa trender är vanliga, och DeepSeeks drag har inte gått obemärkt förbi. Det faktum att ett kinesiskt laboratorium har publicerat vikter, detaljerad teknisk dokumentation och en avancerad resonemangsmodell inom öppen källkod förstärker känslan av att ekosystemet med öppen källkod återfår styrka mot helt proprietära lösningar, något som kan vara särskilt intressant för europeiska universitet, forskningscentra och små och medelstora teknikföretag.

DeepSeek-V3.2: resonemang på nivå med ledande modeller

Den Hangzhou-baserade startupen har presenterat DeepSeek-V3.2 som den slutgiltiga och stabila versionen av dess resonemangsmodeller, och ersätter den experimentella utgåvan som släpptes några veckor tidigare. Enligt företaget självt, V3.2 uppnår en prestanda som liknar den hos GPT-5 i diverse riktmärken publik för flerstegsresonemang och tänkande, och är placerad något under Gemini-3.0 Pro i vissa benchmarktester.

Denna modell kombinerar Mänskligt resonemang med förmågan att använda externa verktygsåsom webbsökmotorer, kalkylatorer, kodkörningsmiljöer eller tredjepartssystem som Claude Code. Tanken är att systemet inte bara genererar text, utan också kan planera, fråga efter resurser, köra funktioner och sedan integrera dessa resultat till ett mer komplett svar utan att kräva ständig övervakning.

DeepSeek har framhävt att modellen erbjuder två interaktionssätt med verktygEn med synlig resonemang, där användaren kan följa mellanstegen, och en annan utan att visa tankeprocessen. I båda fallen, den "Resonemangsminne" kvarstår trots anrop till verktyg inom samma konversation och startar bara om när ett nytt meddelande kommer från användaren, något som är särskilt användbart för långa uppgifter eller agentliknande flöden.

"Tänkeläget" integrerat i användningen av verktyg

En av de mest slående nya funktionerna i DeepSeek-V3.2 är Direkt integration av tankesättet i användningen av verktygMedan den resonerar kan modellen skicka frågor till sökmotorn, anropa en kalkylator, exekvera kod eller interagera med andra tjänster, och kombinera cykler av intern analys och externa anrop för att försöka ge svar. mer detaljerad och precis när uppgiften kräver det.

Enligt företaget gör denna metod V3.2 till dess första modellen som kan resonera och använda verktyg direktbåde i standardläge och i intensivt tänkande läge. Det är ett tydligt engagemang för vad som kallas agentbaserade arbetsflödenI dessa fall svarar AI inte bara på en enda fråga, utan fungerar som en autonom agent som bryter ner problemet, söker efter information, beräknar och sedan kombinerar allt till en sammanhängande lösning.

DeepSeek betonar också att modellen är allmänt tillgänglig: DeepSeek-V3.2 kan användas via webb, app och APIDetta underlättar dess integration i produkter, virtuella assistenter eller affärsverktyg, inklusive projekt som utvecklats i Europa. För europeiska utvecklargrupper och företag som söker öppna alternativ är möjligheten att utforska och anpassa modellen utan att förlita sig på en enda större plattform en betydande fördel.

DeepSeek Sparse Attention (DSA)-arkitektur och beräkningseffektivitet

På en teknisk nivå är kärnan i DeepSeek-V3.2 DeepSeek Sparse Attention (DSA), en uppmärksamhetsmekanism utformad för att hantera mycket långa sekvenser samtidigt som beräkningskostnaderna minskas. DeepSeek har presenterat ett parallellt filsystem optimerat för AI vilket kompletterar dess insatser för effektivitet och implementering. Modellen har cirka 671.000 miljarder parametrar totaltmen vid varje inferenssteg aktiveras de bara runt 37.000 miljarder parametrar per tokenDetta gör att kapaciteten kan bibehållas utan att öka resursförbrukningen.

Denna distribuerade arkitektur gör det möjligt att arbeta med kontextfönster på upp till 128 000 tokens I produktion är denna storlek särskilt användbar för att analysera omfattande dokument, akademisk forskning eller granska stora mängder juridisk och teknisk information – områden av stort intresse för europeiska institutioner. Enligt uppgifter från företaget, DSA minskar inferenskostnaden med ungefär hälften i jämförelse med en tidigare tät arkitektur i långa sammanhang.

För organisationer i Spanien och resten av EU som står inför budgetbegränsningar för datoranvändning, detta effektivitetsförbättring Det öppnar dörren för att experimentera med mycket avancerade modeller utan att behöva den dyra infrastruktur som används av stora amerikanska teknikföretag. Trots detta erkänner DeepSeek att de fortfarande har utrymme för förbättringar jämfört med sina konkurrenter inom tokeneffektivitet och bredd av världskunskap, två viktiga områden för storskaliga utbyggnader.

DeepSeek-V3.2 med intensiv förstärkning med RL och syntetiska data för agenter

Utöver arkitekturen insisterar DeepSeek på att mycket av språnget i resonemanget kommer från en massiv efterträning genom förstärkningsinlärning (RL)Företaget har avsatt mer än 10 % av den totala beräkningen före träning endast i denna fas, en ovanlig andel i sektorn, i syfte att stärka modellens förmåga att korrigera fel, resonera djupgående, använda verktyg och agera i interaktiva miljöer.

Teamet har byggt upp en komplext syntetiskt dataekosystem vilket inkluderar mer än 1 800 träningsmiljöer och runt 85 000 avancerade instruktioner specifika för agenter. Dessa uppgifter omfattar verkliga sökningar, dynamiska simuleringar, kodkörning, kedjiga problem och automatiskt genererade och verifierade scenarier för att minimera fel i datamängden.

Denna metod är inriktad på att skapa AI-agenter som kan arbeta med en viss grad av autonomiAnalysera information, fatta beslut och agera i arbetsflöden i flera steg. För europeiska företag som utforskar automatisering av komplexa processer – från finansiell analys till avancerad teknisk support – kan dessa framsteg vara särskilt attraktiva, även om det återstår att se hur modellerna kommer att prestera utanför kontrollerade testmiljöer.

DeepSeek-V3.2-Speciale: matematik, datavetenskap och utökat tänkande

Vid sidan av generalistmodellen har DeepSeek lanserat DeepSeek-V3.2-Speciale, en variant inriktad på avancerad kalkyl, matematiska bevis och utökade tankeprocesserFöretaget hävdar att den här versionen är i nivå med Gemini-3 Pro Googles prestation i komplexa resonemangsuppgifter och att dess prestation närmar sig guldmedaljresultat i internationella tävlingar.

Specifikt skulle Speciale ha nått nivåer jämförbara med guldmedaljer i den internationella matematikolympiaden (IMO)i Internationella olympiaden i informatik (IOI), The ICPC-världsfinalerna och den kinesiska matematikolympiaden. Dessutom integrerar den förmågor som härrör från modellen DeepSeek-Math-V2, specialiserat på att bevisa satser och lösa mycket svåra problem, vilket stärker dess position inom segmentet modeller för vetenskaplig och teknisk forskning.

Till skillnad från standardversionen, DeepSeek-V3.2-Speciale är inte anpassad för vardagliga uppgifter inte heller till generalistiska integrationer med verktyg. Företaget betonar att detta är en modell som främst är utformad för forskning och akademiskt arbete, med en förbrukning av token överlägset, så för tillfället Det erbjuds endast via API och inte genom allmänna tillämpningar.

Tillgänglighet av DeepSeek-V3.2, bländare och kontrast hos de amerikanska jättarna

DeepSeek har publicerat de fullständiga DeepSeek-V3.2-vikterna och en detaljerad teknisk rapport gällande deras utbildning, något som står i kontrast till den alltmer restriktiva politiken hos vissa stora amerikanska teknikföretag, som ofta begränsar åtkomsten till koden eller storleken på deras mest avancerade modeller. Även i fall av öppen källkod Delvis, liksom vissa versioner av Llama, kommer inledningen med specifika villkor och nyanser.

I europeiskt sammanhang är denna grad av transparens och öppenhet Detta kan vara avgörande för projekt som kräver granskningsbarhet, regelefterlevnad eller förmågan att anpassa modeller till regelverk som Europeiska unionens AI-lagUniversitet, forskningscentra och offentliga förvaltningar kan studera modellen mer i detalj, replikera experiment eller till och med anpassa vissa delar efter sina egna behov utan att vara helt beroende av ett slutet externt API.

Företaget har lagt DeepSeek-V3.2 är tillgänglig för communityn på plattformar som Hugging Face och ModelScopeFörutom att erbjuda åtkomst via API är Speciale-varianten däremot för närvarande begränsad till konsumtion via ett programmatiskt gränssnitt på grund av dess högre beräkningskrav och kostnad per tokenDenna blandade distributionsstrategi passar in i många europeiska aktörers intresse av att ha robusta forskningsmodeller, även om deras kommersiella spridning kan kräva mer noggrann planering.

Kinas roll i den globala AI-kapplöpningen

Lanseringen av DeepSeek-V3.2 kommer vid en tidpunkt då Kina vill stärka sitt ledarskap inom AI Trots restriktioner för tillgången till avancerade halvledare och växande geopolitiska spänningar har DeepSeek blivit ett av de mest omtalade namnen i det kinesiska ekosystemet efter att ha dök upp tidigare i år med en modell som överraskade alla med sitt effekt-kostnadsförhållande, och nu fördubblar de sin satsning med agent- och resonemangskapacitet på hög nivå.

För Europa, där diskussionen kretsar kring hur man ska balansera innovation, dataskydd och säkerhetDenna typ av utveckling innebär både möjligheter och utmaningar. Å ena sidan utökar förekomsten av öppna modeller med hög kapacitet från Kina utbudet av verktyg som är tillgängliga för europeiska laboratorier och företag. Å andra sidan uppstår frågor gällande kompatibilitet med lokala föreskrifter, gränsöverskridande dataflöden och effekterna av innehållsregler i Kina, vilket vissa experter anser vara ett möjligt hinder för en fullständig internationell expansion av dessa system.

DeepSeek har också fått synlighet utanför sin hemmamarknad efter att deras V3.1-modell deltog i automatiserade investeringsexperiment jämfört med system som GPT-5 och Gemini 2.5 Pro, där den visade konkurrenskraftiga resultat. Denna strategi kompletteras av lanseringen av andra modeller som DeepSeek-OCR, som syftar till att komprimera text genom visuell perception och bearbeta den med färre resurser, vilket stärker företagets image som en aktör fokuserad på effektivitet och öppen källkod.

Förväntningar, begränsningar och nästa steg

Trots företagets påståenden erkänner DeepSeek att V3.2 ligger fortfarande efter några av sina amerikanska motsvarigheter i aspekter som allmän världskunskap, förståelse för breda kulturella sammanhang eller effektivitet i tokenanvändning. Dessutom medger projektledarna själva att jämförelser baserade på offentliga riktmärken De återspeglar inte alltid verklig prestanda i produktionsmiljöer, särskilt inte i öppna uppgifter och med slutanvändare.

En annan punkt att beakta är att integrering av verktyg i resonemangsläge Det behöver fortfarande valideras noggrant i komplexa, verkliga användningsfall, från hälso- och sjukvård till ekonomiska eller juridiska beslut. De beräkningsmässiga kostnadsbesparingar som DSA erbjuder är betydande, men de kan överskuggas om kvaliteten på svaren inte upprätthålls konsekvent när uppgifter blir mer tvetydiga eller kräver mycket specifika sammanhang.

Med ankomsten av DeepSeek-V3.2 och dess Speciale-variant får landskapet för avancerad AI-analys en ny aktör med globala ambitioner, som satsar på öppna modeller, integrerade verktyg och begränsade kostnaderDenna utveckling breddar utbudet av alternativ inom forskning, näringsliv och offentlig förvaltning, samtidigt som den tvingar fram ett nytänkande kring hur man ska anpassa AI:s snabba utveckling till ett krävande regelverk och en alltmer markerad konkurrens mellan teknologiblock.

DeepSeek
Relaterad artikel:
DeepSeek, ChatGPT har en annan konkurrent som kommer från Kina och kan till och med överträffa den