DeepSeek utmanar OpenAI

DeepSeek AI utmanar med 3 nyheter men vågar man använda den?


Generativ artificiell intelligens har gjort häpnadsväckande framsteg. Ett kinesiskt företag, har nyligen skakat om branschen ytterligare med DeepSeek AI. Med sina banbrytande modeller V3 och R1 har företaget vänt upp och ner på vad de flesta trodde var möjligt genom att använda mycket billigare hårdvara och på kort tid utvecklat en modell som utmanar ledarna – OpenAI, Anthropic och Google. Men, som med alla betydande innovationer, finns det dock både möjligheter och risker.

I den här artikeln kommer vi att utforska DeepSeeks framgångar, dolda faror och vad det innebär för framtiden för generativ AI. Mot slutet av artikeln kommer vi också att undersöka andra nya LLM-modeller.

Hur utmanar DeepSeek AI?

Den största skillnaden mellan DeepSeek-V3 och DeepSeek-R1 ligger i deras kärnfunktioner och idealiska användningsfall:

  • V3 är en generell stor språkmodell (LLM) som använder en MoE-strategi (Mixture-of-Experts). Den är effektiv, mångsidig och lämplig för vardagliga uppgifter, vilket gör den till standardmodellen i DeepSeek-appen. Den konkurrerar med modeller som OpenAI:s GPT-4o och är idealisk för textgenerering, sammanfattningar och vanliga AI-uppgifter.
  • R1, eller DeepThink, är särskilt utformad för avancerade resonemang och problemlösning. Den utmärker sig i kodningsutmaningar, logiktunga uppgifter och kognitiva operationer på professionell nivå som kräver djupa resonemang snarare än att bara förutsäga nästa ord baserat på träningsdata. R1 liknar OpenAI:s modeller O1 och O3. Åtminstone inom vissa områden är den lika bra som OpenAI:s O1-modell. Det kinesiska företaget utvecklade den på bara några månader, med mycket mindre hårdvara och en budget långt under den för andra ledande modeller.

1. En ny standard för AI-resonemang till en bråkdel av kostnaden

DeepSeek har lyckats med något som många trodde var omöjligt: att bygga och träna en avancerad resonerande modell för bara 6 miljoner dollar, jämfört med de hundratals miljoner eller miljarde som OpenAI och andra har spenderat. Det här är en vattendelare inom AI och visar att innovation inte bara handlar om hårdvara utan också om effektivitet och att hitta nya sätt att lösa problem på.

2. Modell med öppna vikter: AI för alla?

DeepSeek har valt en ”öppen vikt”-modell, vilket innebär att utvecklare och forskare kan få tillgång till och experimentera med de utbildade modellparametrarna. Även om detta inte är fullständig frihet med öppen källkod, utgör det ett viktigt steg mot att göra banbrytande AI-modeller tillgängliga utanför företagens kontroll. DeepSeek-R1 är nu tillgänglig som en förhandsgranskning av NVIDIA NIM-mikrotjänsten för att hjälpa utvecklare att bygga specialiserade AI-agenter. Microsoft har integrerat DeepSeek-R1 i Azure AI Foundry, och Amazon har gjort den tillgängligt via AWS. VDn Andy Jassy uppmuntrar användare att utforska dess kapacitet. Huggin Face har också gjort alla modeller från DeepSeek tillgängliga på sin webbplats.

3. En disruptiv faktor för AI-affärsmodellen

När DeepSeeks erbjuder en avancerad resonerande AI-modell till en bråkdel av OpenAIs pris kan detta på sikt tvinga fram en dramatisk förändring av AI-prissättningen. För närvarande tar OpenAI ut cirka 15 USD per miljon tokens för bearbetning av indata, medan DeepSeek erbjuder liknande kapacitet för bara 0,55 USD per miljon tokens. Om utvecklingen går mot billigare alternativ som DeepSeek kan detta skaka OpenAIs, Googles och Anthropics dominans i AI-landskapet.

4. Hårdvarueffektivitet utan att förlita sig på Nvidias bästa GPU:er

DeepSeeks modeller är byggda för att kunna tränas och användas på enklare hårdvara än vad som är fallet med de tidigare modellerna. Detta innebär att AI-utvecklingen inte blir lika beroende av Nvidias avancerade GPU:er som t.ex. H-100. Orsaken och drivkraften har varit de amerikanska sanktionerna som begränsar Kinas tillgång till Nvidias bästa chip. Detta har lett till att DeepSeeks utvecklat kompetens att bygga konkurrenskraftiga modeller som endast använt äldre GPUer, som t.ex. H-800. Detta har de lyckats genom att förbättra mjukvaran och använda hårdvaran mycket bättre. Detta är en utmaning för de västerländska AI-jättarna. De har bevisat att det är möjligt att skapa avancerade AI-modeller utan de extrema budgetar som västerländska AI-företag har haft.

De negativa aspekterna: Censur, övervakning och säkerhetsrisker

1. Inbyggd kinesisk censur

Medan DeepSeeks innovation är en mycket lovande utveckling, har modellerna inbyggd Kinesisk statlig censur. Om du t.ex. frågar om Himmelska fridens torg 1991, vem som leder Taiwan, protesterna i Hongkong eller andra, i Kina, politiskt känsliga ämnen, kommer modellen antingen att vägra att svara eller ge vaga svar. Liknande problem finns i och för sig också med västerländska AI-modeller, men detta har främst handlat om framför politisk korrekthet. Och leverantörerna har varit mer villiga att korrigera fördomarna. Åtminstone i vissa fall har dessa fördomar dessutom troligen haft sitt ursprung i att utbildningsmaterialet redan innehållit dessa perspektiv. Men i fallet DeepSeek väcker detta farhågor om de etiska begränsningarna för AI-modeller som byggts under auktoritära regimer.

2. Insamling av djupgående data och integritetsfrågor

DeepSeeks webbaserade AI spårar i stor utsträckning användardata, inklusive IP-adresser, enhetsdetaljer och tangenttryckningsmönster. Dessa data lagras i Kina, där regeringen har laglig tillgång till företagsregister. Säkerhetsexperter varnar för att användning av DeepSeeks hostade tjänster kan utsätta känsliga konversationer och affärsdata för potentiell statlig övervakning.

3. Sårbarheter i säkerheten och potentiella exploateringar

Nyligen fann cybersäkerhetsforskare vid Cisco att DeepSeek misslyckades med alla deras tester. När DeepSeek testades med Qualys TotalAI:s toppmoderna Jailbreak- och Knowledge Base (KB) -attacker klarade den ungefär hälften av testerna. Även om åtminstone några av dessa enligt uppgift har tagits offline sedan testerna publicerades, väcker det allvarliga farhågor:

Kan man lita på DeepSeeks säkerhetsinfrastruktur?

Vad händer om en AI-modell som tränats på känsliga ingångar bryts? Kan företagsanvändare av misstag läcka affärshemligheter till en osäker AI-modell? Dessa risker gör att självhosting är ett säkrare alternativ, men det kräver dyr infrastruktur och teknisk expertis.

Flera regeringar har vidtagit beslutsamma åtgärder för att bemöta dessa farhågor. Australien har förbjudit statliga enheter att använda DeepSeek, med hänvisning till nationella säkerhetsrisker. På samma sätt överväger USA lagstiftning som förbjuder appen på statliga enheter på grund av rädsla för dataöverföring till den kinesiska regeringen. Dessa åtgärder understryker farhågorna kring DeepSeeks datapraxis och potentiella påverkansoperationer.

Vad händer härnäst för generativ AI?

1. AI-vapenkapplöpningen blev betydligt mer intensiv

DeepSeeks uppgång tvingar OpenAI, Google och Meta att ompröva sina AI-strategier. AI kan komma att bli alltmer en handelsvara med ett kompetent lågkostnadsalternativ, vilket kan leda till att branschen går från exklusiva högkostnadsmodeller till överkomlig, utbredd tillgång. Dessutom föll NVIDIA-aktien i värde motsvarande Sveriges BNP på en dag.

2. Kinas ökande AI-dominans

Västvärlden har lett AI-forskningen i flera år, men DeepSeeks genombrott visar att Kina snabbt håller på att komma ikapp. Det effektivitetsdrivna tillvägagångssättet kan ge kinesiska AI-företag en betydande fördel, särskilt i branscher som inte behöver den absolut bästa AI:n utan bara kostnadseffektiva prestanda som är tillräckligt bra.

3. Det skiftande AI-landskapet: Kinas uppgång och störning av öppen källkod

Just när det verkade som om DeepSeek hade skrivit om reglerna för AI, kom en annan kinesisk modell, Kimi 1.5, in på scenen. Kimi 1.5 är utvecklad av MoonShot AI och de hävdar att den också överträffar OpenAI:s modeller.

Kimi 1.5 är en multimodal modell som kan bearbeta och resonera kring text-, syn- och kodningsuppgifter. Tidiga riktmärken tyder på att den kan överträffa DeepSeek inom vissa områden, vilket ytterligare intensifierar konkurrensen inom AI-utvecklingen.

Detta väcker en viktig fråga: Kan vi vara på väg in i en era där Kina leder AI-innovationen? Västerländska AI-företag kanske kan få svårt att behålla sitt försprång om kinesiska företag fortsätter att flytta fram gränserna till konkurrenskraftiga priser.

Det västerländska AI-svaret: Styrkor och svagheter

Även om detta scenario är möjligt kan DeepSeeks öppna källkod göra det möjligt för västerländska generativa AI-företag att anpassa sig snabbt. Med tillgång till mer kraftfulla GPU:er kan de förbättra sina modeller med hjälp av de nya idéer som kommer från den kinesisk forskningen. Men betydligt mer pengar och beräkningskraft har förmodligen gjort västerländska AI-företag självbelåtna, vilket gjort dem oförberedda på denna plötsliga ökning av konkurrensen.

Exportrestriktionerna har tvingat kinesiska företag att hitta alternativa sätt att förnya sig, vilket har lett till kreativa genombrott. Nöden är uppfinningarnas moder… Ironiskt nog kan DeepSeeks öppna källkod hjälpa västerländska företag att återfå momentum genom att minska sitt beroende av dyra GPUer eller genom att integrera dessa nya metoder i modeller som drar nytta av deras överlägsna hårdvarukapaciteter och då förbättra sina modeller ytterligare.

Fler omstörtare på horisonten

Som om DeepSeek och Kimi 1.5 inte var tillräckligt har Stanford- och University of Washington-forskare introducerat ett open source-alternativ till OpenAI: s O1-resonemangsmodell. Byggd på Googles Gemini 2.0 Flash Thinking Experimental. De erbjuder denna modell med avancerade resonemangsfunktioner till en bråkdel av kostnaden – under $ 50 – vilket gör AI-resonemang på hög nivå mer tillgängligt. Notera att detta inte är jämförbart med de modeller denna artikeln handlar om, bara att kostnaderna är på väg ned. Franska Mistral har också släppt nya modeller och även erbjuder nu även Le Chat i en mobilversion.

Slaget är långt ifrån över

Även om denna utveckling innebär betydande förändringar, är det vara för tidigt att räkna ut OpenAI eller Google. Medan jag skrivit denna artikeln har jag också testat OpenAI: s senaste O3-modeller och åtminstone för vissa uppgifter innebär de ett stort steg framåt. Så det är rimligt att säja att konkurrensen fortfarande är mycket hård. AI-racet är långt ifrån avgjort, och de kommande månaderna kan bjuda på ännu fler överraskningar.

Slutliga tankar: Innovation vs. etik vs. makt

DeepSeeks AI-revolution innebär en komplicerad verklighet:

✔ Den är tekniskt imponerande

✔ Den är kostnadseffektiv och allmänt tillgänglig

✖ Den kommer med inbyggd censur

✖ Den har allvarliga problem med datasekretess (inte ett problem när man använder modellerna via AWS, Amazon, Hugging Face eller när man laddar ner och kör dem själv).

Organisationer och individer som överväger att använda DeepSeeks teknik måste tänka igenom väl vad detta innebär. Det är viktigt att förstå de inneboende riskerna relaterade till dataintegritet, säkerhetsproblem och censur av innehåll. Genom att använda robusta säkerhetsåtgärder och hålla sig informerad om utvecklingen av regelverket kan man bidra till att minska potentiella risker med DeepSeeks AI-modeller. Men enligt min uppfattning är deras webbversion knappast ett alternativ för företagsanvändare givet riskerna.

För företag och utvecklare är den viktigaste frågan för hur man kan balansera tillgången till banbrytande AI och samtidigt skydda immateriella rättigheter, säkerhet och etiska standarder.

En sak är säker: Gen-AI-revolutionen är långt ifrån över – och nästa genombrott kanske inte kommer från Silicon Valley utan från oväntade utmanare som DeepSeek, Kimi 1.5 eller var som helst i världen där man nu kan sitta och utveckla nya modeller.

Kontakta oss gärna idag för att diskutera hur vi kan hjälpa dig att använda AI för att ge ditt företag ett försprång, kontakta oss idag!

Lämna ett svar