De senaste dagarna har företaget DeepSeek lanserat sin AI-modell DeepSeek-R1, vilket väckt stor uppmärksamhet. Den är tekniskt intressant, men dess ursprung i ett kinesiskt företag har skapat osäkerhet kring hur man kan använda den.
Användning av onlinetjänster – alltid en risk
För det första ska man alltid vara försiktig när man använder online-tjänster. De data som skickas till tjänstens servrar kan tjänsteleverantören i princip göra vad den vill med, särskilt när det gäller gratiskunder.
Som betalande kund har man ett avtal med tjänsten, och i det kan det stå att de inte sparar eller på annat sätt använder den data man skickar dit. Sådana klausuler är ganska vanliga. Men precis som med alla löften måste man fundera på hur mycket man litar på dem.
Man måste också ta hänsyn till risken att data används på andra sätt eller delas vidare till andra aktörer. Teknikföretag har ibland nära samarbeten med sina länders militär och säkerhetstjänster, vilket kan vara en aspekt att beakta.
Användning av online-tjänster – alltid en risk
Om man kör på egen hårdvara är situationen lite annorlunda. DeepSeek-R1 är så pass lättkörd att den kan laddas ner och köras med rimliga insatser. Det har visats exempel på personer som startat den på en trave med Mac Mini, vilket är både kreativt och imponerande.
Borde inte detta vara riskfritt? Nja. En AI-modell av denna typ består inte bara av data (vikterna som den lärt sig för alla sina parametrar under träningen) utan även av kod.
I denna kod skulle det teoretiskt sett kunna finnas tekniska bakdörrar – exempelvis funktioner som plockar data och skickar dem någon annanstans.
Kod från externa källor – alltid en tillitsfråga
Risken med dolda funktioner är givetvis inte unik för detta fall. Så fort man installerar kod som någon annan skrivit litar man på att den inte innehåller oväntade funktioner.
Vi litar på den som levererat operativsystemet, den som utvecklat ordbehandlaren eller kalkylprogrammet och den som står bakom alla de små smidiga verktyg vi installerar regelbundet. Men denna tillit är aldrig självklar – och det gäller även AI-modeller.
Skyddsåtgärder – sandbox och övervakning
Om man kör en AI-modell, eller annan programvara som man inte känner sig helt säker på, bör det ske i en sandbox där man noga övervakar vad den gör.
Exempelvis bör man kontrollera om modellen försöker ansluta sig till nätverket eller spara data på disk. Det kan också finnas dolda funktioner som aktiveras först efter en viss tid eller vid specifika händelser.
Open source minskar risken, men eliminerar den inte
Eftersom DeepSeek-R1 är open source är risken för dolda funktioner troligen något mindre. Hittills har det inte rapporterats några sådana upptäckter, varken för R1 eller den tidigare släppta V3.
Det skulle dessutom vara oerhört skadligt för DeepSeeks rykte om de blev påkomna med att ha smugit in trojaner i en modell som fått så stor uppmärksamhet.
Slutsats – ”det beror på”
Så, är DeepSeek säker? Som alltid är svaret: det beror på.
- Det beror på vilka data man använder.
- Det beror på vilken driftsmiljö man kör modellen i: hostad av någon annan, i ett moln där man själv installerar den, eller on-premises.
- Det beror på hur man övervakar den.
- Det beror på andra aspekter som är unika för just dig och din användning.
För alla dessa faktorer behöver man analysera vilka hot som finns och vad som kan exponeras. DeepSeek är definitivt inget man ska lita blint på, men det finns absolut sätt att prova modellen och utvärdera dess funktion.
Författare: Dan Bergh Johnsson | Head of Innovation