NSA använder Anthropics hemliga AI-modell Mythos trots Pentagons motstånd
USA:s signalspaningsmyndighet NSA har börjat använda Anthropics hemliga AI-modell Mythos Preview för cybersäkerhetsuppgifter. Det sker trots att Pentagon, som formellt överser NSA, har klassat Anthropic som en "supply chain risk". Nyheten avslöjades av Axios, TechCrunch och CNBC under veckan och väcker frågor om hur kraftfulla AI-modeller hanteras inom försvars- och underrättelsesektorn.
En modell som ansågs för farlig för allmänheten
Mythos är en så kallad frontier-modell som Anthropic utvecklat specifikt för cybersäkerhet. Företaget bedömde att modellen var för kapabel inom offensiva cyberattacker för att göras tillgänglig publikt. Tillgången har därför begränsats till omkring 40 organisationer, varav bara ett dussin har namngetts offentligt.
NSA använder Mythos främst för att skanna IT-miljöer efter exploaterbara sårbarheter. Även Storbritanniens AI Security Institute har bekräftat att de har tillgång till modellen.
Konflikten mellan Pentagon och Anthropic
Tvisten mellan Pentagon och Anthropic uppstod när försvarsdepartementet krävde obegränsad tillgång till modellens fulla kapacitet. Anthropic vägrade och satte tydliga gränser: Claude, företagets publika AI-assistent, skulle inte göras tillgänglig för massövervakning eller autonoma vapensystem.
Det är denna hållning som ledde till att Pentagon stämplade Anthropic som en leverantörsrisk. Trots det har NSA alltså valt att använda Mythos för defensiva ändamål.
Dual use: försvar och attack i samma modell
Situationen belyser den så kallade dual use-problematiken inom AI. Samma modell som kan identifiera sårbarheter i ett nätverk kan teoretiskt också användas för att utnyttja dem. Att en underrättelsetjänst har tillgång till en AI-modell som bedöms vara för riskabel för offentlig användning väcker frågor om transparens och kontroll.
För svenska företag är detta relevant av flera skäl. AI-verktyg för cybersäkerhet blir allt kraftfullare, och gränsen mellan defensiva och offensiva tillämpningar är inte alltid tydlig. Att förstå vilka verktyg som finns, och vilka begränsningar som sätts, är viktigt för att kunna fatta informerade beslut om sin egen säkerhetsstrategi.
Relationen mellan Anthropic och Vita huset tinar upp
Parallellt med NSA-kontroversen har Anthropics VD Dario Amodei träffat Vita husets stabschef Susie Wiles och finansminister Scott Bessent. Vita huset beskrev mötet som "produktivt", vilket tyder på att relationen mellan Anthropic och Trump-administrationen håller på att förbättras.
Det återstår att se om detta leder till en bredare överenskommelse kring hur AI-modeller för cybersäkerhet ska regleras och distribueras inom den amerikanska statsapparaten.
Vad innebär detta för svenska företag?
AI-driven cybersäkerhet utvecklas i snabb takt. Modeller som Mythos visar att tekniken redan är tillräckligt avancerad för att användas av underrättelsetjänster, samtidigt som den anses för riskabel för bred spridning. För SMB-ägare och IT-ansvariga i Sverige är det klokt att följa utvecklingen noga och utvärdera vilka AI-baserade säkerhetsverktyg som kan stärka det egna skyddet. Cyberhoten blir mer sofistikerade, och verktygen för att möta dem likaså.