AI-virus stjäl ditt 'digitala jag' – Är din personliga assistent en säkerhetsrisk?
Din AI-assistent vet allt om dig. Hudson Rock avslöjar nu hur malware jagar OpenClaw-mappar för att stjäla digitala identiteter och 'själar'. Här är vår analys av hotet.
Cyberkriminella har hittat en ny guldgruva: din personliga AI-assistent. En färsk rapport från säkerhetsföretaget Hudson Rock avslöjar en live-incident där skadlig kod framgångsrikt har exfiltrerat hela konfigurationsmiljön från en OpenClaw-användare. Det här markerar ett kritiskt skifte – från stöld av enkla lösenord till stöld av användarens hela digitala kontext och identitet.
En slumpmässig träff med riktad effekt
Intressant nog var attacken inte resultatet av en specialiserad modul för just AI-stöld. Istället använde den skadliga koden en bred sökning efter känsliga mappar och lyckades av en slump lokalisera .openclaw-katalogen.
Trots att träffen var slumpmässig var resultatet förödande. Genom att komma över mappen fick angriparen tillgång till hela det operativa sammanhanget för användarens AI-assistent.
Analys av bytet: Vad stals egentligen?
Hudson Rocks analys visar att de stulna filerna ger en skrämmande detaljerad bild av användarens liv och tekniska miljö:
- openclaw.json: Fungerar som systemets centrala nervsystem. Här stals användarens e-postadress, sökvägar till lokala arbetsytor och en Gateway Token. Denna token kan användas för att fjärrstyra AI-assistenten.
- device.json: Denna fil innehåller de kryptografiska nycklarna (publicKeyPem och privateKeyPem). Med den privata nyckeln kan en angripare signera meddelanden som om de kom från användarens egen enhet, vilket sätter nästan alla säkerhetsfilter ur spel.
- soul.md & MEMORY.md: Här lagras AI-assistentens personlighet, instruktioner och minne. Eftersom assistenten var instruerad att vara proaktiv med interna handlingar (organisera, lära sig och läsa), innehöll minnesfilerna sannolikt dagliga loggar, privata meddelanden och kalenderhändelser.
Enki AI bekräftar risken
Hudson Rocks eget AI-system, Enki, utförde en automatiserad riskanalys av de stulna filerna. Slutsatsen är entydig: kombinationen av tokens, nycklar och personlig kontext gör det möjligt för en angripare att iscensätta en total kompromettering av användarens digitala identitet.
Framtidens hotbild
I takt med att AI-agenter integreras allt djupare i professionella arbetsflöden, ökar också incitamenten för malware-utvecklare att skapa dedikerade "AI-stealer"-moduler. Rapporten från Hudson Rock understryker vikten av att behandla lokala AI-miljöer med samma noggrannhet som vi skyddar våra mest kritiska digitala tillgångar.
Skydda din AI-miljö
För att minimera risken bör användare se över rättigheterna för sina lokala konfigurationsmappar och vara selektiva med vilken typ av data som får lagras i klartext i minnesfiler. Framtidens digitala arbetskraft kräver inte bara smartare AI, utan även säkrare ramverk.