Oauktoriserad AI-användning: En växande säkerhetsrisk för företag
Oauktoriserad AI-användning, eller 'shadow AI', utgör en snabbt växande säkerhetsrisk för företag. Användningen av AI-verktyg som ChatGPT, ofta utan IT-avdelningens medgivande, riskerar läckage av känslig data, introduktion av sårbarheter och felaktiga beslut.
Oauktoriserad AI-användning, eller ‘shadow AI’, utgör en snabbt växande säkerhetsrisk för företag. Användningen av AI-verktyg som ChatGPT, ofta utan IT-avdelningens medgivande, riskerar läckage av känslig data, introduktion av sårbarheter och felaktiga beslut. Företag behöver nu ta ett aktivt grepp för att identifiera, förstå och hantera dessa risker.
Anledningen till denna utveckling är att AI-verktyg, som OpenAI’s ChatGPT, har blivit otroligt populära. Många anställda använder dessa verktyg utan att IT-avdelningen känner till eller kontrollerar användningen. Problemet är att dessa verktyg, som kan användas för att skriva kod, analysera data eller generera innehåll, kan exponera känslig information och sårbarheter i företagssystem.
Enligt IBM upplevde redan 20% av organisationer förra året ett dataintrång relaterat till shadow AI. Detta medför risker som känslig data kan läcka ut, företaget kan bli föremål för påföljder för bristande efterlevnad av dataskyddsbestämmelser (som GDPR eller CCPA), eller att sårbarheter introduceras i applikationer. Dessutom kan verktyg utvecklade för att generera kod kunna innehålla exploaterbara buggar.
För att minska denna risk rekommenderar experter att man först ska identifiera och dokumentera användningen av shadow AI inom organisationen. Sedan bör företag skapa en tydlig och accepterad användningspolicy, samt utföra grundlig due diligence på AI-leverantörer för att förstå potentiella risker. Dessutom är det viktigt att utbilda anställda om riskerna med shadow AI och att implementera verktyg för nätverksövervakning och dataläckageskydd. Med rätt strategier kan företag utnyttja AI:s potential samtidigt som de effektivt minskar riskerna.