Cisco tar helhetsgrepp på AI-säkerhet med ny plattform

En av innovationerna är en AI-baserad stresstestare, ett ”red team” som ständigt försöker lura AI-modellerna för att försöka generera olämpliga svar. Bild: Cisco

Cisco har lanserat AI Defense, en plattform som ska hjälpa organisationer att upprätthålla en hög utvecklingstakt av AI-tillämpningar utan att göra kompromisser kring säkerhet och trygghet.

Den snabba utvecklingen och tillväxten inom AI-området innebär att en rad nya och komplexa säkerhetsutmaningar uppstår, ”utmaningar som måste hanteras på kort tid och under fortsatt förändring”.  Det handlar både om renodalad cybersäkerhet men också om det bredare begreppet trygghet, framhåller Cisco. Till skillnad från traditionella applikationer finns det en inbyggd oförutsägbarhet i AI-modeller.

Många verksamheter använder också ett brett urval av modeller för att utveckla AI-tjänster, i en infrastruktur som kan ligga hos flera olika moln kombinerat med de egna datacentren, vilket fram till nu gjort AI-användningen ännu svårare att få en helhetsbild över.

Dessa frågor enligt Cisco måste hanteras samtidigt som det finns ett hårt tryck på organisationer att hålla en hög innovationsakt.

– Du måste röra dig snabbt med AI men du har absolut inte råd med att offra säkerhet och trygghet till förmån för snabbhet. Säkerhetsansvariga kommer att behöva ett sammanhållet lager för överblick och kontroll. De behöver inte bara se, utan förstå, var och hur AI används inom verksamheten – både av användare och av utvecklare, säger Jeetu Patel, EVP och Chief Product Officer på Cisco.

Cisco har lanserat plattformen AI Defense för att hjälpa verksamheter att uppnå detta. AI Defense är byggt för att ge komplett visibilitet över AI-applikationer som används i en organisation och på ett enkelt sätt stoppa och spärra riskfylld användning. Verktyget är integrerat med Ciscos plattform för åtkomsthantering, Cisco Secure Access.

Cisco AI Defense är också byggt för att kontinuerligt avläsa och validera de AI-källor som hanteras för att identifiera sårbarheter och avgränsa användningen i realtid både över publika och privata moln. ”Den skyddar därmed både under utvecklingsfasen och när applikationer används”.

En av innovationerna är en AI-baserad stresstestare, ett ”red team” som ständigt försöker lura AI-modellerna för att försöka generera olämpliga svar.

”Arbete som skulle kräva lång tid för tusentals mänskliga stresstestare kan nu genomföras på sekunder, och det gör det möjligt att erbjuda kontinuerlig övervakning”.

När ett felaktigt svar upptäcks skapar funktionen förslag på åtgärder för att undvika att samma fel uppstår i verkligheten.