Prieš dešimtmetį būtų buvę sunku patikėti, kad dirbtinis intelektas gali tai, ką gali padaryti dabar. Tačiau būtent ta pati galia sukuria naują atakos paviršių, kuriam tradicinės saugos sistemos nebuvo sukurtos. Kadangi ši technologija tampa įtraukta į svarbias operacijas, įmonėms reikia daugiasluoksnės gynybos strategijos, apimančios duomenų apsaugą, prieigos kontrolę ir nuolatinį stebėjimą, kad šios sistemos būtų saugios. Šią riziką mažina penkios pagrindinės praktikos.
1. Įgyvendinti griežtą prieigos ir duomenų valdymą
AI sistemos priklauso nuo joms teikiamų duomenų ir žmonių, kurie juos pasiekia, todėl vaidmenimis pagrįsta prieigos kontrolė yra vienas geriausių būdų apriboti poveikį. Priskirdamos leidimus pagal darbo funkciją, komandos gali užtikrinti, kad tik tinkami žmonės galėtų bendrauti su jautriais AI modeliais ir juos mokyti.
Šifravimas sustiprina apsaugą. Dirbtinio intelekto modeliai ir jiems mokyti naudojami duomenys turi būti užšifruoti, kai jie saugomi ir juda tarp sistemų. Tai ypač svarbu, kai šie duomenys apima patentuotą kodą arba asmeninę informaciją. Nešifruoto modelio palikimas bendrame serveryje yra atviras kvietimas užpuolikams, o patikimas duomenų valdymas yra paskutinė gynybos linija, apsauganti šį turtą.
2. Apsaugokite nuo modeliui būdingų grėsmių
AI modeliai susiduria su įvairiomis grėsmėmis, kurioms įprastos saugos priemonės nebuvo sukurtos. Greitas įpurškimas yra didžiausias OWASP 10 didžiausių didelių kalbų modelių (LLM) programų pažeidžiamumas, ir tai atsitinka, kai užpuolikas į įvestį įterpia kenkėjiškas instrukcijas, kad nepaisytų modelio elgesio. Vienas iš tiesiausių būdų blokuoti šias atakas įėjimo taške yra diegti AI specifines ugniasienes, kurios patvirtina ir valo įvestis, kol jos pasiekia LLM.
Be įvesties filtravimo, komandos turėtų reguliariai atlikti priešpriešinį testavimą, kuris iš esmės yra etiškas AI įsilaužimas. Raudonosios komandos pratybose imituojami realaus pasaulio scenarijai, pvz., duomenų apsinuodijimas ir modeliuojamos inversijos atakos, siekiant atskleisti pažeidžiamumą, kol grėsmės veikėjai jų neaptinka. Raudonųjų komandų AI sistemų tyrimai rodo, kad toks kartotinis testavimas turi būti įtrauktas į AI kūrimo gyvavimo ciklą, o ne priveržtas po įdiegimo.
3. Išsaugokite išsamų ekosistemos matomumą
Šiuolaikinės AI aplinkos apima vietinius tinklus, debesų infrastruktūrą, el. pašto sistemas ir galinius taškus. Kai saugos duomenys iš kiekvienos iš šių sričių yra atskiroje talpykloje, gali atsirasti matomumo spragų. Užpuolikai juda pro šias spragas nepastebėti. Suskaidžius jūsų aplinkos vaizdą, beveik neįmanoma susieti įtartinų įvykių į nuoseklų grėsmės vaizdą.
Apsaugos komandoms reikalingas vieningas matomumas kiekviename jų skaitmeninės aplinkos lygmenyje. Tai reiškia, kad reikia išskaidyti informacijos sankaupas tarp tinklo stebėjimo, debesų saugos, tapatybės valdymo ir galinių taškų apsaugos. Kai telemetrija iš visų šių šaltinių patenka į vieną vaizdą, analitikai gali sujungti taškus tarp anomalaus prisijungimo, bandymo judėti į šoną ir duomenų išfiltravimo įvykio, nematydami kiekvieno atskirai.
Pasiekti tokį aprėpties plotį tampa vis sunkiau. Kaip aiškiai nurodyta NIST kibernetinio saugumo pagrindų profilyje, skirtame dirbtiniam intelektui, norint apsaugoti šias sistemas, organizacijos turi apsaugoti, sutrukdyti ir ginti visus susijusius išteklius, o ne pačius matomiausius.
4. Taikyti nuoseklų stebėjimo procesą
Saugumas nėra vienkartinė konfigūracija, nes keičiasi dirbtinio intelekto sistemos. Atnaujinami modeliai, pristatomi nauji duomenų srautai, keičiasi vartotojų elgsena ir kartu su jais vystosi grėsmių aplinka. Taisyklėmis pagrįstoms aptikimo priemonėms sunku neatsilikti, nes jos remiasi žinomais atakų parašais, o ne realaus laiko elgesio analize.
Nuolatinis stebėjimas pašalina šią spragą nustatydamas AI sistemų elgsenos pagrindą ir pažymėdamas nukrypimus, kai jie įvyksta. Nuoseklus stebėjimas gali pažymėti neįprastą veiklą šiuo metu, nesvarbu, ar tai modelis, duodantis netikėtų rezultatų, ar staigus API skambučių modelių pasikeitimas, ar privilegijuota paskyra, pasiekianti duomenis, kurių paprastai neturėtų. Apsaugos komandos iškart gauna įspėjimą su pakankamai konteksto, kad galėtų greitai veikti.
Perėjimas prie aptikimo realiuoju laiku yra labai svarbus dirbtinio intelekto aplinkoje, kur duomenų kiekis ir greitis gerokai viršija žmogaus peržiūrą. Automatiniai stebėjimo įrankiai, mokantys įprastus elgesio modelius, gali aptikti trumpalaikes ir lėtas atakas, kurios kitu atveju liktų nepastebimos kelias savaites.
5. Sukurkite aiškų reagavimo į incidentą planą
Incidentai yra neišvengiami, net ir taikant griežtą prevencinę kontrolę. Neturėdamos iš anksto nustatyto reagavimo plano, įmonės rizikuoja priimti brangius sprendimus, patiriant spaudimą, o tai gali pabloginti pažeidimo, kuris galėjo būti greitai sustabdytas, poveikį.
Veiksmingas reagavimo į DI planas turėtų apimti izoliavimą, tyrimą, likvidavimą ir atkūrimą:
- Sulaikymas: Apriboja tiesioginį poveikį, izoliuodamas paveiktas sistemas
- Tyrimas: Nustato, kas atsitiko ir kiek tai pasiekė
- Išnaikinimas: Pašalina grėsmę ir pataiso išnaudotą silpnybę
- Atkūrimas: Atkuria įprastas operacijas su stipresniais valdikliais
Dirbtinio intelekto incidentams reikia atlikti unikalius atkūrimo veiksmus, pvz., perkvalifikuoti modelį, kuriam buvo pateikti sugadinti duomenys, arba peržiūrėti žurnalus, kad pamatytumėte, ką sistema sukūrė, kai buvo pažeista. Komandos, kurios iš anksto planuoja šiuos scenarijus, atsigauna greičiau ir padaro daug mažiau žalos reputacijai.
3 geriausi tiekėjai, įgyvendinantys AI saugumą
Norint įgyvendinti šią praktiką plačiu mastu, reikia specialiai sukurtų įrankių. Trys teikėjai išsiskiria iš organizacijų, norinčių praktiškai įgyvendinti rimtą AI saugumo strategiją.
1. Darktrace
„Darktrace“ yra svarbiausias AI saugumo pasirinkimas, daugiausia dėl savo pagrindinio savarankiško mokymosi AI. Sistema sukuria dinamišką supratimą apie tai, kaip įprasta atrodo įmonės unikalioje skaitmeninėje aplinkoje. Užuot pasikliaujęs statinėmis taisyklėmis ar istoriniais atakų parašais, „Darktrace“ pagrindinis AI ieško anomalių įvykių, sumažindamas klaidingų teigiamų rezultatų, kurie kenkia daugiau taisyklėmis pagrįstų įrankių, skaičių.
Antrąjį analizės lygmenį teikia „Cyber AI Analyst“, kuris savarankiškai tiria kiekvieną įspėjimą ir nustato, ar jis yra platesnio saugumo incidento dalis. Tai gali sumažinti įspėjimų, patenkančių į SOC analitikų eilę, skaičių nuo šimtų iki dviejų ar trijų kritinių incidentų, į kuriuos reikia atkreipti dėmesį.
„Darktrace“ buvo vienas iš pirmųjų AI pritaikytų kibernetiniam saugumui, suteikdamas savo sprendimams brandos pranašumą prieš naujesnius rinkos dalyvius. Jo aprėptis apima vietinius tinklus, debesų infrastruktūrą, el. paštą, OT sistemas ir galutinius taškus – visa tai galima valdyti kartu arba atskiro produkto lygiu. Vieno paspaudimo integravimas iš klientų portalo reiškia, kad prekės ženklai gali išplėsti šią aprėptį be ilgų, trikdančių diegimo ciklų.
2. Vectra AI
„Vectra AI“ yra puikus pasirinkimas organizacijoms, kuriose veikia hibridinė arba kelių debesų aplinka. Jo „Attack Signal Intelligence“ technologija automatizuoja užpuoliko elgesio aptikimą ir prioritetų nustatymą tinklo sraute ir debesų žurnaluose, išryškindama svarbiausią veiklą, neužpildydama analitikų neapdorotais įspėjimais.
„Vectra“ taiko elgesiu pagrįstą grėsmės aptikimo metodą, sutelkdama dėmesį į tai, ką užpuolikai veikia aplinkoje, o ne į tai, kaip jie iš pradžių gavo prieigą. Tai leidžia efektyviai užfiksuoti šoninį judėjimą, privilegijų eskalavimą ir komandų bei valdymo veiklą, kuri apeina perimetro apsaugą. Komandoms, valdančioms sudėtingas hibridines architektūras, „Vectra“ galimybė užtikrinti nuoseklų aptikimą vietoje ir debesų aplinkoje vienoje platformoje yra pranašumas.
3. CrowdStrike
„CrowdStrike“ yra pripažinta kaip debesies savųjų galinių taškų saugumo lyderė. Jos „Falcon“ platforma yra sukurta remiantis galingu AI modeliu, parengtu remiantis daugybe grėsmių žvalgybos duomenų, leidžiančių užkirsti kelią, aptikti ir reaguoti į grėsmes galutiniame taške, įskaitant naujas kenkėjiškas programas.
Aplinkose, kuriose galiniai taškai sudaro didelę atakos paviršiaus dalį, jo lengva priemonė ir vietinė debesies sąranka leidžia lengvai įdiegti netrikdant operacijų. Jo grėsmių žvalgybos integracijos taip pat padeda saugos komandoms sujungti taškus, susiejant tai, kas vyksta viename įrenginyje, su didesniu atakos modeliu, veikiančiu visoje infrastruktūroje.
Nubrėžkite saugią dirbtinio intelekto ateitį
Dirbtinio intelekto sistemoms tobulėjant, joms išnaudoti skirtos grėsmės taip pat tobulės. Dirbtinio intelekto apsaugai reikia į ateitį nukreiptos strategijos, paremtos prevencija, nuolatiniu matomumu ir greitu reagavimu – tokios strategijos, kuri prisitaiko besivystant aplinkai.