„Google“ aptakiame Singapūro biure, esančiame 80 bloke, 3 lygyje, Markas Johnstonas stovėjo prieš technologijų žurnalistų kambarį 13.30 val. Su stulbinančiu priėmimu: Po penkių dešimtmečių kibernetinio saugumo evoliucijos gynėjai vis dar pralaimi karą. „69% incidentų Japonijoje ir Azijos Ramiajame vandenyne buvo pranešta apie išorinius subjektus apie jų pačių pažeidimus“, – atskleidė „Google Cloud“ CISO biuro, skirto Azijos Ramiojo vandenynui, direktorius. Jo pristatymo skaidrėje buvo parodyta smerkianti statistika – dauguma kompanijų net negali detalizuoti, kai jos buvo pažeistos.
Tai, kas atsiskleidė valandos trukmės „kibernetinio saugumo AI epochoje“ apskritojo stalo diskusijos metu, buvo sąžiningas įvertinimas, kaip „Google Cloud AI Technologies“ bando panaikinti dešimtmečių gynybinių nesėkmių dešimtmečius, net kai tos pačios dirbtinio intelekto priemonės įgalina užpuolikus precedento neturinčias galimybes.
Istorinis kontekstas: 50 gynybinės nesėkmės metų
Krizė nėra nauja. Johnstonas atsekė problemą kibernetinio saugumo pradininkui Jamesui B. Andersonui 1972 m. Pastebėjimą, kad „sistemos, kurias mes naudojame, tikrai neapsaugo savęs“ – iššūkis, kuris išliko nepaisant dešimtmečių technologinės pažangos. „Tai, ką Jamesas B Andersonas sakė dar 1972 m., Vis dar galioja ir šiandien“, – teigė Johnstonas, pabrėždamas, kaip pagrindinės saugumo problemos išlieka neišspręstos, net ir tobulėjant technologijoms.
Pagrindinių pažeidžiamumų išlikimas sukelia šį iššūkį. „Google Cloud“ grėsmės žvalgybos duomenys atskleidžia, kad „daugiau nei 76% pažeidimų prasideda nuo pagrindų“ – konfigūracijos klaidos ir kredencialų kompromisai, kurie dešimtmečius vargino organizacijas. Johnstonas cituoja neseniai pateiktą pavyzdį: „Praėjusį mėnesį labai paplitęs produktas, kurį dauguma organizacijų tam tikru metu naudojo,„ Microsoft SharePoint “, taip pat turi tai, ką mes vadiname nulinės dienos pažeidžiamumu … ir per tą laiką jis buvo nuolat užpultas ir piktnaudžiaujamas.“
AI ginklavimosi lenktynės: gynėjai ir užpuolikai

IEEE vyresnysis Kevinas Curranas, Ulsterio universiteto kibernetinio saugumo profesorius ir profesorius, dabartinį kraštovaizdį apibūdina kaip „didelių ginklų lenktynes“, kuriose ir kibernetinio saugumo komandos, ir grėsmės veikėjai naudoja AI įrankius, kad pralenktų vienas kitą. „Gynėjams AI yra vertingas turtas“, – žiniasklaidos pranešime aiškina Curranas. „Įmonės įdiegė generatyvines AI ir kitas automatizavimo įrankius, kad būtų galima analizuoti didžiulį duomenų kiekį realiu laiku ir nustatyti anomalijas“.
Tačiau tos pačios technologijos yra naudingos užpuolikai. „AI grėsmės veikėjams AI gali supaprastinti sukčiavimo išpuolius, automatizuoti kenkėjiškų programų kūrimą ir padėti nuskaityti tinklus pažeidžiamumams“, – perspėja Curranas. Dvigubas AI pobūdis sukuria tai, ką Johnstonas vadina „gynėjo dilema“.
„Google Cloud AI“ iniciatyvos siekia pakreipti šias skales gynėjų naudai. Johnstonas teigė, kad „AI suteikia geriausią galimybę padidinti gynėjo dilemą ir pakreipti kibernetinės erdvės svarstykles, kad gynėjams suteiktų lemiamą pranašumą prieš užpuolikus“. Bendrovės požiūris sutelktas į tai, ką jie vadina „nesuskaičiuojamais atvejais, kad būtų galima generuoti AI gynyboje“, apimantis pažeidžiamumo atradimą, grėsmės žvalgybą, saugaus kodų generavimą ir reagavimą į įvykius.
„Project Zero“ didelis miegas: AI to, ko praleidžia žmonės
Vienas iš įtikinamiausių „Google“ gynybos pavyzdžių yra „Project Zero“ iniciatyva „Big Sleep“, kuri naudoja didelius kalbų modelius, kad būtų galima nustatyti pažeidžiamumą realaus pasaulio kode. Johnstonas pasidalino įspūdinga metrika: „Didelis miegas rado pažeidžiamumą atvirojo kodo bibliotekoje, naudodamas generatyvius AI įrankius – pirmą kartą manome, kad AI paslauga rado pažeidžiamumą“.
Programos evoliucija parodo didėjančias AI galimybes. „Praėjusį mėnesį paskelbėme, kad radome daugiau nei 20 pažeidžiamumų skirtinguose pakuotėse“, – pažymėjo Johnstonas. „Tačiau šiandien, kai pažvelgiau į„ Big Sleep “prietaisų skydelį, rugpjūčio mėn. Radau 47 pažeidžiamumus, kuriuos rado šis sprendimas“.
Perėjimas nuo rankinės žmogaus analizės iki AI-ATSISTOD ATSITIKTINIMO PRIEŽIŪRA tai, ką Johnstonas apibūdina kaip poslinkį „nuo rankinio į pusiau autonomines“ saugumo operacijas, kai „Dvyniai skatina daugumą užduočių saugumo gyvavimo cikle nuosekliai gerai, deleguodamos užduotis, kurios negali automatiškai automatiškai pasitikėti dideliu pasitikėjimu ar tikslumu“.
Automatizavimo paradoksas: pažadas ir pavojus
„Google Cloud“ planas numato progresą per keturis etapus: rankinis, pagalbinis, pusiau autonomines ir autonomines saugumo operacijas. Pusiau autonominiame etape AI sistemos tvarkytų įprastas užduotis, tuo pačiu didindami sudėtingus sprendimus žmonėms operatoriams. Galutinis autonominis etapas pamatytų AI „Saugumo gyvavimo ciklą iki teigiamų rezultatų vartotojų vardu“.

Tačiau ši automatika pristato naujus pažeidžiamumus. Paklaustas apie per didelio pasitikėjimo AI sistemose riziką, Johnstonas pripažino iššūkį: „Yra potencialas, kad ši paslauga galėtų būti užpulta ir manipuliuojama. Šiuo metu, kai matote įrankius, į kuriuos įeina šie agentai, nėra tikrai geros sistemos, leidžiančios leisti, kad tai yra tikrasis įrankis, kuris nebuvo sugadintas“.
Curranas pakartoja šį susirūpinimą: „Bendrovėms rizika yra ta, kad jų saugumo komandos taps per daug pasitikinčios AI, potencialiai atstumdamos žmonių sprendimą ir paliks sistemas pažeidžiamoms atakoms. Vis dar reikia žmogaus„ kopilo “, o vaidmenys turi būti aiškiai apibrėžti“.
Realaus pasaulio įgyvendinimas: AI nenuspėjamo pobūdžio kontrolė
„Google Cloud“ požiūris apima praktines apsaugos priemones, skirtas išspręsti vieną probleminių AI ypatybių: jos polinkį generuoti nesvarbius ar netinkamus atsakymus. Johnstonas iliustravo šį iššūkį konkrečiu kontekstinių neatitikimų pavyzdžiu, kuris galėtų sukelti verslo riziką.
„Jei turite mažmeninės prekybos parduotuvę, neturėtumėte turėti medicinos patarimų“, – paaiškino Johnstonas, aprašydamas, kaip AI sistemos gali netikėtai pereiti prie nesusijusių domenų. „Kartais šie įrankiai gali tai padaryti. Nenuspėjamumas yra didelė atsakomybė už įmones, diegdama klientus su klientais susijusias AI sistemas, kur ne temos atsakymai gali supainioti klientus, sugadinti prekės ženklo reputaciją ar net sukurti teisinę poziciją.
„Google“ modelio šarvų technologija tai išspręsta kaip intelektualus filtro sluoksnis. „Turėdami filtrus ir naudodamiesi mūsų galimybėmis atlikti sveikatos patikrinimus dėl tų atsakymų, organizacijai galima pasitikėti“, – pažymėjo Johnstonas. Sistemos ekranizuoja AI išėjimus asmeniškai identifikuojančiai informacijai, filtruoja turinį, netinkamą verslo kontekstui, ir blokuoja atsakymus, kurie gali būti „ne prekės ženklai“ organizacijos numatyto naudojimo atvejui.
Bendrovė taip pat atkreipia dėmesį į didėjantį susirūpinimą dėl „Shadow AI“ diegimo. Organizacijos savo tinkluose atranda šimtus neteisėtų AI įrankių, sukuriančių didžiules saugumo spragas. „Google“ neskelbtinos duomenų apsaugos technologijos bando tai išspręsti nuskaitydama keliais debesų tiekėjais ir vietoje esančiomis sistemomis.
Mastelio iššūkis: biudžeto apribojimai ir didėjančios grėsmės
Johnstonas nustatė biudžeto apribojimus kaip pagrindinį iššūkį, su kuriuo susiduria Azijos Ramiojo vandenyno cisos, įvykstantys būtent tada, kai organizacijos susiduria su didėjančiomis kibernetinėmis grėsmėmis. Paradoksas yra ryškus: didėjant atakų apimtims, organizacijoms trūksta išteklių tinkamai reaguoti.
„Mes žiūrime į statistiką ir objektyviai sakome, kad matome daugiau triukšmo – gali būti ne labai sudėtinga, tačiau daugiau triukšmo yra daugiau viršutinės vertės, ir tai kainuoja daugiau“, – pastebėjo Johnstonas. Padidėjęs atakų dažnis, net kai individualios atakos nebūtinai yra labiau pažengusios, sukuria išteklių nutekėjimą, kurio daugelis organizacijų negali išlaikyti.
Finansinis spaudimas sustiprina jau sudėtingą saugumo kraštovaizdį. „Jie ieško partnerių, kurie galėtų padėti pagreitinti tai, nereikia samdyti dar 10 darbuotojų ar gauti didesnį biudžetą“, – aiškino Johnstonas, aprašydamas, kaip saugumo lyderiai susiduria su didėjančiu spaudimu padaryti daugiau su esamais ištekliais, o grėsmės daugėja.
Kritiniai klausimai išlieka
Nepaisant perspektyvių „Google Cloud AI“ galimybių, išlieka keli svarbūs klausimai. Kai ginčijasi, ar gynėjai iš tikrųjų laimi šias ginklų lenktynes, Johnstonas pripažino: „Mes iki šiol nematėme naujų išpuolių naudodamiesi AI“, tačiau pažymėjo, kad užpuolikai naudoja AI norėdami išplėsti esamus atakos metodus ir sukurti „platų galimybių spektrą kai kuriuose išpuolio aspektuose“.
Teiginiai veiksmingumui taip pat reikia tikrinimo. Nors Johnstonas paminėjo 50% pagerėjusį pranešimo apie įvykius rašymo greitį, jis pripažino, kad tikslumas išlieka iššūkis: „Žinoma, yra netikslumų. Bet žmonės taip pat daro klaidas“. Pripažinimas pabrėžia nuolatinius dabartinių AI saugumo įgyvendinimų apribojimus.
Laukiu: pasiruošimas post-quantum
Be dabartinių AI diegimų, „Google Cloud“ jau ruošiasi kitam paradigmos poslinkiui. Johnstonas atskleidė, kad bendrovė „jau yra dislokuota post-quantum kriptografija tarp mūsų duomenų centrų pagal numatytuosius nustatymus pagal mastą“, padėties nustatymui būsimoms kvantinės skaičiavimo grėsmėms, dėl kurių dabartinis šifravimas gali būti pasenęs.
Verdiktas: reikalingas atsargus optimizmas
AI integracija į kibernetinį saugumą reiškia ir precedento neturinčią galimybę, ir didelę riziką. Nors „Google Cloud“ AI technologijos demonstruoja tikras pažeidžiamumo aptikimo, grėsmės analizės ir automatinio atsakymo galimybes, tos pačios technologijos suteikia užpuolikams didesnes galimybes žvalgybai, socialinei inžinerijai ir vengimui.
Currano vertinimas suteikia subalansuotą perspektyvą: „Atsižvelgiant į tai, kaip greitai išsivystė technologija, organizacijos turės priimti išsamesnę ir iniciatyvią kibernetinio saugumo politiką, jei nori išlikti prieš užpuolikus. Galų gale, kibernetiniai išpuoliai yra„ kai „ne“, jei, ir AI, ir tik paspartins galimų aktorių galimybių skaičių “.
AI varomo kibernetinio saugumo sėkmė galiausiai priklauso ne nuo pačios technologijos, bet nuo to, kaip apgalvotai organizacijos įgyvendina šias priemones, išlaikydamos žmonių priežiūrą ir spręsdamos pagrindinę saugumo higieną. Kaip baigė Johnstonas, „mes turėtume juos pritaikyti mažos rizikos metodais“, pabrėždami, kad reikia išmatuoti įgyvendinimo, o ne didmeninės automatizavimo poreikį.
Vyksta PG kibernetinio saugumo revoliucija, tačiau pergalė priklausys tiems, kurie gali subalansuoti inovacijas su protingu rizikos valdymu, o ne tiems, kurie tiesiog naudoja pažangiausius algoritmus.
Taip pat žiūrėkite: „Google Cloud“ pristato saugumo komandas

Norite sužinoti daugiau apie AI ir didelius duomenis iš pramonės lyderių? Peržiūrėkite AI ir „Big Data Expo“, vykstančią Amsterdame, Kalifornijoje ir Londone. Išsamus renginys yra „TechEx“ dalis ir yra kartu su kitais pagrindiniais technologijų įvykiais, spustelėkite čia, jei norite gauti daugiau informacijos.
„AI News“ maitina „TechForge Media“. Čia ištirkite kitus būsimus įmonių technologijų renginius ir internetinius seminarus.