Naujoje „Deloitte“ ataskaitoje įspėjama, kad įmonės DI agentus diegia greičiau, nei gali neatsilikti jų saugos protokolai ir apsaugos priemonės. Todėl plinta rimtas susirūpinimas dėl saugumo, duomenų privatumo ir atskaitomybės.
Remiantis apklausa, agentinės sistemos pereina nuo bandomosios prie gamybos taip greitai, kad tradicinės rizikos kontrolės priemonės, skirtos labiau į žmogų orientuotoms operacijoms, sunkiai patenkina saugumo reikalavimus.
Tik 21 % organizacijų įgyvendino griežtą AI agentų valdymą arba priežiūrą, nepaisant padidėjusio priėmimo lygio. Nors 23 % įmonių nurodė, kad šiuo metu naudoja dirbtinio intelekto agentus, tikimasi, kad per ateinančius dvejus metus jų skaičius išaugs iki 74 %. Tikimasi, kad įmonių, kurios dar nepriims šios technologijos, dalis per tą patį laikotarpį sumažės nuo 25 % iki vos 5 %.
Prastas valdymas yra grėsmė
Deloitte neakcentuoja dirbtinio intelekto agentų kaip iš prigimties pavojingų, tačiau teigia, kad tikroji rizika yra susijusi su prastu kontekstu ir silpnu valdymu. Jei agentai veikia kaip savo subjektai, jų sprendimai ir veiksmai gali lengvai tapti neskaidrūs. Be tvirto valdymo tampa sunku valdyti ir beveik neįmanoma apsidrausti nuo klaidų.
Pasak Ali Sarrafi, „Kovant“ generalinio direktoriaus ir įkūrėjo, atsakymas yra valdoma autonomija. „Gerai suplanuoti agentai su aiškiomis ribomis, politika ir apibrėžimais, valdomi taip pat, kaip įmonė valdo bet kurį darbuotoją, gali greitai atlikti mažos rizikos darbą skaidriose apsauginėse tvorose, bet peržengti nustatytas rizikos ribas, peržengti veiksmus žmonėms.
„Dėl detalių veiksmų žurnalų, stebimumo ir žmogaus prižiūrėjimo, kad būtų galima priimti didelio poveikio sprendimus, agentai nustoja būti paslaptingais robotais ir tampa sistemomis, kurias galite tikrinti, audituoti ir pasitikėti.
Kaip teigiama Deloitte ataskaitoje, AI agentų priėmimas ateinančiais metais paspartės, o tik įmonės, kurios diegia technologiją su matomumu ir valdymu, užims konkurentus, o ne tas, kurios jas diegia greičiausiai.
Kodėl AI agentams reikalingi tvirti apsauginiai turėklai
Dirbtinio intelekto agentai gali gerai veikti valdomose demonstracinėse versijose, tačiau jiems sunku realaus verslo aplinkoje, kur sistemos gali būti suskaidytos ir duomenys gali būti nenuoseklūs.
Sarrafi pakomentavo nenuspėjamą AI agentų pobūdį šiuose scenarijuose. „Kai agentui vienu metu suteikiama per daug konteksto ar apimties, jis tampa linkęs į haliucinacijas ir nenuspėjamąjį elgesį.
„Priešingai, gamybos lygio sistemos riboja sprendimų ir konteksto apimtį, su kuria dirba modeliai. Jos išskaido operacijas į siauresnes, tikslines užduotis atskiriems agentams, todėl elgesys tampa labiau nuspėjamas ir lengviau kontroliuojamas. Ši struktūra taip pat leidžia atsekti ir įsikišti, todėl gedimus galima anksti aptikti ir tinkamai padidinti, o ne sukelti pakopinių klaidų.”
Atskaitomybė už apdraustą AI
Agentams atliekant realius veiksmus verslo sistemose, pvz., tvarkant išsamius veiksmų žurnalus, rizika ir atitiktis yra vertinamos skirtingai. Užregistravus kiekvieną veiksmą, agentų veikla tampa aiški ir vertinama, o tai leidžia organizacijoms išsamiai patikrinti veiksmus.
Toks skaidrumas yra labai svarbus draudikams, kurie nenori apdrausti nepermatomų AI sistemų. Šis detalumo lygis padeda draudikams suprasti, ką padarė agentai, ir su jais susijusias kontrolę, todėl lengviau įvertinti riziką. Žmogaus prižiūrėdamos svarbius rizikos veiksnius ir audituojamus, pakartotinai atkuriamus darbo srautus, organizacijos gali sukurti sistemas, kurios yra lengviau valdomos rizikos vertinimui.
AAIF standartai yra geras pirmasis žingsnis
Bendri standartai, kaip ir tie, kuriuos kuria Agentic AI Foundation (AAIF), padeda įmonėms integruoti skirtingas agentų sistemas, tačiau dabartinės standartizacijos pastangos sutelktos į tai, ką lengviausia sukurti, o ne į tai, ko reikia didesnėms organizacijoms, kad agentų sistemas veiktų saugiai.
Sarrafi teigia, kad įmonėms reikalingi standartai, palaikantys operacijų kontrolę ir apimantys „prieigos leidimus, didelio poveikio veiksmų patvirtinimo darbo eigas, tikrinamus žurnalus ir stebėjimą, kad komandos galėtų stebėti elgesį, tirti incidentus ir įrodyti atitiktį“.
Tapatybė ir leidimai yra pirmoji gynybos linija
Norint užtikrinti saugumą tikroje verslo aplinkoje, svarbu apriboti tai, ką AI agentai gali pasiekti ir kokius veiksmus jie gali atlikti. Sarrafi sakė: „Kai agentams suteikiamos plačios privilegijos arba per daug konteksto, jie tampa nenuspėjami ir kelia pavojų saugumui ar atitikties reikalavimams“.
Matomumas ir stebėjimas yra svarbūs, kad agentai veiktų neperžengdami nustatytų ribų. Tik tada suinteresuotosios šalys gali pasitikėti technologijos pritaikymu. Jei kiekvienas veiksmas registruojamas ir valdomas, komandos gali matyti, kas atsitiko, nustatyti problemas ir geriau suprasti, kodėl įvyko įvykiai.
Sarrafi tęsė: „Šis matomumas kartu su žmogaus priežiūra ten, kur tai svarbu, paverčia dirbtinio intelekto agentus iš neįžiūrimų komponentų į sistemas, kurias galima patikrinti, atkurti ir tikrinti. Tai taip pat leidžia greitai ištirti ir ištaisyti iškilusias problemas, o tai padidina operatorių, rizikos grupių ir draudikų pasitikėjimą.
Deloitte planas
Deloitte saugaus AI agento valdymo strategija nustato apibrėžtas ribas sprendimams, kuriuos gali priimti agentų sistemos. Pavyzdžiui, jie gali veikti su pakopomis autonomija, kai agentai gali tik peržiūrėti informaciją arba teikti pasiūlymus. Iš čia jiems gali būti leista imtis ribotų veiksmų, tačiau su žmogaus sutikimu. Įrodžius, kad jie yra patikimi mažos rizikos zonose, jiems gali būti leista veikti automatiškai.
Deloitte „Cyber AI Blueprints“ siūlo valdymo sluoksnius ir į organizacijos kontrolę įtraukti politiką bei atitikties galimybių planus. Galų gale, valdymo struktūros, kurios seka AI naudojimą ir riziką bei įtraukia priežiūrą į kasdienes operacijas, yra svarbios saugiam agentiniam AI naudojimui.
Darbo jėgos paruošimas ir mokymas yra dar vienas saugaus valdymo aspektas. „Deloitte“ rekomenduoja apmokyti darbuotojus, ko jie neturėtų dalytis su AI sistemomis, ką daryti, jei agentai nukrypsta nuo kelio ir kaip pastebėti neįprastą, potencialiai pavojingą elgesį. Jei darbuotojai nesupranta, kaip veikia dirbtinio intelekto sistemos ir galimos rizikos, jie gali susilpninti saugumo kontrolę, nors ir netyčia.
Tvirtas valdymas ir kontrolė, kartu su bendru raštingumu, yra esminiai dalykai saugiam AI agentų diegimui ir veikimui, užtikrinančiam saugų, suderintą ir atskaitingą darbą realioje aplinkoje.
(Vaizdo šaltinis: „Global Hawk, NASA New Remote-Controlled Plane“, NASA Goddard Photo and Video, licencijuota pagal CC BY 2.0.)
Norite daugiau sužinoti apie AI ir didelius duomenis iš pramonės lyderių? Peržiūrėkite „AI & Big Data Expo“, vykstančią Amsterdame, Kalifornijoje ir Londone. Išsamus renginys yra TechEx dalis ir vyksta kartu su kitais pagrindiniais technologijų renginiais. Norėdami gauti daugiau informacijos, spustelėkite čia.
AI naujienas teikia TechForge Media. Čia rasite kitus būsimus įmonių technologijų renginius ir internetinius seminarus.