DI agento valdymas sutelkiamas, nes reguliuotojai pažymi kontrolės spragas


Australijos finansų reguliavimo institucija perspėjo finansų įmones, kad dirbtinio intelekto agentų valdymo ir užtikrinimo praktika yra prastai valdoma. Įspėjimas pateikiamas, kai bankai ir senatvės pensijos administratoriai plečia dirbtinį intelektą vidaus ir klientams skirtose operacijose.

Australijos riziką ribojančio reguliavimo institucija pranešė, kad 2025 m. pabaigoje atliko tikslinę atrinktų didelių reguliuojamų subjektų peržiūrą, kad įvertintų dirbtinio intelekto pritaikymą ir susijusią riziką ribojančią riziką. Nustatyta, kad dirbtinis intelektas buvo naudojamas visuose peržiūrėtuose subjektuose, tačiau rizikos valdymo ir veiklos atsparumo branda skyrėsi. APRA teigė, kad lentos parodė didelį susidomėjimą dirbtiniu intelektu dėl produktyvumo ir klientų patirties. Tačiau buvo nustatyta, kad daugelis vis dar kuria DI rizikos valdymą.

Reguliavimo institucija taip pat išreiškė susirūpinimą dėl priklausomybės nuo pardavėjų pristatymų ir santraukų. Jame teigiama, kad lentos ne visada pakankamai išnagrinėjo tokias rizikas kaip nenuspėjamas modelio elgesys ir AI gedimų poveikis kritinėms operacijoms.

APRA teigė, kad valdybos turėtų geriau suprasti AI, kad galėtų nuosekliai nustatyti strategiją ir priežiūrą. Teigiama, kad dirbtinio intelekto strategija turėtų atitikti įstaigos norą rizikuoti ir apimti stebėjimą bei apibrėžtas procedūras, kurių reikėtų imtis klaidų atveju.

APRA pažymėjo, kad reguliuojami subjektai išbandė arba įdiegė dirbtinį intelektą programinės įrangos inžinerijos, pretenzijų skirstymo ir paskolos paraiškų apdorojimo srityse. Kiti paminėti naudojimo atvejai apėmė sukčiavimą ir sukčiavimo sutrikimus bei klientų sąveiką.

Kai kurie subjektai AI riziką traktavo taip pat, kaip ir kitų technologijų atveju, tačiau šis metodas neatsižvelgia į modelių elgesį ir šališkumą.

Jame buvo nustatytos modelio elgsenos stebėjimo, pokyčių valdymo ir eksploatavimo nutraukimo spragos ir nurodyta, kad reikia inventorizuoti AI įrankius ir AI egzempliorių nuosavybę. Ji taip pat atkreipė dėmesį į reikalavimą, kad priimant didelės rizikos sprendimus dalyvautų žmogus.

Kita susirūpinimą kelianti sritis buvo kibernetinis saugumas. APRA teigė, kad dirbtinio intelekto pritaikymas keičia grėsmės aplinką pridedant papildomų atakų būdų, tokių kaip greitas injekcijos ir nesaugios integracijos.

Tapatybės ir prieigos valdymo praktika kai kuriais atvejais nebuvo pritaikyta prie nežmogiškų elementų, pvz., dirbtinio intelekto agentų. AI padedamos programinės įrangos kūrimo apimtis darė spaudimą keisti ir išleisti valdiklius.

APRA teigė, kad subjektai turėtų taikyti agentinių ir autonominių darbo eigų valdiklius, įskaitant privilegijuotą prieigos valdymą, konfigūraciją ir pataisymą. Ji taip pat paragino atlikti AI sukurto kodo saugumo testavimą.

Kai kurios institucijos daugeliu savo dirbtinio intelekto atvejų tapo priklausomos nuo vieno teikėjo, pažymėjo ARPA, ir tik kelios galėjo parodyti AI tiekėjų pasitraukimo planą arba pakeitimo strategiją.

APRA teigė, kad AI gali būti ankstesnėse priklausomybėse, kurių subjektai gali nežinoti.

Tapatybė ir prieiga

Dėmesys tapatybės ir leidimų kontrolei taip pat atsispindi naujuose FIDO aljanso standartų darbuose. Grupė sudarė Agento autentifikavimo techninę darbo grupę ir kuria agentų inicijuotos prekybos specifikacijas.

FIDO teigė, kad kai kurie esami autentifikavimo ir autorizacijos modeliai buvo sukurti žmonių sąveikai, o ne programinės įrangos atliekamiems veiksmams. Teigiama, kad paslaugų teikėjams reikia būdų, kaip patikrinti, kas ir kokiomis sąlygomis leidžia atlikti veiksmus.

Pardavėjai pateikė FIDO peržiūrėti savo sprendimus, įskaitant „Google Agent Payments Protocol“ ir „Mastercard“ Verifiable Intent sistemą. Interneto saugumo centras, pelno nesiekiantis, daugiausia finansuojamas Tėvynės saugumo departamento, paskelbė AI saugos vadovus, kuriuose CIS valdikliai v8.1 susiejami su didelėmis kalbų modeliais, AI agentais ir Model Context Protocol aplinkomis.

Jo LLM vadovas apima greitas ir jautrių duomenų problemas, o MCP vadovas skirtas saugiai prieigai naudojant programinės įrangos priemones, ne žmogaus tapatybei ir tinklo sąveikai.

(Julien Tromeur nuotrauka)

Taip pat žiūrėkite: „Google“ įspėja, kad kenkėjiški tinklalapiai nuodija AI agentus

Norite daugiau sužinoti apie AI ir didelius duomenis iš pramonės lyderių? Peržiūrėkite „AI & Big Data Expo“, vykstančią Amsterdame, Kalifornijoje ir Londone. Išsamus renginys yra „TechEx“ dalis ir vyksta kartu su kitais pagrindiniais technologijų renginiais, įskaitant „Cyber ​​Security & Cloud Expo“. Norėdami gauti daugiau informacijos, spustelėkite čia.

AI naujienas teikia TechForge Media. Čia rasite kitus būsimus įmonių technologijų renginius ir internetinius seminarus.



Source link

Draugai: - Marketingo agentūra - Teisinės konsultacijos - Skaidrių skenavimas - Klaipedos miesto naujienos - Miesto naujienos - Saulius Narbutas - Įvaizdžio kūrimas - Veidoskaita - Teniso treniruotės - Pranešimai spaudai - Kauno naujienos - Regionų naujienos - Palangos naujienos