Atitinka naują ETSI standartą, skirtą dirbtinio intelekto saugumui


ETSI EN 304 223 standartas nustato pagrindinius dirbtinio intelekto saugumo reikalavimus, kuriuos įmonės turi integruoti į valdymo sistemas.

Kadangi organizacijos įtraukia mašininį mokymąsi į savo pagrindines operacijas, šis Europos standartas (EN) nustato konkrečias dirbtinio intelekto modelių ir sistemų apsaugos nuostatas. Jis yra pirmasis visame pasaulyje taikomas Europos dirbtinio intelekto kibernetinio saugumo standartas, gavęs oficialų nacionalinių standartų organizacijų patvirtinimą, kad sustiprintų savo autoritetą tarptautinėse rinkose.

Standartas kartu su ES AI įstatymu yra būtinas etalonas. Jame atsižvelgiama į realybę, kad dirbtinio intelekto sistemos turi specifinę riziką, pvz., gali būti užnuodytos duomenimis, modelio supainiojimas ir netiesioginis greitas įpurškimas, kurių dažnai nepastebi tradicinės programinės įrangos saugos priemonės. Standartas apima giluminius neuroninius tinklus ir generuojamąjį AI iki pagrindinių nuspėjimo sistemų, aiškiai neįtraukiant tik tų, kurios naudojamos tik akademiniams tyrimams.

ETSI standartas paaiškina atsakomybės už AI saugumą grandinę

Nuolatinė kliūtis diegiant įmonės AI yra nustatyti, kam priklauso rizika. ETSI standartas tai išsprendžia apibrėždamas tris pagrindinius techninius vaidmenis: kūrėjus, sistemos operatorius ir duomenų saugotojus.

Daugeliui įmonių šios linijos neryškios. Finansinių paslaugų įmonė, kuri tiksliai sureguliuoja atvirojo kodo sukčiavimo aptikimo modelį, laikoma ir kūrėja, ir sistemos operatore. Dėl šio dvigubo statuso atsiranda griežtų įsipareigojimų, reikalaujančių, kad įmonė apsaugotų diegimo infrastruktūrą, kartu dokumentuodamas mokymo duomenų kilmę ir modelio projekto auditą.

„Duomenų saugotojų“ kaip atskiros suinteresuotųjų šalių grupės įtraukimas tiesiogiai veikia vyriausiuosius duomenų ir analizės pareigūnus (CDAO). Šie subjektai kontroliuoja duomenų leidimus ir vientisumą, o tai dabar atlieka aiškias saugumo pareigas. Saugotojai turi užtikrinti, kad numatytas sistemos naudojimas atitiktų mokymo duomenų jautrumą, efektyviai įtraukdami saugos vartų tvarkytoją į duomenų valdymo darbo eigą.

ETSI dirbtinio intelekto standartas aiškiai parodo, kad saugumas negali būti pasenęs sprendimas diegimo etape. Projektavimo etape organizacijos turi atlikti grėsmių modeliavimą, skirtą dirbtinio intelekto išpuoliams, pvz., narystės išvadoms ir modelio užmaskavimui.

Viena nuostata reikalauja, kad kūrėjai apribotų funkcionalumą, kad sumažintų atakos paviršių. Pavyzdžiui, jei sistema naudoja daugiarūšį modelį, bet reikalauja tik teksto apdorojimo, nepanaudoti būdai (pvz., vaizdo ar garso apdorojimas) yra rizika, kurią reikia valdyti. Šis reikalavimas verčia techninius lyderius persvarstyti įprastą masyvių, bendros paskirties pamatų modelių diegimo praktiką, kai pakaktų mažesnio ir labiau specializuoto modelio.

Dokumentas taip pat užtikrina griežtą turto valdymą. Kūrėjai ir sistemos operatoriai turi tvarkyti visapusišką turto sąrašą, įskaitant tarpusavio priklausomybę ir ryšį. Tai palaiko šešėlinį AI atradimą; IT lyderiai negali užtikrinti modelių, kurių egzistavimo jie nežino. Standartas taip pat reikalauja sukurti specialius atkūrimo planus, pritaikytus dirbtinio intelekto atakoms, kad būtų galima atkurti „žinomą gerą būseną“, jei modelis pažeidžiamas.

Tiekimo grandinės sauga yra tiesioginis trinties taškas įmonėms, kurios pasitiki trečiųjų šalių tiekėjais arba atvirojo kodo saugyklomis. ETSI standartas reikalauja, kad jei sistemos operatorius nusprendžia naudoti AI modelius ar komponentus, kurie nėra tinkamai dokumentuoti, jis turi pagrįsti šį sprendimą ir dokumentuoti susijusią saugumo riziką.

Praktiškai pirkimų komandos nebegali priimti „juodosios dėžės“ sprendimų. Kūrėjai turi pateikti modelio komponentų kriptografines maišas, kad patikrintų autentiškumą. Kai mokymo duomenys gaunami viešai (įprasta didelių kalbų modelių praktika), kūrėjai turi dokumentuoti šaltinio URL ir įsigijimo laiko žymą. Ši audito seka reikalinga atliekant tyrimus po incidento, ypač kai bandoma nustatyti, ar modelis nebuvo apnuodytas duomenimis per mokymo etapą.

Jei įmonė siūlo API išoriniams klientams, jie turi taikyti valdiklius, skirtus sušvelninti į DI nukreiptas atakas, pvz., greičio ribojimą, kad priešininkai negalėtų pakeisti modelio inžinerijos, arba galingas apsaugos priemones, skirtas suleisti nuodų duomenis.

Gyvavimo ciklo metodas apima priežiūros etapą, kai standartas pagrindinius atnaujinimus, tokius kaip naujų duomenų permokymas, traktuoja kaip naujos versijos diegimą. Pagal ETSI AI standartą tai sukelia reikalavimą atnaujinti saugumo testavimą ir vertinimą.

Taip pat įforminamas nuolatinis stebėjimas. Sistemos operatoriai turi analizuoti žurnalus ne tik dėl veikimo laiko, bet ir norėdami aptikti „duomenų nukrypimą“ arba laipsniškus elgesio pokyčius, kurie gali reikšti saugumo pažeidimą. Tai perkelia AI stebėjimą iš našumo metrikos į saugumo discipliną.

Standartas taip pat apima „Gyvenimo pabaigos“ etapą. Kai modelis nutraukiamas arba perduodamas, organizacijos turi įtraukti duomenų saugotojus, kad užtikrintų saugų duomenų ir konfigūracijos detalių šalinimą. Ši nuostata apsaugo nuo neskelbtinos intelektinės nuosavybės ar mokymo duomenų nutekėjimo per išmestą aparatinę įrangą arba pamirštus debesies egzempliorius.

Vykdomoji priežiūra ir valdymas

Kad būtų laikomasi ETSI EN 304 223, reikia peržiūrėti esamas kibernetinio saugumo mokymo programas. Standartas įpareigoja mokymus pritaikyti prie konkrečių vaidmenų, užtikrinant, kad kūrėjai suprastų saugų AI kodavimą, o generalinis personalas žinotų apie tokias grėsmes kaip socialinė inžinerija per AI išvestis.

„ETSI EN 304 223 yra svarbus žingsnis į priekį kuriant bendrą, griežtą AI sistemų apsaugos pagrindą“, – sakė ETSI dirbtinio intelekto apsaugos techninio komiteto pirmininkas Scottas Cadzowas.

„Tuo metu, kai dirbtinis intelektas vis labiau integruojamas į svarbias paslaugas ir infrastruktūrą, negalima nuvertinti aiškių, praktinių gairių, atspindinčių šių technologijų sudėtingumą ir diegimo realijas. Darbas, atliktas kuriant šią sistemą, yra plataus bendradarbiavimo rezultatas, o tai reiškia, kad organizacijos gali visiškai pasitikėti DI sistemomis, kurios yra atsparios, patikimos ir saugios.

Įdiegus šias bazines ETSI AI saugumo standarto linijas, sukuriama saugesnių inovacijų struktūra. Taikydamos dokumentais pagrįstus audito pėdsakus, aiškius vaidmenų apibrėžimus ir tiekimo grandinės skaidrumą, įmonės gali sumažinti su dirbtinio intelekto pritaikymu susijusią riziką, kartu nustatydamos tinkamą poziciją būsimiems reguliavimo auditams.

Būsimoje techninėje ataskaitoje (ETSI TR 104 159) šie principai bus taikomi būtent generuojančiam dirbtiniam intelektui, sprendžiant tokias problemas kaip gilus klastojimas ir dezinformacija.

Taip pat žiūrėkite: Allister Frost: kovoti su darbo jėgos nerimu siekiant sėkmingai integruoti dirbtinį intelektą

Norite daugiau sužinoti apie AI ir didelius duomenis iš pramonės lyderių? Peržiūrėkite „AI & Big Data Expo“, vykstančią Amsterdame, Kalifornijoje ir Londone. Išsamus renginys yra TechEx dalis ir vyksta kartu su kitais pagrindiniais technologijų renginiais. Norėdami gauti daugiau informacijos, spustelėkite čia.

AI naujienas teikia TechForge Media. Čia rasite kitus būsimus įmonių technologijų renginius ir internetinius seminarus.



Source link

Draugai: - Marketingo paslaugos - Teisinės konsultacijos - Skaidrių skenavimas - Fotofilmų kūrimas - Karščiausios naujienos - Ultragarsinis tyrimas - Saulius Narbutas - Įvaizdžio kūrimas - Veidoskaita - Nuotekų valymo įrenginiai -  Padelio treniruotės - Pranešimai spaudai -