JAV iždas paskelbė keletą JAV finansinių paslaugų sektoriui skirtų dokumentų, kuriuose siūlomas struktūrizuotas požiūris į AI rizikos valdymą operacijose ir politikoje (žr. paantraštę „Ištekliai ir atsisiuntimai“ nuorodos apačioje). CRI Financial Services AI rizikos valdymo sistema (FS AI RMF) pateikiama kartu su vadovu (.docx), kuriame pateikiama išsami informacija apie sistemą, sukurtą bendradarbiaujant daugiau nei 100 finansinių institucijų ir pramonės organizacijų, pasitelkiant reguliavimo ir techninių įstaigų indėlį.
FS AI RMF tikslas – padėti finansų įstaigoms nustatyti, įvertinti, valdyti ir valdyti su AI sistemomis susijusią riziką ir leisti įmonėms toliau atsakingai taikyti AI technologijas.
Konkrečiam sektoriui skirta sistema
AI sistemos kelia pavojų, į kurį esamos technologijų valdymo sistemos nereaguoja. Rizika apima algoritminį šališkumą, ribotą sprendimų priėmimo procesų skaidrumą, kibernetinį pažeidžiamumą ir sudėtingas sistemų bei duomenų priklausomybes. LLM kelia susirūpinimą, nes jų elgesį gali būti sunku interpretuoti ar numatyti. Skirtingai nuo tradicinės programinės įrangos, kuri yra deterministinė, AI išvestis skiriasi priklausomai nuo konteksto.
Finansų įstaigos jau veikia pagal platų reglamentavimą ir yra daug bendrųjų gairių, tokių kaip NIST AI rizikos valdymo sistema. Tačiau taikant bendrąsias finansų įstaigų veiklos sistemas, trūksta detalumo, atspindinčio sektoriaus praktiką ir reguliavimo lūkesčius. FS AI RMF pateikiamas kaip NIST sistemos plėtinys, jo puslapiuose pateikiamos papildomos konkrečiam sektoriui būdingos valdikliai ir praktinės įgyvendinimo gairės.
Vadove paaiškinama, kaip įmonės gali įvertinti savo dabartinį dirbtinio intelekto brandą ir įgyvendinti kontrolę, kad apribotų riziką. Jos tikslas – skatinti nuoseklią ir atsakingą dirbtinio intelekto praktiką bei remti inovacijas šiame sektoriuje.
Pagrindinė struktūra
FS AI RMF sujungia AI valdymą su platesniais valdymo, rizikos ir atitikties procesais, jau turinčiais įtakos finansų įstaigoms.
Karkasą sudaro keturi pagrindiniai komponentai. Pirmasis yra AI priėmimo etapo klausimynas, leidžiantis organizacijoms nustatyti savo AI naudojimo brandą. Antroji yra rizikos ir kontrolės matrica, kurioje yra rizikos pareiškimų ir kontrolės tikslų rinkinys, suderintas su priėmimo etapais. Vadove paaiškinama, kaip taikyti sistemą, o atskirame kontrolės tikslo vadove pateikiami kontrolės pavyzdžiai ir patvirtinamieji įrodymai.
Sistema apibrėžia iš viso 230 kontrolės tikslų, suskirstytų pagal keturias funkcijas, pritaikytas iš platesnės NIST AI rizikos valdymo sistemos: valdyti, planuoti, matuoti ir valdyti. Kiekvienoje funkcijoje yra kategorijų ir subkategorijų, apibūdinančių veiksmingo DI rizikos valdymo ir valdymo elementus.
AI brandumo vertinimas
Priėmimo stadijos klausimynas nustato, kiek organizacija naudoja AI. Kai kurios įmonės remiasi tradiciniais nuspėjamaisiais modeliais, pavyzdžiui, ribotose programose, o kitos taiko AI pagrindiniuose verslo procesuose; kiti tiesiog naudoja dirbtinį intelektą vykdydami su klientais susijusius vaidmenis.
Klausimynas padeda organizacijoms nustatyti, kur jos šiuo metu yra naudojamos dirbtinio intelekto spektre, įvertinant tokius veiksnius kaip AI poveikis verslui, valdymo susitarimai, diegimo modeliai, trečiųjų šalių AI teikėjų naudojimas, organizaciniai tikslai ir duomenų jautrumas.
Remiantis šiuo įvertinimu, organizacijos suskirstytos į keturis DI priėmimo etapus:
- pradinis etapas: organizacijos, kurios mažai arba visai nenaudoja DI. AI gali būti svarstomas, bet nėra įterptas,
- minimalus etapas: ribotas AI naudojimas mažos rizikos zonose arba izoliuotose sistemose.
- evoliucijos etapas: organizacijos, valdančios sudėtingesnes dirbtinio intelekto sistemas, įskaitant programas, kuriose naudojami jautrūs duomenys arba išorinės paslaugos.
- įterptoji stadija: kur AI vaidina svarbų vaidmenį verslo operacijose ir priimant sprendimus.
Šie etapai padeda institucijoms sutelkti pastangas į kontrolę, atitinkančią jų brandos lygį. Ankstyvoje stadijoje įmonei nereikia visų kontrolės priemonių iš karto įgyvendinti, tačiau, kai dirbtinis intelektas tampa vis labiau integruotas, sistemoje įdiegtos papildomos kontrolės priemonės, skirtos didėjančiam rizikos lygiui spręsti.
Rizika ir kontrolė
Kiekvieno AI priėmimo etapo kontrolės tikslai yra susiję su valdymo ir veiklos temomis, įskaitant duomenų kokybės valdymą, sąžiningumo ir šališkumo stebėjimą, kibernetinio saugumo kontrolę, dirbtinio intelekto sprendimų procesų skaidrumą ir veiklos atsparumą.
Vadove pateikiami galimų kontrolės priemonių pavyzdžiai ir įrodymų tipai, kuriais institucijos gali įrodyti, kad jos laikosi reikalavimų. Kiekviena įmonė turi nustatyti tinkamiausias kontrolės priemones.
Sistemoje rekomenduojama išlaikyti reagavimo į incidentus procedūras, būdingas AI sistemoms, ir sukurti centrinę saugyklą, skirtą DI incidentams sekti, procesus, kurie padės organizacijoms aptikti gedimus ir laikui bėgant pagerinti valdymą.
Patikimas AI
Sistema apima patikimo AI principus, apibrėžtus kaip pagrįstumas ir patikimumas, sauga, saugumas ir atsparumas, atskaitomybė, skaidrumas, paaiškinamumas, privatumo apsauga ir sąžiningumas. Tai yra pagrindas AI sistemoms įvertinti per visą jų gyvavimo ciklą. Paprastais žodžiais tariant, finansų įstaigos turi užtikrinti, kad dirbtinio intelekto rezultatai būtų patikimi, kad sistemos būtų apsaugotos nuo kibernetinių grėsmių ir kad sprendimai gali būti paaiškinti, kai jie turi įtakos klientams arba turi reguliavimo svarbos.
Strateginės pasekmės
Vyresniems bet kurios šalies finansų įstaigų vadovams FS AI RMF siūlo AI integravimo į esamas rizikos valdymo sistemas vadovą. Jame teigiama, kad reikia koordinuoti įvairias verslo funkcijas organizacijoje. Technologijų komandos, rizikos pareigūnai, atitikties specialistai ir verslo padaliniai turi dalyvauti AI valdymo procese.
Pritaikius dirbtinį intelektą nesustiprinus valdymo struktūrų, institucijos gali patirti veiklos sutrikimų, atlikti reguliavimo patikrinimą arba pakenkti reputacijai. Ir atvirkščiai, įmonės, kurios kuria aiškius valdymo procesus, labiau pasitikės diegdamos AI sistemas.
Vadove DI rizikos valdymas apibūdinamas kaip besivystantis subjektas. Tobulėjant dirbtinio intelekto technologijoms ir keičiantis reguliavimo lūkesčiams, institucijos turės atitinkamai atnaujinti savo valdymo praktiką ir rizikos vertinimus.
Finansų sektoriaus sprendimus priimantiems asmenims pranešama, kad dirbtinio intelekto diegimas turi vykti kartu su rizikos valdymu. Struktūrizuota sistema, tokia kaip FS AI RMF, suteikia bendrą kalbą ir metodą evoliucijai valdyti.
(Vaizdo šaltinis: Seychelles88 „Law Books“ licencijuota pagal CC BY-NC-SA 2.0.)

Norite daugiau sužinoti apie AI ir didelius duomenis iš pramonės lyderių? Peržiūrėkite „AI & Big Data Expo“, vykstančią Amsterdame, Kalifornijoje ir Londone. Išsamus renginys yra TechEx dalis ir vyksta kartu su kitais pagrindiniais technologijų renginiais. Norėdami gauti daugiau informacijos, spustelėkite čia.
AI naujienas teikia TechForge Media. Čia rasite kitus būsimus įmonių technologijų renginius ir internetinius seminarus.