Bankams, bandantiems realiai pritaikyti dirbtinį intelektą, sunkiausi klausimai dažnai kyla prieš apmokant bet kokį modelį. Ar iš viso galima naudoti duomenis? Kur leidžiama laikyti? Kas bus atsakingas, kai sistema pradės veikti? „Standard Chartered“ šie su privatumu susiję klausimai dabar lemia, kaip kuriamos dirbtinio intelekto sistemos ir diegiamos banke.
Pasauliniams bankams, veikiantiems daugelyje jurisdikcijų, šie ankstyvieji sprendimai retai būna paprasti. Privatumo taisyklės skiriasi priklausomai nuo rinkos, o ta pati AI sistema gali susidurti su labai skirtingais apribojimais, priklausomai nuo to, kur ji yra įdiegta. „Standard Chartered“ tai paskatino privatumo komandas aktyviau dalyvauti formuojant, kaip AI sistemos projektuojamos, tvirtinamos ir stebimos organizacijoje.
„Duomenų privatumo funkcijos tapo daugelio dirbtinio intelekto taisyklių atskaitos tašku“, – sako Davidas Hardoonas, „Standard Chartered“ pasaulinis dirbtinio intelekto įgalinimo vadovas. Praktiškai tai reiškia, kad privatumo reikalavimai nustato duomenų, kuriuos galima naudoti AI sistemose, tipą, kiek skaidrios tos sistemos turi būti ir kaip jos stebimos, kai pradeda veikti.
Privatumas formuoja, kaip veikia AI
Bankas jau naudoja dirbtinio intelekto sistemas gyvoje aplinkoje. Perėjimas nuo pilotų atneša praktinių iššūkių, kurių anksti lengva neįvertinti. Mažų bandymų metu duomenų šaltiniai yra riboti ir gerai suprantami. Gamyboje AI sistemos dažnai renka duomenis iš daugelio platformų, kurių kiekviena turi savo struktūrą ir kokybės problemas. „Pereinant nuo riboto bandomojo prie tiesioginio eksploatavimo, duomenų kokybės užtikrinimas tampa sudėtingesnis dėl kelių ankstesnių sistemų ir galimų schemų skirtumų“, – sako Hardoonas.
Privatumo taisyklės prideda papildomų apribojimų. Kai kuriais atvejais modeliams mokyti negalima naudoti tikrų klientų duomenų. Vietoj to, komandos gali pasikliauti anoniminiais duomenimis, kurie gali turėti įtakos sistemų kūrimo greičiui arba jų veikimui. Tiesioginis diegimas taip pat veikia daug didesniu mastu, todėl padidėja bet kokių valdiklių spragų poveikis. Kaip sako Hardoonas: „Dėl atsakingo ir į klientą orientuoto DI diegimo, plečiantis duomenų apdorojimo apimčiai, pirmenybę teikiame sąžiningumo, etikos, atskaitomybės ir skaidrumo principų laikymuisi.
Geografija ir reguliavimas nusprendžia, kur veikia AI
Vieta, kur AI sistemos kuriamos ir diegiamos, taip pat priklauso nuo geografijos. Duomenų apsaugos įstatymai regionuose skiriasi, o kai kuriose šalyse taikomos griežtos taisyklės, kur duomenys turi būti saugomi ir kas gali juos pasiekti. Šie reikalavimai turi tiesioginį vaidmenį nustatant, kaip „Standard Chartered“ diegia dirbtinį intelektą, ypač sistemose, kurios priklauso nuo kliento arba asmens identifikavimo informacijos.
„Duomenų suverenumas dažnai yra pagrindinis veiksnys dirbant įvairiose rinkose ir regionuose“, – sako Hardoonas. Rinkose, kuriose taikomos duomenų lokalizavimo taisyklės, dirbtinio intelekto sistemas gali tekti diegti vietoje arba suprojektuoti taip, kad neskelbtini duomenys neperžengtų sienų. Kitais atvejais galima naudoti bendras platformas, jei yra tinkami valdikliai. Tai lemia pasaulinių ir specifinių AI diegimų derinį, kurį formuoja vietinis reglamentas, o ne viena techninė nuostata.
Tie patys kompromisai atsiranda priimant sprendimus dėl centralizuotų AI platformų ir vietinių sprendimų. Didelės organizacijos dažnai siekia dalytis modeliais, įrankiais ir priežiūra rinkose, kad sumažintų dubliavimąsi. Privatumo įstatymai ne visada blokuoja šį požiūrį. „Apskritai privatumo taisyklės aiškiai nedraudžia perduoti duomenų, o tikimasi, kad bus taikomos atitinkamos kontrolės priemonės“, – sako Hardoonas.
Yra apribojimų: kai kurie duomenys iš viso negali judėti per sienas, o tam tikri privatumo įstatymai galioja už šalies, kurioje duomenys buvo surinkti, ribų. Išsami informacija gali apriboti, kurias rinkas gali aptarnauti centrinė platforma ir kuriose vietinės sistemos išlieka būtinos. Bankams tai dažnai lemia daugiasluoksnę sąranką, kai bendri pamatai derinami su vietiniais AI naudojimo atvejais, kai to reikalauja reglamentas.
Žmogaus priežiūra tebėra pagrindinė
Kai dirbtinis intelektas tampa vis labiau įtrauktas į sprendimų priėmimą, vis sunkiau išvengti klausimų, susijusių su paaiškinamumu ir sutikimu. Automatizavimas gali pagreitinti procesus, bet nepašalina atsakomybės. „Skaidrumas ir paaiškinamumas tapo svarbesni nei anksčiau“, – sako Hardoonas. Net dirbant su išorės pardavėjais, atskaitomybė išlieka vidinė. Tai sustiprino žmogaus priežiūros poreikį dirbtinio intelekto sistemose, ypač kai rezultatai turi įtakos klientams arba reguliavimo įpareigojimams.
Žmonės taip pat vaidina didesnį vaidmenį privatumo pavojaus srityje nei vien technologijos. Procesai ir kontrolė gali būti gerai suplanuoti, tačiau jie priklauso nuo to, kaip darbuotojai supranta ir tvarko duomenis. „Žmonės išlieka svarbiausiu veiksniu, kai reikia įgyvendinti privatumo kontrolę“, – sako Hardoonas. „Standard Chartered“ tai paskatino sutelkti dėmesį į mokymą ir informuotumą, todėl komandos žino, kokie duomenys gali būti naudojami, kaip jie turėtų būti tvarkomi ir kur yra ribos.
Norint, kad dirbtinio intelekto mastymas vis labiau kontroliuojamas, reikia, kad privatumas ir valdymas būtų lengviau taikomi praktiškai. Vienas iš banko metodų yra standartizavimas. Sukūrę iš anksto patvirtintus šablonus, architektūras ir duomenų klasifikacijas, komandos gali judėti greičiau neaplenkdamos valdiklių. „Standartizavimas ir pakartotinis naudojimas yra svarbūs“, – aiškina Hardoonas. Duomenų buvimo vietos, saugojimo ir prieigos taisyklių kodifikavimas padeda sudėtingus reikalavimus paversti aiškesniais komponentais, kuriuos galima pakartotinai panaudoti AI projektuose.
Kadangi vis daugiau organizacijų AI perkelia į kasdienes operacijas, privatumas nėra tik atitikties kliūtis. Ji formuoja, kaip kuriamos AI sistemos, kur jos veikia ir kiek pasitikėjimo jos gali užsitarnauti. Bankininkystėje šis pokytis jau daro įtaką tai, kaip dirbtinis intelektas atrodo praktiškai ir kur nustatomos jo ribos.
(Įmonių vietų nuotrauka)
Taip pat žiūrėkite: Tylus darbas, susijęs su „Citi“ 4000 žmonių vidinio AI diegimu
Norite daugiau sužinoti apie AI ir didelius duomenis iš pramonės lyderių? Peržiūrėkite „AI & Big Data Expo“, vykstančią Amsterdame, Kalifornijoje ir Londone. Išsamus renginys yra „TechEx“ dalis ir vyksta kartu su kitais pagrindiniais technologijų renginiais. Norėdami gauti daugiau informacijos, spustelėkite čia.
AI naujienas teikia TechForge Media. Čia rasite kitus būsimus įmonių technologijų renginius ir internetinius seminarus.