Priešpriešinio mokymosi proveržis įgalina DI saugumą realiuoju laiku


Galimybė vykdyti priešingą mokymąsi, kad būtų užtikrintas DI saugumas realiuoju laiku, suteikia lemiamą pranašumą prieš statinius gynybos mechanizmus.

Dirbtinio intelekto atakų atsiradimas, naudojant sustiprinto mokymosi (RL) ir didelės kalbos modelio (LLM) galimybes, sukūrė „vibe įsilaužimo“ ir prisitaikančių grėsmių klasę, kurios mutuoja greičiau, nei gali reaguoti žmonių komandos. Tai įmonių vadovams yra valdymo ir veiklos rizika, kurios viena politika negali sumažinti.

Užpuolikai dabar naudoja kelių pakopų samprotavimus ir automatizuotą kodų generavimą, kad apeitų nusistovėjusią apsaugą. Todėl pramonė stebi būtiną migraciją link „autonominės gynybos“ (ty sistemų, galinčių mokytis, numatyti ir protingai reaguoti be žmogaus įsikišimo).

Tačiau perėjimas prie šių sudėtingų gynybos modelių istoriškai pasiekė griežtas veikimo ribas: delsą.

Taikant priešpriešinį mokymąsi, kai grėsmės ir gynybos modeliai yra nuolat mokomi vienas prieš kitą, yra būdas kovoti su kenkėjiškomis AI saugumo grėsmėmis. Tačiau reikiamų transformatorių architektūrų diegimas gyvoje gamybos aplinkoje sukuria kliūtis.

Abe Starosta, „Microsoft NEXT.ai“ vyriausiasis taikomųjų tyrimų vadovas, sakė: „Priešinis mokymasis veikia tik gamyboje, kai delsa, pralaidumas ir tikslumas keičiasi kartu.

Skaičiavimo sąnaudos, susijusios su šių tankių modelių veikimu, anksčiau privertė lyderius rinktis tarp didelio tikslumo aptikimo (kuris yra lėtas) ir didelio našumo euristikos (kuris yra ne toks tikslus).

„Microsoft“ ir NVIDIA inžinerinis bendradarbiavimas parodo, kaip aparatinės įrangos spartinimas ir branduolio lygio optimizavimas pašalina šią kliūtį, todėl realiojo laiko priešiška gynyba tampa gyvybinga įmonės mastu.

Kad transformatorių modeliai būtų naudojami tiesioginiam srautui, inžinierių komandos turėjo atsižvelgti į būdingus procesoriaus išvados apribojimus. Standartiniai apdorojimo įrenginiai sunkiai tvarko gamybos darbo krūvių apimtį ir greitį, kai juos apkrauna sudėtingi neuroniniai tinklai.

Atliekant pradinius bandymus, kuriuos atliko tyrimo grupės, CPU pagrindu sukurta sąranka davė 1239,67 ms vėlavimą nuo galo iki galo, o pralaidumas tik 0,81 rekv/s. Finansų įstaigai ar pasaulinei el. prekybos platformai kiekvienos užklausos vėlavimas vienai sekundei yra nepateisinamas.

Perėjus prie GPU pagreitintos architektūros (konkrečiai naudojant NVIDIA H100 įrenginius), pradinis delsos laikas sumažėjo iki 17,8 ms. Tačiau vien tik techninės įrangos atnaujinimų nepakako, kad būtų patenkinti griežti realaus laiko AI saugumo reikalavimai.

Toliau optimizuodamos išvadų modulį ir žetonų nustatymo procesus, komandos pasiekė galutinį 7,67 ms vėlavimą – 160 kartų didesnį našumo greitį, palyginti su baziniu procesoriaus lygiu. Dėl tokio sumažinimo sistema gerokai peržengia vidinės srauto analizės slenksčius, leidžiančius diegti aptikimo modelius, kurių tikslumas didesnis nei 95 procentų priešpriešinio mokymosi etalonuose.

Viena šio projekto metu nustatyta veiklos kliūtis suteikia vertingos įžvalgos CTO, prižiūrintiems AI integraciją. Nors pats klasifikatoriaus modelis yra sudėtingas skaičiuojant, išankstinio duomenų apdorojimo vamzdynas, ypač tokenizavimas, atsirado kaip antrinė kliūtis.

Standartiniai atpažinimo būdai, dažnai pagrįsti tarpų segmentavimu, yra skirti natūralios kalbos apdorojimui (pvz., straipsniams ir dokumentacijai). Pasirodo, kad jų nepakanka kibernetinio saugumo duomenims, kuriuos sudaro tankiai supakuotos užklausų eilutės ir mašinų generuojamos naudingosios apkrovos, kuriose nėra natūralių pertraukų.

Kad tai išspręstų, inžinierių komandos sukūrė konkrečiam domenui skirtą prieigos raktą. Integruodami su sauga susijusius segmentavimo taškus, pritaikytus prie mašinos duomenų struktūrinių niuansų, jie įgalino smulkesnį lygiagretumą. Šis specialiai pritaikytas saugumo metodas leido 3,5 karto sumažinti atpažinimo delsą, o tai pabrėžė, kad jau paruoštiems AI komponentams dažnai reikia pertvarkyti konkrečias sritis, kad jie efektyviai veiktų nišinėje aplinkoje.

Norint pasiekti šiuos rezultatus, reikėjo nuoseklaus išvadų rinkinio, o ne atskirų atnaujinimų. Architektūra naudojo NVIDIA Dynamo ir Triton Inference Server aptarnavimui kartu su „Microsoft“ grėsmių klasifikatoriaus „TensorRT“ diegimu.

Optimizavimo procesas apėmė pagrindinių operacijų, pvz., normalizavimo, įdėjimo ir aktyvinimo funkcijų, sujungimą į atskirus pasirinktinius CUDA branduolius. Šis sujungimas sumažina atminties srautą ir paleidimo sąnaudas, kurios dažnai tyliai slopina aukšto dažnio prekybos ar saugos programų našumą. TensorRT automatiškai sujungė normalizavimo operacijas į ankstesnius branduolius, o kūrėjai sukūrė pasirinktinius branduolius, skirtus slankiojančiam langui.

Šių konkrečių išvadų optimizavimo rezultatas buvo tiesioginio perdavimo delsos sumažinimas nuo 9,45 ms iki 3,39 ms, o tai 2,8 karto padidino greitį, dėl kurio didžioji dalis vėlavimo sumažėjimo buvo matoma galutinėje metrikoje.

NVIDIA kibernetinio saugumo vadovė Rachel Allen paaiškino: „Įmonių apsauga reiškia kibernetinio saugumo duomenų apimties ir greičio suderinimą ir prisitaikymą prie priešininkų naujovių greičio.

„Gynybiniams modeliams reikia ypač mažo delsos, kad jie veiktų linijiniu greičiu, ir gebėjimas prisitaikyti, kad būtų apsaugotas nuo naujausių grėsmių. Priešingo mokymosi derinys su NVIDIA TensorRT pagreitintais transformatorių aptikimo modeliais tai daro.”

Sėkmė čia rodo platesnius įmonės infrastruktūros reikalavimus. Kadangi grėsmės veikėjai naudoja dirbtinį intelektą, kad mutuotų atakas realiuoju laiku, saugos mechanizmai turi turėti pakankamai daug skaičiavimo galimybių, kad galėtų vykdyti sudėtingus išvadų modelius, neįvedant delsos.

Pasitikėjimas procesoriaus skaičiavimu pažangiam grėsmių aptikimui tampa įsipareigojimu. Kaip grafikos atvaizdavimas buvo perkeltas į GPU, realaus laiko saugos išvadai reikia specializuotos aparatinės įrangos, kad būtų išlaikytas > 130 rekv/s pralaidumas ir užtikrinta patikima aprėptis.

Be to, bendrieji AI modeliai ir tokenizatoriai dažnai sugenda naudojant specializuotus duomenis. „Vibe įsilaužimui“ ir sudėtingam šiuolaikinių grėsmių naudojimui reikalingi modeliai, specialiai parengti pagal kenkėjiškus modelius ir įvesties segmentacijas, atspindinčias mašinos duomenų tikrovę.

Žvelgiant į ateitį, ateities saugumo planas apima treniruočių modelius ir architektūras, specialiai skirtas priešpriešiniam tvirtumui, galbūt naudojant tokius metodus kaip kvantavimas, siekiant dar labiau padidinti greitį.

Nuolat kartu mokydamos grėsmės ir gynybos modelius, organizacijos gali sukurti realaus laiko dirbtinio intelekto apsaugos pagrindą, kuris keičiasi atsižvelgiant į besivystančių saugumo grėsmių sudėtingumą. Konkurencinio mokymosi proveržis parodo, kad technologija, leidžianti tai pasiekti – subalansuoti delsą, pralaidumą ir tikslumą – dabar gali būti įdiegta šiandien.

Taip pat žiūrėkite: ZAYA1: AI modelis, naudojant AMD GPU treniruotėms, pasiektas svarbus etapas

Norite daugiau sužinoti apie AI ir didelius duomenis iš pramonės lyderių? Peržiūrėkite „AI & Big Data Expo“, vykstančią Amsterdame, Kalifornijoje ir Londone. Išsamus renginys yra „TechEx“ dalis ir vyksta kartu su kitais pagrindiniais technologijų renginiais, įskaitant „Cyber ​​Security Expo“. Norėdami gauti daugiau informacijos, spustelėkite čia.

AI naujienas teikia TechForge Media. Čia rasite kitus būsimus įmonių technologijų renginius ir internetinius seminarus.



Source link

Draugai: - Marketingo paslaugos - Teisinės konsultacijos - Skaidrių skenavimas - Fotofilmų kūrimas - Karščiausios naujienos - Ultragarsinis tyrimas - Saulius Narbutas - Įvaizdžio kūrimas - Veidoskaita - Nuotekų valymo įrenginiai -  Padelio treniruotės - Pranešimai spaudai -