Anot AWS šios savaitės „re:Invent 2025“, pokalbių roboto ažiotažas iš esmės baigėsi, o jo vietą užima pasienio dirbtinio intelekto agentai.
Tai yra šiurkšti žinia iš Las Vegaso šią savaitę. Pramonės manija dėl pokalbių sąsajų buvo pakeista kur kas reiklesniu įgaliojimu: „pasienio agentai“, kurie ne tik kalba, bet ir dirba savarankiškai kelias dienas.
Nuo generatyvaus AI naujovės etapo pereiname į sudėtingą infrastruktūros ekonomikos ir eksploatacinės santechnikos erą. Eilėraščių rašymo roboto „vau“ faktorius išblėso; Dabar reikia patikrinti infrastruktūrą, reikalingą šioms sistemoms paleisti dideliu mastu.
Vandentiekio krizės sprendimas AWS re:Invent 2025
Dar visai neseniai sukurti pasienio AI agentus, galinčius atlikti sudėtingas, nedeterministines užduotis, buvo specialiai sukurtas inžinerijos košmaras. Ankstyvieji naudotojai degino išteklius, derindami įrankius kontekstui, atminčiai ir saugai valdyti.
AWS bando nužudyti šį sudėtingumą naudodamas „Amazon Bedrock AgentCore“. Tai valdoma paslauga, kuri veikia kaip agentų operacinė sistema, tvarkanti būsenos valdymo ir konteksto paieškos užpakalinį darbą. Sunku nepaisyti šio sluoksnio standartizavimo efektyvumo padidėjimo.
Paimkite MongoDB. Atsisakę savo namuose sukurtos infrastruktūros, skirtos AgentCore, jie sujungė savo įrankių grandinę ir per aštuonias savaites paleido agentu pagrįstą taikomąją programą į gamybą – tai procesas, kuris anksčiau užtrukdavo kelis mėnesius trunkantį vertinimo ir priežiūros laiką. PGA TOUR sulaukė dar didesnio pelno, naudojant platformą kuriant turinio generavimo sistemą, kuri padidino rašymo greitį 1000 procentų, o išlaidas sumažino 95 procentais.
Programinės įrangos komandos taip pat gauna savo specialią darbo jėgą. Re:Invent 2025 metu AWS išleido tris konkrečius pasienio AI agentus: Kiro (virtualus kūrėjas), saugos agentą ir „DevOps“ agentą. Kiro yra ne tik kodo užbaigimo įrankis; jis tiesiogiai prisijungia prie darbo eigos su „galiomis“ (specializuotos įrankių, pvz., „Datadog“, „Figma“ ir „Stripe“ integracijos), leidžiančios veikti atsižvelgiant į kontekstą, o ne tik spėlioti sintaksę.
Agentai, kurie veikia kelias dienas, sunaudoja daugybę skaičiavimų. Jei už tai mokate standartinius tarifus pagal pareikalavimą, jūsų IG išgaruoja.
AWS tai žino, todėl šiais metais aparatinės įrangos pranešimai yra agresyvūs. Naujieji „Trainium3 UltraServers“, maitinami 3 nm lustais, teigia, kad skaičiavimo našumas yra 4,4 karto didesnis nei ankstesnės kartos. Organizacijoms, rengiančioms didžiulius pamatų modelius, tai sutrumpina mokymo terminus nuo mėnesių iki savaičių.
Tačiau įdomesnis poslinkis yra tai, kur tas skaičiavimas gyvena. Duomenų suverenumas tebėra galvos skausmas pasaulinėms įmonėms, dažnai blokuojantis debesų pritaikymą jautriems AI darbo krūviams. AWS tai kovoja su „AI Factories“ (iš esmės „Trainium“ lustų ir NVIDIA GPU stelažus siunčia tiesiai į esamus klientų duomenų centrus). Tai hibridinis žaidimas, pripažįstantis paprastą tiesą: kai kuriems duomenims viešasis debesis vis dar yra per toli.
Kova su paveldėtu kalnu
Naujovės, kurias matome su pasienio AI agentais, yra puikios, tačiau daugumą IT biudžetų smaugia techninės skolos. Komandos maždaug 30 procentų savo laiko praleidžia tik palaikydamos šviesas.
„Re:Invent 2025“ metu „Amazon“ atnaujino „AWS Transform“, kad atakuotų tai konkrečiai; naudojant agentinį AI, kad būtų galima atlikti sudėtingą senojo kodo atnaujinimo darbą. Dabar paslauga gali atlikti visą Windows modernizavimą; įskaitant .NET programų ir SQL serverio duomenų bazių atnaujinimą.
„Air Canada“ tai panaudojo modernizuodama tūkstančius lambda funkcijų. Jie baigė per dienas. Jei tai padarytumėte rankiniu būdu, jie būtų kainuoti penkis kartus daugiau ir užtruktų savaites.
Kūrėjams, kurie iš tikrųjų nori rašyti kodą, ekosistema plečiasi. „Strands Agents“ SDK, anksčiau buvęs tik „Python“ reikalas, dabar palaiko „TypeScript“. Kaip žiniatinklio lingua franca, ji suteikia tipo saugumo chaotiškam LLM išėjimui ir yra būtina evoliucija.
Protingas valdymas pasienio AI agentų eroje
Čia yra pavojus. Agentas, kuris veikia autonomiškai „dienomis be įsikišimo“, taip pat yra agentas, kuris gali sugriauti duomenų bazę arba nutekėti AII niekam nepastebėjus, kol dar nevėlu.
AWS bando šią riziką įtraukti į „AgentCore Policy“ – funkciją, leidžiančią komandoms nustatyti natūralios kalbos ribas, ką agentas gali ir ko negali daryti. Kartu su vertinimais, kurie naudoja iš anksto sukurtą metriką agento našumui stebėti, jis suteikia labai reikalingą saugos tinklą.
Apsaugos komandos taip pat įgauna postūmį atnaujinus „Security Hub“, kuris dabar „GuardDuty“, „Inspector“ ir „Macie“ signalus susieja į atskirus „įvykius“, o ne užpildo prietaisų skydelį atskirais įspėjimais. Pati „GuardDuty“ plečiasi, naudodama ML sudėtingiems grėsmių modeliams aptikti EC2 ir ECS grupėse.
Mes aiškiai praėjome bandomųjų programų tašką. Įrankiai, paskelbti AWS re:Invent 2025, nuo specializuoto silicio iki valdomų struktūrų, skirtų pasienio AI agentams, yra skirti gamybai. Klausimas įmonių vadovams nebėra „ką gali padaryti AI? bet „ar galime sau leisti infrastruktūrą, kad ji galėtų atlikti savo darbą?
Taip pat žiūrėkite: DI gamybos srityje atvers naują pelno erą
Norite daugiau sužinoti apie AI ir didelius duomenis iš pramonės lyderių? Peržiūrėkite „AI & Big Data Expo“, vykstančią Amsterdame, Kalifornijoje ir Londone. Išsamus renginys yra „TechEx“ dalis ir vyksta kartu su kitais pagrindiniais technologijų renginiais, įskaitant „Cyber Security Expo“. Norėdami gauti daugiau informacijos, spustelėkite čia.
AI naujienas teikia TechForge Media. Čia rasite kitus būsimus įmonių technologijų renginius ir internetinius seminarus.