Savarankiškumas be atskaitomybės: tikroji AI rizika


Jei kada nors važiavote savarankiškai vairuojančiu Uberiu per LA centrą, galite atpažinti keistą netikrumo jausmą, kuris apima, kai nėra vairuotojo ir pokalbio, o tik tylus automobilis, darantis prielaidas apie jį supantį pasaulį. Kelionė jaučiasi gerai, kol automobilis neteisingai nuskaito šešėlį arba staiga nesulėtėja dėl kažko nepavojingo. Tą akimirką matote tikrąją autonomijos problemą. Ji nepuola į paniką, kai turėtų, ir ta atotrūkis tarp pasitikėjimo ir sprendimo yra ta vieta, kur pasitikėjimas užsitarnaujamas arba prarandamas. Didelė dalis šiandieninių įmonių AI jaučiasi nepaprastai panašiai. Jis yra kompetentingas nepasitikėdamas savimi ir efektyvus, nebūdamas empatiškas, todėl lemiamas kiekvieno sėkmingo diegimo veiksnys yra nebe skaičiavimo galia, o pasitikėjimas.

„MLQ State of AI in Business 2025“ (PDF) ataskaitoje tai yra labai daug. 95 % ankstyvųjų AI pilotų nesugeba sukurti išmatuojamos investicijų grąžos ne todėl, kad technologija silpna, o todėl, kad ji neatitinka problemų, kurias bando išspręsti organizacijos. Šis modelis kartojasi pramonės šakose. Lyderiai jaučiasi neramūs, kai negali pasakyti, ar rezultatas tinkamas, komandos nėra tikri, ar galima pasitikėti prietaisų skydeliais, o klientai greitai praranda kantrybę, kai sąveika atrodo automatizuota, o ne palaikoma. Kiekvienas, kuris buvo užblokuotas iš savo banko sąskaitos, o automatinė atkūrimo sistema tvirtina, kad jų atsakymai neteisingi, žino, kaip greitai išgaruoja pasitikėjimas.

Klarna tebėra labiausiai viešinamas didelio masto automatizavimo pavyzdys. Nuo 2022 m. bendrovė perpus sumažino savo darbuotojų skaičių ir teigia, kad vidinės AI sistemos atlieka 853 etatinius vaidmenis, palyginti su 700 šiais metais. Pajamos išaugo 108%, o vidutinis darbuotojų atlyginimas padidėjo 60%, iš dalies finansuojamas iš veiklos pelno. Tačiau vaizdas yra sudėtingesnis. „Klarna“ vis dar pranešė apie 95 milijonų dolerių ketvirčio nuostolius, o jos generalinis direktorius perspėjo, kad tikėtinas tolesnis darbuotojų mažinimas. Tai rodo, kad vien automatika nesukuria stabilumo. Be atskaitomybės ir struktūros patirtis nutrūksta gerokai anksčiau nei tai padaro AI. Kaip teigia Jasonas Roosas, CCaaS tiekėjos Cirrus generalinis direktorius: „Bet kokia transformacija, kuri griauna pasitikėjimą versle ar už jos ribų, kainuoja, kurių negalite ignoruoti. Dėl to galite pablogėti.

Mes jau matėme, kas atsitinka, kai savarankiškumas pranoksta atskaitomybę. JK Darbo ir pensijų departamentas naudojo algoritmą, kuris klaidingai pažymėjo apie 200 000 prašymų dėl būsto išmokų kaip galimai apgaulingų, nors dauguma jų buvo teisėti. Problema buvo ne technologijoje. Tai buvo aiškios atsakomybės už jos sprendimus nebuvimas. Kai automatizuota sistema sustabdo netinkamą paskyrą, atmeta netinkamą paraišką arba sukelia nereikalingą baimę, problema niekada nėra tik „kodėl modelis sugedo? Tai „kam priklauso rezultatas? Be šio atsakymo pasitikėjimas tampa trapus.

„Trūkstamas žingsnis visada yra pasirengimas“, – sako Roosas. „Jei procesas, duomenys ir apsauginiai turėklai nėra vietoje, autonomija nepagreitina našumo, tai sustiprina trūkumus. Atsiskaitomybė turi būti pirmiausia. Pradėkite nuo rezultato, suraskite, kur švaistomos pastangos, patikrinkite savo pasirengimą ir valdymą, o tik tada automatizuokite. Praleiskite tuos veiksmus ir atskaitomybė išnyks taip pat greitai, kaip didėja efektyvumas.

Dalis problemos yra masto manija be pagrindo, dėl kurio mastelis yra tvarus. Daugelis organizacijų veržiasi į savarankiškus agentus, kurie gali veikti ryžtingai, tačiau tik nedaugelis sustabdo, kad pagalvotų, kas atsitiks, kai tie veiksmai išeis už numatytų ribų. „Edelman Trust Barometer“ (PDF) rodo, kad per pastaruosius penkerius metus visuomenės pasitikėjimas dirbtiniu intelektu nuolat mažėjo, o bendras KPMG ir Melburno universiteto tyrimas parodė, kad darbuotojai teikia pirmenybę daugiau žmonių dalyvavimui atliekant beveik pusę tiriamų užduočių. Išvados patvirtina paprastą teiginį. Pasitikėjimas retai atsiranda dėl stipresnio modelių spaudimo. Tai atsiranda dėl to, kad žmonės skiria laiko suprasti, kaip priimami sprendimai, ir valdymas, kuris elgiasi mažiau kaip stabdžių pedalas, o labiau kaip vairas.

Ta pati dinamika atsiranda ir klientų pusėje. PwC pasitikėjimo tyrimai atskleidžia didelę prarają tarp suvokimo ir tikrovės. Dauguma vadovų mano, kad klientai pasitiki savo organizacija, o tik mažuma klientų sutinka. Kitos apklausos rodo, kad skaidrumas padeda užpildyti šią spragą, nes daugelis vartotojų nori aiškiai atskleisti, kada dirbtinis intelektas naudojamas teikiant paslaugas. Be to aiškumo žmonės nesijaučia ramūs. Jie jaučiasi suklaidinti, santykiai tampa įtempti. Įmonės, kurios atvirai praneša apie savo AI naudojimą, ne tik apsaugo pasitikėjimą, bet ir normalizuoja idėją, kad technologijos ir žmonių parama gali egzistuoti kartu.

Dalis painiavos kyla iš paties termino „agentinis AI“. Didžioji dalis rinkos tai traktuoja kaip kažką nenuspėjamo ar savaime nukreipto, nors iš tikrųjų tai yra darbo eigos automatizavimas su samprotavimais ir prisiminimais. Tai sistemingas būdas sistemoms priimti kuklius sprendimus pagal žmonių sukurtus parametrus. Saugiai keičiami diegimai atliekami ta pačia seka. Jie pradeda nuo rezultato, kurį nori patobulinti, tada žiūri, kur darbo eigoje yra nereikalingų pastangų, tada įvertina, ar jų sistemos ir komandos yra pasirengusios savarankiškumui, ir tik tada pasirenka technologiją. Šios tvarkos atšaukimas nieko nepagreitina. Tai tiesiog sukuria greitesnes klaidas. Kaip sako Roosas, dirbtinis intelektas turėtų išplėsti žmogaus vertinimą, o ne jį pakeisti.

Visa tai rodo platesnę tiesą. Kiekviena automatizavimo banga ilgainiui tampa socialiniu, o ne grynai techniniu klausimu. „Amazon“ sustiprino savo dominavimą dėl veiklos nuoseklumo, tačiau taip pat sukūrė pasitikėjimą, kad siuntinys atvyks. Kai šis pasitikėjimas mažėja, klientai juda toliau. AI seka tą patį modelį. Galite įdiegti sudėtingas, savaime taisomas sistemas, bet jei klientas bet kuriuo metu jaučiasi apgautas ar suklaidintas, pasitikėjimas nutrūksta. Viduje galioja tie patys spaudimai. KPMG pasaulinis tyrimas (PDF) pabrėžia, kaip greitai darbuotojai atsitraukia, kai nesupranta, kaip priimami sprendimai ar kas už juos atsakingas. Be to aiškumo įvaikinimas stringa.

Kai agentinės sistemos prisiima daugiau pokalbio vaidmenų, emocinė dimensija tampa dar svarbesnė. Ankstyvosios savarankiškų pokalbių sąveikos apžvalgos rodo, kad dabar žmonės vertina savo patirtį ne tik pagal tai, ar jiems buvo suteikta pagalba, bet ir pagal tai, ar bendravimas buvo dėmesingas ir pagarbus. Klientas, kuris jaučiasi atleistas, retai išlaiko nusivylimą savyje. Emocinis dirbtinio intelekto tonas tampa tikru veiklos veiksniu, o sistemos, kurios negali patenkinti šių lūkesčių, gali tapti įsipareigojimais.

Sunki tiesa yra ta, kad technologijos ir toliau judės greičiau nei žmonių instinktyvus komfortas. Pasitikėjimas visada atsiliks nuo naujovių. Tai nėra argumentas prieš pažangą. Tai brandos argumentas. Kiekvienas dirbtinio intelekto vadovas turėtų paklausti, ar patikės sistemai savo duomenis, ar galėtų paprasta kalba paaiškinti paskutinį jos sprendimą ir kas imasi veiksmų, kai kas nors negerai. Jei tie atsakymai neaiškūs, organizacija nevykdo pertvarkos. Ji ruošia atsiprašymą.

Roosas paprasčiausiai sako: „Agentinis AI nėra rūpestis, o neatsakingas AI“.

Kai pasitikėjimas išnyksta, dingsta įvaikinimas, o projektas, kuris atrodė transformuojantis, tampa dar vienu 95 % nesėkmės lygio įrašu. Autonomija nėra priešas. Pamiršti, kas atsakingas. Organizacijos, kurios laiko žmogaus ranką ant vairo, bus tos, kurios vis dar valdys, kai savarankiško vairavimo ažiotažas ilgainiui išnyks.



Source link

Draugai: - Marketingo paslaugos - Teisinės konsultacijos - Skaidrių skenavimas - Fotofilmų kūrimas - Karščiausios naujienos - Ultragarsinis tyrimas - Saulius Narbutas - Įvaizdžio kūrimas - Veidoskaita - Nuotekų valymo įrenginiai -  Padelio treniruotės - Pranešimai spaudai -