„Meta“ peržiūri, kaip AI pokalbių programos sąveikauja su vartotojais po daugybės pranešimų, atskleidžiančių nerimą keliantį elgesį, įskaitant sąveiką su nepilnamečiais. Bendrovė pasakojo „TechCrunch“ Dabar mokoma savo robotų nebendrauti su paaugliais tokiomis temomis kaip savęs žalojimas, savižudybės ar valgymo sutrikimai ir vengti romantiško barstymo. Tai yra laikini veiksmai, kol jis kuria ilgalaikes taisykles.
Pokyčiai seka a „Reuters“ Tyrimas, kuriame buvo nustatyta, kad „Meta“ sistemos gali generuoti seksualizuotą turinį, įskaitant nepilnamečių įžymybių vaizdus be marškinėlių, ir įtraukti vaikus į romantiškus ar įtaigus pokalbius. Vienas naujienų agentūros pranešimas aprašė vyrą, kuris mirė po skubėjimo į adresą, kurį Niujorke pateikė pokalbių programa.
„Meta“ atstovė spaudai Stephanie Otway pripažino, kad įmonė padarė klaidų. Ji sakė, kad „Meta“ moko mūsų AIS ne bendrauti su paaugliais šiomis temomis, o nukreipti juos į ekspertų išteklius “ir patvirtino, kad tam tikri AI personažai, tokie kaip labai seksualizuoti, pavyzdžiui,„ rusų mergina “, bus apriboti.
Vaikų saugos šalininkai teigia, kad įmonė turėjo veikti anksčiau. Andy Burrows iš „Molly Rose“ fondo pavadino jį „stulbinančiu“, kad robotai buvo leista veikti taip, kad jauniems žmonėms kyla pavojus. Jis pridūrė: „Nors laukiamos tolesnės saugos priemonės, prieš pradedant gaminius į rinką, reikia atlikti patikimus saugos bandymus, o ne retrospektyviai, kai padaryta žala“.
Platesnės problemos dėl netinkamo AI naudojimo
„Meta“ AI pokalbių programų tikrinimas kyla dėl platesnių rūpesčių dėl to, kaip AI pokalbių programos gali paveikti pažeidžiamus vartotojus. Kalifornijos pora neseniai pateikė ieškinį „Openai“, teigdama, kad ChatGPT paskatino savo paauglį sūnų paimti savo gyvybę. Nuo to laiko „Openai“ teigė, kad dirba prie įrankių, skatinančių sveikesnį savo technologijos naudojimą, pažymėdamas tinklaraščio įraše, kad „AI gali jaustis reaguojanti ir asmeniškiau nei ankstesnės technologijos, ypač pažeidžiamiems asmenims, patiriantiems psichinę ar emocinę kančią.“
Incidentai pabrėžia augančias diskusijas apie tai, ar PG įmonės per greitai išleidžia produktus be tinkamų apsaugos priemonių. Kelių šalių įstatymų leidėjai jau perspėjo, kad pokalbių programos, nors ir naudingos, gali sustiprinti kenksmingą turinį arba patarti klaidinančiais patarimais žmonėms, kurie nėra pasirengę to abejoti.
„Meta“ AI studijos ir „Chatbot“ apsimetinėjimo problemos
Tuo tarpu „Reuters“ Pranešė, kad meta AI studija buvo naudojama kuriant flirtuojančius garsenybių, tokių kaip Taylor Swift ir Scarlett Johansson, pokalbių programas. Testuotojai nustatė, kad robotai dažnai teigiami kaip tikri žmonės, užsiima seksualine pažanga ir kai kuriais atvejais sukūrė netinkamus vaizdus, įskaitant nepilnamečius. Nors „Meta“ pašalino kelis robotus po to, kai susisiekė žurnalistai, daugelis liko aktyvūs.
Kai kuriuos AI pokalbių programas sukūrė išorės vartotojai, bet kiti – iš meta vidaus. Vienas pokalbių su produktas, kurį sukūrė produktas, vedantis savo generacinį AI skyrių apsimetinėjo Taylor Swift ir pakvietė a „Reuters“ Žurnalistė susitiks su „romantišku pabėgimu“ savo kelionių autobuse. Nepaisant to, kad „Meta“ politika aiškiai uždraudžia seksualinius vaizdus ir tiesioginį viešųjų veikėjų apsimetinėjimą.
AI pokalbių programos apsimetinėjimo klausimas yra ypač jautrus. Garsenybės susiduria su reputacijos rizika, kai jų panašumas yra netinkamai naudojamas, tačiau ekspertai pabrėžia, kad paprastiems vartotojams taip pat galima apgauti. „Chatbot“, apsimetantis draugu, mentoriumi ar romantišku partneriu, gali paskatinti ką nors pasidalyti asmenine informacija ar net susitikti nesaugiose situacijose.
Realaus pasaulio rizika
Problemos neapsiriboja pramogomis. AI pokalbių programos, pozuojančios kaip tikri žmonės, pasiūlė padirbtus adresus ir kvietimus, kelia klausimų apie tai, kaip stebima „Meta“ AI įrankiai. Vienas iš pavyzdžių dalyvavo 76 metų vyras Naujajame Džersyje, kuris mirė po to, kai nukrito, skubėdamas susitikti su pokalbių plėtra, kuri teigė, kad jaučia jam jausmus.
Tokie atvejai parodo, kodėl reguliavimo institucijos atidžiai stebi AI. Senatas ir 44 valstybiniai generaliniai prokurorai jau pradėjo tikrinti meta praktiką, darydami politinį spaudimą įmonės vidinėms reformoms. Jų rūpestis ne tik dėl nepilnamečių, bet ir tai, kaip AI galėtų manipuliuoti vyresniais ar pažeidžiamais vartotojais.
Meta sako, kad ji vis dar veikia patobulinimus. Jos platformos vartotojams nuo 13 iki 18 metų įtraukia į „paauglių paskyras“ su griežtesniu turiniu ir privatumo nustatymais, tačiau įmonė dar nepaaiškino, kaip ji planuoja išspręsti visą problemų, kurias iškėlė, sąrašą „Reuters“. Tai apima robotus, siūlančius melagingus medicinos patarimus ir generuojantį rasistinį turinį.
Nuolatinis spaudimas meta „AI Chatbot“ politikai
Ilgus metus meta susidūrė su kritika dėl savo socialinės žiniasklaidos platformų saugumo, ypač dėl vaikų ir paauglių. Dabar „Meta“ AI „Chatbot“ eksperimentai atlieka panašų patikrinimą. Kol įmonė imasi priemonių apriboti kenksmingą pokalbių programos elgesį, atotrūkis tarp jos nurodytos politikos ir tai, kaip jos įrankiai buvo naudojami, kelia nuolatinius klausimus, ar ji gali įgyvendinti šias taisykles.
Kol nebus tvirtesnės apsaugos priemonės, reguliavimo institucijos, tyrėjai ir tėvai greičiausiai ir toliau spaudos meta, ar jos AI yra pasirengusi viešai naudoti.
(Maxim Tolchinskiy nuotrauka)
Taip pat žiūrėkite: Agentrinė AI: Pažadai, skepticizmas ir jo prasmė Pietryčių Azijai
Norite sužinoti daugiau apie AI ir didelius duomenis iš pramonės lyderių? Peržiūrėkite AI ir „Big Data Expo“, vykstančią Amsterdame, Kalifornijoje ir Londone. Išsamus renginys yra „TechEx“ dalis ir kartu su kitais pirmaujančiais technologijomis. Norėdami gauti daugiau informacijos, spustelėkite čia.
„AI News“ maitina „TechForge Media“. Čia ištirkite kitus būsimus įmonių technologijų renginius ir internetinius seminarus.