Anthropic šią savaitę paskelbęs, kad ji įdiegs iki vieno milijono Google Cloud TPU, sudarydama dešimčių milijardų dolerių vertės sandorį, žymi reikšmingą įmonės AI infrastruktūros strategijos perkalibravimą.
Plėtra, kuri, kaip tikimasi, 2026 m. suteiks daugiau nei gigavatų interneto pajėgumų, yra vienas didžiausių atskirų įsipareigojimų specializuotiems dirbtinio intelekto spartintuvams bet kurio pagrindinio modelio tiekėjo ir siūlo įmonių vadovams svarbių įžvalgų apie besikeičiančius ekonomikos ir architektūros sprendimus, formuojančius gamybinį AI diegimą.
Šis žingsnis ypač pastebimas dėl savo laiko ir masto. „Anthropic“ dabar aptarnauja daugiau nei 300 000 verslo klientų, o didelės sąskaitos – apibrėžiamos kaip tos, kurių metinės pajamos viršija 100 000 USD – per pastaruosius metus išaugo beveik septynis kartus.
Ši klientų augimo trajektorija, sutelkta tarp „Fortune 500“ įmonių ir pradedančiųjų dirbtinio intelekto įmonių, leidžia manyti, kad Claude’o pritaikymas įmonės aplinkoje spartėja po ankstyvųjų eksperimentavimo etapų ir tampa gamybinio lygio diegimu, kai infrastruktūros patikimumas, sąnaudų valdymas ir veiklos nuoseklumas tampa nediskutuotini.
Kelių debesų skaičiavimas
Šis skelbimas skiriasi nuo įprastų pardavėjų partnerysčių yra tai, kad Anthropic aiškiai išdėsto įvairią skaičiavimo strategiją. Bendrovė veikia trijose skirtingose lustų platformose: „Google“ TPU, „Amazon“ „Trainium“ ir „NVIDIA“ GPU.
Finansų direktorė Krishna Rao pabrėžė, kad „Amazon“ išlieka pagrindiniu mokymo partneriu ir debesų paslaugų teikėju, nuolat dirbant su „Project Rainier“ – didžiuliu skaičiavimo klasteriu, apimančiu šimtus tūkstančių AI lustų keliuose JAV duomenų centruose.
Įmonių technologijų lyderiams, vertinantiems savo AI infrastruktūros planus, šis kelių platformų metodas nusipelno dėmesio. Tai atspindi pragmatišką pripažinimą, kad nė viena greitintuvo architektūra ar debesų ekosistema optimaliai neaptarnauja visų darbo krūvių.
Didžiųjų kalbų modelių mokymas, konkrečių domeno programų tikslinimas, išvadų teikimas mastu ir derinimo tyrimų atlikimas pateikia skirtingus skaičiavimo profilius, sąnaudų struktūras ir delsos reikalavimus.
Strateginis poveikis CTO ir CIO yra aiškus: tiekėjo užsiblokavimas infrastruktūros lygmenyje kelia vis didesnę riziką, kai AI darbo krūviai bręsta. Ilgalaikius dirbtinio intelekto pajėgumus kuriančios organizacijos turėtų įvertinti, kaip modelių teikėjų architektūriniai pasirinkimai ir jų gebėjimas perkelti darbo krūvius įvairiose platformose virsta lankstumu, kainų svertu ir tęstinumo užtikrinimu įmonės klientams.
Kaina ir efektyvumas bei masto ekonomija
„Google Cloud“ generalinis direktorius Thomas Kurian priskyrė Anthropic išplėstinį TPU įsipareigojimą „didelei kainai, našumui ir efektyvumui“, kuris buvo parodytas per kelerius metus. Nors konkrečių lyginamųjų standartų palyginimai išlieka nuosavybės teise, šio pasirinkimo ekonomika yra labai svarbi įmonės AI biudžeto sudarymui.
TPU, specialiai sukurti tenzorinėms operacijoms, kurios yra pagrindinės neuroninio tinklo skaičiavimo, paprastai suteikia pranašumų dėl pralaidumo ir energijos vartojimo efektyvumo tam tikroms modelių architektūroms, palyginti su bendrosios paskirties GPU. Skelbimo nuoroda į „daugiau nei gigavatą talpos“ yra pamokanti: energijos suvartojimas ir aušinimo infrastruktūra vis labiau riboja AI diegimą dideliu mastu.
Įmonėms, kurios valdo vietinę AI infrastruktūrą arba derasi dėl kolokacijos sutarčių, suprasti visas nuosavybės išlaidas, įskaitant patalpas, energiją ir veiklos pridėtines išlaidas, yra taip pat svarbu, kaip ir neapdorotų skaičiavimų kainodara.
Septintosios kartos TPU, kodiniu pavadinimu Ironwood ir nurodytas pranešime, reprezentuoja naujausią „Google“ AI greitintuvo dizaino iteraciją. Nors techninės specifikacijos viešuose dokumentuose tebėra ribotos, beveik dešimtmetį sukurto „Google“ AI spartintuvo portfelio branda yra priešprieša įmonėms, vertinančioms naujesnius AI lustų rinkos dalyvius.
Įrodyta gamybos istorija, plati įrankių integracija ir tiekimo grandinės stabilumas turi įtakos priimant įmonės pirkimų sprendimus, kai tęstinumo rizika gali sužlugdyti daugiametes AI iniciatyvas.
Įtaka įmonės AI strategijai
Išplėtus Anthropic infrastruktūrą įmonių lyderiams, planuojantiems savo DI investicijas, kyla keletas strateginių svarstymų:
Pajėgumų planavimas ir ryšiai su pardavėju: Šio įsipareigojimo mastas – dešimtys milijardų dolerių – parodo kapitalo intensyvumą, kurio reikia norint patenkinti įmonės AI paklausą gamybos mastu. Organizacijos, besiremiančios pamatinio modelio API, turėtų įvertinti savo teikėjų pajėgumų planus ir diversifikavimo strategijas, kad sumažintų paslaugų prieinamumo riziką paklausos šuolių ar geopolitinių tiekimo grandinės sutrikimų metu.
Išlygiavimas ir saugos bandymai mastu: Anthropic aiškiai susieja šią išplėstą infrastruktūrą su „nuodugnesniu testavimu, derinimo tyrimais ir atsakingu diegimu“. Reguliuojamų pramonės šakų – finansinių paslaugų, sveikatos priežiūros, vyriausybinių sutarčių – įmonėms saugai ir derinimui skirti skaičiavimo ištekliai tiesiogiai veikia modelio patikimumą ir atitiktį. Viešųjų pirkimų pokalbiuose turėtų būti nagrinėjami ne tik modelio našumo rodikliai, bet ir testavimo ir patvirtinimo infrastruktūra, palaikanti atsakingą diegimą.
Integracija su įmonės AI ekosistemomis: Nors šiame pranešime pagrindinis dėmesys skiriamas „Google Cloud“ infrastruktūrai, įmonės AI diegimas vis dažniau apima kelias platformas. Organizacijos, naudojančios AWS Bedrock, Azure AI Foundry ar kitus modelių orkestravimo sluoksnius, turi suprasti, kaip pamatų modelių teikėjų infrastruktūros pasirinkimas veikia API našumą, regioninį pasiekiamumą ir atitikties sertifikatus įvairiose debesų aplinkose.
Konkurencinė aplinka: Agresyvi Anthropic infrastruktūros plėtra vyksta dėl stiprėjančios OpenAI, Meta ir kitų gerai kapitalizuojančių modelių tiekėjų konkurencijos. Įmonės pirkėjams šios kapitalo diegimo lenktynės reiškia nuolatinį modelio pajėgumų tobulinimą, bet taip pat galimą kainų spaudimą, pardavėjų konsolidavimą ir besikeičiančią partnerystės dinamiką, kuriai reikalingos aktyvios pardavėjo valdymo strategijos.
Platesnis šio pranešimo kontekstas apima didėjantį AI infrastruktūros išlaidų įmonės patikrinimą. Organizacijoms pereinant nuo bandomųjų projektų prie gamybos diegimo, infrastruktūros efektyvumas tiesiogiai veikia AI IG.
Anthropic pasirinkimas įvairinti TPU, Trainium ir GPU, o ne standartizuoti vienoje platformoje, rodo, kad neatsirado dominuojančios architektūros visiems įmonės AI darbo krūviams. Technologijų lyderiai turėtų atsispirti ankstyvam standartizavimui ir išlaikyti architektūrinį pasirinkimą, nes rinka ir toliau sparčiai vystosi.
Taip pat žiūrėkite: Anthropic išsamiai apibūdina savo AI saugos strategiją
Norite daugiau sužinoti apie AI ir didelius duomenis iš pramonės lyderių? Peržiūrėkite „AI & Big Data Expo“, vykstančią Amsterdame, Kalifornijoje ir Londone. Išsamus renginys yra „TechEx“ dalis ir vyksta kartu su kitais pagrindiniais technologijų renginiais, įskaitant „Cyber Security Expo“. Norėdami gauti daugiau informacijos, spustelėkite čia.
AI naujienas teikia TechForge Media. Čia rasite kitus būsimus įmonių technologijų renginius ir internetinius seminarus.