OpenAI, Google, antropiniai paleidimo įrankiai


„OpenAI“, „Google“ ir „Anthropic“ per kelias dienas vienas nuo kito paskelbė apie specializuotas medicinines AI galimybes šį mėnesį, o tai rodo konkurencinį spaudimą, o ne atsitiktinį laiką. Tačiau nė vienas iš leidimų nėra patvirtintas kaip medicinos prietaisas, patvirtintas klinikiniam naudojimui arba nėra prieinamas tiesioginei pacientų diagnozei, nepaisant rinkodaros kalbos, pabrėžiančios sveikatos priežiūros pokyčius.

„OpenAI“ sausio 7 d. pristatė „ChatGPT Health“, leidžiančią JAV vartotojams sujungti medicininius įrašus bendradarbiaujant su „b.well“, „Apple Health“, „Function“ ir „MyFitnessPal“. „Google“ sausio 13 d. išleido „MedGemma 1.5“, išplėtė savo atvirą medicininį AI modelį, kad būtų galima interpretuoti trimačius KT ir MRT nuskaitymus kartu su visos skaidrės histopatologiniais vaizdais.

Anthropic sausio 11 d. sekė kartu su Claude for Healthcare, siūlydamas HIPAA suderinamas jungtis su TVS aprėpties duomenų bazėmis, TLK-10 kodavimo sistemas ir Nacionalinį teikėjo identifikatorių registrą.

Visos trys įmonės taikosi į tuos pačius darbo eigos skausmo taškus – išankstinių leidimų peržiūrą, pretenzijų apdorojimą, klinikinę dokumentaciją – taikydamos panašius techninius metodus, bet skirtingas pateikimo į rinką strategijas.

Kūrėjų platformos, o ne diagnostikos produktai

Pastebėtini architektūriniai panašumai. Kiekviena sistema naudoja daugiarūšius didelių kalbų modelius, tiksliai suderintus pagal medicininę literatūrą ir klinikinius duomenų rinkinius. Kiekviename iš jų pabrėžiama privatumo apsauga ir teisiniai atsakomybės apribojimai. Kiekvienas iš jų teigia, kad tai palaiko, o ne pakeičia klinikinį sprendimą.

Skirtumai slypi diegimo ir prieigos modeliuose. OpenAI ChatGPT Health veikia kaip vartotojams skirta paslauga su laukiančiųjų sąrašu, skirtu „ChatGPT Free“, „Plus“ ir „Pro“ prenumeratoriams už EEE, Šveicarijos ir JK ribų. „Google“ „MedGemma 1.5“ išleidžiamas kaip atviras modelis per „Health AI Developer Foundations“ programą, kurią galima atsisiųsti per Hugging Face arba įdiegti naudojant „Google Cloud“ Vertex AI.

„Anthropic’s Claude for Healthcare“ integruojasi į esamas įmonės darbo eigas per „Claude for Enterprise“, orientuodamasi į institucinius pirkėjus, o ne į individualius vartotojus. Reguliavimo padėtis yra nuosekli visose trijose.

OpenAI aiškiai teigia, kad sveikata „nėra skirta diagnozuoti ar gydyti“. „Google“ laiko „MedGemma“ kaip „pradžios tašką kūrėjams įvertinti ir prisitaikyti prie jų medicininio naudojimo atvejų“. Anthropic pabrėžia, kad rezultatai „nėra skirti tiesiogiai informuoti apie klinikinę diagnozę, pacientų valdymo sprendimus, gydymo rekomendacijas ar bet kokius kitus tiesioginius klinikinės praktikos pritaikymus“.

Etaloninis našumas ir klinikinis patvirtinimas

Medicinos dirbtinio intelekto etaloniniai rezultatai iš esmės pagerėjo visuose trijuose leidimuose, nors atotrūkis tarp bandymo atlikimo ir klinikinio diegimo išlieka didelis. „Google“ praneša, kad „MedGemma 1.5“ pasiekė 92,3% tikslumą „MedAgentBench“, Stanfordo medicinos agento užduočių atlikimo etalonu, palyginti su 69,6% ankstesnio „Sonnet 3.5“ bazinio lygio.

Modelis pagerėjo 14 procentinių punktų, atsižvelgiant į MRT ligų klasifikaciją ir 3 procentiniais punktais pagal kompiuterinės tomografijos rezultatus atliekant vidinius tyrimus. „Anthropic“ Claude Opus 4.5 surinko 61,3% „MedCalc“ medicininių skaičiavimų tikslumo testų, kai įjungtas „Python“ kodo vykdymas, ir 92,3% „MedAgentBench“.

Bendrovė taip pat teigia, kad pagerėjo „sąžiningumo vertinimai“, susiję su faktinėmis haliucinacijomis, nors konkretūs rodikliai nebuvo atskleisti.

„OpenAI“ nepaskelbė „ChatGPT Health“ etaloninių palyginimų, o vietoj to pažymėjo, kad „daugiau nei 230 milijonų žmonių visame pasaulyje kiekvieną savaitę užduoda su sveikata ir sveikata susijusių klausimų ChatGPT“, pagrįsti neidentifikuota esamų naudojimo modelių analize.

Šie etalonai vertina kuruojamų testų duomenų rinkinių našumą, o ne klinikinius rezultatus praktikoje. Medicininės klaidos gali turėti gyvybei pavojingų pasekmių, todėl etalono tikslumas tampa sudėtingesnis nei kitose AI taikymo srityse.

Reguliavimo būdas lieka neaiškus

Šių medicininių AI priemonių reguliavimo sistema išlieka dviprasmiška. JAV FDA priežiūra priklauso nuo numatomo naudojimo. Programinei įrangai, kuri „palaiko arba teikia rekomendacijas sveikatos priežiūros specialistui dėl ligos prevencijos, diagnozavimo ar gydymo“, gali būti reikalinga išankstinė medicinos prietaiso peržiūra. Nė viena iš paskelbtų įrankių neturi FDA leidimo.

Atsakomybės klausimai taip pat neišspręsti. Kai „Banner Health“ CTO Mike’as Reaginas teigia, kad sveikatos sistema buvo „pritraukta į Anthropic dėmesį į AI saugą“, čia atsižvelgiama į technologijos atrankos kriterijus, o ne į teisinės atsakomybės sistemas.

Jei gydytojas pasikliauja Claude išankstinio leidimo analize ir pacientas patiria žalą dėl pavėluoto gydymo, esama teismų praktika pateikia ribotas gaires dėl atsakomybės paskirstymo.

Reguliavimo metodai įvairiose rinkose labai skiriasi. Nors FDA ir Europos medicinos prietaisų reglamentas numato nustatytas programinės įrangos, kaip medicinos prietaisų, sistemas, daugelis APAC reguliavimo institucijų nepateikė konkrečių gairių dėl generuojamųjų AI diagnostikos priemonių.

Šis reglamentavimo dviprasmiškumas turi įtakos priėmimo terminams rinkose, kuriose sveikatos priežiūros infrastruktūros spragos kitu atveju gali paspartinti įgyvendinimą, sukurdamos įtampą tarp klinikinio poreikio ir reguliavimo atsargumo.

Administracinės darbo eigos, o ne klinikiniai sprendimai

Tikras diegimas tebėra kruopščiai apibrėžiamas. Turinio skaitmeninimo direktorė Louise Lind Skov iš „Novo Nordisk“ apibūdino „Claude“ naudojimą „dokumentų ir turinio automatizavimui vaistų kūrimo procese“, o ne paciento diagnozę, o reglamentuojančius pateikimo dokumentus.

Taivano nacionalinė sveikatos draudimo administracija pritaikė MedGemma, kad ištrauktų duomenis iš 30 000 patologijos ataskaitų politikos analizei, o ne gydymo sprendimams.

Modelis rodo, kad institucinis priėmimas yra sutelktas į administracines darbo eigas, kuriose klaidos yra mažiau pavojingos (sąskaitų išrašymas, dokumentacija, protokolų rengimas), o ne tiesioginis klinikinių sprendimų palaikymas, kai medicininės AI galimybės turėtų didžiausią poveikį pacientų rezultatams.

Medicininės AI galimybės tobulėja greičiau, nei jas diegiančios institucijos gali susidoroti su reguliavimo, atsakomybės ir darbo eigos integravimo sudėtingumu. Technologija egzistuoja. 20 USD mėnesinis abonementas suteikia prieigą prie sudėtingų medicininių samprotavimo priemonių.

Nesvarbu, ar tai reiškia pakeistą sveikatos priežiūros paslaugų teikimą, priklauso nuo klausimų, į kuriuos šie suderinti pranešimai palieka nenagrinėti.

Taip pat žiūrėkite: AstraZeneca lažinasi dėl vidinio AI, kad paspartintų onkologijos tyrimus

Norite daugiau sužinoti apie AI ir didelius duomenis iš pramonės lyderių? Peržiūrėkite „AI & Big Data Expo“, vykstančią Amsterdame, Kalifornijoje ir Londone. Išsamus renginys yra TechEx dalis ir vyksta kartu su kitais pagrindiniais technologijų renginiais. Norėdami gauti daugiau informacijos, spustelėkite čia.

AI naujienas teikia TechForge Media. Čia rasite kitus būsimus įmonių technologijų renginius ir internetinius seminarus.



Source link

Draugai: - Marketingo paslaugos - Teisinės konsultacijos - Skaidrių skenavimas - Fotofilmų kūrimas - Karščiausios naujienos - Ultragarsinis tyrimas - Saulius Narbutas - Įvaizdžio kūrimas - Veidoskaita - Nuotekų valymo įrenginiai -  Padelio treniruotės - Pranešimai spaudai -