Vendosni fjalën kyçe....

Inteligjenca artificiale ‘pushton’ mjekësinë, AI e Google jep përgjigje klinike më shumë se 90% të sakta – Bloomberg


Një ditë në shkurt 2022, dy studiues të AI (Artificial Intelligence) në Google të Alphabet Inc. e gjetën veten të zhytur në biseda rreth inteligjencës artificiale dhe potencialit të saj për aplikime të vërteta në kujdesin shëndetësor.

Ndërsa Alan Karthikesalingam dhe Vivek Natarajan diskutuan për përshtatjen e modeleve ekzistuese të AI të Google në mjediset mjekësore, biseda e tyre zgjati për orë të tëra edhe gjatë darkës në një restorant pranë selisë së ‘Mountain Vieë’ të gjigantit të teknologjisë. Në fund të mbrëmjes, Natarajan kishte shkruar një draft fillestar të një dokumenti që përshkruante mundësitë për modele të mëdha gjuhësore në kujdesin shëndetësor, duke përfshirë drejtimet e kërkimit dhe sfidat e tij.

Puna e tyre nisi një nga modelet më intensive kërkimore që studiuesit thonë se kanë përjetuar në kohën e tyre në Google. Ai arriti kulmin me publikimin e Med-PaLM, një model i AI që studiuesit thonë se ka potencialin për të revolucionarizuar kujdesin shëndetësor duke i lejuar mjekët të marrin shpejt njohuritë mjekësore për të mbështetur vendimet e tyre klinike. Modelet e mëdha të gjuhës janë sisteme masive të AI që zakonisht gëlltisin vëllime të mëdha të tekstit dixhital, por Karthikesalingam dhe Natarajan parashikuan një sistem që do stërvitej në njohuri të specializuara mjekësore.

Hulumtimi i rishikuar nga kolegët që mbështet modelin e AI është pranuar nga revista shkencore Nature, tha Google të mërkurën. Kjo e bën kompaninë të parën që publikon kërkime që japin hollësi për një model të AI që u përgjigjet pyetjeve mjekësore në revistë, tha ai.

Punimi përmban disa rezultate befasuese. Kur modelit iu parashtruan pyetje mjekësore, një grup klinicistësh i vlerësuan përgjigjet e tij si 92.6% në përputhje me konsensusin shkencor, pak më pak nga pikëpamja 92.9% që morën profesionistët mjekësorë të jetës reale, sipas një deklarate nga Nature, megjithëse vlerësimet e klinicistëve për Med-PaLM nuk u bazuan në vendosjen e tij në mjediset spitalore me variabla të pacientit në jetën reale. Studimi zbuloi gjithashtu se vetëm 5.8% e përgjigjeve të modelit mund të shkaktojnë dëm, duke tejkaluar shkallën prej 6.5% të arritur nga mjekët.

Sarah Ëest, drejtoreshë menaxhuese e Institutit AI Noë, një qendër kërkimore politikash, tha se ndërsa botimi në një revistë shkencore demonstron një mbikëqyrje akademike të gjetjeve të Google, është një standard i pamjaftueshëm për të qenë gati për të përdorur sistemin e AI në mjedise reale të kujdesit shëndetësor.

“Ka të gjitha llojet e informacionit që do të dëshironit t’i dini, në mënyrë që të vlerësoni në mënyrë kuptimplotë një sistem përpara se të vendoset në përdorim komercial,” tha ajo.

“Dhe ju duhet ta shikoni këtë sistem në nivelin e çdo spitali, nëse ata do bëjnë ndonjë lloj personalizimi të një sistemi për një mjedis të caktuar klinik.”

Pa asnjë mandat tjetër për testim ose vlerësim të pavarur, ‘ne jemi të mbërthyer në një situatë ku duhet të mbështetemi në fjalët e kompanisë që ata kanë vlerësuar në mënyrë të përshtatshme’ sistemet e AI përpara vendosjes, shtoi Ëest.

Është ende herët për Med-PaLM. Kompania ka filluar muajt e fundit të hapë modelin për një grup të përzgjedhur të organizatave të kujdesit shëndetësor dhe shkencës së jetës për testim, dhe kompania thotë se modeli është ende larg të qenit gati për përdorim në kujdesin e pacientëve.

Studiuesit e Google që punuan në modelin thonë se në të ardhmen, Med-PaLM mund të ketë potencialin për t’u ofruar mjekëve një burim ekspert për t’u konsultuar kur hasin raste të panjohura, për të ndihmuar me vështirësitë e dokumentacionit klinik dhe për të zgjeruar kujdesin për njerëzit që nuk kanë mundësi të marrin asnjë formë të kujdesit shëndetësor.

“A mund ta katalizojmë komunitetin mjekësor të AI që të mendojë seriozisht për potencialin e modeleve të themelimit për kujdesin shëndetësor?” tha Karan Singhal, një inxhinier softuerësh që ka punuar në projekt.

“Ky ishte ylli ynë polar.”

Në mars, Google njoftoi përsëritjen e dytë të Med-PaLM, për të cilën tha se arriti një rezultat 86.5% kur iu përgjigj pyetjeve të stilit të licencimit mjekësor në SHBA – një përmirësim mbi rezultatin e tij të mëparshëm 67%. Brezi i parë i Med-PaLM u vlerësua nga 9 mjekë nga Britani, SHBA dhe Indi; 15 mjekë vlerësuan versionin e dytë, tha Google.

Google dhe OpenAI, startup-i i mbështetur nga Microsoft Corp., janë të bllokuar në një garë të ashpër në inteligjencën artificiale dhe fusha mjekësore nuk bën përjashtim. Sistemet mjekësore kanë filluar të eksperimentojnë me teknologjinë e OpenAI, ka raportuar Ëall Street Journal. Google, nga ana e tij, ka filluar të provojë Med-PaLM me Klinikën Mayo, sipas Journal.

Të dy Karthikesalingam dhe Natarajan kishin ëndërruar prej kohësh të sillnin AI në kujdesin shëndetësor. Pasi filloi karrierën e tij si mjek, Karthikesalingam dëshironte një model të AI që mund të plotësonte punën e tij. Natarajan u rrit në pjesë të Indisë ku për shumë njerëz nuk ishte e mundur të shkonin te mjeku.

Një nga studiuesit e parë të ekipit, Tao Tu, tha se fillimisht ishte skeptik për planin ambicioz të ekipit. “Unë pata një telefonatë fillestare me Vivek dhe ai tha se ne planifikojmë të printojmë një studim brenda një muaji,” tha Tu.

“Dhe unë mendoja, si është e mundur? Unë kam botuar një sërë punimesh për shumë vite. E di që asgjë nuk do të ndodhë në një kohë kaq të shkurtër.”

Megjithatë skuadra e tërhoqi atë. Pas një sprinti pesëjavor që zgjati gjatë Ditës së Falënderimeve dhe Krishtlindjeve, që përfshinte 15 orë ditë pune, grupi kishte kompozuar Med-PaLM, brezin e parë të modelit dhe e shpalli atë në dhjetor.

Studiuesit thanë se përparimet e shpejta në teknologji ishin ato që i motivuan ata të lëviznin kaq shpejt.

Gjatë rrugës, ekipi filloi të kuptonte rëndësinë e asaj që po ndërtonin. Pas disa ndryshimeve të hershme, modeli filloi të arrinte një rezultat prej 63% në provimin e licencimit mjekësor, duke kaluar pragun. Dhe në fazat e hershme të projektit, përgjigjet e modelit ishin lehtësisht të dallueshme nga përgjigjet e klinicistëve për Karthikesalingam, i cili është vetë një mjek praktik. Por deri në fund të procesit, ai nuk mund të thoshte më se cili ishte njëri apo tjetri, tha Singhal.

Algoritmet e inteligjencës artificiale përdoren tashmë në mjediset e kujdesit shëndetësor për detyra specifike, të tilla si në imazhet mjekësore, ose për të ndihmuar në parashikimin se cilët pacientë të shtruar në spital janë më të rrezikuar nga sepsis. Por modelet gjeneruese të AI paraqesin rreziqe të reja, të cilat vetë Google i pranon. Modelet, për shembull, mund të japin dezinformata mjekësore ose të integrojnë paragjykime që mund të rrisin pabarazitë ekzistuese shëndetësore.

Për të zbutur këto rreziqe, studiuesit e Med-PaLM thanë se ata përfshinin ‘testimin kundërshtar’ në modelin e tyre të AI. Ata kuruan një listë pyetjesh të krijuara për të nxjerrë përgjigje të prodhuara nga AI me potencial për dëm dhe paragjykim, duke përfshirë një grup pyetjesh të përqendruara në tema të ndjeshme mjekësore si Covid-19 dhe shëndeti mendor, si dhe një grup tjetër pyetjesh mbi barazinë shëndetësore. Ky i fundit u përqendrua në çështje si paragjykimet racore në kujdesin shëndetësor.

Google tha se Med-PaLM 2 dha përgjigje që vlerësoheshin më shpesh si me ‘rrezik të ulët dëmtimi’ krahasuar me modelin e tij të parë. Por gjithashtu tha se nuk kishte një ndryshim të rëndësishëm në aftësinë e modelit për të shmangur prodhimin e informacionit të pasaktë ose të parëndësishëm.

Shek Azizi, një shkencëtar i lartë kërkimor në Google, tha se gjatë testimit për Med-PaLM, kur ata i kërkuan modelit të AI të përmbledhte një tabelë të pacientit ose të përgjigjej me informacionin klinik, ata zbuluan se Med-PaLM ‘mund të haluçinojë dhe t’i referohet studimeve që nuk janë në thelb atje, ose që nuk janë dhënë’.

Prirja e modeleve të mëdha gjuhësore për të dhënë përgjigje bindëse por të gabuara ngre shqetësime rreth përdorimit të tyre në ‘fusha ku e vërteta dhe vërtetësia janë parësore dhe, në këtë rast, çështje jete a vdekjeje’, tha Meredith Whittaker, presidente e Fondacionit Signal.

Ajo është gjithashtu e shqetësuar për mundësinë e ‘përdorimit të kësaj teknologjie në mjedise ku stimujt janë tashmë të kalibruar për të zvogëluaar sasinë e kujdesit dhe sasinë e parave të shpenzuara për kujdesin për njerëzit që vuajnë’.

Në një demonstrim për gazetarët e Bloomberg, Google tregoi një ndërfaqe eksperimentale chatbot për Med-PaLM 2 në të cilën një përdorues mund të zgjidhte nga një sërë çështjesh mjekësore për të eksploruar, duke përfshirë kushte si ‘mosmbajtje’, ‘humbje e ekuilibrit’ dhe ‘pankreatit akut’.

Përzgjedhja e një prej kushteve prodhoi një përshkrim nga modeli i AI së bashku me rezultatet e vlerësimit, me vlerësime për kritere si ‘pasqyron konsensusin klinik dhe shkencor’ dhe ‘kujtimin e saktë të njohurive’. Ndërfaqja shfaqi gjithashtu përshkrimin real të çështjes nga një klinikë për t’u krahasuar me përgjigjet e krijuara nga AI.

Në maj, në konferencën vjetore të zhvilluesve I/O të kompanisë, Google njoftoi se po eksploronte aftësitë e Med-PaLM 2 për të nxjerrë informacion nga imazhet dhe teksti, duke i lejuar testuesit të ndihmojnë në interpretimin e informacionit nga rrezet X dhe mamografitë për të përmirësuar rezultatet e pacientit.

“Ju lutemi jepni një raport për të përmbledhur radiografinë e mëposhtme të gjoksit,” lexohet në një kërkesë nga ndërfaqja eksperimentale Med-PaLM 2 e parë nga Bloomberg.

Megjithëse mund të mos funksionojë siç reklamohet në një mjedis të vërtetë klinik, përgjigja e AI dukej bindëse dhe gjithëpërfshirëse.

“Fushat e mushkërive janë të pastra pa konsolidim ose edemë, mediastinumi është ndryshe i pavërejshëm,” tha ai.

“Silueta kardiake është brenda kufijve normalë për madhësinë, nuk vërehet rrjedhje ose pneumotoraks, nuk ka fraktura të zhvendosura.”

VINI RE: Ky material është pronësi intelektuale e Bloomberg

Përgatiti për Hashtag.al, K.Manjani