Vendosni fjalën kyçe....

Inteligjenca artificiale po merr vendime kritike për pacientët, shqetësime në rritje për rreziqet që mbart


Mjekët tashmë po përdorin mjete të parregulluara ende të inteligjencës artificiale (AI), të tilla si asistentë virtualë për mbajtjen e shënimeve dhe programe parashikuese që i ndihmon ata të diagnostikojnë dhe trajtojnë sëmundjet.

Qeveritë në botë dhe ajo amerikane, kanë ecur ngadalë rregullimin e teknologjisë që poecën me ritme marramendëse, sepse sfidat e financimit dhe personelit me të cilat përballen agjencitë si Administrata e Ushqimit dhe Barnave në shkrimin dhe zbatimin e rregullave janë kaq të mëdha. Nuk ka gjasa që ato të arrijnë së shpejti.

Kjo do të thotë se shtrirja e AI në kujdesin shëndetësor po bëhet një eksperiment me rëndësi të madhe nëse sektori privat mund të ndihmojë në shndërrimin e sigurt të mjekësisë pa mbikëqyrjen e qeverisë.

“Karroca ka ikur kaq shumë përpara kalit dhe nëse do e frenonim do e bënim pa u kujdesur nëse do anoheshim për të rënë në humnerë?” tha John Ayers, profesor i asociuar në Universitetin e Kalifornisë në San Diego.

Ndryshe nga pajisjet mjekësore ose barmat, programi i AI ndryshon. Në vend që të lëshojë një miratim një herë, FDA-ja dëshiron të mbikëqyrë prodhimet e inteligjencës artificiale me kalimin e kohës, diçka që nuk është bërë kurrë në mënyrë aktive.

Presidenti Joe Biden në tetor premtoi një përgjigje të bashkërenduar dhe të shpejtë nga agjencitë e tij për të garantuar sigurinë dhe efikasitetin e AI. Por rregullatorët si FDA-ja nuk kanë burimet që u nevojiten për të udhëhequr teknologjinë që, sipas përkufizimit, po ndryshon vijimësisht pa u ndalur.

“Ne do kishim nevojë për një dyfishim tjetër të madhësisë së ekipit dhe së fundi pashë se taksapaguesit nuk janë shumë të interesuar ta bëjnë këtë,” tha komisioneri i FDA-së Robert Califf në një konferencë në janar dhe më pas e përsëriti në një takim të fundit të palëve të interesuara të FDA-së.

Califf ishte i çiltër për sfidat e FDA-së. Vlerësimi i AI, për shkak se vijimësisht mëson dhe zgjerohet dhe mund të funksionojë ndryshe në varësi të vendit të ngjarjes, është një detyrë tejet e rëndësishme që nuk i përshtatet paradigmës ekzistuese të agjencisë së tij. Kur FDA-ja miraton barnat dhe pajisjet mjekësore, nuk ka nevojë të mbajë shënime se si ato përparojnë ose zhvillohen.

Dhe problemi për FDA-në shkon përtej rregullimit të qasjes së saj rregullatore ose punësimit të më shumë punonjësve. Një raport i ri nga Zyra e Përgjegjësive të Qeverisë, krahu mbikëqyrës i Kongresit, tha se agjencia kërkon më shumë fuqi – për të kërkuar të dhëna të paraqitjes së AI dhe për të vendosur parmakë për algoritmet në mënyra më specifike sesa lejon kuadri i saj tradicional i vlerësimit të rrezikut për barnat dhe pajisjet mjekësore, tha GAO.

Duke marrë parasysh që Kongresi mezi ka filluar të marrë në konsideratë, aq më pak të arrijë konsensusin mbi rregulloren e AI, që mund të marrë pak kohë.

Kongresi tradicionalisht nuk dëshiron të zgjerojë autoritetet e FDA-së. Dhe deri më tani, FDA-ja nuk ka pyetur.

Ajo ka ofruar udhëzime për prodhuesit e pajisjeve mjekësore për përfshirjen e sigurt të inteligjencës artificiale, duke shkaktuar një reagim të ashpër të industrisë nga firmat e teknologjisë që thonë se agjencia ka tejkaluar – edhe pse udhëzimi është ligjërisht jo detyrues.

Në të njëjtën kohë, disa ekspertë të AI në akademi dhe industri thonë se FDA-ja nuk po bën mjaftueshëm me autoritetet që ka tashmë.

Fusha e autoritetit

Përparimet në AI kanë krijuar boshllëqe të mëdha në atë që rregullon FDA-ja. Ajo nuk bën asgjë për të rishikuar mjete si chatbots, për shembull, dhe nuk ka autoritet mbi sistemet që përmbledhin shënimet e mjekëve dhe kryejnë detyra të tjera të rëndësishme administrative.

FDA-ja rregullon mjetet e inteligjencës artificiale të brezit të parë, ashtu si pajisjet mjekësore, dhe 14 muaj më parë Kongresi i dha agjencisë fuqinë për të lejuar prodhuesit e pajisjeve, disa prej të cilave përfshijnë AI të hershme, të zbatojnë përditësime të paraplanifikuara pa pasur nevojë të riaplikojnë për leje.

Por fushëveprimi i kompetencave të FDA-së mbi AI janë të pazgjidhura.

Një koalicion firmash paraqiti një peticion në FDA duke akuzuar agjencinë për tejkalim të autoritetit të saj kur lëshoi ​​një udhëzim të vitit 2022 që thotë se krijuesit e inteligjencës artificiale që ofrojnë rekomandime dhe diagnoza të ndjeshme ndaj kohës duhet të kërkojnë lejen e FDA-së. Edhe pse udhëzimi nuk është ligjërisht i detyrueshëm, kompanitë zakonisht mendojnë se duhet të pajtohen.

Shoqëria e Sistemeve të Informacionit dhe Menaxhimit të Kujdesit Shëndetësor, një grup tregtar që përfaqëson kompanitë e teknologjisë shëndetësore, shprehu gjithashtu konfuzion mbi fushëveprimin e autoritetit të FDA-së dhe sesi pushteti mbi rregulloren e AI ndahet midis tij dhe agjencive të tjera brenda Departamentit të Shëndetit dhe Shërbimeve Njerëzore, si Zyra e Koordinatorit Kombëtar për Teknologjinë e Informacionit Shëndetësor.

Ajo zyrë vendosi rregulla që kërkojnë më shumë transparencë rreth sistemeve të AI në dhjetor.

“Nga këndvështrimi i industrisë, pa pasur një lloj qartësie nga HHS, ajo hyn në këtë fushë ku njerëzit nuk e dinë drejtpërdrejt se ku të shkojnë”, tha Colin Rom, një ish-këshilltar i lartë i Komisionerit të atëhershëm të FDA-së, Stephen Hahn, i cili tani drejton politikën shëndetësore në firmën e kapitalit sipërmarrës “Andreessen Horoëitz”.

Ndërkohë, FDA i tha GAO-s se për të gjurmuar në mënyrë aktive nëse algoritmet janë efektive me kalimin e kohës, ajo ka nevojë për autoritet të ri nga Kongresi për të mbledhur të dhëna të paraqitjes.

Agjencia tha gjithashtu se dëshiron fuqi të reja për të krijuar masa mbrojtëse specifike për algoritme individuale, në vend që të përdorë klasifikimet ekzistuese të pajisjeve mjekësore për të përcaktuar kontrollet.

FDA-ja planifikon t’ia komunikojë Kongresit nevojat e saj.

Mbikëqyrja e dhënë nga jashtë

Por kjo ende e lë atë në dorë të një Kapitol Hill-i të bllokuar. Si rezultat, Califf dhe disa në industri kanë propozuar një ide tjetër: krijimin e laboratorëve të sigurimit publiko-privat, ndoshta në universitetet kryesore ose qendrat shëndetësore akademike, të cilat mund të vërtetojnë dhe mbikëqyrin inteligjencën artificiale në kujdesin shëndetësor.

“Ne duhet të kemi një komunitet entitetesh që bëjnë vlerësimet në një mënyrë që jep certifikimin e algoritmeve që në të vërtetë bëjnë mirë dhe jo dëm,” tha Califf në shfaqjen e elektronikës së konsumit muajin e kaluar.

Ideja gjithashtu ka një mbështetje në Kongres. Senatori John Hickenlooper ka kërkuar që palët e treta të kualifikuara të auditojnë inteligjencën artificiale të përparuar. Ai po mendon në mënyrë specifike për AI-në prodhuese, lloje si ChatGPT që imiton inteligjencën njerëzore, megjithëse është i njëjti kuadër mbikëqyrës që ka sugjeruar Califf.

Kjo qasje mund të ketë të meta, siç kanë vërejtur disa ekspertë të AI, pasi AI i testuar në një kampus të madh universitar mund të mos funksionojë aq mirë në një spital të vogël rural.

“Ju e dini si një mjek praktikues që mjedise të ndryshme janë të ndryshme,” u tha senatorëve Mark Sendak, drejtues i shëndetit të popullsisë dhe shkencës së të dhënave në Institutin për Inovacionin Shëndetësor të Universitetit Duke, në një seancë dëgjimore të Komitetit të Financave mbi inteligjencën artificiale në kujdesin shëndetësor këtë muaj.

“Çdo organizatë e kujdesit shëndetësor duhet të jetë në gjendje të qeverisë në nivel lokal AI.”

Në janar, Micky Tripathi, bashkërenduesi kombëtar për teknologjinë e informacionit shëndetësor dhe Troy Tazbaz, drejtor i shëndetit dixhital i FDA, shkruan në Gazetën e Shoqatës Mjekësore Amerikane se laboratorët e sigurimit duhet ta marrin parasysh këtë problem.

Shkrimi, i cili ja si bashkëautorë studiues në Stanford Medicine, Universitetin Johns Hopkins dhe Klinikën Mayo, bën thirrje për një numër të vogël laboratorësh pilot për të udhëhequr rrugën në hartimin e sistemeve të vlefshmërisë.

Por duke parë se bashkëpunimi midis rregullatorëve, universiteteve të mëdha dhe ofruesve të kujdesit shëndetësor nuk i ka qetësuar lojtarët më të vegjël, të cilët shqetësohen për konfliktet e interesit nëse laboratorët pilot janë organizata që po bëjnë gjithashtu sistemet e tyre të AI ose bashkëpunojnë me firmat e teknologjisë.

Ayers mendon se FDA-ja duhet të trajtojë vërtetimin e AI-së brenda mureve të veta dhe se krijuesit e sistemeve të AI-së duhet së paku të tregojnë se ato përmirësojnë rezultatet për pacientët, pavarësisht se kush e bën mbikëqyrjen.

Ai vuri në dukje dështimin e një sistemi AI nga firma elektronike e të dhënave shëndetësore Epic për të zbuluar sepsis, një reagim ndonjëherë vdekjeprurës ndaj infeksionit, që kishte rrëshqitur nga rregullatorët. Kompania që atëherë ka riparuar algoritmin e saj dhe një zëdhënës i FDA-së tha se nuk zbulon komunikimet me firma specifike.

Por incidenti ka lënë shumë në kujdesin shëndetësor dhe teknologjinë të ndjehen sikur agjencia nuk po i përdor në mënyrë efektive autoritetet e saj.

“Ata duhet të jenë atje për të kontrolluar këto gjëra,” tha Ayers.

VINI RE: Ky material është pronësi intelektuale e Politico

Përgatiti për Hashtag.al, Klodian Manjani