Vendosni fjalën kyçe....

Inteligjenca Artificiale po gabon diagnozën në mbi 80% të rasteve të hershme mjekësore


Chatbot-et e inteligjencës artificiale për konsumatorët hasin vështirësi kur përdoren për të bërë diagnoza mjekësore, veçanërisht kur përballen me informacion të paplotë, sipas një studimi të ri që nxjerr në pah rreziqet e mbështetjes tek ato si “mjekë” dixhitalë.

Studimi zbulon se modelet kryesore të mëdha gjuhësore hasin vështirësi në sugjerimin e një game diagnozash të mundshme kur të dhënat e pacientit janë të kufizuara, duke u përqendruar shpesh shumë shpejt në një përgjigje të vetme.

Rezultatet tregojnë një kufizim më të gjerë të AI-së: ndërsa chatbot-et mund të identifikojnë gjendje të mundshme kur rasti është plotësisht i specifikuar, ato janë më pak të besueshme në fazat e hershme dhe më të pasigurta të arsyetimit klinik.

Gjetjet theksojnë rreziqet e mbështetjes vetëm te kjo teknologji për të përcaktuar problemet shëndetësore, veçanërisht në rastet kur të dhënat që përdoruesit japin mund të jenë të paqarta ose të pjesshme.

“Këto modele janë shumë të mira në përcaktimin e një diagnoze përfundimtare kur të dhënat janë të plota, por hasin vështirësi në fillimin e hapur të një rasti, kur nuk ka shumë informacion,” tha Arya Rao, autorja kryesore e studimit dhe kërkuese në sistemin shëndetësor Mass General Brigham në SHBA.

Studimi, i publikuar të hënën në Jama Network Open, testoi modelet e AI-së duke përdorur 29 skenarë klinikë të bazuar në një tekst standard referencë mjekësore.

Eksperimenti përfshinte zbulimin hap pas hapi të të dhënave, përfshirë historinë e sëmundjes aktuale, gjetjet e ekzaminimit fizik dhe rezultatet laboratorike. Studiuesit u drejtuan modeleve pyetje diagnostikuese dhe matën normat e dështimit, të përcaktuara si përqindja e pyetjeve që nuk u përgjigjën plotësisht saktë.

Studiuesit vlerësuan 21 modele të mëdha gjuhësore, përfshirë modelet kryesore nga OpenAI, Anthropic, Google, xAI dhe DeepSeek.

U zbulua se normat e dështimit kalonin 80 për qind për të gjitha modelet kur kërkohej të bënin të ashtuquajturën diagnozë diferenciale — pra kur informacioni i plotë i pacientit mungonte.

Normat e dështimit binin në më pak se 40 për qind për diagnozat përfundimtare kur kishte më shumë të dhëna të plota, me performuesit më të mirë që tejkalonin 90 për qind saktësi.

Claude është trajnuar që t’i drejtojë njerëzit që bëjnë pyetje mjekësore te profesionistët, tha kompania Anthropic. Gemini është projektuar të bëjë të njëjtën gjë dhe ka kujtesa të integruara në aplikacion për të nxitur përdoruesit të verifikojnë informacionin, tha Google.

Politika e përdorimit e OpenAI-së përcakton se shërbimet e saj nuk duhet të përdoren për të dhënë këshilla mjekësore që kërkojnë licencë pa përfshirjen e duhur profesionale.

xAI nuk iu përgjigj një kërkese për koment. DeepSeek nuk mundi të kontaktohej për koment.

Kompanitë kanë zhvilluar modele më të specializuara mjekësore të AI-së, si Articulate Medical Intelligence Explorer (AMIE) i Google dhe MedFound, shkruan FT.

Rezultatet e hershme nga vlerësimet e modeleve si AMIE kanë qenë premtuese, tha Sanjay Kinra, epidemiolog klinik në London School of Hygiene & Tropical Medicine. Por ai shtoi se ato vështirë se mund të përputhen me mënyrën se si vlerësimet klinike të mjekëve “mbështeten shumë në pamjen dhe ndjesinë e pacientit”.

“Megjithatë, ato mund të kenë një rol, veçanërisht në situata ose rajone ku qasja te mjekët është e kufizuar,” tha Kinra. “Prandaj, kemi nevojë urgjente për studime kërkimore me pacientë realë nga këto mjedise.”