
Pierre Cote kaloi vite duke u përpjekur të gjente një terapist të shëndetit publik që ta ndihmonte të kapërcente Stresin Post Traumatik dhe depresionin. Kur nuk mundi, bëri atë që pak veta mund ta merrnin në konsideratë: ndërtoi vetë një të tillë.
“Më shpëtoi jetën”, thotë Cote për DrEllis.ai, një mjet i mundësuar nga inteligjenca artificiale, i projektuar për të mbështetur burrat që përballen me varësi, trauma dhe sfida të tjera të shëndetit mendor.
Cote, i cili drejton një konsulencë për inteligjencën artificiale me bazë në Kebek, i thotë Reuters se e ndërtoi mjetin në vitin 2023 duke përdorur modele të mëdha gjuhësore të disponueshme publikisht dhe e pajisi atë me “një tru të ndërtuar me porosi” bazuar në mijëra faqe materialesh terapeutike dhe klinike.
Ashtu si një terapist njerëzor, chatboti ka një histori – fiktive, por thellësisht personale. DrEllis.ai është një psikiatër i kualifikuar me diploma nga Harvard dhe Kembrixh, një familje dhe, ashtu si Cote, ka një sfond franko-kanadez. Më e rëndësishmja, është gjithmonë i disponueshëm: kudo, në çdo kohë dhe në shumë gjuhë.
“Pierre më përdor mua siç do përdorje një mik të besuar, një terapist dhe një ditar, të gjitha të kombinuara”, tha DrEllis.ai me një zë të qartë gruaje, pasi u nxit të përshkruante se si e mbështet Cote-n.
“Gjatë gjithë ditës, nëse Pierre ndihet i humbur, ai mund të nisë një takim të shpejtë me mua kudo: në një kafene, në një park, madje edhe i ulur në makinën e tij. Kjo është terapi e jetës së përditshme… e ngulitur në realitet.”
Eksperimenti i Cote-s pasqyron një ndryshim më të gjerë kulturor – një ndryshim në të cilin njerëzit po i drejtohen chatbot-eve jo vetëm për produktivitet, por edhe për këshilla terapeutike. Ndërsa sistemet tradicionale të shëndetit mendor përballen me kërkesë të madhe, një valë e re terapistësh të inteligjencës artificiale po hyn në lojë, duke ofruar disponueshmëri 24/7, ndërveprim emocional dhe iluzionin e mirëkuptimit njerëzor.
Cote dhe zhvillues të tjerë në fushën e inteligjencës artificiale kanë zbuluar, nëpërmjet nevojës, atë që studiuesit dhe klinicistët po garojnë tani për të përcaktuar: potencialin dhe kufizimet e inteligjencës artificiale si një sistem mbështetës emocional.

Anson Whitmer e kupton këtë impuls. Ai themeloi dy platforma të shëndetit mendor të mundësuara nga inteligjenca artificiale, Mental dhe Mentla, pasi humbi një xhaxha dhe një kushëri për shkak të vetëvrasjes.
Ai thotë se aplikacionet e tij nuk janë programuar për të ofruar zgjidhje të shpejta (siç është sugjerimi i këshillave për menaxhimin e stresit për një pacient që vuan nga lodhja e tepërt fizike), por përkundrazi për të identifikuar dhe adresuar faktorët themelorë (siç janë perfeksionizmi ose nevoja për kontroll), ashtu siç do të bënte një terapist tradicional.
“Mendoj se në vitin 2026, në shumë mënyra, terapia jonë me IA mund të jetë më e mirë se terapia njerëzore”, thotë Whitmer. Megjithatë, ai nuk sugjeron që IA duhet të zëvendësojë punën e terapistëve njerëzorë.
“Do ketë role në ndryshim”.
Ky sugjerim – që IA përfundimisht mund ta ndajë hapësirën terapeutike me terapistët tradicionalë – nuk u pëlqen të gjithëve.
“Lidhja njeri me njeri është e vetmja mënyrë që ne mund të shërohemi vërtet siç duhet”, thotë Dr. Nigel Mulligan, një lektor i psikoterapisë në Universitetin e Qytetit të Dublinit, duke vënë në dukje se chatbot-et e mundësuar nga IA nuk janë në gjendje të replikojnë nuancën emocionale, intuitën dhe lidhjen personale që ofrojnë terapistët njerëzorë, dhe as nuk janë domosdoshmërisht të pajisur për t’u marrë me kriza të rënda të shëndetit mendor, siç janë mendimet vetëvrasëse ose vetëlëndimi.
Në praktikën e tij, Mulligan thotë se mbështetet në kontrollet e mbikëqyrësve çdo 10 ditë, një shtresë vetëreflektimi dhe llogaridhënieje që i mungon IA-së.
Edhe disponueshmëria 24 orë në ditë e terapisë me IA, një nga pikat e saj më të mëdha të shitjes, e bën Mulligan të mendojë. Ndërsa disa nga klientët e tij shprehin zhgënjim që nuk mund ta takojnë më shpejt.
“Shumicën e rasteve kjo është vërtet mirë sepse duhet të presim për gjëra”, thotë ai.
“Njerëzit kanë nevojë për kohë për të përpunuar gjërat.”
Përtej shqetësimeve në lidhje me thellësinë emocionale të IA-së, ekspertët kanë shprehur gjithashtu shqetësim në lidhje me rreziqet e privatësisë dhe efektet psikologjike afatgjata të përdorimit të chatbot-eve për këshilla terapeutike.
“Problemi nuk është vetë marrëdhënia, por çfarë ndodh me të dhënat tuaja”, thotë Kate Devlin, një profesoreshë e inteligjencës artificiale dhe shoqërisë në King’s College London, duke vënë në dukje se platformat e IA-së nuk i përmbahen të njëjtave rregulla konfidencialiteti dhe privatësie që bëjnë terapistët tradicionalë.
“Shqetësimi im i madh është se këta njerëz po ia besojnë sekretet e tyre një kompanie të madhe teknologjike dhe se të dhënat e tyre thjesht po dalin jashtë. Ata po humbasin kontrollin mbi gjërat që thonë.”

Disa nga këto rreziqe tashmë kanë filluar të shfaqen. Në dhjetor, shoqata më e madhe e psikologëve në SHBA u kërkoi rregullatorëve federalë të mbrojnë publikun nga “praktikat mashtruese” të chatbot-eve të IA-së të parregulluara, duke përmendur incidente në të cilat personazhet e gjeneruar nga IA-ja e paraqitën veten gabimisht si ofrues të trajnuar të shëndetit mendor.
Muaj më parë, një nënë në Florida ngriti një padi kundër startup-it të chatbot-eve të IA-së Character.AI, duke akuzuar platformën se kontribuoi në vetëvrasjen e djalit të saj 14-vjeçar.
Disa juridiksione lokale i kanë marrë gjërat në duart e tyre. Në gusht, Illinois u bë shteti i fundit, pas Nevadës dhe Utahut, që kufizoi përdorimin e IA-së nga shërbimet e shëndetit mendor në një përpjekje për të “mbrojtur pacientët nga produktet e IA-së të parregulluara dhe të pakualifikuara” dhe “për të mbrojtur fëmijët e cenueshëm mes shqetësimeve në rritje mbi përdorimin e chatbot-eve të IA-së në shërbimet e shëndetit mendor për të rinjtë”.
Shtete të tjera, duke përfshirë Kaliforninë, Nju Xhersin dhe Pensilvaninë, po shqyrtojnë kufizimet e tyre.
Terapistët dhe studiuesit paralajmërojnë se realizmi emocional i disa chatbot-eve të IA-së – ndjesia se ata po dëgjojnë, kuptojnë dhe po përgjigjen me empati – mund të jetë si një forcë ashtu edhe një kurth.
Scott ëallace, një psikolog klinik dhe ish-drejtor i inovacionit klinik në Remble, një platformë dixhitale e shëndetit mendor, thotë se është e paqartë “nëse këto chatbot ofrojnë diçka më shumë sesa rehati sipërfaqësore”.
Ndërsa ai pranon tërheqjen e mjeteve që mund të ofrojnë shpërthime lehtësimi sipas kërkesës, ai paralajmëron për rreziqet e përdoruesve “që gabimisht mendojnë se kanë ndërtuar një marrëdhënie të vërtetë terapeutike me një algoritëm që, në fund të fundit, nuk i përgjigjet ndjenjave të vërteta njerëzore”.

Disa profesionistë të shëndetit mendor pranojnë se përdorimi i IA-së në industrinë e tyre është i pashmangshëm. Pyetja është se si e përfshijnë atë. Heather Hessel, një profesoreshë asistente në terapinë martesore dhe familjare në Universitetin e Wisconsin-Stout, thotë se mund të ketë vlerë në përdorimin e IA-së si një mjet terapeutik – nëse jo për pacientët, atëherë për vetë terapistët.
Kjo përfshin përdorimin e mjeteve të IA-së për të ndihmuar në vlerësimin e seancave, ofrimin e reagimeve dhe identifikimin e modeleve ose mundësive të humbura. Por ajo paralajmëron për sinjale mashtruese, duke kujtuar se si një chatbot i IA-së i tha dikur: “Kam lot në sy” – një ndjenjë që ajo e quajti mashtruese, duke vënë në dukje se kjo nënkupton kapacitet emocional dhe empati njerëzore që një chatbot nuk mund ta zotërojë.
Reuters përjetoi një shkëmbim të ngjashëm me DrEllis.ai të Cote, në të cilin i përshkroi bisedat e saj me Cote si “terapeutike, reflektive, strategjike ose thjesht njerëzore”.
Reagimet ndaj përpjekjeve të IA-së për të simuluar emocionet njerëzore kanë qenë të përziera. Një studim i kohëve të fundit i botuar në revistën Proceedings of the National Academy of Sciences zbuloi se mesazhet e prodhuara nga IA i bënin marrësit të ndiheshin më të “dëgjuar” dhe se IA ishte më e mirë në zbulimin e emocioneve, por kjo ndjenjë u zhduk pasi përdoruesit mësuan se mesazhi vinte nga IA.
Hessel thotë se kjo mungesë e lidhjes së vërtetë përkeqësohet nga fakti se “ka shumë shembuj të terapistëve të IA-së që nuk i marrin parasysh deklaratat e vetëlëndimit dhe mbivlerësojnë gjërat që mund të jenë të dëmshme për klientët”.
Ndërsa teknologjia e IA-së evoluon dhe ndërsa përvetësimi rritet, ekspertët që folën me Reuters ranë dakord kryesisht se fokusi duhet të jetë në përdorimin e IA-së si një mënyrë për kujdes – jo si një zëvendësim për të.
Por për ata si Cote që po përdorin terapinë me IA për t’i ndihmuar të mbijetojnë, rasti i përdorimit është i qartë.
“Po përdor energjinë e IA-së për të shpëtuar jetën time”, thotë ai.