Vendosni fjalën kyçe....

Nudot e rreme nga Inteligjenca Artificiale po lulëzojnë në rrjet, rreziku e dëmi i pallogaritshëm që sjellin


Kur Gabi Belle mësoi se një shëmbëlltyrë i saj e zhveshur po qarkullonte në internet, trupi iu ftoh. Influencuesja e YouTube nuk kishte pozuar asnjëherë për foton, që e tregonte atë duke qëndruar në një fushë, krejt pa rroba. Ajo e dinte se duhet të ishte e rreme.

Por kur Belle, 26 vjeç, i dërgoi një mesazh një kolegu duke i kërkuar ndihmë për të hequr shëmbëlltyrën, ai i tha asaj se kishte rreth 100 të tilla të rreme të shpërndara në internet, kryesisht të vendosura në faqet e internetit të njohura për përmbajtjen pornografike, të krijuara nga inteligjenca artificiale. Ato u hoqën në korrik, tha Belle, por tashmë janë shfaqur shëmbëlltyra të reja që e përshkruajnë atë në situata grafike seksuale.

“Unë u ndjeva e dëshpëruar dhe e dhunuar,” tha Belle në një intervistë.

“Ato pjesë intime nuk janë të destinuara për t’i parë bota sepse unë nuk kam dhënë miratimin për këtë. Kështu që është vërtet e çuditshme që dikush të më bënte këto foto.”

Inteligjenca artificiale po nxit një bum të paparë këtë vit në foto dhe video të rreme pornografike. Mundësohet nga një rritje e mjeteve të lira dhe të lehta për t’u përdorur të Inteligjencës Artificiale që mund të “zhveshin” njerëzit në fotografi – duke analizuar se si do dukeshin trupat e tyre të zhveshur dhe duke e imponuar atë në një foto – ose të ndërrojnë pa probleme një fytyrë në një video pornografike.

Sipas Genevieve Oh, një analist i industrisë, në 10 faqet e internetit më të mira që mbajnë foto porno të krijuara nga Inteligjenca Artificiale, nudot e rreme janë rritur me më shumë se 290 për qind që nga viti 2018.

Këto faqe shfaqin personazhe të famshëm dhe figura politike si Kongresmenia demokrate e Nju Jorkut, Alexandria Ocasio-Cortez, së bashku me vajza të zakonshme adoleshente, ngjashmëritë e të cilave janë kapur nga aktorë të këqij për të nshantazhuar, zhvatur para ose për të përjetuar fantazi private.

Viktimat kanë pak mundësi. Nuk ka asnjë ligj federal që rregullon pornografinë e rreme, dhe vetëm një pjesë e vogël e shteteve kanë miratuar rregullore. Urdhri ekzekutiv për Inteligjencën Artificiale i presidentit amerikan Biden i lëshuar të hënën rekomandon, por nuk kërkon që kompanitë të etiketojnë fotot, videot dhe audiot e krijuara nga Inteligjencaa Artificiale (AI) për të treguar punën e krijuar nga kompjuteri.

Ndërkohë, studiuesit ligjorë paralajmërojnë se pamjet e rreme të AI mund të mos bien nën mbrojtjen e të drejtës së autorit për ngjashmëri personale, sepse ato vijnë nga grupe të dhënash të populluara nga miliona imazhe.

“Ky është padyshim një problem shumë serioz,” tha Tiffany Li, një profesoreshë juridike në Universitetin e San Franciskos.

Ardhja e imazheve të AI vjen sjell një rrezik të veçantë për gratë dhe adoleshentët, shumë prej të cilëve nuk janë të përgatitur për një dukshmëri të tillë. Një studim i vitit 2019 nga Sensity AI, një kompani që mbikëqyr  falsifikimet e thella, zbuloi se 96 për qind e imazheve të rreme janë pornografi, dhe 99 për qind e atyre fotove synojnë gratë.

“Ajo synon shumë vajzat,” tha Sophie Maddocks, një studiuese dhe avokate e të drejtave dixhitale në Universitetin e Pensilvanisë.

“Vajza dhe gra të reja që nuk janë në sy të publikut.”

‘Shiko, mami ç’më kanë bërë ?’

Më 17 shtator, Miriam Al Adib Mendiri po kthehej në shtëpinë e saj në Spanjën jugore nga një udhëtim kur gjeti vajzën e saj 14-vjeçare të shqetësuar. Vajza e saj i tregoi një foto nudo të saj.

“Shiko, mami. Çfarë më kanë bërë mua?” kujton Al Adib Mendiri vajzën e saj të ketë thënë.

Ajo kurrë nuk kishte pozuar nudo. Por një grup djemsh vendas kishin rrëmbyer foto të veshura nga profilet e mediave sociale të disa vajzave në qytetin e tyre dhe përdorën një aplikacion “nudifier” të AI për të krijuar fotot lakuriq, sipas policisë.

Aplikacioni është një nga shumë mjetet e AI që përdorin imazhe reale për të krijuar foto të zhveshura, të cilat kanë vërshuar në internet muajt e fundit. Duke analizuar miliona imazhe, softueri i inteligjencës artificiale mund të parashikojë më mirë se si një trup do duket i zhveshur dhe do të mbulojë në mënyrë të rrjedhshme një fytyrë në një video pornografike, tha Gang Ëang, një ekspert i AI në Universitetin e Illinois në Urbana-Champaign.

Megjithëse shumë prodhues të imazheve të AI bllokojnë përdoruesit nga krijimi i materialeve pornografike, softueri me burim të hapur, si Stable Diffusion, e bën kodin e tij publik, duke i lejuar zhvilluesit amatorë të përshtatin teknologjinë – shpesh për qëllime të liga. Stability AI, prodhuesi i Stable Diffusion, nuk ktheu një kërkesë për koment.

Pasi këto aplikacione të jenë publike, ata përdorin programe referimi që nxisin përdoruesit të ndajnë këto foto të krijuara nga AI në mediat sociale në këmbim të parave, tha Oh.

Kur Oh ekzaminoi 10 faqet e internetit më të mira që strehojnë imazhe pornografike të rreme, ajo zbuloi se më shumë se 415,000 ishin ngarkuar këtë vit, duke mbledhur afro 90 milionë shikime.

Videot pornografike të krijuara nga AI gjithashtu kanë shpërthyer në të gjithë rrjetin. Pas kërkimit të 40 faqeve të internetit më të njohura për video të falsifikuara, Oh zbuloi se më shumë se 143,000 video ishin shtuar në 2023 – një shifër që tejkalon të gjitha videot e reja nga viti 2016 deri në 2022. Videot e rreme kanë marrë më shumë se 4.2 miliardë shikime, zbuloi Oh.

Byroja Federale e Hetimit paralajmëroi në qershor për një rritje të zhvatjes seksuale nga mashtruesit që kërkonin pagesa ose foto në këmbim të mosshpërndarjes së imazheve seksuale. Ndërsa është e paqartë se sa përqind e këtyre imazheve janë krijuar nga AI, praktika po zgjerohet. Që nga shtatori, mbi 26,800 njerëz kanë qenë viktima të fushatave të “shantazhit”, një rritje prej 149 për qind nga viti 2019, tha FBI për The Post.

“Nuk je e sigurt si grua”

Në maj, një poster në një forum të njohur pornografie hapi një temë të quajtur “Unë mund të falsifikoj dashurinë tuaj”.

Ideja ishte e thjeshtë: “Më dërgoni këdo që dëshironi të shihni nudo dhe unë mund ta falsifikoj” duke përdorur AI”, ka shkruar moderatorja.

Brenda pak orësh vërshuan fotot e grave. “A mund ta bësh këtë vajzë? Një person të famshëm apo infkuencer,” pyeti një poster.

“Bashkëpunëtorin tim dhe fqinjin im?” shtoi një tjetër.

Pak minuta pas një kërkese, një lloj i zhveshur i imazhit do shfaqej.

“Flm shumë vëlla, është perfekt,” shkroi një përdorues.

Këto imazhe të rreme zbulojnë se si AI përforcon stereotipet tona më të këqija. Personat e famshëm janë një objektiv i njohur për krijuesit e pornove të rreme që synojnë të përfitojnë nga interesi i kërkimit për fotot nudo të aktorëve të famshëm.

Por faqet e internetit që shfaqin njerëz të famshëm mund të çojnë në një rritje të llojeve të tjera të nudove. Faqet shpesh përfshijnë përmbajtje “amatore” nga individë të panjohur dhe nxjerr reklama që tregtojnë mjete për prodhimin e pornografisë së AI.

Google ka politika të vendosura për të parandaluar shfaqjen e imazheve seksuale jokonsensuale në rezultatet e kërkimit, por mbrojtja e tij për imazhet e rreme nuk është aq të fuqishme.

Pornografia e thellë dhe mjetet për ta bërë atë të shfaqet dukshëm në motorët e kërkimit të kompanisë, edhe pa kërkuar në mënyrë specifike përmbajtje të krijuar nga AI. Oh dokumentoi më shumë se një duzinë shembujsh në pamjet e ekranit, të cilat u konfirmuan në mënyrë të pavarur nga The Washington Post.

Ned Adriance, një zëdhënës i Google, tha në një deklaratë se kompania “po punon në mënyrë aktive për të pasur më shumë mbrojtje në motorin e kërkimit” dhe se kompania i lejon përdoruesit të kërkojnë heqjen e pornografisë së rreme të pavullnetshme.

Google është në procesin e “ndërtimit të masave mbrojtëse më të gjera” që nuk do kërkonin që viktimat të kërkojnë individualisht heqjen e përmbajtjes, tha ai.

Li, nga Universiteti i San Franciskos, tha se mund të jetë e vështirë të penalizohen krijuesit e kësaj përmbajtjeje. Seksioni 230 në Aktin e Desencës së Komunikimit mbron kompanitë e mediave sociale nga përgjegjësia për përmbajtjen e postuar në faqet e tyre, duke lënë pak barrë për faqet e internetit për imazhet e policisë.

Viktimat mund të kërkojnë që kompanitë të heqin fotot dhe videot e ngjashme me to. Por për shkak se Inteligjenca Artificiale nxjerr nga një bollëk imazhesh në një grup të dhënash për të krijuar një foto të falsifikuar, është më e vështirë për një viktimë të pretendojë se përmbajtja rrjedh vetëm nga ngjashmëria e tyre, tha Li.

“Ndoshta mund të thuash akoma: ‘Është një shkelje e të drejtës së autorit, është e qartë se ata morën foton time origjinale me të drejtë autori dhe më pas thjesht shtuan pak në të’, tha Li.

“Por për falsifikimet e thella … nuk është aq e qartë … cilat ishin fotot origjinale.”

Në mungesë të ligjeve federale, të paktën nëntë shtete – përfshirë Kaliforninë, Teksasin dhe Virxhinian – kanë miratuar legjislacionin që synon “deepfakes” (falsifikimet e thella). Por këto ligje ndryshojnë në shtrirje: në disa shtete viktimat mund të ngrenë padi penale, ndërsa të tjera lejojnë vetëm padi civile – megjithëse mund të jetë e vështirë të përcaktohet se kë të padisë.

Shtytja për të rregulluar imazhet dhe videot e krijuara nga AI shpesh synon të parandalojë shpërndarjen masive, duke adresuar shqetësimet në lidhje me ndërhyrjen në zgjedhje, tha Sam Gregory, drejtor ekzekutiv i organizatës teknologjike për mbrojtjen e të drejtave të njeriut Ëitness.

Por këto rregulla bëjnë pak për pornografinë e rreme, ku imazhet e shpërndara në grupe të vogla mund të bëjnë kërdi në jetën e një personi, shtoi Gregory.

Belle, influencuesja në YouTube, nuk është ende e sigurt se sa foto të saj janë publike dhe tha se nevojiten rregulla më të forta për të adresuar përvojën e saj.

“Ti nuk je e sigurt si grua,” tha ajo.

VINI RE: Ky material është pronësi intelektuale e Washington Post