
*Nga Gene Hamilton
Inteligjenca artificiale është këtu, pavarësisht nëse ju pëlqen apo jo. Pyetja nuk është më nëse inteligjenca artificiale do të formojë jetën amerikane, por nëse ne do të ndërtojmë arkitekturën ligjore përreth saj për të nxitur prosperitet dhe produktivitet për të gjithë amerikanët—ose do të lejojmë që ajo të bëhet një instrument për përndjekje kombëtare.
Një mozaik ligjesh dhe rregulloreve shtetërore për AI po përpiqet tashmë të sigurojë këtë të fundit. Për shkak se modelet e AI zhvillohen qendrorisht dhe përdoren në mënyrë të njëtrajtshme në të gjitha juridiksionet, aktorët racionalë do të përputhen me kërkesat më rigoroze që ekzistojnë.
Rezultati është një qeverisje nga “denominatori më i ulët”: një legjislaturë radikale në Kaliforni, Nju Jork, ose shtetin e Uashingtonit mund të përcaktojë në praktikë parametrat operacionalë të çdo sistemi AI të përdorur nga një breg në tjetrin.
Ligjvënësit dhe qytetarët e shteteve konservatore nuk do të kenë një zë domethënës, pavarësisht nga skemat rregullatore shumë më të avancuara që i shërbejnë qytetarëve të tyre. Kjo nuk është federalizëm; kjo është në praktikë politikë kombëtare e vendosur nga shumicat më ekstreme të shteteve blu.
Për këtë arsye, thirrja e Presidentit Trump për parandalimin federal të ligjeve shtetërore të ndryshme mbi AI nuk është vetëm e matur—ajo është e domosdoshme. Pa një standard kombëtar të unifikuar, Shtetet e Bashkuara nuk do të arrijnë AI bazuar në merita dhe kërkim të së vërtetës që shërben për të mirën e përbashkët. Në vend të kësaj, ne do të trashëgojmë “AI-në e zgjuar” që e majta radikale po ngul këtu dhe atje në rregulloret shtetërore.
Ne tashmë kemi një shembull të kësaj.
Avokatët dhe pronarët e bizneseve janë të njohur me përgjegjësinë për ndikim të ndryshëm (“disparate-impact liability”)—një doktrinë që për dekada mundësonte që rregullatorët të ndëshkonin praktika që dukeshin neutrale dhe bazuar në merita, thjesht sepse rezultatet statistikore nuk përputheshin me preferencat e aktivistëve.
Vitin e kaluar, Presidenti Trump urdhëroi qeverinë federale të eliminojë përdorimin e kësaj doktrine deri në masën më të madhe të lejuar nga ligji. Në dhjetor, Departamenti i Drejtësisë nxori rregullore që e zbatuan këtë udhëzim, duke rivendosur parimin e trajtimit të barabartë nën standarde neutrale për çdo amerikan.
Megjithatë, edhe ndërsa këto masa federale po zbatohen, shtetet dhe komunat blu po garojnë për të kodifikuar të kundërtën në qeverisjen e AI.
Për shembull, Ligji Lokal 144 i New York City detyron auditime vjetore për paragjykimet dhe publikimin e raporteve të ndikimit sipas racës dhe gjinisë për çdo mjet të automatizuar vendimmarrës në punësim. SB 24-205 i Colorado vendos gjoba civile prej dhjetëra mijëra dollarësh për çdo entitet që nuk përdor “kujdes të arsyeshëm” për të shmangur “diskriminimin algoritmik” në punësim, banim, kredi dhe fusha të tjera me rëndësi.
Rregulloret e Nju Xhersit për 2025 shkojnë edhe më tej: ato imponojnë qartë përgjegjësi për ndikim të ndryshëm mbi punëdhënësit që përdorin mjete AI.
Kur një algoritëm dukshëm neutral prodhon rezultat statistikisht të pabarabartë, barrën e provës e merr punëdhënësi për të justifikuar metodologjinë e tij—ose përballet me gjoba prej mijëra dollarësh për çdo shkelje. Ky lloj përgjegjësie vlen edhe kur një biznes i vogël thjesht përdor një sistem të gatshëm që nuk e ka dizajnuar apo trajnuar vetë.
Patterni është i qartë. Duke humbur debatin politik mbi trajtimin e barabartë, e majta po përpiqet të fusë doktrinën e ndikimit të ndryshëm përmes rregullimeve të AI-së. Pasojat janë të parashikueshme dhe të dëmshme: një skaner i CV-ve i bazuar në AI i detyruar të injorojë regjistrat kriminalë, rezultatet e testeve të aftësive ose historinë e punës kur të dhënat japin “raporte të gabuara demografike.”
Një veteran ushtarak nga një familje kristiane mund të filtrohet heshturazi nga konsiderimi sepse modeli është projektuar për të shmangur shqyrtimin e ndikimit të ndryshëm. Merita do të vihet në shërbim të rezultateve të detyruara. Produktiviteti do t’i nënshtrohet përndjekjes.
Kjo arkitekturë ligjore nuk do të kufizohet në punësim. Vlerësimi i kredive, origjinimi i hipotekave, çmimet e sigurimeve—çdo fushë ku AI informon vendime me pasoja të rëndësishme do të deformohet nga e njëjta doktrinë me barrë të ndryshme. Inovatorët vendas do të shpenzojnë burime të çmuara për zbatimin e rregulloreve, jo për përparim të vërtetë. Dhe sepse çdo model duhet të përmbushë kërkesat më agresive, e gjithë kombi në praktikë do të funksionojë sipas rregullave të Kalifornisë, megjithëse shumica e amerikanëve nuk kanë votuar kurrë për to.
Disa konservatorë kanë shprehur shqetësim se parandalimi federal shkel parimet tradicionale të të drejtave të shteteve. Me respekt, ky shqetësim keqkupton natyrën e teknologjisë në fjalë. AI është në thelb ndër-shtetëror: një model nuk mund të programohet praktikisht për të vepruar ndryshe në Nju Xhersit sesa në Teksas pa shkatërruar përdorshmërinë dhe shkallën e zbatueshmërisë së tij.
Presidenti Trump e kupton rëndësinë. Administrata e tij ka filluar tashmë punën për të zhdukur teoritë radikale ligjore nga burokracia federale. Tani duhet të përfundojë detyrën duke vendosur një kornizë kombëtare të qartë—një kornizë që refuzon shprehimisht përgjegjësinë për ndikim të ndryshëm në kontekstin e AI-së, mbron vendimmarrjen bazuar në merita dhe siguron që këto mjete transformuese shërbejnë popullit amerikan, jo për ta ndëshkuar atë.
E majta radikale po punon shumë për ta kthyer AI-në në mekanizmin më të sofistikuar të inxhinierisë sociale të krijuar ndonjëherë. Ne mund ta parandalojmë këtë rezultat, por vetëm nëse refuzojmë të lejojmë që një grusht legjislaturash të shteteve blu të vendosë rregullat për republikën.
Një standard i vetëm federal, i bazuar në zbatimin e barabartë të kritereve neutrale të merita-s, është e vetmja mënyrë për të garantuar që AI të sjellë prosperitet dhe produktivitet, jo përndjekje.
*Gene Hamilton është president i America First Legal dhe ish-zëvendëskëshilltar i Shtëpisë së Bardhë. Ai më parë ka shërbyer në pozicione të larta në Departamentet e Drejtësisë dhe Sigurisë Kombëtare.