Vendosni fjalën kyçe....

S’ka asnjë provë që Inteligjenca Artificiale mund të kontrollohet, thotë eksperti


Nuk ka asnjë provë që inteligjenca artificiale mund të kontrollohet dhe të bëhet e sigurt, ka pohuar një ekspert.

Edhe kontrollet e pjesshme nuk do mjaftonin për të na mbajtur të sigurt nga AI që riformon shoqërinë, ndoshta për më të keqen, tha Roman V. Yampolskiy, një shkencëtar kompjuterik rus nga Universiteti i Louisville.

Asgjë nuk duhet përjashtuar nga tavolina në një përpjekje për të siguruar që inteligjenca artificiale të mos na vërë në rrezik, argumentoi Dr Yampolskiy.

Ai tha se kishte ardhur në përfundim pas një shqyrtimi të hollësishëm të literaturës ekzistuese shkencore, e cila do botohet në libër të ardhshëm.

“Ne po përballemi me një ngjarje pothuajse të garantuar me potencial për të shkaktuar një katastrofë ekzistenciale,” tha Dr Yampolskiy në një deklaratë.

“Nuk është çudi që shumë e konsiderojnë këtë si problemin më të rëndësishëm me të cilin është përballur ndonjëherë njerëzimi. Rezultati mund të jetë prosperitet ose zhdukje, dhe fati i universit varet në ekuilibër.”

Hulumtimi për librin “AI: E pashpjegueshme, e paparashikueshme, e pakontrollueshme”, tregoi se nuk ka “asnjë provë” dhe “asnjë fakt” se në fakt do ishte e mundur të zgjidhej problemi i AI së pakontrollueshme.

Meqenëse duket se çdo AI nuk do jetë e mundur të kontrollohet plotësisht, është e rëndësishme të fillohet një “përpjekje e rëndësishme për sigurinë e AI” për të garantuar që ajo të bëhet sa më e sigurt që të jetë e mundur, argumenton ai.

Por, edhe atëherë, mund të mos jetë e mundur të mbrohet bota nga këto rreziqe, ndërsa AI bëhet më e aftë, ka më shumë mundësi për dështime të sigurisë, kështu që nuk do ishte e mundur të mbrohej nga çdo rrezik.

Për më tepër, shumë prej atyre sistemeve të AI nuk janë në gjendje të shpjegojnë se si arritën në përfundimet që arritën. Një teknologji e tillë tashmë po përdoret në sisteme të tilla si kujdesi shëndetësor dhe banka, por ne mund të mos jemi në gjendje të dimë se si janë marrë në të vërtetë ato vendime të rëndësishme.

“Nëse mësohemi të pranojmë përgjigjet e AI pa shpjegim, duke e trajtuar në thelb si një sistem Oracle, nuk do jemi në gjendje të dallojmë nëse ai fillon të japë përgjigje të gabuara ose manipuluese,” tha Dr Yampolskiy në një deklaratë.

Edhe një sistem që ishte ndërtuar saktësisht për të ndjekur urdhrat e njeriut mund të haste në probleme, vuri në dukje ai. Ato urdhra mund të kundërshtojnë njëra-tjetrën, sistemi mund t’i keqinterpretojë ato ose mund të përdoret me qëllim të keq.

Kjo mund të shmanget duke përdorur një AI më shumë si një këshilltar me një njeri që merr vendimet. Por nëse do ta bëjë këtë, atëherë do t’i duhen vlerat e veta superiore për të ndihmuar në këshillimin e njerëzimit.

“Paradoksi i inteligjencës artificiale të përafruar me vlera është se një person që urdhëron në mënyrë të qartë një sistem AI për të bërë diçka, mund të marrë një “jo” si përgjigje ndërsa sistemi përpiqet të bëjë atë që personi në të vërtetë dëshiron. Njerëzimi ose mund të mbrohet ose mund të respektohet, por jo të dyja,” tha Dr Yampolskiy.