Vendosni fjalën kyçe....

Dy avokatë gjobiten për përdorimin e rasteve të rreme gjyqësore nga ChatGPT


Dy avokatë që përdorën raste të rreme të krijuara nga ChatGPT, iu dha një gjobë e përbashkët prej 5,000 dollarësh dhe u urdhëruan të kontaktojnë gjyqtarët e përmendur në rastet e rreme me informacion rreth situatës, duke shënuar sanksionet e para të mëdha që vijnë nga përdorimi i inteligjencës artificiale në fushë juridike.

Në vendimin e tij, gjykatësi i qarkut të Nju Jorkut P. Kevin Castel tha se Steven Schwartz – avokati që përdori ChatGPT – dhe Peter LoDuca, bashkëpunëtor i Schwartz-it dhe avokati që mori përsipër çështjen kur ajo u largua nga juridiksioni i Schwartz-it, “me vetëdije u shmangën” dhe rastet që ata po përdornin si shembuj ishin të rreme, duke vepruar me keqbesim dhe duke mashtruar gjykatën.

Castel tha se ndërsa nuk ka “asgjë në thelb të pahijshme në lidhje me përdorimin e një mjeti të besueshëm të inteligjencës artificiale për ndihmë”, dy avokatët u sanksionuan sepse ata braktisën përgjegjësitë e tyre dhe u mbërthyen nga rastet e rreme, duke çuar “shumë dëme (për) të rrjedhin nga parashtrimi. ”

Castel tha se nëse dyshja do të kishin kuptuar gabimet e tyre, shkroi ai, “rekordi tani do të dukej krejt ndryshe”, por përkundrazi ata dyfishuan dhe paraqitën rastet e rreme gjyqësore dhe opinionet e krijuara nga inteligjenca artificiale si fakte.

Levidow Levidow & Oberman, P.C., firma ligjore e Schwartz, i tha Forbes se po shqyrtojnë opsionet e tyre dhe “nuk kanë marrë asnjë vendim nëse do të apelojnë”.

Gjithashtu firma ligjore tha në një deklaratë se ata “qëllojnë të zbatojnë plotësisht” urdhrin e gjykatës, por “me respekt nuk pajtohen” që dikush në firmë “veproi me keqbesim”.

Deklarata vazhdoi: “Ne vazhdojmë të besojmë se përballë asaj që edhe Gjykata pranoi se ishte një situatë e paprecedentë, ne bëmë një gabim me mirëbesim duke mos besuar se një pjesë e teknologjisë mund të krijonte raste nga rroba të plota.”

Schwartz kishte shërbyer si këshilltar ligjor për Roberto Mata, i cili po paditte Avianca Airlines me akuzat se ai ishte “godituar nga një karrocë metalike shërbimi” në një fluturim të vitit 2019 dhe pësoi lëndime personale. Avianca kishte paraqitur kërkesën për pushimin e çështjes dhe si përgjigje, Schwartz ngriti gjashtë raste për të treguar precedent, duke përfshirë Varghese kundër China Southern Airlines dhe Shaboon kundër Egypt Air. Por gjykata zbuloi se rastet – të cilat më vonë do të zbuloheshin se ishin krijuar nga ChatGPT – nuk ekzistonin dhe kishin “vendime të falsifikuara gjyqësore me citate false dhe citime të brendshme false”.

Kur mbrojtja pyeti disa nga rastet dhe kërkoi dokumente dhe opinione, Schwartz u kthye në ChatGPT, e cila i dha atij dokumente të fabrikuara ligjore që më pas i paraqiti gjykatës si fakt, duke e shtyrë Castelin të merrte në konsideratë sanksionet.

Schwartz nënshkroi një deklaratë nën betim duke pranuar se përdorte chatbotin e AI, por pohoi se nuk kishte qëllim të mashtronte gjykatën dhe nuk veproi me keqbesim. Ai tha se ishte “i mërzitur” kur mësoi për rastet e rreme dhe “nuk e kuptoi se (ChatGPT) nuk ishte një motor kërkimi, por një mjet gjenerues i përpunimit të gjuhës”.