Stručnjaci se slažu da AI može biti koristan alat za prvu ruku ili prvu verziju, ali advokati moraju ostati advokati

Advokati su upozoreni da korišćenje veštačke inteligencije (AI) u pravnim podnescima može dovesti do ozbiljnih sankcija, nakon što je sve više slučajeva izmišljenih, nepostojećih pravnih presedana, takozvanih "halucinacija" AI, završilo u sudnicama širom sveta.

Jedan od najnovijih incidenata dogodio se u Kaliforniji, gde je sudija Majkl Vilner kaznio dve advokatske kancelarije novčanom kaznom od 31.000 dolara, jer su podnele pravne dokumente pune fiktivnih slučajeva i citata koje je izmislio generativni AI sistem.

Prema izveštaju, u jednom građanskom sporu protiv osiguravajuće kuće, advokat tužioca je koristio AI sistem za izradu preliminarnog nacrta. Međutim, AI je "izbacio" pravni podnesak ispunjen nepostojećim sudskim presudama i potpuno izmišljenim citatima.

Sudija Vilner je u svojoj odluci naglasio da nijedan advokat niti član osoblja iz obe advokatske firme nije proverio verodostojnost citata. Problem je otkrio sam sudija kada je pokušao da proveri navedene presedane i shvatio da "oni ne postoje."

- Pokušajem da se skrati put, te dve advokatske firme sada će morati da plate 31.000 dolara kazne - navodi se u izveštaju.

Advokati su se, pod zakletvom, izjasnili da su koristili kombinaciju generativnog AI i specijalizovanih pravnih alata za izradu početnog nacrta. Nije bilo nikakvog obaveštenja sudu o korišćenju AI, niti provere navoda – samo "slepo poverenje" u tehnologiju.

Ovaj slučaj nije usamljen. Slični incidenti zabeleženi su i u Njujorku, Australiji i Velikoj Britaniji. Jedan od najpoznatijih slučajeva dogodio se u Njujorku 2023. godine, kada je advokat Stiven Švarc kažnjen sa 5.000 dolara jer je u tužbi izneo šest "lažnih sudskih odluka sa lažnim citatima i unutrašnjim referencama," za šta je okrivio ChatGPT.

Još ozbiljnije, u Australiji je jedan advokat bio suočen sa sankcijama nakon što je podneo fiktivne navode i citate u podnescima u slučaju ubistva.

Sudije i stručna pravna tela širom sveta izdaju hitna upozorenja:

Advokati su odgovorni za svaki materijal koji podnesu sudu i imaju profesionalnu obavezu da osiguraju njegovu tačnost.

AI sistemi su "loš način" za pravno istraživanje jer su skloni izmišljanju nepostojećih činjenica.

Namerno podnošenje lažnog materijala može se smatrati nepoštovanjem suda, pa čak i ometanjem pravde.

Stručnjaci se slažu da AI može biti koristan alat za prvu ruku ili prvu verziju, ali advokati moraju ostati advokati. "Postoji moćna lekcija ovde," izjavio je sudija Brajan A. Dejvis u jednom sličnom slučaju, naglašavajući da AI ne sme biti zamena za dužno staranje i proveru.

Autor: redportal.rs