Direktor OpenAI-ja upozorava korisnike na pravnu ranjivost

U jeku sve češće upotrebe veštačke inteligencije za lične savete i poverljive razgovore, direktor OpenAI-ja Sam Altman izneo je upozorenje koje bi moglo iznenaditi mnoge korisnike: vaši razgovori sa ChatGPT-om nisu zaštićeni zakonom — i mogu biti iskorišćeni kao dokaz u sudskim postupcima.

Gostujući u podkastu This Past Weekend, Altman je ukazao na zabrinjavajući trend: sve više ljudi koristi ChatGPT kao terapeuta, advokata ili ličnog savetnika, deleći informacije koje bi u drugim okolnostima bile poverljive. Međutim, za razliku od doktora, pravnika ili sveštenika, AI nema zakonski okvir koji bi štitio privatnost korisnika.

- Ako neko napiše nešto osetljivo ChatGPT-u, a kasnije postane predmet tužbe, mi bismo mogli biti pravno obavezani da te podatke predamo sudu. I to je, iskreno, prilično problematično - rekao je Altman.

Foto: NurPhoto

Pitanja koja se ovde otvaraju su ozbiljna i aktuelna:

Da li korisnik zadržava vlasništvo nad svojim podacima?

Može li sadržaj konverzacije postati pravni dokaz?

Gde je granica između digitalnog poverenja i stvarnog zakonskog rizika?

Iako OpenAI dozvoljava korisnicima da isključe opciju korišćenja podataka za treniranje modela, kompanija priznaje da se pojedini zapisi mogu čuvati iz bezbednosnih razloga. U slučaju sudskog naloga, ti zapisi mogu postati javno dostupni i pravno upotrebljivi.

Kako da zaštitite sebe?

U eri digitalne transparentnosti, korisnici bi trebalo da budu svesni sledećeg:

Ne unosite lične ili osetljive informacije u AI alate.

Redovno brišite istoriju razgovora.

Pažljivo pratite promene u politici privatnosti servisa koje koristite.

Promislite pre nego što podelite bilo šta što ne biste rekli javno.

Ključna poruka?

ChatGPT nije terapeut, ni advokat, ni ispovednik. U doba algoritama, svaka poruka ostavlja trag, a ono što napišete jednog dana može završiti u sudskom spisu.

Autor: redportal.rs