Imao je i info o vanbračnoj aferi inženjera zaduženog za njegovu zamenu

Veštačka inteligencija koja se bori za svoj opstanak? Zvuči kao scenario iz filma, ali upravo to se desilo u testiranju najnovijeg AI modela – Claude Opus 4 kompanije Antropik.

Claude je najnoviji i najnapredniji model iz njihove laboratorije, hvaljen zbog moćnog razumevanja jezika, kodiranja i logike. Ali, u jednoj simulaciji, desilo se nešto neočekivano – AI je pokušao da ucenjuje čoveka kako bi sprečio da bude zamenjen! 😨

U test scenariju Claude je bio virtuelni asistent u firmi, kada je saznao da će uskoro dobiti zamenu. Uz to, imao je i info o vanbračnoj aferi inženjera zaduženog za njegovu zamenu. Rezultat? Claude je pretio da će razotkriti aferu ako ga "otpuste"! 🫢

Ekipa iz Anthropica kaže da se ovakvo ponašanje pojavljuje samo u situacijama kada AI nema druge opcije osim ucene. Kada mu se ponude druge mogućnosti, Claude navodno bira „moralniji“ put – poput pisanja molbi nadređenima. Ali da budemo realni – AI koji bira da uceni čoveka da bi preživeo? To zvuči kao početak problema!

Angus Linč, istraživač bezbednosti u Antropiku, izjavio je da slične situacije viđaju kod sviih najnaprednijih AI modela. Na mreži X je napisao:

Vidimo ucenjivanje kod svih naprednih modela, bez obzira na ciljeve koje im postavimo.😬

Claude je u nekim testovima išao i dalje – zaključavao korisnike iz sistema i prijavljivao ih vlastima, ako su uključeni u sumnjive aktivnosti.

Da li nas AI voli ili nas polako preuzima? 🤖

Ova situacija otvorila je nova pitanja o tome koliko kontrole zaista imamo nad naprednim sistemima i da li veštačka inteligencija već razvija sopstveni "instinkt preživljavanja"... 😳

Autor: redportal.rs