PRAVNI IZAZOVI VEŠTAČKE INTELIGENCIJE
Advokatica, Lidija Labudović, Harrisons, objašnjava pravne aspekte o korišćenju veštačke inteligencije.
Datum: 28.Mar.2024
Veštačka
inteligencija (u daljem tekstu „AI“) je donela revolucionarne inovacije
u raznim sferama života, ali je pokrenula i diskusije da li njena primena može
ugroziti osnovna ljudska prava i stvoriti bezbednosni rizik za njene korisnike.
Da li će preovladati pozitivni ili negativni efekti AI, u velikoj meri će
zavisiti od efikasnosti i ujednačenosti pravne regulative na globalnom nivou.
Tema
ovog članka su postojeći pravni okviri regulisanja AI, sa posebnim osvrtom na
sporna pravna pitanja iz domena prava intelektualne svojine. Pitanje koje zahteva posebnu pažnju je povreda
podataka o ličnosti usled upotrebe AI, koje je tema za posebnu analizu.
Republika
Srbija („RS’’) je usvojila Strategiju razvoja veštačke inteligencije za
period 2020-2025 godine, kojom su između ostalog propisane etičke smernice i
načela koja mora da ispuni AI da bi bila pouzdana i bezbedna za upotrebu. Generalna
skupština UN je na sednici održanoj dana 21 marta 2024. godine, usvojila
Rezoluciju o AI, kojom se preporučuje svim zemljama članicama da pristupe
izradi propisa kojima se obezbeđuje bezbedna, sigurna i pouzdana upotreba AI
sistema i poštovanje ljudskih prava. Uporedni pravni sistemi takođe nastoje da
pronađu pravno rešenje za AI, pa tako SAD imaju liberalniji stav prema načinu
regulisanja AI, nesporno dajući primat njenim ekonomskim efektima, dok se EU
sveobuhvatnije posvetila ovom pitanju, kroz usvajanje paketa mera za pouzdanu
upotrebu AI.
Naime,
Parlament i Savet EU su u decembru 2023. godine postigli sporazum predloga Zakona
o veštačkoj inteligenciji (u daljem tekstu „AI Act“), koji se očekuje da
će stupiti na snagu u maju 2024. godine. AI Act bi mogao da postane globalni
standard za pravnu regulaciju AI, kao što je to GDPR u sferi podataka o
ličnosti. Njegove odredbe će početi u celosti da se primenjuju tokom 2026.godini,
uz manje izuzetke u pogledu pojedinih
odredbi čija primena će početi ranije.
Neophodno
je napomenuti da su odredbe ovog akta važne i za RS, kako u svetlu
pridruživanja EU, tako i u pogledu dejstva primene odredbi ovog akta. Naime, AI
Act se primenjuje na:
-
dobavljače koji stavljaju AI sistem na tržište EU
bez obzira gde je sedište dobavljača (drugim
rečima AI sistem koji je kreiran u SAD ili recimo RS mora ispunjavati uslove propisane
AI Act-om da bi se mogao primeniti na teritoriji EU);
-
korisnike sistema koji se nalaze u EU;
-
na dobavljače i korisnike AI sistema koji se
nalaze u trećoj zemlji, ukoliko se izlazni rezultati koriste u EU;
AI Act
je na sveobuhvatan način definisao AI sistem kao softver koji je razvijen
pomoću barem jedne od tehnika (mašinsko učenje, statistika, logika), koji može,
u cilju izvršavanja cilja ili skupa ciljeva koje odredi čovek, da generiše
izlazne rezultate kao što su sadržaj, predviđanja, preporuke ili odluke koje
utiču na okruženje sa kojima su u interakciji.
Ono
što je posebno bitno istaći, AI Act je definisao četiri nivoa rizika za AI sisteme:
-
zabranjeni sistemi- sistemi koji primenjuju tehnike koje dovode do toga da korisnik
nesvesno bitno menja svoje ponašanje ili sistemi koji koriste bilo kakvu
karakteristiku lica, koje pripada određenoj osetljivoj grupi, ili sistemi koji
se koriste za daljinsku biometrijsku identifikaciju u realnom vremenu na javnim
mestima uz određene izuzetke itd;
-
visoko rizični sistemi -moraju da ispune određene uslove pre nego što budu stavljeni na tržište, a primenjuju se u sferi upravljanja
kritičnim infrastrukturama, za biometrijsku identifikaciju lica, u sferi obrazovanja i zapošljavanja, u domenu migracija /azila, potom sistemi koji
se koriste od strana državnih organa prinude ili u pravosuđu itd;
-
sistema ograničenog
rizika –zahteva se određeni
stepen transparentnosti, na primer, sistemi za prepoznavanje emocija ili
sistemi namenjeni interakciji sa korisicima, gde korisnici treba da budu svesni da su u interakciji
sa mašinom; potom sistemi koji stvaraju audio, fotografski ili video sadržaj
treba da naznače da je sadržaj rezultat AI;
-
sistema minimalnog rizika-AI Act dozvoljava njihovu slobodnu primenu, (na primer video igre).
Na
kraju, AI Act-om su propisane
visoke kazne do 35 miliona evra ili 7% ukupnog godišnjeg prometa, u zavisnosti
od ozbiljnosti povrede odredbi propisanih ovim aktom. Svaka država članica će
morati da usvoji propise kroz koje će implementirati ove kaznene odredbe i
preduzeti mere neophodne za njihovo efikasno izvršenje.
Načelno
govoreći, postojeća pravna regulativa je fokusirana na utvrđivanje osnovnih
načela kojih se kreatori AI moraju pridržavati prilikom njenog kreiranja i
testiranja, kao i pravila ponašanja prilikom primene i nadzora AI sistema u
raznim sferama društva, međutim još uvek nije zauzet stav da li je AI alat ili
subjekat, što je ključno pravno pitanje sa aspekta prava intelektualne svojine.
Od odgovora na ovo pitanje zavisiće regulisanje odnosa između nosioca prava
na AI i korisnika, kao i odnosa trećih lica u odnosu na korisnike i nosioce
prava na AI.
Nesporno
je da je vlasnik softvera nosilac prava
intelektulane svojine na AI koji se prevashodno štiti autorskim pravom
(izuzetno mogu da se štite patentnom zaštitom), da AI funkcioniše po principu korišćenja
podataka trećih lica čiji identitet uglavnom nije poznat, kao i da korisnik AI
sistema, kroz definisanje zadatka („prompta”), dobija generisani sadržaj koji
može imati karakter autorskog dela.
Ako AI sistemu dodelimo svojstvo subjekta, pa samim tim i generisanom sadržaju svojstvo autorskog dela, postavlja
se pitanje da li generisani sadržaj pripada nosiocu prava na AI ili korisniku
koji je zadao prompt, kao i na koji način bi se regulisali odnosi među njima?
Ako je AI sistem samo alat, generisani sadržaj neće imati elemente autorskog dela. Naime, autorsko
delo je originalna duhovna tvorevina izražena u određenoj formi, a generisani
sadržaj („output’’) je rezultat koji je kreirao softver, a ne čovek, na osnovu instrukcija korisnika.Suprotno
ovome, postoje i druga mišljenja zasnovana na premisi da je čovek stvorio
softver, odabrao ulazne podatke i zadao adekvatan zadatak, te da sa te tačke
gledišta, output bi mogao biti autorsko delo.
Ne
postoji idealno rešenje, već najbolje rešenje u datim okolnostima. Ako output-u
oduzmemo svojstvo autorskog dela, izbeći
ćemo probleme oko regulisanja odnosa između korisnika i nosioca prava na AI. U
ovoj situaciji, nosioci prava na AI sistemu svoj materijalni interes mogu
ostvariti kroz naplatu naknade za korišćenje AI sistema, a korisnik AI ostvaruje
korist upotrebom AI.
Mnogo ozbiljniji
problem je povreda autorskih prava trećih lica, čija autorska dela su uneta u bazu
podataka koje koristi AI. Uglavnom nije poznato ko su nosioci prava na tim
delima/informacijama, dok se njihovom neovlašćenom
upotrebom može narušiti integritet tih dela.
Dodatni problem je utvrđivanje naknade za ekonomsko iskorišćavanje dela, kao i podele
odgovornosti između nosioca prava AI
sistema i korisnika. Da li nosilac prava može isključiti svoju odgovornost, ako
je omogućio korisnicima da koriste autorska dela trećih lica?
Kako bi
se izbegli sporovi zbog povrede autorskih prava trećih lica, u praksi se nameću
razna rešenja (ograničenja autorskih prava, zakonska licenca, meta podaci), ali
su sva ova rešenja na nivou razmatranja, a konačno regulisanje tih prava će
nužno zahtevati izmenu zakonodavnog okvira.
Jedno
je sigurno - neophodno je da se u što
kraćem roku utvrde zakonski okviri i pravila funkcionisanja AI, koji moraju na efikasan
način da regulišu odnose između trećih lica, korisnika i kreatora Al sistema,
kao i pravila ponašanja prilikom kreiranja i upotrebe AI sistema.