PRAVNI IZAZOVI VEŠTAČKE INTELIGENCIJE

Advokatica, Lidija Labudović, Harrisons, objašnjava pravne aspekte o korišćenju veštačke inteligencije.


Datum: 28.Mar.2024


Veštačka inteligencija (u daljem tekstu „AI“) je donela revolucionarne inovacije u raznim sferama života, ali je pokrenula i diskusije da li njena primena može ugroziti osnovna ljudska prava i stvoriti bezbednosni rizik za njene korisnike. Da li će preovladati pozitivni ili negativni efekti AI, u velikoj meri će zavisiti od efikasnosti i ujednačenosti pravne regulative na globalnom nivou.

Tema ovog članka su postojeći pravni okviri regulisanja AI, sa posebnim osvrtom na sporna pravna pitanja iz domena prava intelektualne svojine. Pitanje koje zahteva posebnu pažnju je povreda podataka o ličnosti usled upotrebe AI, koje je tema za posebnu analizu.

Republika Srbija („RS’’) je usvojila Strategiju razvoja veštačke inteligencije za period 2020-2025 godine, kojom su između ostalog propisane etičke smernice i načela koja mora da ispuni AI da bi bila pouzdana i bezbedna za upotrebu. Generalna skupština UN je na sednici održanoj dana 21 marta 2024. godine, usvojila Rezoluciju o AI, kojom se preporučuje svim zemljama članicama da pristupe izradi propisa kojima se obezbeđuje bezbedna, sigurna i pouzdana upotreba AI sistema i poštovanje ljudskih prava. Uporedni pravni sistemi takođe nastoje da pronađu pravno rešenje za AI, pa tako SAD imaju liberalniji stav prema načinu regulisanja AI, nesporno dajući primat njenim ekonomskim efektima, dok se EU sveobuhvatnije posvetila ovom pitanju, kroz usvajanje paketa mera za pouzdanu upotrebu AI.

Naime, Parlament i Savet EU su u decembru 2023. godine postigli sporazum predloga Zakona o veštačkoj inteligenciji (u daljem tekstu „AI Act“), koji se očekuje da će stupiti na snagu u maju 2024. godine. AI Act bi mogao da postane globalni standard za pravnu regulaciju AI, kao što je to GDPR u sferi podataka o ličnosti. Njegove odredbe će početi u celosti da se primenjuju tokom 2026.godini, uz manje  izuzetke u pogledu pojedinih odredbi čija primena će početi ranije.

Neophodno je napomenuti da su odredbe ovog akta važne i za RS, kako u svetlu pridruživanja EU, tako i u pogledu dejstva primene odredbi ovog akta. Naime, AI Act se primenjuje na:

-       dobavljače koji stavljaju AI sistem na tržište EU bez obzira gde je sedište dobavljača (drugim rečima AI sistem koji je kreiran u SAD ili recimo RS mora ispunjavati uslove propisane AI Act-om da bi se mogao primeniti na teritoriji EU);

-       korisnike sistema koji se nalaze u EU;

-       na dobavljače i korisnike AI sistema koji se nalaze u trećoj zemlji, ukoliko se izlazni rezultati koriste u EU;

AI Act je na sveobuhvatan način definisao AI sistem kao softver koji je razvijen pomoću barem jedne od tehnika (mašinsko učenje, statistika, logika), koji može, u cilju izvršavanja cilja ili skupa ciljeva koje odredi čovek, da generiše izlazne rezultate kao što su sadržaj, predviđanja, preporuke ili odluke koje utiču na okruženje sa kojima su u interakciji.

Ono što je posebno bitno istaći, AI Act je definisao  četiri nivoa rizika za AI sisteme:

-          zabranjeni sistemi-  sistemi koji primenjuju  tehnike koje dovode do toga da korisnik nesvesno bitno menja svoje ponašanje ili sistemi koji koriste bilo kakvu karakteristiku lica, koje pripada određenoj osetljivoj grupi, ili sistemi koji se koriste za daljinsku biometrijsku identifikaciju u realnom vremenu na javnim mestima uz određene izuzetke itd;

-          visoko rizični sistemi -moraju da ispune određene uslove pre nego što budu stavljeni na tržište, a primenjuju se u sferi upravljanja kritičnim infrastrukturama, za biometrijsku identifikaciju lica, u sferi  obrazovanja i zapošljavanja,  u domenu migracija /azila, potom sistemi koji se koriste od strana državnih organa prinude ili u pravosuđu itd;

-          sistema ograničenog rizika –zahteva se određeni stepen transparentnosti, na primer, sistemi za prepoznavanje emocija ili sistemi namenjeni interakciji sa korisicima, gde korisnici treba da budu svesni da su u interakciji sa mašinom; potom sistemi koji stvaraju audio, fotografski ili video sadržaj treba da naznače da je sadržaj rezultat AI;

-          sistema  minimalnog rizika-AI Act dozvoljava njihovu slobodnu primenu, (na primer video igre).

Na kraju, AI Act-om su  propisane visoke kazne do 35 miliona evra ili 7% ukupnog godišnjeg prometa, u zavisnosti od ozbiljnosti povrede odredbi propisanih ovim aktom. Svaka država članica će morati da usvoji propise kroz koje će implementirati ove kaznene odredbe i preduzeti mere neophodne za njihovo efikasno izvršenje.

Načelno govoreći, postojeća pravna regulativa je fokusirana na utvrđivanje osnovnih načela kojih se kreatori AI moraju pridržavati prilikom njenog kreiranja i testiranja, kao i pravila ponašanja prilikom primene i nadzora AI sistema u raznim sferama društva, međutim još uvek nije zauzet stav da li je AI alat ili subjekat, što je ključno pravno pitanje sa aspekta prava intelektualne svojine. Od odgovora na ovo pitanje zavisiće regulisanje odnosa između nosioca prava na AI i korisnika, kao i odnosa trećih lica u odnosu na korisnike i nosioce prava na AI.

Nesporno je da je vlasnik softvera  nosilac prava intelektulane svojine na AI koji se prevashodno štiti autorskim pravom (izuzetno mogu da se štite patentnom zaštitom), da AI funkcioniše po principu korišćenja podataka trećih lica čiji identitet uglavnom nije poznat, kao i da korisnik AI sistema, kroz definisanje zadatka („prompta”), dobija generisani sadržaj koji može imati karakter autorskog dela.

Ako AI sistemu dodelimo svojstvo subjekta, pa samim tim i generisanom sadržaju svojstvo autorskog dela, postavlja se pitanje da li generisani sadržaj pripada nosiocu prava na AI ili korisniku koji je zadao prompt, kao i na koji način bi se regulisali odnosi među njima?

Ako je AI sistem samo alat, generisani sadržaj neće imati elemente autorskog dela. Naime, autorsko delo je originalna duhovna tvorevina izražena u određenoj formi, a generisani sadržaj („output’’) je rezultat koji je kreirao softver, a ne čovek, na osnovu instrukcija korisnika.Suprotno ovome, postoje i druga mišljenja zasnovana na premisi da je čovek stvorio softver, odabrao ulazne podatke i zadao adekvatan zadatak, te da sa te tačke gledišta, output bi mogao biti autorsko delo.

Ne postoji idealno rešenje, već najbolje rešenje u datim okolnostima. Ako output-u oduzmemo  svojstvo autorskog dela, izbeći ćemo probleme oko regulisanja odnosa između korisnika i nosioca prava na AI. U ovoj situaciji, nosioci prava na AI sistemu svoj materijalni interes mogu ostvariti kroz naplatu naknade za korišćenje AI sistema, a korisnik AI ostvaruje korist upotrebom AI.

Mnogo ozbiljniji problem je povreda autorskih prava trećih lica, čija autorska dela su uneta u bazu podataka koje koristi AI. Uglavnom nije poznato ko su nosioci prava na tim delima/informacijama, dok se  njihovom neovlašćenom upotrebom može narušiti  integritet tih dela. Dodatni problem je utvrđivanje naknade  za ekonomsko iskorišćavanje dela, kao i podele odgovornosti  između nosioca prava AI sistema i korisnika. Da li nosilac prava može isključiti svoju odgovornost, ako je omogućio korisnicima da koriste autorska dela trećih lica?

Kako bi se izbegli sporovi zbog povrede autorskih prava trećih lica, u praksi se nameću razna rešenja (ograničenja autorskih prava, zakonska licenca, meta podaci), ali su sva ova rešenja na nivou razmatranja, a konačno regulisanje tih prava će nužno zahtevati izmenu zakonodavnog okvira.

Jedno je sigurno - neophodno je da se  u što kraćem roku utvrde zakonski okviri i pravila funkcionisanja AI, koji moraju na efikasan način da regulišu odnose između trećih lica, korisnika i kreatora Al sistema, kao i pravila ponašanja prilikom kreiranja i upotrebe AI sistema.

Autor: "Lidija Labudović, advokat, Harrisons "

Sponzori