c S
U središtu

Regulacija umjetne inteligencije u EU-u

22.07.2021

Komisija EU-a (dalje: EK) pripremila je prijedlog Uredbe o umjetnoj inteligenciji1 i uputila ga je travnju ove godine u zakonodavnu proceduru. U ovom članku dajemo osvrt na politički kontekst reguliranja umjetne inteligencije, kratki prikaz koncepta buduće Uredbe, osvrt na potencijalna otvorena pitanja te informaciju o daljnjem postupku.

Politički kontekst

Umjetna inteligencija, koja se nalazi u pozadini sve većeg broja aplikacija i usluga koje svakodnevno koristimo, identificirana je kao jedan od strateških prioriteta EU-a.2

Pojednostavljeno, EU ima dva cilja, koja treba međusobno uskladiti. Prvo, EU želi biti svjetski lider u razvoju umjetne inteligencije i njezine primjene, ili barem biti na istoj razini kao njezini vodeći globalni konkurenti Kina i Sjedinjene Američke Države. Drugo, EU želi kontrolirani razvoj umjetne inteligencije koja će služiti ljudima (tzv. „humanocentrična“ umjetna inteligencija), a ne koje će se ljudi bojati ili koja će služiti za manipuliranje i kontrolu ljudi.

U tom smislu poduzeto je niz aktivnosti prije izrade samog zakonskog prijedloga, kako bi sam prijedlog bio optimalno kreiran. EK je prvo osnovala stručnu skupinu na visokoj razini koja je u travnju 2019. objavila Smjernice o pouzdanoj umjetnoj inteligenciji. Zatim je u veljači 2020. objavljena Bijela knjiga o umjetnoj inteligenciji3 u kojoj je EK predstavila osnovni koncept regulacije umjetne inteligencije. O Bijeloj knjizi provedena je široka javna rasprava, nakon čega je izrađen konkretan prijedlog uredbe.

Čini se da oko ciljeva regulacije umjetne inteligencije postoji formalni konsenzus svih aktera (države članice, institucije EU-a, industrija, udruge). Primjerice Jérôme Pesenti, voditelj umjetne inteligencije u Facebook-u, napisao je: „(…) EK je u travnju predstavila svoj prijedlog regulatornog pristupa umjetnoj inteligenciji zasnovanog na koncepciji rizika. Radujemo se dijalogu sa zakonodavnim tijelima EU-a te pozdravljamo ovaj prijedlog kao prvi korak prema regulaciji umjetne inteligencije, za koju se nadamo da će zaštititi ljudska prava, istovremeno osiguravajući kontinuitet u inovacijama i gospodarskom rastu. Kao i kod drugih tehnologija u nastajanju, vjerujemo da je pro-aktivna regulacija umjetne inteligencije neophodna. Posebice je važno osigurati da se upravljanje umjetnom inteligencijom zasniva temeljnim vrijednostima poštivanja ljudskih prava, demokraciji i vladavini prava, posebice kada zemlje poput Kine nastoje ostvariti globalnu superiornost u umjetnoj inteligenciji, nesputane ovim pravima i vrijednostima.4

No, bez obzira na proklamirano jedinstvo u ciljevima, može se očekivati da će se oko konkretnih odredbi voditi velike rasprave u kojima će industrija, osobito veliki tehnološki divovi čije su usluge već zasnovane na korištenju umjetne inteligencije, željeti imati što slobodnije ruke i što manje regulatorno opterećenje. S druge strane postoji velika zabrinutost oko netransparentnosti sustava umjetne inteligencije i mogućih zlouporaba, posebice u kontekstu nadzora i kontrole ljudi.

Koncepcija buduće Uredbe

EK predlaže kategorizaciju sustava umjetne inteligencije prema stupnju rizika, prema čemu se razlikuju njihovi uvjeti korištenja. Tako su predložene sljedeće kategorije: neprihvatljivi rizik – sustavi su, u pravilu, zabranjeni; visoki rizik – sustavi podliježu striktnim pravilima i strogom nadzoru, ograničeni rizik – sustavi podliježu obvezama transparentnosti, minimalni rizik – sustavi ne podliježu obvezama, ali se potiču mehanizmi dobrovoljne regulacije.

a) Sustavi neprihvatljivog rizika

Sustavi umjetne inteligencije koji predstavljaju neprihvatljivi rizik su:

- oni koji koriste prakse koje imaju znatan potencijal za manipuliranje osobama primjenom subliminalnih tehnika koje djeluju na nesvjesnoj razini ili iskorištavanje slabosti specifičnih ranjivih skupina, kao što su djeca ili osobe s invaliditetom, kako bi se bitno promijenilo njihovo ponašanje na način koji će njima ili drugim osobama vjerojatno prouzročiti psihološku ili tjelesnu štetu;

- oni koji služe radi društvenog vrednovanja (eng. social scoring) u opće svrhe koje se temelji na umjetnoj inteligenciji i provode ga tijela javne vlasti;

- oni koji služe za daljinsku biometrijsku identifikaciju u stvarnom vremenu na javnim mjestima za potrebe kaznenog progona, osim ako se primjenjuju određene ograničene iznimke.

b) Visokorizični sustavi

Visokorizični sustavi umjetne inteligencije opisani su kao oni koji stvaraju visok rizik za zdravlje i sigurnost ili temeljna prava pojedinaca. Njihovo korištenje je dopušteno, ako su u skladu s određenim obveznim zahtjevima i ako su zadovoljili prethodnu ocjenu sukladnosti.

Dvije glavne kategorije visokorizičnih sustava umjetne inteligencije su:

- sustavi koji su namijenjeni za uporabu kao sigurnosni sastavni dijelovi proizvoda koji podliježu prethodnom ocjenjivanju sukladnosti koje provode treće strane (npr. medicinski uređaji, strojevi);

- ostali samostalni sustavi umjetne inteligencije koji ponajprije imaju posljedice na temeljna prava i koji su izričito navedeni u Prilogu III. prijedloga Uredbe. Prilog III. ima sljedeće glavne kategorije: biometrijska identifikacija i kategorizacija pojedinaca, upravljanje kritičnom infrastrukturom, obrazovanje, zapošljavanje, socijalna prava, kazneni progon, migracije i azil, pravosuđe. Zamišljeno je da lista iz Priloga III. bude dinamičnog karaktera i da ju EK može dopunjavati putem delegiranih akata.

Visokorizični sustavi moraju zadovoljiti minimalne zahtjeve u pogledu podataka i upravljanja podacima, dokumentacije i vođenja evidencije, transparentnosti i informiranja korisnika, ljudskog nadzora, otpornosti, točnosti i sigurnosti. EK tvrdi da mnogi operatori već djeluju u skladu s navedenim zahtjevima te da su oni usklađeni s drugim međunarodnim preporukama i načelima, čime se osigurava da je predloženi okvir kompatibilan s onima koje su donijeli međunarodni trgovinski partneri EU-a.

Ideja EK je povezati Uredbu o umjetnoj inteligenciji i postojeće tehničke propise na način da se na njih nadograde specifične obveze za visokorizične sustave umjetne inteligencije koji su sastavni dijelovi proizvoda za koje se traži ocjena sukladnosti. U konačnici, to će omogućiti da ti sustavi, ako zadovolje kriterije, budu obilježeni prepoznatljivom CE oznakom kojom se jamči potvrda sukladnosti i koja omogućava slobodno stavljanje na tržište tako označenih proizvoda.

Za samostalne visokorizične sustave iz Priloga III. uspostavit će se novi sustav sukladnosti i provedbe. Nakon što se provede odgovarajuće ocjenjivanje sukladnosti, samostalni visokorizični  sustavi registrirati će se u bazi podataka EU-a, koju će voditi EK.

c) Sustavi ograničenog rizika

Sustavi umjetne inteligencije koji predstavljaju ograničeni rizik podliježu obvezama transparentnosti.

Preciznije, dobavljači sustava umjetne inteligencije koji su namijenjeni kontaktima s fizičkim osobama moraju obavijestiti osobe da su u kontaktu sa sustavom umjetne inteligencije.

Nadalje, korisnici sustava za prepoznavanje emocija ili sustava za biometrijsku kategorizaciju moraju informirati pojedince koji su izloženi tom sustavu o njegovu radu.

U konačnici, korisnici sustava umjetne inteligencije koji stvara ili manipulira slikovnim sadržajem, audio-sadržajem ili video-sadržajem u kojem postoji znatna sličnost s postojećim osobama, predmetima, mjestima ili drugim subjektima ili događajima te koji bi se nekoj osobi netočno činio vjerodostojnim ili istinitim (eng. deep fake) moraju navesti da je taj sadržaj umjetno stvoren ili da je njime manipulirano.

d) Sustavi minimalnog rizika

Sustavi umjetne inteligencije s minimalnim rizikom (prema tvrdnjama EK većina sustava koji se trenutno koriste ulazi u ovu kategoriju) ne moraju udovoljavati posebnim uvjetima. Međutim, pružatelji tih sustava mogu se dobrovoljno podvrgnuti pravilima koja vrijede za visoko rizične sustave ili pristupiti dobrovoljnim kodeksima postupanja.

e) Ostale odredbe

Kao potpora inovacijom, Uredbom se predviđa uspostava regulatornih izoliranih okruženja za umjetnu inteligenciju (eng. AI regulatory sandboxes), a koja služe kao kontrolirano okruženje koje olakšava razvoj, testiranje i validaciju inovativnih sustava tijekom određenog vremena prije njihova stavljanja na tržište

Radi nadzora provedbe obveza predviđa se uspostava jednog ili više nadležnih tijela u državama članicama koja će nadzirati provedbu Uredbe te provoditi prijavljivanje tijela koja će biti ovlaštena raditi ocjene sukladnosti prije stavljanja sustava umjetne inteligencije na tržište.

Na razini EU, osnovat će se Europski odbor za umjetnu inteligenciju koji se sastoji od nacionalnih nadzornih tijela, koja predstavljaju voditelji ili ekvivalentni visoki dužnosnici tih tijela, i Europskog nadzornika za zaštitu podataka, a Odborom će predsjedati EK.

Neka otvorena pitanja

Zakonodavni postupak još je u ranoj fazi, pa još nisu poznati stavovi država članica i članova mjerodavnih odbora Europskog parlamenta. No, svoje mišljenje o prijedlogu zajednički su dali Europski odbor za zaštitu podataka (EDPB) i Europski nadzornik za zaštitu osobnih podataka (EDPS)5

Oni općenito pozdravljaju prijedlog, ali i izražavaju određene zabrinutosti. Tako navode da se prijedlogom zabranjuje društveno vrednovanje koje se provodi kroz određeno vrijeme ili koje provode tijela javne vlasti ili se provodi u njihovo ime. Međutim, privatne kompanije poput društvenih medija i pružatelja usluga u oblaku su također u poziciji da mogu obrađivati velike količine osobnih podataka i koristiti ih u svrhu društvenog vrednovanja. Stoga oni smatraju da bilo koje korištenje umjetne inteligencije u svrhu društvenog vrednovanja treba biti zabranjeno.

Nadalje, smatraju da daljinska biometrijska identifikacija pojedinaca na javnim mjestima predstavlja veliki rizik za privatni život i očekivanja ljudi da na javnim mjestima budu anonimni. Zbog toga pozivaju na opću zabranu korištenja umjetne inteligencije u svrhu automatskog prepoznavanja ljudskih karakteristika (poput lica, otisaka prstiju, pokreta tijela, DNK) na javnim mjestima, u bilo koje svrhe. Također preporučuju zabranu sustava umjetne inteligencije namijenjenih kategorizaciji pojedinaca prema etničkoj pripadnosti, spolu, političkoj ili seksualnoj orijentaciji ili bilo kojem drugom diskriminacijskom temelju. Osim toga, smatraju da treba biti zabranjen bilo kakav utjecaj umjetne inteligencije na ljudske emocije.

U konačnici, vezano za institucionalni ustroj, EDPB i EDPS smatraju da bi tijela nadležna za zaštitu osobnih podataka trebala biti određena kao nacionalna nadležna tijela za nadzor nad primjenom Uredbe o umjetnoj inteligenciji.

Što dalje?

O prijedlogu uredbe detaljno će se raspravljati na radnim tijelima Vijeća EU i u mjerodavnim odborima Europskog parlamenta (EP). U ovom trenutku teško je predvidjeti koliko bi cijeli postupak mogao trajati. No, realno je očekivati da će tijekom 2022. postupak ući u završnu fazu pregovora između EK, Vijeća EU-a i EP-a (tzv. trijalozi). Ako stavovi institucija ne budu previše različiti, zakonodavni postupak mogao bi se dovršiti do kraja 2022.

Paralelno sa zakonodavnim postupkom, EK je najavila donošenje Koordiniranog plana kojim se, kroz EU sufinanciranje iz programa Digitalna Europa i Obzor 2020., namjeravaju potaknuti investicije i korištenje umjetne inteligencije.

Domagoj Maričić
__________________
^ 1 Prijedlog Uredbe Europskog parlamenta i Vjeća o utvrđivanju usklađenih pravila o umjetnoj inteligenciji (Akt o umjetnoj inteligenciji) i izmjeni određenih zakonodavnih akata Unije COM(2021)206 final
^ 2 Vidi Komunikaciju EK od 19. veljače 2020., Izgradnja digitalne budućnosti Europe, COM(2020) 67 final
^ 3 Bijela knjiga o umjetnoj inteligenciji – Europski pristup izvrsnosti i izgradnji povjerenja od 19. veljače 2020., COM(2020) 65 final
^ 4 Vidi https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/, pristupljeno 19. srpnja 2021.
^ 5 Vidi https://edpb.europa.eu/system/files/2021-06/edpb-edps_joint_opinion_ai_regulation_en.pdf, pristupljeno 20. srpnja 2021.