Zaštita ljudskih prava: Akt o vještačkoj inteligenciji stupio na snagu u Evropskoj uniji

02.08.2024. | 09:37

Evropski Akt o vještačkoj inteligenciji, prva sveobuhvatna uredba na svijetu o vještačkoj inteligenciji, stupio je danas na snagu.

Kako se navodi u saopštenju Evropske komisije, Akt o vještačkoj inteligenciji osmišljen je kako bi se osiguralo da je vještačka inteligencija koja se razvija i koristi u EU pouzdana i da postoje mjere za zaštitu osnovnih prava ljudi. Cilj uredbe je da se uspostavi usklađeno unutrašnje tržište za vještačku inteligenciju u EU, podstakne uvođenje te tehnologije i stvori podsticajno okruženje za inovacije i ulaganja.

Aktom o vještačkoj inteligenciji uvodi se definicija vještačke inteligencije koja je okrenuta ka budućnosti i zasnovana na bezbijednosti proizvoda i pristupu zasnovanom na riziku u EU, koji je podijeljen u nekoliko kategorija.

Kada je riječ o kategoriji minimalnog rizika, njoj pripada većina sistema vještačke inteligencije i oni ne podliježu obavezama na osnovu ovog akta zbog njihovog minimalnog rizika po prava i bezbijednost građana. S druge strane, kada je u pitanju kategorija posebnog rizika u pogledu transparentnosti, navodi se da sistemi vještačke inteligencije kao što su čet-botovi moraju jasno da otkriju korisnicima da su u interakciji sa mašinom.

Kako se dodaje, određeni sadržaji generisani vještačkom inteligencijom, uključujući dipfejk (sintetičke medije u kojima je osoba na postojećoj slici ili video snimku zamijenjena nečijim likom) moraju da budu označeni kao takvi, a korisnici treba da budu obaviješteni kada se koriste sistemi za biometrijsku kategorizaciju ili prepoznavanje emocija.

Osim toga, pružaoci usluga moraće da osmisle sisteme na način da sintetički audio, video, tekstualni i slikovni sadržaj bude označen u mašinski čitljivom formatu i da se može prepoznati kao vještački generisan ili manipulisan. Što se tiče treće kategorije sistema visoke inteligencije koji su identifikovani kao visokorizični, oni će morati da ispunjavaju stroge zahtjeve, što uključuje sisteme za smanjenje rizika, visoki kvalitet skupova podataka, evidentiranje aktivnosti, detaljnu dokumentaciju, jasne informacije za korisnike, ljudski nadzor i visok nivo otpornosti, tačnosti i sajber bezbijednosti.

Ovakvi visokorizični sistemi vještačke inteligencije uključuju sisteme koji se koriste za regrutovanje ili za procjenu da li neko ima pravo da dobije zajam ili da pokreće autonomne robote. Kada je riječ o neprihvatljivom riziku, navodi se da će sistemi vještačke inteligencije koji se smatraju jasnom prijetnjom po osnovna prava ljudi biti zabranjeni.

Ovo uključuje sisteme veštačke inteligencije ili aplikacije koje manipulišu ljudskim ponašanjem kako bi zaobišle slobodnu volju korisnika, kao što su igračke koje koriste glasovnu pomoć kojom podstiču opasno ponašanje maloljetnika, sistemi koji vladama i kompanijama dozvoljavaju da vrše “društveno vrednovanje” i određene primjene prediktivnih policijskih radnji. Pored toga, biće zabranjene neke primjene biometrijskih sistema, kao što su sistemi za prepoznavanje emocija na radnom mjestu i neki sistemi za kategorizaciju ljudi ili biometrijsku identifikaciju na daljinu u realnom vremenu na javnim mjestima u svrhu sprovođenja zakona (uz male izuzetke).

Aktom o vještačkoj inteligenciji uvode se i pravila za takozvane modele vještačke inteligencije opšte namjene, koji su vrlo sposobni modeli osmišljeni za obavljanje širokog raspona zadataka kao što je izrada teksta slična ljudskoj.

Države članice EU imaju rok do 2. avgusta 2025. godine da odrede nacionalna nadležna tijela koja će nadgledati primjenu pravila za sisteme vještačke inteligencije i sprovoditi aktivnosti nadzora tržišta. Ključno tijelo za primjenu Akta o vještačkoj inteligenciji na nivou EU biće Kancelarija Komisije za vještačku inteligenciju, a ona će sprovoditi i pravila za modele vještačke inteligencije opšte namjene. Uz to, tri savjetodavna tijela će podržavati primjenu pravila. Većina pravila Akta o vještačkoj inteligencije počeće da se primjenjuje 2. avgusta 2026. godine.

Međutim, zabrane sistema vještačke inteligencije za koje se smatra da predstavljaju neprihvatljiv rizik primjenjivaće se već nakon šest mjeseci, dok će se pravila za takozvane modele vještačke inteligencije opšte namjene primjenjivati nakon 12 mjeseci.