Dogovoren Akt o AI-ju: AI se neće smjeti koristiti za društveno vrednovanje

Odbori Europskog parlamenta podržali su u utorak Akt o umjetnoj inteligenciji koji će omogućiti razvoj tog polja, ali i zaštititi korisnike od uporabe AI-ja “neprihvatljivog rizika” poput društvenog vrednovanja.

Na sjednici Odbora za unutarnje tržište zaštitu potrošača (IMCO) i Odbora za građanske slobode, pravosuđe i unutarnje poslove (LIBE) podržan je dogovor s državama članicama EU-a o Aktu o umjetnoj inteligenciji. Dogovor još moraju formalno potvrditi Europski parlament i Vijeće EU-a.

“Nakon trijaloga, danas smo korak bliže ka donošenju novih i jedinstvenih pravila za sustave umjetne inteligencije. Uspostavom jasnog okvira želimo iskoristiti sve mogućnosti, ali i minimizirati rizike. Europi su potrebni okvir povjerenja i pravna sigurnost, jasno uz inovacije i konkurentnost – koje Aktom o umjetnoj inteligenciji želimo potaknuti”, ocijenio je eurozastupnik Karlo Ressler (HDZ/EPP), potpredsjednik posebnog Odbora EP-a za umjetnu inteligenciju u digitalnom dobu (AIDA), priopćio je njegov ured u utorak.

Postignutim dogovorom zabranit će se umjetna inteligencija koja pojedince društveno vrednuje i razvrstava u određene kategorije – po rodu, rodnom identitetu, rasi, etničkom podrijetlu, migracijskom statusu, državljanstvu, političkom uvjerenju, seksualnoj orijentaciji, vjeroispovijesti i slično.

Pod umjetnom inteligencijom neprihvatljivog rizika smatraju se pohranjivanje fotografija prikaza lica s interneta ili snimaka CCTV-a snimaka, prepoznavanje emocija na radnom mjestu i u školama, društveno bodovanje, prediktivno policijsko djelovanje isključivo na profiliranju osobe. Građani će moći podnositi pritužbe na sustave AI-ja koji ugrožavaju njihova prava.

“Danas smo izglasali prvi europski zakon o umjetnoj inteligenciji kojim su sustavi umjetne inteligencije podijeljeni po kategorijama rizika koji predstavljaju za građane. Zakon tako razlikuje sustave neprihvatljivog rizika, koji su zabranjeni, zatim visokog rizika, ograničenog rizika i minimalnog rizika kod kojih nema nikakvih posebnih zakonskih ograničenja. S tim u vezi kao visokorizičan sustav zabranili smo koncept društvenog vrednovanja kojim se pomoću algoritama može prikupljati širok spektar podataka o građanima i njihovom ponašanju”, istaknuo je u priopćenju hrvatski eurozastupnik Tomislav Sokol (HDZ/EPP), potpredsjednik IMCO-a.

No postojat će izuzeci od pravila. Uporaba biometrijskih podataka bit će dozvoljena u nekim situacijama pod određenim uvjetima. RBI (Remote biometric identification) bit će moguć uz vremensko i geografsko ograničenje te prethodno sudsko odobrenje. Koristit će se u potrazi za nestalima i za sprječavanje terorističkih napada. A visokorizični sustavi, s ogromnim utjecajem na zdravstvo, obrazovanje, promet, migracije i upravljanje demokratskim procesima, morat će prolaziti sustav procjene i ublažavanja rizika, omogućiti nadležnim tijelima detaljnu dokumentaciju o značajkama i svrsi sustava, između ostaloga.

Temeljni modeli kao što su ChatGPT i sustavi umjetne inteligencije opće namjene (GPAI) morat će biti u skladu s obvezama transparentnosti prije nego što se stave na tržište. To uključuje izradu tehničke dokumentacije, usklađivanje sa zakonom EU-a o autorskim pravima i širenje detaljnih sažetaka o sadržaju koji se koristi za obuku.

Osim toga, umjetne ili manipulirane fotografije, audio ili video sadržaji (“deepfakes”) morat će biti jasno naznačeni kao takvi.

(Hina)