
Iz Strasbourga: AI akt prošao “sud” EU parlamenta, koje novosti očekuju korisnike, inovatore i developere?
Europski Akt o umjetnoj inteligenciji upravo je došao korak bliže da postane zakonom što znači kako bismo do kraja godine mogli dobiti regulativu koja će morati pronaći ravnotežu između sigurnosti građana i poticanja inovacija.
Aktom bi se trebalo osigurati da umjetna inteligencija – koja se trenutno i u budućnosti bude razvijala i upotrebljavala u Europi – bude u potpunom skladu s pravima i vrijednostima EU-a, uključujući područja ljudskog nadzora, sigurnosti, privatnosti, transparentnosti, nediskriminacije i ekološke dobrobiti.
Prošlo je već nekoliko mjeseci od kada smo prvi put pisali o AI aktu, a u međuvremenu on je doživio važne promjene. Što bi nam mogao donijeti prvi zakon na svijetu koji će pokušati regulirati umjetnu inteligenciju?
Hoće li AI akt više regulirati ili poticati?
Pružiti AI developerima, implementatorima i korisnicima jasne zahtjeve i obveze kada govorimo o upotrebi umjetne inteligencije, a s druge strane ojačati primjenu, ulaganja i inovacije vezane uz umjetnu inteligenciju diljem Unije, dvije su težnje koje Akt želi staviti u ravnotežu.
AI inovacije trebale bi se postići građenjem i mobilizacijom istraživačkih kapaciteta. EU to želi osigurati alatima koje će ustupiti kroz platformu AI-on-demand i stvaranjem okruženja za programere u kojem će moći testirati i eksperimentirati (TEF), a mala i srednja poduzeća te javne uprave lakše implementirati AI u svom radu (EDIH).
Sa strane obveza i odgovornosti, kako bi Europska unija postigla sigurno, transparentno, etično i nepristrano korištenje umjetne inteligencije, odlučeno je da će se AI sustavi podijeliti u četiri kategorije rizika što je upravo i “kontroverzniji” dio Akta koji je uzrokovao podjelu među europarlamentarcima i produžio njegovo usvajanje.
Također, bitno je naglasiti da je sastavljanje zakona i brigu o te dvi težnje dodatno zakomplicirao ubrzan razvoj ChatGPT-a, koji je donio čitav niz novih pitanja na stol europarlamentaraca.

Kategorizacija građana na osnovu društvenog ponašanja ili osobnih karakteristika bit će zabranjena!
U prvu kategoriju AI rizika spadaju sustavi minimalnog rizika poput neželjene pošte. Zatim slijede sustavi ograničavajućeg rizika koji se odnosi na sustave umjetne inteligencije s posebnim obvezama transparentnosti kao što su chatbotovi. Treća kategorija su AI sustavi visokog rizika i na kraju ostaju sustavi koji će biti potpuno zabranjeni što se odnosi na umjetnu inteligenciju koja predstavlja prijetnju sigurnosti i sredstvima osnovnih životnih potreba.
Upravo treća kategorija dovela je do žustrih rasprava u parlamentu. Ipak, zastupnici su uspjeli doći do sporazuma. Odlučeno je da će sustavi umjetne inteligencije čija je razina rizika za sigurnost ljudi neprihvatljiva, poput kategorizacije građana na osnovu društvenog ponašanja ili osobnih karakteristika, biti zabranjeni.
Zastupnici su proširili klasifikaciju visokorizičnih područja zabranivši i nametljive i diskriminirajuće upotrebe sustava umjetne inteligencije poput:
- sustava za biometrijsku identifikaciju „u stvarnom vremenu” i sustava za „naknadnu” biometrijsku identifikaciju na javnim mjestima;
- sustava za biometrijsku kategorizaciju koji koriste osjetljive značajke (npr. rod, rasu, etničko podrijetlo, državljanstvo, vjeroispovijest, političku orijentaciju);
- sustava za prognostički rad policije (koji se temelje na izradi profila, lokaciji ili prethodnom kriminalnom ponašanju pojedinca);
- sustava za prepoznavanje emocija u području kaznenog progona i upravljanja granicama, na radnom mjestu te u obrazovnim ustanovama; te
- neselektivnog prikupljanja snimaka lica s interneta ili nadzornih snimaka radi stvaranja baza podataka za prepoznavanje lica (pri čemu se krše temeljna ljudska prava uključujući pravo na privatnost).
Europarlamentarci su bili više zabrinuti mogućim posljedicama AI-a, nego razvojem IT industrije
Međutim, ono oko čega su zastupnici lomili koplja tijekom debate je činjenica što akt dopušta korištenje AI sustava iz kategorije visokog rizika – u točno određene svrhe.
Govorimo o AI sustavima koje koristimo u ključnim infrastrukturama, sigurnosnim komponentama proizvoda, osnovnim privatnim i javnim uslugama, provođenju pravde i demokratskim procesima, itd.
Svrhe koje ne podliježu zabrani korištenja uključuju otmicu, sprječavanje terorizma i potraga za kriminalcima koji su počinili krivična djela čija kazna iznosi minimalno 3 godine. Za posljednje je potrebna dozvola suca.

Usprkos tome što bi ovi visoko rizični sustavi podlijegali najstrožoj regulaciji, stranke lijeve političke orijentacije smatraju kako sustavi te kategorije uopće ne bi trebali biti dozvoljeni. Smatraju kako korištenje daljinske biometrije i identifikacije, što je tehnologija pomoću koje možemo identificirati osobne na javnim mjestima, nalikuje sustavu društvenog akreditiranja kakav postoji u Kini. Ukratko, ljevica se boji orvelijanskog društva.
Hoće li ovo kočiti razvoj AI-a i općenito cijele IT industrije, rijetko je spominjano tijekom debate. Zapravo, svi zastupnici koji su izlagali smatraju kako će akt potaknuti razvoj, ali samo jedna europarlamentarna zastupnica je u svojem obraćanju spomenula developere…
“…moramo nastaviti s razvojem prava u dijalogu s industrijom i developerima”
Karen Melchior, zastupnica Renew Europe grupacije, navodi za Netokraciju kako su nastojali zaštiti developere otvorenog koda jer su oni pokretači inovacija u digitalnom sektoru. Smatra kako oni ne bi trebali nositi teret usklađenosti s regulativom, pogotovo ako govorimo o entuzijastima ili pojedincima:
Radila sam na tome da se programeri otvorenog koda moraju pridržavati propisa samo kada pružaju svoju umjetnu inteligenciju kao uslugu ili kada pružaju komercijalnu podršku za svoj kod.
Također, Akt jamči da kada treće strane koriste kod izvan jednog od ovih ugovora, ta treća strana postaje odgovorna za usklađenost.
Naposljetku, kako bi EU potaknula inovacije i smanjila prepreke ulaska na tržište, dodano je djelomično izuzeće za istraživačke projekte, sve dok ti projekti ne predstavljaju rizik za temeljna ljudska prava ili socio-ekonomsku dobrobit građana, navodi Karen:
Nadamo se da će ovaj akt osigurati daljnji razvoj i rast IT industrije u Europi, ali moramo nastaviti s razvojem tvrdog i mekog prava u dijalogu s industrijom i developerima.
Što s ChatGPT-jem i drugim sustavima generativne umjetne inteligencije?
Prvotni AI akt uopće nije uzimao u obzir sustave koji nemaju točno određenu svrhu kao što je ChatGPT, a upravo je njegova pojava odužila donošenje ovog Akta. Europarlamentarci nisu znali kako regulirati temeljne modele (foundation models), AI sustave koji pokreću druge AI sustave.
Tu se pojavilo i pitanje autorskog prava, kako bi ih zaštitili europarlamentarci su se dogovorili da sustavi generativnog AI-ja trebaju dati sažetak svih podataka koji su korišteni u treniranju tih sustava, a da te podatke obuhvaća zakon o autorskim pravima. Dodatno, to će značiti i da generativni sustavi moraju biti transparentni oko toga je li njihov sadržaj uistinu stvorio AI, a ne čovjek.
Ovo se može promatrati kao popriličan udar na generativni AI jer sustavi poput Chat GPT-ja ili Barda crpe informacije iz brojnih izvora diljem interneta. Kazne za temeljne modele koji prekrše ova pravila mogu doseći 10 milijuna eura ili 2% godišnjeg prometa.
Do sad smo posljedice mogli vidjeti na primjeru i pojedinih država Unije, poput Italije, koja je naredila Open AI-ju da privremeno prestane obrađivati podatke talijanskih građana jer za to nema adekvatne privole.
Nove, bitne promjene (za digitalnu zajednicu)
Pored toga što AI akt olakšava rad developerima otvorenog koda, novi zakon:
- promiče regulatorne sandboxove ili kontrolirana okruženja koja su uspostavila javna tijela za testiranje umjetne inteligencije prije njezine primjene,
- daje građanima pravo na podnošenje pritužbi na sustave umjetne inteligencije i primanje objašnjenja odluka koje donose visoko rizični sustavi umjetne inteligencije jer te odluke mogu značajno utjecati na prava građana;
- revidira ulogu Ureda Unije za umjetnu inteligenciju koji bi trebao pratiti primjenu pravila o umjetnoj inteligenciji;
- donosi promjene u kategoriji visokorizičnih sustava što znači kako u kategoriju sada spadaju sustavi preporuke velikih platformi koje imaju preko 45 milijuna korisnika i sustavi koji mogu utjecati na ponašanje glasača.
Što dalje?
Zastupnici sada ulaze u međuinstitucionalne pregovore s Vijećem ministara EU-a i Europskom komisijom u tzv. trijalozima čija je svrha finaliziranje zakona. Prvi trijalog održat će navečer odmah na dan samog glasanja, a moguća su još dva trijaloga. Finalno odobrenje zakona očekuje se do kraja godine, a potpuna provedba početkom 2026. godine.
Sukladno članku 94. Zakona o elektroničkim medijima, komentiranje članaka na Netokraciji dopušteno je samo korisnicima koji ostave svoje ime i prezime te mail adresu i prihvate pravila ponašanja.
Pravila ponašanja
Na Netokraciji za vas stvaramo kvalitetan, autorski potpisan sadržaj i zaista se veselimo vašim kvalitetnim, kontruktivnim komentarima. Poštujmo stoga jedni druge prilikom komentiranja, kao i Zakon, držeći se sljedećih pravila ponašanja:
Kako koristimo podatke koje ostavljate? Bacite oko na našu izjavu o privatnosti.
Sve ostale komentare ćemo s guštom spaliti, jer ne zaslužuju svoje mjesto na internetu.