Može li AI Akt Europske unije naći ravnotežu između regulacije i poticanja inovacija?

Može li AI Akt Europske unije naći ravnotežu između regulacije i poticanja inovacija?

Približava nam se usvajanje europskog Akta o umjetnoj inteligenciji koji ispred sebe ima vrlo težak zadatak. U isto vrijeme mora biti dovoljno strog kako bi pružio sigurnost svim građanima Europe, a u isto vrijeme dovoljno blag kako bi poticao inovativnost.

Europska komisija preuzela je na sebe veliki zadatak zbog čega će ožujak 2023. godine biti povijestan za umjetnu inteligenciju. U narednom periodu Europska komisija bi mogla usvojiti Akt o umjetnoj inteligenciji što bi bio prvi zakon na svijetu koji regulira rizike AI-ja. Za EU koja je dosad preuzimala ulogu regulatora za teška pitanja poput zaštite osobnih podataka, ovo nije nesvakidašnji potez, pogotovo ako uzmemo u obzir da se ta uloga i nameće – malo je vjerojatno da mogu pratiti Kinu i SAD po pitanju inovacija.

Akt je zapravo dio većeg paketa u kojem se još nalaze dokumenti Communication on fostering a European approach to AI i Coordinated Plan on Artificial Intelligence.

Cijeli taj paket zapravo predstavlja europski pristup umjetnoj inteligenciji, a on se temelji na izvrsnosti i povjerenju s ciljem jačanja istraživačkih i industrijskih kapaciteta uz osiguranje sigurnosti i temeljnih prava. U teoriji, to bi se trebalo postići:

Kako smo naveli, Akt će pokušati regulirati umjetnu inteligenciju, a samo reguliranje temelji se na procjeni rizika kojeg stvara AI tehnologija. Procjena rizika prilično je kompleksan proces koji zahtjeva uključivanje i etičkih stručnjaka, ali i privatnog sektora kako bi regulatorima dali bolji uvid u pozitivne/negativne implikacije AI tehnologije.

Proces se nalazi na razmeđi pitanja s početka: kako postaviti regulaciju da bude dovoljno stroga i jasna da pruži sigurnost svim građanima Europe, a u isto vrijeme dovoljno blaga kako bi poticala inovativnost. 

Upravo se time bavimo dalje u tekstu.

Akt se temelji na dokumentima Ethics Guidelines for Trustworthy Artificial Intelligence i The EU White Paper on AI te prijedlozima koje su dali građani i tvrtke iz Europske unije.

Akt pokušava balansirati dvije suprotne težnje

Ovaj regulatorni prijedlog želi pružiti AI developerima, implementatorima i korisnicima jasne zahtjeve i obveze kada govorimo o upotrebi umjetne inteligencije.

Akt i koordinirani plan o umjetnoj inteligenciji trebaju zajamčiti sigurnost i temeljna prava ljudi i poduzeća, a s druge strane, ojačati primjenu, ulaganja i inovacije vezane uz umjetnu inteligenciju diljem Unije. To su upravo dvije težnje koje Akt mora staviti u ravnotežu.

U Koordiniranom planu dan je prijedlog kako će se AI inovacije postići građenjem i mobilizacijom istraživačkih kapaciteta. EU to želi osigurati alatima koje će ustupiti kroz platformu AI-on-demand i stvaranjem okruženja za programere u kojem će moći testirati i eksperimentirati (TEF), a mala i srednja poduzeća te javne uprave lakše implementirati AI u svom radu (EDIH).

S druge strane, kako bi Europska unija postigla sigurno, transparentno, etično i nepristrano korištenje umjetne inteligencije, tako su odlučili podijeliti AI sustave u četri kategorije rizika koje ćemo detaljno predstaviti što je upravo i “kontroverzniji” dio Akta.

Koje su 4 kategorije rizika s umjetnom inteligencijom?

Krenimo s AI sustavima koji predstavljaju minimalni rizik.

Prijedlog dopušta besplatnu upotrebu AI minimalnog rizika što uključuje aplikacije kao što su videoigre s omogućenom umjetnom inteligencijom ili filtri neželjene pošte. Velika većina sustava umjetne inteligencije koji se trenutno koriste u EU spada u ovu kategoriju.

Zatim slijedi AI ograničavajućeg rizika koji se odnosi na sustave umjetne inteligencije s posebnim obvezama transparentnosti.

Kada koriste sustave umjetne inteligencije kao što su chatbotovi, korisnici bi trebali biti svjesni da su u interakciji sa strojem kako bi mogli donijeti informiranu odluku hoće li interakciju nastaviti ili prekinuti.

Sustavi visokog rizika moraju zadovoljavati stroga pravila

Treća kategorija odnosi se na AI sustave visokog rizika kojeg možemo pronaći u raznim područjima kao što su ključne infrastrukture, sigurnosnim komponentama proizvoda, osnovnim privatnim i javnim uslugama, provođenje pravde i demokratski procesi, itd.

Upravo ti sustavi umjetne inteligencije podliježu strogim obvezama i prije nego što mogu doći na tržište moraju zadovoljiti mnogo kriterija poput toga da moraju sadržavati visoku kvalitetu podataka koji opskrbljuju sustav kako bi se smanjili rizici i diskriminirajući rezultati.

Također, bitno je istaknuti kako se svi sustavi daljinske biometrijske identifikacije smatraju visokim rizikom i podliježu strogim zahtjevima, ali postoje iznimke. Dopušteno je korištenje ove tehnologije u posebnom slučajevima poput izgubljenog djeteta ili za pronalazak terorista, ali načelno upotraba ostaje zabranjena u javnim prostorima.

Četvrta kategorija potpuno zabranjuje određene AI sustave

Kategorija neprihvatljivog rizika svodi se na tehnologiju koja predstavlja prijetnju sigurnosti i sredstvima osnovnih životnih potreba što se odnosi na sustave društvenog akreditiranja, poput onog u Kini o kojem smo detaljno pisali, i na pametne igračke koje koriste glasovne asistente koji potiču određeno ponašanje.

Akt će zabraniti i AI modele koji koriste subliminalne tehnike bez svjesnog pristanka osobe. Iznimke će ovisiti o svrsi, a jedna od njih je korištenje takvih AI modela u terapeutske svrhe uz pristanak osobe.

Zatim, Akt će zabraniti i modele koje iskorištavaju čovjekove slabosti poput mentalnog zdravlja, ekonomske situacije ili utjecaj na čovjekovo ponašanje koje može uzrokovati značajnu fizičku ili psihičku štetu.

Sada smo bolje upoznali osnovnu teoriju koju je ponudila Europska unija i kao što možemo vidjeti, regulacija je stroga, a način poticanja inovacija nije baš detaljno objašnjen. Zato ne iznenađuje kada čujemo kako industrija nije zadovoljna ovim Aktom.

Što sve gore navedeno zapravo znači za privatni sektor i pojedinca – za Netokraciju komentiraju Marijana Šarolić Robić, odvjetnica i mentorica startupa s fokusom na umjetnu inteligenciju i Aco Momčilović, suosnivač Global AI Ethics Instituta.

Je li Akt našao ravnotežu između regulacije i poticanja inovacija?

Europska komisija je krenula s pripremama oko regulacije za umjetnu inteligenciju gotovo prije pet godina, točnije u travnju 2018. Unutar godine dana, Stručna skupina na viskoj razini (HLEG) nakon provedene javne rasprave objavila je etičke smjernice o umjetnoj inteligenciji, objašnjava nam Marijana:

Taj dokument s puno pitanja i spremnosti na razgovor te dogovor, na žalost, pretvoren je preko prijelazne faze tzv. Bijele knjige u prijedlog Akta o umjetnoj inteligenciji.

On se pregovara gotovo 3 godine na razini EU bez vidljivog pomaka i u rigidnom tekstu koji ne razumijeva bit same tehnologije te ne postiže svoju svrhu zaštite temeljnih vrijednosti EU.

Marijana smatra da je Akt prerano postao EU zakon. Objašnjava kako je Akt trebao, sukladno razvoju tehnologije, ostati dulje u formi etičkih smjernica te pomalo prerastati u regulativu kako se budu razvijali poslovni slučajevi primjene umjetne inteligencije.

“Male, srednje kompanije i startupi jednostavno nemaju šanse biti usklađeni”

Akt ne postiže ravnotežu između regulacije i inovacije, smatra Marijana, a cijela tvrdnja kako će risk approach model omogućiti napredak tehnologije jer će samo visoko rizični sustavi primjene umjetne inteligencije biti regulirani uz zaštitu ljudskih prava i vrednota te temeljnih principa tehnologije, naziva jednostavno pompoznim:

To je suhoparan i zaključan jezik briselske birokracije, koji na tragu neslavnog GDPR-a zaključava razvoj inovacija monstruoznim obvezama usklađenosti.

Taj teret usklađenosti koje kompanije moraju zadovoljiti traži značajne resurse u ljudima, stručnosti i tehnologiji, objašnjava Marijana:

Barijera koju je potrebno prijeći jednostavno je previsoka i za velike kompanije s raspoloživim resursima, a male, srednje kompanije i startupi jednostavno nemaju šanse biti usklađeni.

U samoj preambuli prijedloga AI ACT-a navodi se iznos od nekoliko tisuća do nekoliko desetaka tisuća eura za trošak takve usklađenosti na godišnjoj razini, a na pitanje kako će kompanije namaknuti takav novac, odgovor je bio – iz EU fondova.

Upravo to pokazuje da jedemo sami sebe, raspisivat ćemo natječaje, angažirati interne i eksterne resurse da dobijemo sredstva na natječajima koja ćemo trošiti na usklađenje obveza iz AI ACT-a.

Nejasne definicije i kriteriji

Marijana naglašava kako u samom procesu dizajna razvoja nedostaje jasna struktura koja bi zadovoljavala kriterije koje Akt nameće svakom visoko rizičnom sustavu umjetne inteligencije, a za one manjeg ili neznatnog rizika samo preporučuje.

Upravo je nedostatak dijaloga, međusobne suradnje i razumijevanja i mekanog pristupa u razvoju regulative doveo do toga da sam prijedlog Akta o umjetnoj inteligenciji stalno mijenja pristup pa i definiciju same umjetne inteligencije.

Tvrtke se nadaju kako će probleme Akta izbjeći skaliranjem i rastom izvan tržišta EU

Većina kompanija koje Marijana poznaje već je svjesna što se sprema. Tješe se činjenicom da imaju još dvije, tri godine do stupanja Akta na snagu pa se nadaju da će se dotad skalirati i biti globalno konkuretni. Onda im EU tržište neće biti presudno za opstanak.

To je suludo jer kad god pričam s kompanijama koje razvijaju sustave temeljene na umjetnoj inteligenciji, uvijek je jasno da žele razvijati proizvod/uslugu koja traje i temelji se na dugotrajnom odnosu s budućim klijentima, odnosu uzajamne koristi i ne žele nikoga svjesno oštetiti.

Problem je što ne postoji jasan, jednostavn i jednoznačan alat kojim bi takve kompanije osigurale da njihovi sustavi temeljeni na umjetnoj inteligenciji ne nanose štetu te kada utvrde da do nenamjerne štete ipak dođe da istu mogu ispraviti čim prije.

Rješava li ovaj Akt etičke probleme koje ujedno i prepoznaje?

AI Akt odgovara na dio pitanja koja se postavljaju u vezi budućeg upravljanja (governance) umjetne inteligencije.

S druge strane, ako već djelomice sabotiramo inovaciju poradi zaštite EU vrijednosti – koliko je Akt uspješan u tome da, između ostalog, osigurava pravednost i nediskriminaciju, privatnost i zaštitu podataka te odgovornost i upravljanje?

Odgovor nije baš jednostavan jer on ovisi iz kojeg kuta gledamo problem.

U užem smislu, dokument daje jedan generalni okvir u kojem se mogu stvarati sustavi umjetne inteligencije. Okvir odgovara nekim etičkim načelima koja su prepoznata kao važna, ali brzo se javlja i problem:

Prvi problem koji se tu javlja, i na koji smo upozoravali i mi u Global AI Ethics Institute, je da zapravo ne postoji univerzalni set pravila koja se mogu jednostavno slijediti. Kao što se može primijetiti, glavne odrednice dokumenta su napisane vrlo generički (namjerno) i općenito.

Ono u što nitko nije siguran je koliko se iste riječi i izrazi različito interpretiraju u različitim kulturama i dijelovima svijeta:

Naravno, unutar EU se nadamo da će biti određena doza razumijevanja, ali imam dojam da Akt s razlogom pretendira na postavljanje normi i širem globalnom kontekstu.

Osim različitih interpretacija, postavlja se i pitanje postojanja drugih vrijednosti i normi kod skupina koje nisu bile uključene, a možda niti prepoznate u kreiranju ovoga dokumenta.

Dio toga problema, barem u teoriji smatra Aco, mogao bi riješiti sustav koji je predložen, no uz centralno tijelo (Aritficial Intelligence Board i dodijeljene ekspertne grupe) treba postojati i tijelo na nacionalnoj razini koje će biti autoritet za pitanja umjetne inteligencije:

Tu opet dolazimo do situacije gdje će se zemlje razlikovati po svome pristupu i ozbiljnosti kod kreiranja (ili ne kreiranja) takvih nacionalnih tijela. Teško je reći što tu možemo očekivati od Hrvatske, ako uzmemo u obzir da je jedna od zemalja koja još, ni nakon par godina (nominalnog) rada, nije donijela svoju nacionalnu strategiju za umjetnu inteligenciju.

“U razdoblju kad AI može biti uzrok nove vrste kolonijalizma, upravo će teme definiranja naših etičkih sustava, normi i vrijednosti biti ključne.”

Etička pitanja ovim Aktom nisu riješena, ističe Aco, ali smatra kako to jedan dokument ni ne može napraviti jer govorimo o procesu koji mora ostati barem jednim dijelom fluidan, a “tek ćemo vidjeti kako će ovaj dokument, iako vrlo generalno postavljen, odgovarati na sve brže promjene i pomake.

Ipak, dodaje kako mu najveći strah budi jedna druga opasnost.

Ako gledamo pristup za kojeg se ovaj Akt zalaže: razvoj AI-ja u vakumu na srednji rok, ovo bi bio jedan solidan dokument i solidna baza za daljnju razradu i prilagodbe.

Međutim, pravi test će biti primjena Akta, u trenucima kada konkurencija iz različitih dijelova svijeta počne odmicati u razvoju i primjeni umjetne inteligencije.

Hoćemo li tada izdržati i raditi sve prema propisanom modelu pa makar to značilo i sporiji razvoj, manje investicija, odlazak talenata i ostale posljedice, ili ćemo se odreći naših principa iz pragmatičkih razloga?

Netko će morati odvagnuti što žrtvovati i koliko riskirati u situaciji kada neka druga zemlja može dobiti nenadoknadiv First Mover Advantage, smatra Aco:

U razdoblju koje nam dolazi, gdje AI može biti uzrok nove vrste kolonijalizma, upravo će teme definiranja naših etičkih sustava, normi i vrijednosti biti ključno.

S obzirom na sve to, Aco zaključuje da Europa može isplivati kao predvodnik u pristupu razvoju ili početi zaostajati “toliko da je svejedno hoće li se sama odreći dokumenata koje je napravila ili će zajedno s njima postati beznačajna”.

Sukladno članku 94. Zakona o elektroničkim medijima, komentiranje članaka na Netokraciji dopušteno je samo korisnicima koji ostave svoje ime i prezime te mail adresu i prihvate pravila ponašanja.

Pravila ponašanja

Na Netokraciji za vas stvaramo kvalitetan, autorski potpisan sadržaj i zaista se veselimo vašim kvalitetnim, kontruktivnim komentarima. Poštujmo stoga jedni druge prilikom komentiranja, kao i Zakon, držeći se sljedećih pravila ponašanja:

  • Ne budite 💩: Nema vrijeđanja, diskriminiranja, ni psovanja (osim ako nije osobni izričaj, ali onda neka psovka bude općenita, a ne usmjerena prema nekome). Također, upoznajte se sa stavkom 2. članka 94. Zakona o elektroničkim medijima prije no što ostavite komentar.
  • Samo kvalitetna rasprava, manje trolanja: Ne morate se ni sa kim slagati, ali budite konstruktivni i doprinesite raspravi! Svako trolanje, flameanje, koliko god "plesalo" na granici, leti van.
  • Imenom i prezimenom, nismo Anonymous 👤: Autor sadržaja stoji iza svog sadržaja, stoga stojite i vi iza svog komentara. Koristimo ime i prezime te pravu email adresu.

Kako koristimo podatke koje ostavljate? Bacite oko na našu izjavu o privatnosti.

Sve ostale komentare ćemo s guštom spaliti, jer ne zaslužuju svoje mjesto na internetu.

Odgovori

Tvoja e-mail adresa neće biti objavljena.

Popularno

Prikaz

Native Teams u Hrvatskoj: Kako olakšavaju brigu o porezima, doprinosima i zapošljavanju u inozemstvu?

Native Teams, platforma za freelancere i digitalno plaćanje koju globalno koristi gotovo sto tisuća ljudi, u Hrvatsku je stigla prije dvije godine. Otkrivamo kako im je izgledalo širenje na regiju te što su u međuvremenu nova uveli.

Zabava i zanimljivosti

Hrvati napokon mogu glasati elektronski, i to zahvaljujući Samu Altmanu (i botovima)

Već niz godina naklapa se i navija za uvođenje elektronskog glasanja u Hrvatskoj. Ako nismo tijekom pandemije koronavirusa, kad ćemo, pitaju se mnogi. Ova superizborna godina, u kojoj nas čekaju parlamentarni, europski i predsjednički izbori jedina je još sila (ne)prilika koja bi mogla nagnati Državno izborno povjerenstvo da poduzmu mjere po tom pitanju.

Digitalni marketing

“Želim samo logo za svoj brend” je kao naručivanje hrane bez soli i začina

U dinamičnom svijetu poslovanja, gdje nam se svakodnevno servira tona sadržaja i reklama i gdje se prvi dojam često stvara jednim pogledom – dobro osmišljen logotip izuzetno je važan. Međutim, put kroz brendiranje ide daleko izvan stvaranja logotipa.

Što ste propustili

Tvrtke i poslovanje

Otvorene prijave za Europsko natjecanje u društevnoj inovaciji: Glavna nagrada 75.000 eura

Nagrada promiče društvene inovacije koje pružaju rješenja za društvene izazove i potiču održivi i inkluzivni rast u Europi.

Tvrtke i poslovanje

Pomozite nam doznati tko su, kako rade i što muči hrvatske SaaS tvrtke

Netokracija i SaaStanak udružili su se u istraživanju kako bismo prvi put u Hrvatskoj dobili pregled domaćeg "Software as a Service" ekosustava.

Startupi

Tim MediBoost pobjednik je inovacijskog natjecanja AI4Health.Cro

U natjecanju je sudjelovalo 28 timova, od kojih je 10 ušlo u veliku završnicu te dobilo priliku natjecati se za prve tri nagrade, a pobjedu je odnio tim MediBoost.

Intervju

Moran Cerf: Vrijeme je da marketinška industrija uporabi alate koje su neuroznanstvenici stvorili!

Moran Cerf znanstvenik je koji je revidirao protokol lansiranja nuklearnog oružja, a na Danima komunikacija najavio je marketing budućnosti – marketing u našim snovima. I nije riječ o sanjarenju!

FinTech

Regulativa vs. korisničko iskustvo: Kako banke identificiraju korisnike na daljinu?

Pravilnikom Ministarstva financija o uvođenju novih klijenata u bankarski sustav industrija je zadovoljna, ali kako provjeriti identitet klijenta na daljinu - i dalje ostaje veliki problem za banke.

Novost

Cancel kultura: Tko (ni)je dosad otkazan?

U novoj epizodi podcasta komentiramo dvije prilično kontroverzne teme - otkazivanje i politiku.