Može li AI Akt Europske unije naći ravnotežu između regulacije i poticanja inovacija?

Može li AI Akt Europske unije naći ravnotežu između regulacije i poticanja inovacija?

Približava nam se usvajanje europskog Akta o umjetnoj inteligenciji koji ispred sebe ima vrlo težak zadatak. U isto vrijeme mora biti dovoljno strog kako bi pružio sigurnost svim građanima Europe, a u isto vrijeme dovoljno blag kako bi poticao inovativnost.

Europska komisija preuzela je na sebe veliki zadatak zbog čega će ožujak 2023. godine biti povijestan za umjetnu inteligenciju. U narednom periodu Europska komisija bi mogla usvojiti Akt o umjetnoj inteligenciji što bi bio prvi zakon na svijetu koji regulira rizike AI-ja. Za EU koja je dosad preuzimala ulogu regulatora za teška pitanja poput zaštite osobnih podataka, ovo nije nesvakidašnji potez, pogotovo ako uzmemo u obzir da se ta uloga i nameće – malo je vjerojatno da mogu pratiti Kinu i SAD po pitanju inovacija.

Akt je zapravo dio većeg paketa u kojem se još nalaze dokumenti Communication on fostering a European approach to AI i Coordinated Plan on Artificial Intelligence.

Cijeli taj paket zapravo predstavlja europski pristup umjetnoj inteligenciji, a on se temelji na izvrsnosti i povjerenju s ciljem jačanja istraživačkih i industrijskih kapaciteta uz osiguranje sigurnosti i temeljnih prava. U teoriji, to bi se trebalo postići:

Kako smo naveli, Akt će pokušati regulirati umjetnu inteligenciju, a samo reguliranje temelji se na procjeni rizika kojeg stvara AI tehnologija. Procjena rizika prilično je kompleksan proces koji zahtjeva uključivanje i etičkih stručnjaka, ali i privatnog sektora kako bi regulatorima dali bolji uvid u pozitivne/negativne implikacije AI tehnologije.

Proces se nalazi na razmeđi pitanja s početka: kako postaviti regulaciju da bude dovoljno stroga i jasna da pruži sigurnost svim građanima Europe, a u isto vrijeme dovoljno blaga kako bi poticala inovativnost. 

Upravo se time bavimo dalje u tekstu.

Akt se temelji na dokumentima Ethics Guidelines for Trustworthy Artificial Intelligence i The EU White Paper on AI te prijedlozima koje su dali građani i tvrtke iz Europske unije.

Akt pokušava balansirati dvije suprotne težnje

Ovaj regulatorni prijedlog želi pružiti AI developerima, implementatorima i korisnicima jasne zahtjeve i obveze kada govorimo o upotrebi umjetne inteligencije.

Akt i koordinirani plan o umjetnoj inteligenciji trebaju zajamčiti sigurnost i temeljna prava ljudi i poduzeća, a s druge strane, ojačati primjenu, ulaganja i inovacije vezane uz umjetnu inteligenciju diljem Unije. To su upravo dvije težnje koje Akt mora staviti u ravnotežu.

U Koordiniranom planu dan je prijedlog kako će se AI inovacije postići građenjem i mobilizacijom istraživačkih kapaciteta. EU to želi osigurati alatima koje će ustupiti kroz platformu AI-on-demand i stvaranjem okruženja za programere u kojem će moći testirati i eksperimentirati (TEF), a mala i srednja poduzeća te javne uprave lakše implementirati AI u svom radu (EDIH).

S druge strane, kako bi Europska unija postigla sigurno, transparentno, etično i nepristrano korištenje umjetne inteligencije, tako su odlučili podijeliti AI sustave u četri kategorije rizika koje ćemo detaljno predstaviti što je upravo i “kontroverzniji” dio Akta.

Koje su 4 kategorije rizika s umjetnom inteligencijom?

Krenimo s AI sustavima koji predstavljaju minimalni rizik.

Prijedlog dopušta besplatnu upotrebu AI minimalnog rizika što uključuje aplikacije kao što su videoigre s omogućenom umjetnom inteligencijom ili filtri neželjene pošte. Velika većina sustava umjetne inteligencije koji se trenutno koriste u EU spada u ovu kategoriju.

Zatim slijedi AI ograničavajućeg rizika koji se odnosi na sustave umjetne inteligencije s posebnim obvezama transparentnosti.

Kada koriste sustave umjetne inteligencije kao što su chatbotovi, korisnici bi trebali biti svjesni da su u interakciji sa strojem kako bi mogli donijeti informiranu odluku hoće li interakciju nastaviti ili prekinuti.

Sustavi visokog rizika moraju zadovoljavati stroga pravila

Treća kategorija odnosi se na AI sustave visokog rizika kojeg možemo pronaći u raznim područjima kao što su ključne infrastrukture, sigurnosnim komponentama proizvoda, osnovnim privatnim i javnim uslugama, provođenje pravde i demokratski procesi, itd.

Upravo ti sustavi umjetne inteligencije podliježu strogim obvezama i prije nego što mogu doći na tržište moraju zadovoljiti mnogo kriterija poput toga da moraju sadržavati visoku kvalitetu podataka koji opskrbljuju sustav kako bi se smanjili rizici i diskriminirajući rezultati.

Također, bitno je istaknuti kako se svi sustavi daljinske biometrijske identifikacije smatraju visokim rizikom i podliježu strogim zahtjevima, ali postoje iznimke. Dopušteno je korištenje ove tehnologije u posebnom slučajevima poput izgubljenog djeteta ili za pronalazak terorista, ali načelno upotraba ostaje zabranjena u javnim prostorima.

Četvrta kategorija potpuno zabranjuje određene AI sustave

Kategorija neprihvatljivog rizika svodi se na tehnologiju koja predstavlja prijetnju sigurnosti i sredstvima osnovnih životnih potreba što se odnosi na sustave društvenog akreditiranja, poput onog u Kini o kojem smo detaljno pisali, i na pametne igračke koje koriste glasovne asistente koji potiču određeno ponašanje.

Akt će zabraniti i AI modele koji koriste subliminalne tehnike bez svjesnog pristanka osobe. Iznimke će ovisiti o svrsi, a jedna od njih je korištenje takvih AI modela u terapeutske svrhe uz pristanak osobe.

Zatim, Akt će zabraniti i modele koje iskorištavaju čovjekove slabosti poput mentalnog zdravlja, ekonomske situacije ili utjecaj na čovjekovo ponašanje koje može uzrokovati značajnu fizičku ili psihičku štetu.

Sada smo bolje upoznali osnovnu teoriju koju je ponudila Europska unija i kao što možemo vidjeti, regulacija je stroga, a način poticanja inovacija nije baš detaljno objašnjen. Zato ne iznenađuje kada čujemo kako industrija nije zadovoljna ovim Aktom.

Što sve gore navedeno zapravo znači za privatni sektor i pojedinca – za Netokraciju komentiraju Marijana Šarolić Robić, odvjetnica i mentorica startupa s fokusom na umjetnu inteligenciju i Aco Momčilović, suosnivač Global AI Ethics Instituta.

Je li Akt našao ravnotežu između regulacije i poticanja inovacija?

Europska komisija je krenula s pripremama oko regulacije za umjetnu inteligenciju gotovo prije pet godina, točnije u travnju 2018. Unutar godine dana, Stručna skupina na viskoj razini (HLEG) nakon provedene javne rasprave objavila je etičke smjernice o umjetnoj inteligenciji, objašnjava nam Marijana:

Taj dokument s puno pitanja i spremnosti na razgovor te dogovor, na žalost, pretvoren je preko prijelazne faze tzv. Bijele knjige u prijedlog Akta o umjetnoj inteligenciji.

On se pregovara gotovo 3 godine na razini EU bez vidljivog pomaka i u rigidnom tekstu koji ne razumijeva bit same tehnologije te ne postiže svoju svrhu zaštite temeljnih vrijednosti EU.

Marijana smatra da je Akt prerano postao EU zakon. Objašnjava kako je Akt trebao, sukladno razvoju tehnologije, ostati dulje u formi etičkih smjernica te pomalo prerastati u regulativu kako se budu razvijali poslovni slučajevi primjene umjetne inteligencije.

“Male, srednje kompanije i startupi jednostavno nemaju šanse biti usklađeni”

Akt ne postiže ravnotežu između regulacije i inovacije, smatra Marijana, a cijela tvrdnja kako će risk approach model omogućiti napredak tehnologije jer će samo visoko rizični sustavi primjene umjetne inteligencije biti regulirani uz zaštitu ljudskih prava i vrednota te temeljnih principa tehnologije, naziva jednostavno pompoznim:

To je suhoparan i zaključan jezik briselske birokracije, koji na tragu neslavnog GDPR-a zaključava razvoj inovacija monstruoznim obvezama usklađenosti.

Taj teret usklađenosti koje kompanije moraju zadovoljiti traži značajne resurse u ljudima, stručnosti i tehnologiji, objašnjava Marijana:

Barijera koju je potrebno prijeći jednostavno je previsoka i za velike kompanije s raspoloživim resursima, a male, srednje kompanije i startupi jednostavno nemaju šanse biti usklađeni.

U samoj preambuli prijedloga AI ACT-a navodi se iznos od nekoliko tisuća do nekoliko desetaka tisuća eura za trošak takve usklađenosti na godišnjoj razini, a na pitanje kako će kompanije namaknuti takav novac, odgovor je bio – iz EU fondova.

Upravo to pokazuje da jedemo sami sebe, raspisivat ćemo natječaje, angažirati interne i eksterne resurse da dobijemo sredstva na natječajima koja ćemo trošiti na usklađenje obveza iz AI ACT-a.

Nejasne definicije i kriteriji

Marijana naglašava kako u samom procesu dizajna razvoja nedostaje jasna struktura koja bi zadovoljavala kriterije koje Akt nameće svakom visoko rizičnom sustavu umjetne inteligencije, a za one manjeg ili neznatnog rizika samo preporučuje.

Upravo je nedostatak dijaloga, međusobne suradnje i razumijevanja i mekanog pristupa u razvoju regulative doveo do toga da sam prijedlog Akta o umjetnoj inteligenciji stalno mijenja pristup pa i definiciju same umjetne inteligencije.

Tvrtke se nadaju kako će probleme Akta izbjeći skaliranjem i rastom izvan tržišta EU

Većina kompanija koje Marijana poznaje već je svjesna što se sprema. Tješe se činjenicom da imaju još dvije, tri godine do stupanja Akta na snagu pa se nadaju da će se dotad skalirati i biti globalno konkuretni. Onda im EU tržište neće biti presudno za opstanak.

To je suludo jer kad god pričam s kompanijama koje razvijaju sustave temeljene na umjetnoj inteligenciji, uvijek je jasno da žele razvijati proizvod/uslugu koja traje i temelji se na dugotrajnom odnosu s budućim klijentima, odnosu uzajamne koristi i ne žele nikoga svjesno oštetiti.

Problem je što ne postoji jasan, jednostavn i jednoznačan alat kojim bi takve kompanije osigurale da njihovi sustavi temeljeni na umjetnoj inteligenciji ne nanose štetu te kada utvrde da do nenamjerne štete ipak dođe da istu mogu ispraviti čim prije.

Rješava li ovaj Akt etičke probleme koje ujedno i prepoznaje?

AI Akt odgovara na dio pitanja koja se postavljaju u vezi budućeg upravljanja (governance) umjetne inteligencije.

S druge strane, ako već djelomice sabotiramo inovaciju poradi zaštite EU vrijednosti – koliko je Akt uspješan u tome da, između ostalog, osigurava pravednost i nediskriminaciju, privatnost i zaštitu podataka te odgovornost i upravljanje?

Odgovor nije baš jednostavan jer on ovisi iz kojeg kuta gledamo problem.

U užem smislu, dokument daje jedan generalni okvir u kojem se mogu stvarati sustavi umjetne inteligencije. Okvir odgovara nekim etičkim načelima koja su prepoznata kao važna, ali brzo se javlja i problem:

Prvi problem koji se tu javlja, i na koji smo upozoravali i mi u Global AI Ethics Institute, je da zapravo ne postoji univerzalni set pravila koja se mogu jednostavno slijediti. Kao što se može primijetiti, glavne odrednice dokumenta su napisane vrlo generički (namjerno) i općenito.

Ono u što nitko nije siguran je koliko se iste riječi i izrazi različito interpretiraju u različitim kulturama i dijelovima svijeta:

Naravno, unutar EU se nadamo da će biti određena doza razumijevanja, ali imam dojam da Akt s razlogom pretendira na postavljanje normi i širem globalnom kontekstu.

Osim različitih interpretacija, postavlja se i pitanje postojanja drugih vrijednosti i normi kod skupina koje nisu bile uključene, a možda niti prepoznate u kreiranju ovoga dokumenta.

Dio toga problema, barem u teoriji smatra Aco, mogao bi riješiti sustav koji je predložen, no uz centralno tijelo (Aritficial Intelligence Board i dodijeljene ekspertne grupe) treba postojati i tijelo na nacionalnoj razini koje će biti autoritet za pitanja umjetne inteligencije:

Tu opet dolazimo do situacije gdje će se zemlje razlikovati po svome pristupu i ozbiljnosti kod kreiranja (ili ne kreiranja) takvih nacionalnih tijela. Teško je reći što tu možemo očekivati od Hrvatske, ako uzmemo u obzir da je jedna od zemalja koja još, ni nakon par godina (nominalnog) rada, nije donijela svoju nacionalnu strategiju za umjetnu inteligenciju.

“U razdoblju kad AI može biti uzrok nove vrste kolonijalizma, upravo će teme definiranja naših etičkih sustava, normi i vrijednosti biti ključne.”

Etička pitanja ovim Aktom nisu riješena, ističe Aco, ali smatra kako to jedan dokument ni ne može napraviti jer govorimo o procesu koji mora ostati barem jednim dijelom fluidan, a “tek ćemo vidjeti kako će ovaj dokument, iako vrlo generalno postavljen, odgovarati na sve brže promjene i pomake.

Ipak, dodaje kako mu najveći strah budi jedna druga opasnost.

Ako gledamo pristup za kojeg se ovaj Akt zalaže: razvoj AI-ja u vakumu na srednji rok, ovo bi bio jedan solidan dokument i solidna baza za daljnju razradu i prilagodbe.

Međutim, pravi test će biti primjena Akta, u trenucima kada konkurencija iz različitih dijelova svijeta počne odmicati u razvoju i primjeni umjetne inteligencije.

Hoćemo li tada izdržati i raditi sve prema propisanom modelu pa makar to značilo i sporiji razvoj, manje investicija, odlazak talenata i ostale posljedice, ili ćemo se odreći naših principa iz pragmatičkih razloga?

Netko će morati odvagnuti što žrtvovati i koliko riskirati u situaciji kada neka druga zemlja može dobiti nenadoknadiv First Mover Advantage, smatra Aco:

U razdoblju koje nam dolazi, gdje AI može biti uzrok nove vrste kolonijalizma, upravo će teme definiranja naših etičkih sustava, normi i vrijednosti biti ključno.

S obzirom na sve to, Aco zaključuje da Europa može isplivati kao predvodnik u pristupu razvoju ili početi zaostajati “toliko da je svejedno hoće li se sama odreći dokumenata koje je napravila ili će zajedno s njima postati beznačajna”.

Sukladno članku 94. Zakona o elektroničkim medijima, komentiranje članaka na Netokraciji dopušteno je samo korisnicima koji ostave svoje ime i prezime te mail adresu i prihvate pravila ponašanja.

Pravila ponašanja

Na Netokraciji za vas stvaramo kvalitetan, autorski potpisan sadržaj i zaista se veselimo vašim kvalitetnim, kontruktivnim komentarima. Poštujmo stoga jedni druge prilikom komentiranja, kao i Zakon, držeći se sljedećih pravila ponašanja:

  • Ne budite 💩: Nema vrijeđanja, diskriminiranja, ni psovanja (osim ako nije osobni izričaj, ali onda neka psovka bude općenita, a ne usmjerena prema nekome). Također, upoznajte se sa stavkom 2. članka 94. Zakona o elektroničkim medijima prije no što ostavite komentar.
  • Samo kvalitetna rasprava, manje trolanja: Ne morate se ni sa kim slagati, ali budite konstruktivni i doprinesite raspravi! Svako trolanje, flameanje, koliko god "plesalo" na granici, leti van.
  • Imenom i prezimenom, nismo Anonymous 👤: Autor sadržaja stoji iza svog sadržaja, stoga stojite i vi iza svog komentara. Koristimo ime i prezime te pravu email adresu.

Kako koristimo podatke koje ostavljate? Bacite oko na našu izjavu o privatnosti.

Sve ostale komentare ćemo s guštom spaliti, jer ne zaslužuju svoje mjesto na internetu.

Odgovori

Tvoja e-mail adresa neće biti objavljena.

Popularno

Digitalni marketing

Od Yahooa do ChatGPT-ja: Strategije uspjeha na tražilicama koje vrijede i danas

Neke strategije za pozicioniranje na internetskim tražilicama još funkcioniraju i nakon 10 godina. U ovom povratku u prošlost, prisjećamo se raznih praksi, što se od njih zadržalo, a što ne - te što je novo ušlo u igru...

Netokracija Podcast

Ovo je email strategija kojom je Burazin privukao investitore poput direktora Stack Overflowa

U novoj epizodi ulazimo u detalje o: (vjerojatno) najvećoj pre-seed rundi u hrvatski startup; tome kako SAD namjerava kontrolirati AI sustave koji bi mogli napraviti atomsku bombu te zašto osnivača Netokracije Ivana Brezaka Brkana izbacuju iz zagrebačkih kavana?

Programiranje

Tomislav Tipurić uoči ATD-a: Moramo poraditi na promjeni definicije junior developera

Uoči 18. konferencije Advanced Technology Days porazgovarali smo s osobom zaduženom za program, Tomislavom Tipurićem, o svemu što ne smijete propustiti na samom događaju, a i u svijetu tehnologije posljednjih godina i dana. Naravno, AI je neizostavna tema.

Što ste propustili

Novost

Bellabeat lažirao brojke: Danci otkrivaju, Netokracija podcast komentira

Ako ste već pročitali Antonijin tekst, onda nam se pridružite u razgovoru uz prijaznu kavu...

Startupi

Bellabeat lagao o broju korisnika i investiciji s Bank of America?! – tvrde danski mediji!

"Bellabeat je najvrjednija kompanija u portfelju investicijskog fonda Nordic Eye. Postali su jednorog, vrijede 3,5 milijarde dolara. Prihodi u 2022. su im iznosili 525 milijuna dolara. Bellabeat već danas posluje s dobiti."

Tvrtke i poslovanje

Otkazi su sve, samo ne mala stvar. Kako pripremiti ljude?

Nekontrolirano zapošljavanje, fluktuacije kadra te konačno - manjak iskustva u davanju otkaza, doveli su nas do niza loše odrađenih i komuniciranih otpuštanja. Što se moglo bolje?

Digitalni marketing

Od Yahooa do ChatGPT-ja: Strategije uspjeha na tražilicama koje vrijede i danas

Neke strategije za pozicioniranje na internetskim tražilicama još funkcioniraju i nakon 10 godina. U ovom povratku u prošlost, prisjećamo se raznih praksi, što se od njih zadržalo, a što ne - te što je novo ušlo u igru...

Tehnologija

Najveća hrvatska luka u Pločama postat će pametna, uz sufinanciranje iz EU od skoro milijun eura

Luka Ploče postat će prva hrvatska pametna luka. Ujedno je ovo jedini projekt iz Hrvatske koji je Europska Komisija odobrila u sklopu fonda 5GSC - od ukupno 14 odobrenih u cijeloj Uniji.

Tvrtke i poslovanje

Bajke u digitalnom svijetu: Pinokio djeci priča o lažnom predstavljanju, a tri praščića o slabim lozinkama

Stotine ljudi podržale su humanitarnu akciju tvrtke Combis i Centra za nestalu i zlostavljanu djecu.