AI etičar(ka): što treba znati i što radi, otkriva nam Katja Radić

Kako se postaje AI etičar – i čime se bavi, otkriva nam Katja Andrić

Brz rast upotrebe umjetne inteligencije dolazi sa sve glasnijim, često i paničnim, zahtjevima da se osigura njezino odgovorno korištenje. Iz te potrebe pojavilo se sasvim novo zanimanje – AI etičar. Koja znanja i vještine on/a treba imati, što i s kim radi i kako ćemo živjeti s umjetnom inteligencijom objasnila nam je AI etičarka Katja Andrić.

AI etičar je stručnjak koji se bavi etičkim implikacijama umjetne inteligencije, što uključuje identifikaciju etičkih problema koji mogu proizaći iz AI sustava, ali i ublažavanje tih problema,

odgovara Katja na prvo pitanje i dodaje odmah da taj posao ima dva glavna područja rada:

U akademskim okvirima AI etičari uglavnom rade na razvoju etičkih načela i okvira za razvoj i upravljanje umjetnom inteligencijom, dok AI etičari zaposleni u industriji uglavnom rade na prilagođavanju i integraciji tih načela u praksi. U idealnom scenariju oni su uključeni u razvoj AI sustava od samih začetaka, preko razvoja, lansiranja i implementacije AI sustava i na kraju do eventualnog povlačenja sustava.

Budući da je ovo vrlo mlada struka, posebno je zanimljivo saznati kako se postaje AI etičar:

Ne postoji jedinstveni put k tom zanimanju. Kao grana primijenjene etike, moglo bi se reći da studij filozofije, u kojem se osoba specijalizira za AI etiku, dovodi do potrebnih znanja i vještina, no to svakako nije jedini put. Danas postoji mnogo tečaja i specijalizacija za ovo zanimanje, ali se i sve više radi na formiranju međunarodno priznatih profesionalnih akreditacija za AI etičare.

Katja priča da tu tek treba uvesti reda jer se pojavljuju mnogi samoprozvani AI etičari bez potrebnih znanja i procjenjuje da bi kroz sljedećih par godina moglo biti jasnije kako se postaje AI etičar.

Ni AI etičarka ne može bez strojnog učenja

Navodeći potrebna znanja, Katja naglašava da je ovo područje vrlo multidisciplinarno:

AI etičari moraju imati odlično razumijevanje tehnologije koja pokreće umjetnu inteligenciju, ali naravno i etičkih, društvenih i pravnih konteksta u kojima se AI sustavi razvijaju i implementiraju.

Povrh dubokog razumijevanja etičkih načela i okvira, vrlo je bitno naglasiti da AI etičari ne mogu uspješno obavljati svoj posao bez razumijevanja strojnog učenja budući da je velik broj etičkih problema povezan s umjetnom inteligencijom proizlazi iz neodgovarajućeg razvoja.

Također, moraju poznavati pravne sustave, standarde te najbolje prakse u industriji i neprestano pratiti razvoj u tom području.

Od potrebnih vještina Katja izdvaja razvijene analitičke sposobnosti, kritičko razmišljanje te dobro razvijene komunikacijske  i vještine suradnje budući da AI etičar provodi mnogo vremena u interdisciplinarnim timovima i u komunikaciji s različitim partnerima, od inženjera do odvjetnika.

Koji je bio njezin put, kako se ona našla u ovom području?

Još od osnovne škole fascinirana sam utjecajem tehnologije na društvo, ali i utjecajem društva na razvoj tehnologije. Vrlo rano znala sam da je to područje u kojem želim raditi, pa sam tako odabrala dvopredmetni studij Digitalnih medija i Informacijskih znanosti u kombinaciji s Filozofijom na Sveučilištu u Glasgowu.

Tamo sam se podjednako i istovremeno bavila vrlo tehničkim aspektima tehnologije, ali i etikom i analitičkom filozofijom općenito. Nakon toga sam upisala postdiplomski studij Filozofije na Sveučilištu u Edinburghu, gdje sam se specijalizirala za etiku umjetne inteligencije. Po završetku studija preselila sam se u London, gdje sam se ubrzo zaposlila u Responsible AI timu u GSK, gdje radim i danas.

(Napomena: sva mišljena izražena u tekstu su Katjina te ne odražavaju nužno poziciju GSK.)

U međuvremenu je radila kao frontend developer i UX/UI dizajner, što joj je, kako kaže, omogućilo da bolje razumije korisnike raznih tehnoloških rješenja i danas joj pomaže da uspješnije predvidi etičke probleme koji proizlaze iz nepredviđenih upotreba AI sustava.

Tvrtke su još u potrazi za modelom upravljanja AI-jem

Na pitanje kako rad AI etičara izgleda operativno na razini tvrtke, Katja ističe da ne postoji jedinstven odgovor jer tvrtke tek pokušavaju stvoriti model za upravljanje umjetnom inteligencijom, a i integracija AI etičara nije svugdje jednaka. Katja navodi kako bi to trebalo izgledati:

U idealnim uvjetima AI etičari trebali bi biti integrirani u razvoj AI modela od samih začetaka, nadzirati njihov razvoj, nabavu i korištenje te biti u bliskom kontaktu s inženjerima i ostalim relevantnim grupama kroz cijeli proces. U praksi se to uglavnom ostvaruje kroz razna upravna vijeća ili specijalizirane grupe poput moje.

AI etičari su uključeni u razvoj unutarnjih politika i alata za sigurnije upravljanje i razvoj umjetne inteligencije kao što su razni dokumentacijski predlošci (npr. Datasheet for Datasets razvijen od strane Gebru et al.) i tehnička rješenja (npr. IBM-ov AI Fairness 360 koji analizira bias u AI sustavima).

Također – savjetuju inženjere, provode temeljite procjene AI sustava i daju preporuke prilikom odluka o lansiranju AI sustava. Njihova uloga često uključuje i praćenje razvoja u pravnoj domeni te interakciju sa zakonodavcima.

Europska regulacija tek je početak

Kad smo kod zakona, kako Katja ocjenjuje EU AI Act? Odgovara da je to odličan početak, ali nije bez mana te da će pravi test biti vrijeme, da trebamo još vidjeti kako će se industrija prilagoditi. Napominje da je ovaj zakon vrlo različit od onih na ostalim velikim tržištima kao što su SAD i UK, pa će zagorčati život multinacionalnim kompanijama.

Osobno podržavam proaktivnost Europske unije i njezinu predanost zaštiti demokratskih vrijednosti i ljudskih prava, a posebno podržavam odluku da se određene vrste umjetne inteligencije koje stoje u direktnom sukobu s europskim vrijednostima (npr. social scoring i real time facial recognition) u potpunosti zabrane.

Takve su aplikacije umjetne inteligencije dozvoljene i zlouporabljene u pojedinim državama i konfliktnim područjima. Tamo su korištene za kršenje osnovnih ljudskih sloboda i prava.

Noćna mora, mit ili stvarnost: Što je kineski sustav društvenog rejtinga građana?

Drago mi je da ovaj zakon ne ostavlja prostora da se tako nešto dogodi u EU, iznosi svoj stav Katja.

Konačno, koji su najveći rizici što ih donosi AI i kako ih umanjiti?

Govoreći o tim rizicima podsjeća da su oni odraz društvenih struktura:

AI pronalazi uzorke u podacima na kojima je treniran. Ti podaci opisuju svijet koji je pun nejednakosti i samim time sadržavaju sve te nejednakosti. Posljedično, AI modeli reproduciraju i amplificiraju te društvene nejednakosti u svojim izlazima.

Dakle, ako svijet diskriminira žene, crnce ili homoseksualce, diskriminirat će ih i AI.

Mnogobrojni primjeri to potvrđuju, od Amazonova algoritma za zapošljavanje koji je automatski odbacivao žene preko AI aplikacija za detekciju raka kože koji ima značajno manju točnost za sve nebijelce do Googleova algoritma koji je crnce automatski označavao kao gorile.

Katja kaže da se AI zajednica s tim problemima godinama bori i još uvijek nema pravog rješenja, a specifične rizike donosi i generativna umjetna inteligencija:

Povrh halucinacija i kršenja autorskih prava onih čiji su radovi korišteni prilikom treniranja GenAI modela bez primjerene kompenzacije, ovi su modeli sposobni proizvoditi vrlo uvjerljiv sadržaj koji može biti korišten za efikasno širenje dezinformacija.

Odličan primjer su deepfakeovi koji se sve češće šire društvenim mrežama, a s napretkom ove tehnologije bit će ih sve teže prepoznati. To ima potencijal dovesti u pitanje integritet brojnih društvenih institucija, ali i demokratskih procesa.

Što napraviti da ih smanjimo? Preporuke za društvo, tvrtke i pojedince

Pri Sveučilištu Harvard, Berkman Klein Centar 2020. godine napravio je veliki pregled etičkih principa na koje treba paziti u primjeni AI-ja, cijela vizualizacija je dostupna na https://ai-hr.cyber.harvard.edu/primp-viz.html Izvor: Berkman Klein Center

Za smanjivanje ovih rizika Katja kaže da su potrebne tri aktivnosti koje se moraju provoditi istovremeno:

Prvo, oni koji razvijaju umjetnu inteligenciju moraju to raditi odgovorno, što znači da razvijaju samo one modele koji su najbolje rješivi umjetnom inteligencijom te koji će koristiti društvu, da u razvoj uključuju interdisciplinarne i različite stručnjake, da temeljito testiraju razvijene modele i da ih ne puštaju na tržište ako nisu umanjili rizike.

Drugo, zakonodavna tijela moraju kreirati primjerene zakone.

Treće, korisnici umjetne inteligencije moraju konstantno učiti o njoj i razumjeti mogućnosti, ali i limitacije ove tehnologije te znati kako ju odgovorno koristiti.

Osim ovih generalnih, koje se odnose na društvo u cjelini, postoje i preporuke za tvrtke. U samom poslovanju, Katja navodi kako se rizici umjetne inteligencije najbolje rješavaju:

  • robusnim modelima upravljanja koji zahtijevaju višestruke procjene AI sustava u nekoliko točaka razvoja,
  • opsežnom i transparentnom dokumentacijom,
  • ljudima koji će nadgledati rad AI sustava i ispravljati eventualne greške (tzv. human in the loop)
  • te naravno integracijom AI etičara u cjelokupan proces.

Naposljetku, trebamo li se bojati umjetne inteligencije?

Smatram da ne. Trenutno postoji puno vrlo glasnih ljudi poput Muska, Hintona i sličnih koji pune medijske naslove senzacionalističkim izjavama o egzistencijalnim rizicima umjetne inteligencije. Upozoravaju na razne doomsday scenarije i siju paniku o umjetnoj inteligenciji koja preuzima svijet. Osobno mislim da takvi scenariji pripadaju u domenu znanstvene fantastike i da bi bilo puno korisnije medijski prostor koristiti za razgovore o stvarno postojećim rizicima umjetne inteligencije koje sam spomenula.

Uvjerena je da nas s razvojem umjetne inteligencije u budućnosti čekaju ogromne promjene:

Umjetna inteligencija će imati velik utjecaj na tržište rada, gdje će neka zanimanja jednostavno nestati, dok će druga nastati.

Osim toga, sposobnosti AI-ja će nastaviti rasti i vjerujem da ćemo doći do toga da ćemo u svakodnevnim aktivnostima redovito koristiti AI, kao što danas koristimo pametne telefone i internet.

Čeka nas uzbudljiv period, ali najvažnije je da kroz njega ne zaboravimo biti odgovorni u razvoju AI-ja i ne prestanemo kritički propitkivati ovu tehnologiju.

Sukladno članku 94. Zakona o elektroničkim medijima, komentiranje članaka na Netokraciji dopušteno je samo korisnicima koji ostave svoje ime i prezime te mail adresu i prihvate pravila ponašanja.

Pravila ponašanja

Na Netokraciji za vas stvaramo kvalitetan, autorski potpisan sadržaj i zaista se veselimo vašim kvalitetnim, kontruktivnim komentarima. Poštujmo stoga jedni druge prilikom komentiranja, kao i Zakon, držeći se sljedećih pravila ponašanja:

  • Ne budite 💩: Nema vrijeđanja, diskriminiranja, ni psovanja (osim ako nije osobni izričaj, ali onda neka psovka bude općenita, a ne usmjerena prema nekome). Također, upoznajte se sa stavkom 2. članka 94. Zakona o elektroničkim medijima prije no što ostavite komentar.
  • Samo kvalitetna rasprava, manje trolanja: Ne morate se ni sa kim slagati, ali budite konstruktivni i doprinesite raspravi! Svako trolanje, flameanje, koliko god "plesalo" na granici, leti van.
  • Imenom i prezimenom, nismo Anonymous 👤: Autor sadržaja stoji iza svog sadržaja, stoga stojite i vi iza svog komentara. Koristimo ime i prezime te pravu email adresu.

Kako koristimo podatke koje ostavljate? Bacite oko na našu izjavu o privatnosti.

Sve ostale komentare ćemo s guštom spaliti, jer ne zaslužuju svoje mjesto na internetu.

Odgovori

Tvoja e-mail adresa neće biti objavljena.

Popularno

Startupi

Osnivač Njuškala uz Hanza Mediju pokreće novi digitalni oglasnik – Dealio

Dealio u tržišnom okršaju za korisnike u Hrvatskoj i šire ima stratešku podršku medijske grupacije Hanza, ali čini se kako se neće zaustaviti na tome.

Startupi

4 milijuna dolara za domaći startup koji je napravio “prvog pravog AI developera”

U otprilike godinu dana ekipa iza Pythagore prošla je program prestižnog Y Combinatora, skupila 30.000 aktivnih korisnika i prikupila investiciju. Među investitorima je i Damir Sabol.

Umjetna inteligencija

Kako osposobiti AI agenta za potrebe svoje tvrtke? Saznajemo od inženjera iz Infobipa i Sofascorea

Hrvatski jednorog pokrenuo je svoje meetupe, a sudeći po prvom izdanju, inženjerska zajednica dobila je događaj na kojem će imati što čuti - i naučiti.

Što ste propustili

Tvrtke i poslovanje

Osnivači Sofascorea, Rentlija i Productiva otkrili svoje najveće marketinške greške!

Koja je cijena uspjeha, kada postaviti odjel marketinga i koje su najveće marketinške boljke otkrivaju nam Sofascore, Rentlio i Productive za 15. rođendan Netokracije! 🎂

Prikaz

Za praksu u Infobipu prošle se godine prijavilo 2000 osoba! Evo koga traže ove…

Ususret prijavama za ljetni program praksi u Infobipu, razgovarali smo s pripravnicima i mentorima iz područja produktnog marketinga, softverskog i QA inženjerstva te developerskog sadržaja.

Umjetna inteligencija

Europsko vijeće odobrilo AI akt! Za oko mjesec dana stupa na snagu

Finalno usvojen zakon kojeg je digitalna industrija Europe čekala godinama uskoro će stupiti na snagu, evo koje obveze donosi za sve koji razvijaju sustave uz pomoć umjetne inteligencije.

Tvrtke i poslovanje

Najpoznatija svjetska IT regulatorica: U EU ne gušimo inovacije, nego reguliramo primjenu!

Hoće li se Europa prilagoditi digitalnom dobu i postati konkurentna sa svojim inovacijama ili nam je sudbina biti regulator koji izdaje kazne?

Veliki intervjui

Upoznajte Hrvata koji je napravio nastavak Tetrisa (i dobio blagoslov originalnog tvorca)!

Nevjerojatne priče ne susrećemo svaki dan, a upravo vam donosimo jednu takvu koja se kuhala 12 godina na dva kontinenta, u čijem se središtu nalazi nastavak jedne od najpoznatijih igara ikada napravljenih.

Novost

AI developeri, AI glasovni asistenti, AI dejtanje…

U tjednu koji su obilježile pomalo distopijske AI vijesti u podcastu smo ugostili suosnivača hrvatskog startupa koji svoj proizvod zove - AI developerom.