Novosti, ki jih uvaja Akt o umetni inteligenci

20. 5. 2024

Evropski parlament je po dolgih letih priprav sprejel akt o umetni inteligenci, enega največjih podvigov tega mandata, s katerim želi vplivati na globalno prakso.

Sprejemanje je bilo dolgotrajno. Priprave so se začele že na začetku desetletja, torej gre za enega najobsežnejših, najpomembnejših zakonodajnih projektov tega mandata Evropskega parlamenta. Med pripravami smo bili priča razmahu jezikovnih modelov umetne inteligence, na katerih temeljijo danes izjemno odmevne storitve, kot so ChatGPT, Midjourney, Gemini itd., zato so predlog precej pregnetli. Naposled je bil 13. marca letos sprejet v Evropskem parlamentu. Kar 523 poslancev je glasovalo za, 46 jih je bilo proti, 49 vzdržanih.

Evropa želi ureditev razširiti po svetu, podobno, kot se do neke mere širijo rešitve iz GDPR-ja. Ponudniki storitev, ki bodo želeli vstopiti na evropski trg, se bodo morali uskladiti z aktom, s čimer se bo širila tudi praksa iz akta, čemur utegnejo slediti tuji zakonodajalci.

Ključna novost je uvedba štirih stopenj tveganja, kot jih vidijo zakonodajalci.

Prepoved oziroma "nesprejemljivo tveganje"

Vsi sistemi umetne inteligence, ki nedvomno predstavljajo tveganje varnosti, življenju in pravicam ljudi, so prepovedani. Predstavimo nekaj primerov.

Sklepanje o čustvenem stanju posameznikov na delovnem mestu ali v izobraževalnih ustanovah bo prepovedano – razen v zdravstvene ali varnostne namene.

Prepovedano bo družbeno točkovanje, torej ocenjevanje posameznikov ali skupin glede na njihovo obnašanje ter osebne lastnosti s pomočjo umetne inteligence. Družbeno točkovanje je v široki uporabi na Kitajskem, kjer so v zadnjem desetletju uvedli ducate različnih implementacij, in razvršča ljudi glede na storjena "obsojanja vredna" ali pa "hvalevredna" dejanja. Družbeno točkovanje sicer lahko v praksi poteka tudi brez umetne inteligence, tega pa ta akt ne obravnava.

Umetna inteligenca ne bo smela opravljati biometrične kategorizacije na podlagi občutljivih podatkov – o rasi, političnem prepričanju, članstvu v sindikatu, verskih ali svetovnonazorskih prepričanjih, spolni usmerjenosti ... Organi pregona ne bodo smeli uporabljati biometrične identifikacije v "realnem času" oziroma v živo na javnih površinah, razen, če iščejo pogrešane ali ugrabljene osebe, osumljence hujših kaznivih dejanj ali če preprečujejo teroristične napade oziroma večjo grožnjo življenju ljudi. Policija mora takšen sistem registrirati pri Evropski uniji in opraviti oceno vpliva na človekove pravice, pa tudi pridobiti dovoljenje ali sodne veje oblasti ali neodvisnega administrativnega organa. Umetna inteligenca ne bo smela kar na debelo – oziroma neciljanozbirati obraze ali z medmrežja ali z varnostnih kamer.

Umetna inteligenca ne bo smela uporabljati zavajajočih, manipulativnih ali subliminalnih tehnik za usmerjanje vedenja; pri tem ji bo tudi prepovedano izkoriščanje ranljivosti, povezanih s starostjo ali socialno-ekonomskim položajem. Zato bodo denimo prepovedane govoreče otroške igrače, ki otroke spodbujajo k "nevarnemu vedenju".

Prepovedano bo ocenjevati nagnjenost h kaznivim dejanjem izključno na posameznikovih osebnostnih lastnostih. Bo pa to deloma dovoljeno, če bo umetna inteligenca zgolj pomagala človeškemu odločevalcu, ki bo oceno izgotovil na podlagi "objektivnih, preverljivih dejstvih, povezanih s kriminalno dejavnostjo".

Visoko tveganje, visoka stopnja regulacije

Sistemi, ki so po oceni zakonodajalca visoko tvegani, bodo predmet stroge regulacije oziroma bodo še pred vstopom na trg morali izpolnjevati številne pogoje. Upravljavec sistema bo moral izdelati študijo nevarnosti in predložiti ukrepe za omejitev teh nevarnosti; skrbeti za kakovost in nediskriminatornost baze podatkov, na kateri se model umetne inteligence trenira; ves čas hraniti pomembne podatke o delovanju sistema, ter poskrbeti za ustrezno stopnjo kibervarnosti. Delovanje sistema morajo nenehno nadzorovati ljudje.

Torej, delovanje sistemov bo strogo omejeno, a dovoljeno za naslednja področja:

V kritični infrastrukturi, saj tam potencialno ogroža zdravje in življenje ljudi. Primer je transport, denimo samovozeči se avtomobili, upravljanje železniškega prometa in podobno, pa tudi oskrba s plinom, vodo, ogrevanjem in električno energijo.
- Pri vidikih izobraževanja, ki lahko vplivajo na usodo posameznika, denimo pri ocenjevanju testov in preprečevanju goljufanja; ali pri kadrovanju zaposlenih, npr. pri ocenjevanju življenjepisov ali primernosti za napredovanje.
- Pri dostopu do bistvenih javnih in zasebnih storitev. Umetna inteligenca se lahko uporablja za ocenjevanje primernosti za socialne transferje in druge javne pravice, kreditne sposobnosti, pa pri razvrščanju klicev na pomoč (112, 113) po nujnosti, in še pri ocenjevanju tveganja pri sklepanju zavarovanj.
- Pri varnosti izdelkov, ki uporabljajo umetno inteligenco; npr. pri nekaterih robotskih kirurgih.
- V pravosodju in policiji, kjer lahko umetna inteligenca ocenjuje zanesljivost dokazov ali išče relevantne sodne odločbe.
- Ter pri migracijah, azilnih postopkih in nadzoru meje. Umetna inteligenca bi denimo lahko igrala vlogo pri preverjanju prijav za vizum ali pa prošenj za azil.
- Prepovedane vidike delovanja biometričnih sistemov smo že navedli zgoraj; ne bodo pa ti sistemi prepovedani nasploh. Spadajo namreč v kategorijo visokega tveganja in so predmet omejitev iz tega poglavja. Biometrija se lahko uporablja za preverjanje identitete osebe, če jo ta zatrjuje; za kategorizacijo brez občutljivih ali zaščitenih osebnih lastnosti, ter za sklepanje o čustvenem stanju osebe.

Omejeno tveganje

Evropska unija zahteva, da so ljudje obveščeni, ko so v stiku z umetno inteligenco, ko je to potrebno. In kdaj je? Denimo, ko uporabnik namesto s človeško podporo komunicira s klepetalnim botom. Ali, ko konzumira vsebine, ki jih je ustvarila umetna inteligenca, pa naj bodo to članki ali pa avdio-video izdelki, še posebej t. i. globoki ponaredki (ang. deepfakes).

EU: Večina sploh ni regulirana

Vse drugo spada pod t. i. varne sisteme oziroma sisteme brez tveganj. Velika večina sistemov umetne inteligence, ki se danes uporablja v Evropski uniji, je takšnih, navaja Evropski parlament.

Kako pridobijo dovoljenje

Če nekdo razvije sistem umetne inteligence in ga želi ponujati na evropskem trgu, ga mora podvreči preverbi skladnosti z evropskim pravom, ga nato registrirati, podpisati deklaracijo o skladnosti in pridobiti oznako CE. Če se sistem med uporabo občutno spremeni, mora ponudnik ponoviti postopek. Nadzor bo opravljala novoustanovljena Evropska pisarna za umetno inteligenco.

Akt se nanaša na profesionalne ponudnike sistemov umetne inteligence, in ne na uporabnike le-te.

Sistemi za splošno uporabo

Posebno pozornost je dobila umetna inteligenca za splošne namene (ang. general purpose AI), pod katero spadajo blagovne znamke, kot je denimo ChatGPT. Vsi ponudniki tovrstnih storitev morajo pripraviti tehnično dokumentacijo, ki vsebuje podatke o učenju in preizkušanju modela, vključno z "dovolj natančnim izvlečkom" o bazi podatkov, na kateri se je UI učila.

Dokumentacija mora biti na voljo vsem drugim ponudnikom, ki bodo to vrsto umetne inteligence vključili v svoje produkte, da bodo lahko razumeli omejitve in zmožnosti. Ponudnik mora nadalje pripraviti pravilnik o spoštovanju direktive o avtorskih pravicah.

Če skupna količina izračunov za treniranje posameznega modela presega 1025 FLOP-sov, potem model – po aktu – predstavlja sistemsko tveganje. Zanj so zahtevani dodatni ukrepi: redne evalvacije, ocene sistemskih tveganj, sledenje in poročanje incidentov Pisarni Evropske unije za umetno inteligenco, ter primerna raven kibernetske varnosti.

To se ne nanaša se na modele, ki so še v razvoju in zgolj testni uporabi.

Vir: MMC RTV SLO

Nazaj