Po mnenju svetovalne skupine za varstvo osebnih podatkov, ki jo je za ta primer imenovala Evropska komisija, bi Evropa morala prepovedati umetno inteligenco za množični nadzor in točkovanje t.i. »družbenih kreditov«
Neodvisna skupina strokovnjakov, zadolžena za svetovanje Evropski komisiji, je podala svoj odziv na uporabo umetne inteligence (AI). Cilj, ki so ga zasledovali, je bil, da bi evropski zakonodajalci z močnimi pravnimi pravili zagotovili večjo osredotočenost razvijalcev umetne inteligence na vplive, ki jih ta tehnologija ima na ljudi. Priporočila se nanašajo na politiko in naložbe in izhajajo iz predhodnih etičnih smernic glede zaupanja v umetno inteligenco, ki jih je skupina strokovnjakov na visoki ravni (HLEG) za umetno inteligenco objavila aprila, ko jo je Komisija pozvala k pregledu pravil.
Celotna politična priporočila skupine strokovnjakov na visoki ravni, ki je bila ustanovljena junija 2018 in jo sestavljajo različni eksperti s področja industrije za umetno inteligenco, predstavniki civilne družbe, politični svetovalci, akademiki in pravni svetovalci, obsega podroben, 50 strani dolg dokument.
Dokument vsebuje opozorila glede uporabe umetne inteligence za množični nadzor in t.i. točkovanje državljanov EU, kakršen je na primer kitajski sistem socialnih kreditov, pri čemer skupina poziva k popolni prepovedi množičnega točkovanja posameznikov na podlagi umetne inteligence. Poleg tega poziva vlade k zavezi, da ne bodo sodelovale v splošnem nadzoru prebivalstva zaradi namenov nacionalne varnosti (s tega stališča je pozitivno, da je Združeno kraljestvo glasovalo za izstop iz EU, ob upoštevanju državnih nadzornih pooblastil, ki so bila sprejeta v pravni red konec leta 2016).
Čeprav imajo vlade tendenco po “zavarovanju družbe” z izgradnjo prodornega sistema nadzora, ki temelji na sistemih umetne inteligence, pa bi to lahko predstavljalo izjemno nevarnost, če bi ga potisnili na ekstremne ravni, piše HLEG. Države bi se morale zavezati, da ne bodo sodelovale pri množičnem nadzoru posameznikov ter da bodo izdelovale in zagotovile le zanesljive sisteme umetne inteligence. Slednji bi morali biti zasnovani tako, da bodo spoštovali zakonodajo, temeljne pravice ter bili usklajeni z etičnimi načeli in bili tudi socialno-tehnično ustrezno ovrednoteni.
Skupina prav tako poziva k nasprotovanju komercialnemu nadzoru posameznikov in družb. Predlaga odgovornost EU za potencialne zlorabe tehnologij umetne inteligence. Zahteva, da slednja zagotovi, da je spletno sledenje posameznikom strogo v skladu s temeljnimi pravicami, kot je na primer pravica do zasebnosti, vključno takrat, kadar gre za primere brezplačnih storitev (čeprav z manjšim pomislekom glede potrebe po preučitvi vpliva poslovnih modelov).
Prejšnji teden je britanski nadzorni organ za varstvo podatkov objavil nazoren posnetek poteka zbiranja informacij, povezanih s spletnim obnašanjem posameznikov v oglaševalski industriji – opozoril je, da množična obdelava osebnih podatkov spletnih uporabnikov za izbor oglasov ne ustreza standardom EU o zasebnosti. Industriji so tako sporočili, da se morajo prakse, ki kršijo pravice, spremeniti, čeprav britanski urad informacijskega pooblaščenca za slednje še ni pokazal resnega interesa. Opozorilo o reformi pa je bilo vendarle jasno.
Oblikovalci politik EU delajo na oblikovanju regulativnega okvirja za umetno inteligenco, ki mora spoštovati temeljne človekove pravice. Stremijo k spremljanju tehnologije v prihodnjih desetih in več letih vrhunskih tehnoloških dosežkov v regiji. Zdi se, da bo širša pozornost in nadzor, ki bo pritegnila digitalne prakse in poslovne modele, spodbudila prevetritev problematičnih digitalnih praks. Slednje so se do sedaj lahko pretirano širile zaradi neregulacije oziroma nezadostne regulacije na tem področju.
Sočasno HLEG tudi poziva k podpori za razvoj mehanizmov za zaščito osebnih podatkov in posameznikov glede nadzora in pooblastili v zvezi z njihovimi podatki, kar naj bi bilo obravnavano kot „nekateri vidiki zahtev zanesljive umetne inteligence.“
Pravijo, da je potrebno izdelovati orodja za zagotavljanje tehnološke implementacije GDPR ter razvijati mehanizme za ohranjanje zasebnosti z ustvarjanjem tehničnih metod za razlago kriterijev in vzrokov pri obdelavi osebnih podatkov v sistemih umetne inteligence (kot je na primer združeno strojno učenje).
Potrebno je podpirati tehnološki razvoj tehnik anonimizacije in šifriranja ter razvijati standarde za varno izmenjavo podatkov na podlagi nadzora osebnih podatkov in spodbujati izobraževanje splošne javnosti pri upravljanju z osebnimi podatki, vključno s krepitvijo zavesti posameznikov v procesih odločanja glede osebnih podatkov, povezanih z umetno inteligenco. Ustvariti je potrebno tehnološke rešitve, ki bodo posameznikom zagotovile informacije in nadzor nad tem, kako se njihovi podatki uporabljajo (na primer za raziskave), glede upravljanja soglasja in preglednosti izvajanja pravic posameznikob prek evropskih meja in stremeti k izboljšavam in rezultatom prekoa razvoja standardov za varno izmenjavo podatkov na podlagi nadzora osebnih podatkov.
Nadalje HLEG predlaga vključevanje obvezne samoindentifikacije v sisteme umetne inteligence, ki sodeluje z ljudmi. Slednje bi pomenilo oviro za zahrbtne Google Duplex robote, ki posnemajo človeški govor. Posameznik bi namreč v primeru samodejne sprožitve le-tega moral imeti možnost njegove izključitve.
Strokovnjaki na visoki ravni priporočajo tudi vzpostavitev „evropske strategije za boljšo in varnejšo umetno inteligenco za otroke“. V številnih državah članicah EU se je namreč povečala zaskrbljenost glede neobvladljivosti zbiranja podatkov o otrocih, vključno s komercialnim sledenjem njihove uporabe spletnih storitev.
Integriteta in zastopanost prihodnjih generacij mora biti zagotovljena otrokom že v njihovem otroštvu. Pomembno je, da njihova rast in učenje nista ovirana zaradi zbiranja informacij, profiliranja, predvsem pa je pomembno, da se otroci ne navadij na tovrstne tehnološke manipulacije, še pojasni skupina. Otrokom je treba omogočiti prost in nenadzorovan prostor za razvoj ter jim ob prehodu v odraslost zagotoviti “čisto digitalno okolje” vsakega javnega ali zasebnega shranjevanja podatkov, povezanih z njimi. Prav tako bi moralo biti pomembno, da formalno izobraževanje otrok ne zasleduje komercialnih in drugih podobnih interesov.
Podani so predlogi državam članicam in Komisiji za oblikovanje načinov za nenehno analiziranje, merjenje in ocenjevanje vpliva umetne inteligence na družbo. Kaže se tendenca po spremljanju pozitivnih in negativnih vplivov, nato pa prilagajanje politik glede na spremljajoče se učinke.
Za merjenje in ocenjevanje vpliva umetne inteligence na družbo predlagajo uporabo različnih indeksov, kot so na primer cilji trajnostnega razvoja Združenih narodov in socialni kazalniki Evropskega stebra socialnih pravic. Skupina predlaga vključitev statističnega programa EU Eurostat in drugih ustreznih agencij EU v ta mehanizem, s ciljem zagotovitve zaupnosti pridobljenih informacij. Stremijo k temu, da bi bili podatki visoke in preverljive kakovosti, trajnostni in stalno dostopni.
V poročilu močno poudarjajo potrebe po okrepitvi naložb v umetno inteligenco s strani Komisije – zlasti se kaže tendenca po prizadevanjih za več pomoči malim in srednjim podjetjem pri dostopu do finančnih sredstev in svetovanja, tudi prek programa InvestEU.
Izoblikovali so tudi pobude, vezane na oblikovanje mreže poslovnih inkubatorjev za umetno inteligenco na ravni EU, ki bi povezala akademske kroge in industrijo. Slednje bi bilo po njihovem mnenju možno združiti z oblikovanjem odprtih inovacijskih laboratorijev na ravni EU, ki bi se lahko zgradili na strukturi omrežja digitalnih centrov za inovacije.
Nadalje pozivajo k spodbujanju uporabe umetne inteligence v javnem sektorju, na primer s spodbujanjem digitalizacije s preoblikovanjem javnih podatkov v digitalno obliko, nudenjem izobraževanja glede podatkovne pismenosti vladnim agencijam, oblikovanjem evropskih velikih javnih neosebnih baz podatkov za „visoko kakovostno umetno inteligenco“ in financiranjem ter omogočanjem razvoja orodij za umetno inteligenco, ki lahko pomagajo pri odkrivanju pristranskosti in nepotrebnih predsodkov pri sprejemanju vladnih odločitev.
Del dokumenta je namenjen priporočilom glede pospeševanja raziskav umetne inteligence v Evropi – kot so na primer krepitev in ustvarjanje dodatnih centrov odličnosti, ki obravnavajo strateške raziskovalne teme in postanejo „multiplikator za evropsko raven za določeno področje umetne inteligence“.
Prav tako izpostavljajo potrebo po spodbujanju naložb v infrastrukturo umetne inteligence, kot so sodleovanje v grozdih in razvoj t.i. računalništva na robu (glej prevod ZRC SAZU), velika RAM in hitra omrežja ter razvoj mrež testnih naprav in peskovnikov, ki bi se ukvarjali s to tehnologijo; skupaj s podporo za standardizacijo podatkovnih skladišč po vsej EU „prek skupnega označevanja in standardizacije“ – za delo proti shranjevanju podatkov v »silosih« in predvsem razvojem zaupanja vrednim podatkovnim prostorom za posebne sektorje, kot so zdravstveno varstvo in agroživilstvo.
Prizadevanja HLEG glede pospeševanja uporabe umetne inteligence so bila tudi tarča kritik, in sicer s strani vodje evropskih politik za dostop do digitalnih pravic pri organizaiciji za digitalne pravice Accessom, Fanny Hidvegi, ki je zapisala: „Kar sedaj potrebujemo, ni več uporaba umetne inteligence v vseh sektorjih v Evropi, temveč jasna pravila o zaščitnih ukrepih, mejah tehnologije in mehanizmih za uveljavljanje, ki bodo zagotovili, da bodo avtomatizirani sistemi za odločanje – in umetna inteligenca – ki se jih razvija in uporablka v Evropi, spoštovali človekove pravice. ”
Dokument vsebuje tudi pobude, ki se nanašajo na razvoj in izvajanje evropskega učnega načrta za umetno inteligenco ter spremljanje in omejevanje razvoja avtomatiziranega smrtonosnega orožja. Slednje vključuje tudi tehnologije, kot so orodja za kibernetsko napadanje, ki sicer samo na prvi pogled niso „dejansko orožje“, vendar strokovnjaki izpostavljajo možnost nastanka „smrtnih posledic“ v primeru njihove uporabe.
Skupina strokovnjakov v priporočilu predlaga še, da se snovalci politik EU vzdržijo podeljevanja pravne subjektivitete sistemom umetne inteligence oziroma robotom. Zatrjujejo, da gre pri tem že v osnovi za neskladje z načeli človekovega delovanja in odgovornosti ter da bi nasprotno ravnanje predstavljalo veliko moralno tveganje.
Celotno poročilo skupine HLEG se nahaja tukaj.
Vir: Techcrunch
Oglejte si še definicije in pojasnila posamenih novih tehnoloških pojmov, ki so vezani na AI in druge moderne tehnologije.
Tekst: dr. Nataša Pirc Musar