Budućnost je stigla! I tu je da ostane! Stvari koje smo pre nekoliko godina samo mogli da zamislimo su sada deo naše svakodnevnice. Iz tog razloga se danas sve više i priča o veštačkoj inteligenciji („AI“). Ona se nalazi svuda oko nas, u sektorima kao što su bankarstvo i zdravstvo, pa sve do transporta i zabave. Upoznavanje sa dometima ovih inovacija dovodi do pitanja kako će naše navike biti promenjene, kako će svakodnevne aktivnosti biti olakšane, ali i kako naša prava mogu biti ugrožena. Zato, hajde da razgovaramo o prednostima i nedostacima AI-a u zaštiti prava.
EU – pionir u regulativi veštačke inteligencije. Evropska unija („EU“ ili „Unija„) je uspostavila prvi globalni regulatorni okvir koji se primenjuje na sve koji razvijaju, primenjuju ili koriste AI sisteme u EU, uključujući privredna društva i pojedince iz trećih zemalja koji pružaju AI proizvode ili usluge u EU. Novi predlog regulative („Predlog„), koji je objavila Evropska komisija („Komisija„), ima za cilj da osigura da AI sistemi u Uniji budu bezbedni i u skladu sa osnovnim pravima i vrednostima Unije, kao i da se pronađe način za njihovu efikasnu primenu. Ovaj Predlog obuhvata niz AI tehnologija, uključujući glasovne asistente, autonomna vozila, čet-botove i vojne dronove. Dalje, ovim je potrebno na jasan način omogućiti ulaganja i inovacije u AI, a razvoj AI na jedinstvenom tržištu EU ne sme rezultovati fragmentacijom tržišta.
Upravljanje rizicima. Predlog faktički prepoznaje četiri kategorije AI sistema na osnovu njihovog nivoa rizika.
Neprihvatljiv rizik kod AI. AI proizvodi ili usluge koji sa sobom nose neprihvatljivi rizik, odnose se na neetičke i štetne prakse koje su neprihvatljive u duhu Predloga, kao što su slanje podsvesnih poruka ili iskorišćavanje ranjivosti određenih grupa na osnovu starosne dobi ili invaliditeta. Još jedan primer je tzv. social scoring, odnosno društveno ocenjivanje osoba. Reč je o proceni pouzdanosti određenog lica na osnovu njegovog/njenog društvenog ponašanja ili karakteristika ličnosti. Konačno, korišćenje „real-time“ sistema daljinskog biometrijskog identifikovanja u javnim prostorima je takođe zabranjeno, a može se dozvoliti samo izuzetno, kada se traže žrtve zločina, sprečava neposredna pretnja, ili u borbi protiv terorističkih napada.
Visoki rizik kod AI. Ove prakse su direktno povezane sa zdravljem, bezbednošću i ljudskim pravima, a sama lista nije iscrpna, već je Komisija može redovno ažurirati. Ove prakse mogu biti primenjene u transportu, medicinskim robotima, sortiranju CV-eva prilikom zapošljavanja, ocenjivanju kreditnog rizika u finansijskim uslugama, proveri autentičnosti putnih dokumenata u kontroli granica, itd. Zbog njihove važnosti, uspostavlja se veliki broj obaveza za pružaoce AI usluga, kao što je obezbeđivanje: (i) adekvatnih postupaka procene rizika i sistema ublažavanja rizika, (ii) kvalitetnog obučavanja i upravljanja sistemom, (iii) nadzora ljudi, (iv) detaljnih evidencija podataka generisanih od strane AI sistema, (v) tehničke dokumentacije, (vi) jasnih i adekvatnih informacija korisnicima i (vii) usklađenosti njihovih AI sistema sa zakonom. Pored toga, ne smeju se zaobilaziti ni obaveze drugih učesnika, poput uvoznika, distributera ili korisnika. Na primer, korisnici će biti obavezani da pažljivo i savesno prate uputstava za upotrebu ovih sistema.
Ograničeni rizik kod AI. Ovakva praksa podrazumeva obaveze transparentnosti, kako bi se osiguralo da su pojedinci svesni korišćenja veštačke inteligencije i kako bi isti mogli da donose informisane odluke. Stoga su pružaoci usluga obavezni da obaveste pojedince kada komuniciraju sa veštačkom inteligencijom, kao što je to slučaj kod čet-botova. Osim toga, za sisteme veštačke inteligencije koji manipulišu vizuelnim slikama, audio ili video sadržajem koji samo deluje kao autentičan i istinit, poznatim kao „deep fake“ tehnologije, pružaoci usluga moraju da objave da je sadržaj veštački generisan tj. manipulisan.
Minimalni ili nepostojeći rizik kod AI. Minimalni i nepostojeći rizici je malo verovatan da će naneti štetu pojedincima ili društvu i stoga se veštačka inteligencija ove vrste može koristiti slobodno bez potrebe za posebnim regulatornim zahtevima. Komisija procenjuje da se većina trenutno korišćenih sistema veštačke inteligencije u EU svrstava u ovu kategoriju (filter za neželjenu poštu, softver za prevođenje, video igre, itd.).
Kazne u slučaju nepridržavanja? Korišćenje zabranjenih AI sistema ili neispunjavanje kriterijuma za visokorizične AI sisteme može dovesti do novčane kazne do 30 miliona € ili do 6% od ukupnog godišnjeg prihoda. Sa druge strane, neusaglašavanje sa drugim obavezama visokorizičnih AI ili obavezama transparentnosti za AI koje sa sobom nose ograničeni rizik, dovešće do novčane kazne do 20 miliona € ili do 4% ukupnog godišnjeg obrta kompanije.
Šta AI nosi sa sobom? Kako se AI sve više širi i razvija, mogu se čuti kritike o mogućim negativnim uticajima na društvo, poput diskriminacije, gubitka poslova i kršenja privatnosti.
Uprkos očiglednom naporu Unije da se adresiraju mehanizmi za zaštitu osnovnih prava, mogu se zamisliti situacije nastanka kolektivne štete po određenu grupu ljudi usled rasne, rodne, etničke ili druge pripadnosti. Primer kolektivne štete bio bi sistem prepoznavanja lica sa rasnom pristrasnošću što je samo jedan od primera gde može doći do štete nauštrb opšte populacije. Takođe, lažne vesti i „deep fake“ već predstavljaju pretnju demokratiji, a sa AI njihov uticaj bi mogao dostići više nivoe.
Odbijanje poslovanja u oblasti AI. Evropska unija može postati nepovoljna teritorija za razvojne kompanije koje se bave veštačkom inteligencijom, budući da je prva koja pravno reguliše ovu oblast. U situaciji kada se suoče sa potencijalnim obavezama, kompanije koje se bave razvojem veštačke inteligencije mogu odabrati da se presele iz Evropske unije u države sa manje striktnim regulativama gde bi mogle da nastave razvoj i ispitivanje svojih proizvoda/usluga veštačke inteligencije.
EU često biva kritikovana kao isuviše strog regulator, čime dolazi do opterećivanja i usporavanja inovacija. Predlog regulative Evropske unije preti da ponovi istoriju – sa dobrom namerom da zaštiti svoje građane, Evropska unija može izgubiti na (potencijalno veoma profitabilnom) tržištu veštačke inteligencije i zaostati za drugim razvijenim tržištima koja se sa njom takmiče.
Vizual generisala Lexica.
Autori: Ivana Stojanivić Raišić, Nemanja Sladaković, Bojan Tutić, Vasilije Bošković