22 jun 2023

Ko je odgovoran? Utvrđivanje odgovornosti u doba veštačke inteligencije

Kada govorimo o modernoj tehnologiji, sve više mislimo na veštačku inteligenciju (AI). AI je dopreo do najrazličitijih segmenata ljudske aktivnosti, na privatnom i na poslovnom planu. Kao i svaka inovacija i ljudska kreacija, ona nije savršena i nosi rizike. AI može biti pristrastan, podložan greškama, imati bezbednosne propuste, a postaje i sve samostalniji, što sve sa sobom nosi odgovornost za štetu. Ko je odgovoran ako autonomno vozilo izazove nesreću? Ko je odgovoran ako dijagnostički alat koji pokreće AI pogrešno postavi dijagnozu pacijentu? Da li je to član razvojnog tima, proizvođač ili korisnik? Ovde se bavimo pravnim i etičkim pitanjima odgovornosti AI za štetu, kao i implikacijama koje može doneti njegov budući razvoj.

Regulatorni izazovi

Standardna pitanja odgovornosti za štetu podrazumevaju identifikaciju odgovornog lica, štetne radnje, uzroka i stepena odgovornosti za nastalu štetu. Teško se, barem trenutno, može govoriti da je AI neku štetu pričinio namerno i da je imao motiv da učini štetnu radnju. Kompleksnost sistema AI utiče na transparentnost donošenja odluka od strane AI, što znatno otežava utvrđivanje uzročne veze radnje AI i nastale štete.

Navedeni problemi ukazuju da postojeći pravni okviri i standardi odgovornosti nisu pogodni za regulisanje odgovornosti za štetu prouzrokovanu putem AI. Ovo zahteva nov regulatorni odgovor.

Pravna rešenja i regulatorni odgovori

Uporedno pravno, rešenja za vanugovornu odgovornost prouzrokovanu putem AI su različita i uključuju:

  1. Ugovorna odgovornost: Razvojni programeri i operateri veštačke inteligencije mogu biti odgovorni za štetu koju je prouzrokovao AI sistem na osnovu ugovornih odredbi. Ovo se može postići putem eksplicitnih odredbi u ugovorima koji regulišu korišćenje AI sistema.
  2. Objektivna odgovornost: Neki pravni okviri predlažu režim objektivne odgovornosti za štetu koju su prouzrokovali AI sistemi. To bi značilo da bi programeri i operateri AI bili strogo odgovorni za štetu koju je prouzrokovao sistem, bez obzira da li su postupali nemarno ili ne.
  3. Regulatorni okviri: Nekoliko zemalja uspostavilo je regulatorne okvire za AI sisteme koji zahtevaju od programera i operatera da se pridržavaju određenih standarda bezbednosti i sigurnosti (SADNacionalni zakon o inicijativi za veštačku inteligenciju, KinaPlan razvoja nove generacije veštačke inteligencije, UKCentar za etiku i inovacije podataka). Ovi okviri se mogu koristiti za uspostavljanje pravne odgovornosti za štetu koju je prouzrokovao AI sistem.
  4. Osiguranje: Polise osiguranja za AI sisteme se mogu koristiti za ublažavanje rizika povezanih sa AI sistemima. Ovakve polise bi pružile pokriće za štetu koju je prouzrokovao AI sistem, što bi podstaklo programere i operatere da preduzmu razumne mere kako bi obezbedili sigurnost i pouzdanost svojih sistema.

Regulatorni odgovor EU

  1. septembra 2022. godine, Evropska komisija je predstavila Direktivu o odgovornosti veštačke inteligencije (Direktiva), koja predlaže pravni okvir za uspostavljanje odgovornosti za štetu koju uzrokuju sistemi veštačke inteligencije. Očekuje se da će Direktiva uvesti pristup zasnovan na riziku u odgovornosti za veštačku inteligenciju, što znači da bi nivo odgovornosti zavisio od nivoa rizika koji je povezan sa sistemom veštačke inteligencije. Takođe, Direktiva predlaže režim objektivne odgovornosti za sisteme veštačke inteligencije visokog rizika, po kojem bi razvojni programeri i operateri bili odgovorni za štetu koju uzrokuje sistem, bez obzira na to da li su postupali nepažljivo ili ne. Ovo bi ih podstaklo da preduzmu neophodne mere kako bi osigurali bezbednost i pouzdanost svojih sistema. Ova pravila imaju za cilj da osiguraju da se sistemi veštačke inteligencije razvijaju i implementiraju na način koji maksimizira njihove koristi, minimizirajući pritom njihove rizike. Uopšteno govoreći, Direktiva će verovatno oblikovati budućnost odgovornosti veštačke inteligencije u EU i šire.

Etička razmatranja

Pitanje veštačke inteligencije i odgovornosti postavlja niz važnih etičkih pitanja. Neke od ključnih tema su:

  1. Pravičnost i odgovornost: Postoji zabrinutost da uspostavljanje odgovornosti za nesreće ili greške povezane sa veštačkom inteligencijom možda neće uvek biti pravično, posebno u slučajevima kada nije odmah jasno ko je odgovoran. Postavlja se i pitanje da li bi AI sistemi trebalo da budu odgovorni za svoje postupke i odluke, ili da se odgovornost prenese na ljude koji su stvorili, implementirali ili koristili ove sisteme.
  2. Transparentnost i poverenje: Da bi se osiguralo da se AI sistemi primenjuju na odgovoran i etički način, potrebna je transparentnost i poverenje u razvoj i rad ovih sistema. To uključuje obezbeđivanje da AI sistemi budu dizajnirani sa jasnim ciljevima i zadacima, da su podaci korišćeni za obuku ovih sistema nepristrasni i reprezentativni, i da su procesi donošenja odluka ovih sistema objašnjivi i razumljivi.
  3. Ljudske vrednosti i dostojanstvo: Postoji zabrinutost da AI sistemi možda neće uvek biti u skladu sa ljudskim vrednostima i dostojanstvom, posebno u slučajevima kada se ovi sistemi koriste za donošenje odluka koje imaju značajan uticaj na živote ljudi. Potrebno je osigurati da su AI sistemi usklađeni sa etičkim principima kao što su poštovanje ljudskih prava, pravičnost i društvena pravda.
  4. Uticaj na zapošljavanje: Zamena ljudske radne snage sa AI je glavna tema diskusije o AI. Potrebno je osigurati da se koristi veštačke inteligencije raspoređuju na pravičan i jednak način, i da se preduzmu mere za ublažavanje potencijalno negativnog uticaja na zapošljavanje i životne uslove.
  5. Rizik i bezbednost: Konačno, potrebno je osigurati da se AI sistemi razvijaju i primenjuju na način koji minimizira rizik i maksimizira bezbednost. To podrazumeva rigorozno testiranje i validaciju sistema AI, mere zaštite od potencijalnih rizika koji mogu voditi nastanku štete.

Budući razvoj

Razumno je očekivati da će dalji razvoj AI dovesti do određenih daljih pravnih i regulatornih implikacija. Evo nekih ključnih oblasti za praćenje:

  1. Povećana regulacija: Kako AI sistemi postaju sve napredniji i autonomniji, može postojati sve veća potreba za regulatornim nadzorom kako bi se osiguralo da su ovi sistemi sigurni i pouzdani. To bi moglo dovesti do razvoja novih zakona i propisa koji regulišu razvoj, testiranje i implementaciju AI sistema.
  2. Proširena odgovornost za korisnike veštačke inteligencije: Sa sve većom autonomijom AI sistema, dolaze i veća očekivanja da korisnici takođe dele neku odgovornost za postupke i odluke koje donose ovi sistemi. To bi moglo zahtevati obuku i edukaciju korisnika veštačke inteligencije i razvoj korisničkih interfejsa koji jasno komuniciraju mogućnosti i ograničenja AI sistema.
  3. Međunarodna saradnja u regulisanju veštačke inteligencije: kako AI ne poznaje fizičke granice, moglo bi doći do povećane saradnje među državama u uspostavljanju zajedničkih standarda i propisa za AI sisteme. To bi moglo pomoći u obezbeđivanju doslednosti u okvirima odgovornosti u različitim jurisdikcijama i promovisati sigurnu i etičku upotrebu tehnologije veštačke inteligencije.
  4. Osiguranje odgovornosti za AI sisteme: Neki stručnjaci su predložili razvoj obaveznih programa osiguranja odgovornosti za AI sisteme, slično zahtevima za osiguranje od autoodgovornosti. To bi moglo obezbediti mehanizam za obeštećenje žrtava nesreća ili grešaka povezanih sa veštačkom inteligencijom i podstaknuti razvojne programere i proizvođače da prioritet daju sigurnosti.

Zaključak

Ubrzani razvoj sistema AI zahteva pravovremen i adekvatan regulatorni odgovor u pogledu vanugovorne odgovornosti za štetu prouzrokovani AI, kako na nacionalnom, EU, tako i na globalnom nivou. Zarad opšte koristi od AI, pravna rešenja treba da teže ka ujednačenosti, efikasnoj primeni i koordinaciji regulatora. Težište regulatornog odgovora je sada na odgovornosti razvojnih programera i operatera, a u budućnosti će se ono proširiti i na korisnike. Iako je to nekad delovalo kao scenario za naučno-fantastični film, više se ne čini tako nerealno da će u nekoj daljoj budućnosti delovati potpuno razumno da AI stekne i sopstvenu odgovornost za postupke.

 

Autori: Luka Đurić, Janko Ignjatović

 

Fotografija je generisana pomoću Runway AI aplikacije.