Ovo više nije SF

Izazov za kazneno pravo: Može li robot kazneno odgovarati za nesreću?

Foto: Boris Scitar/Vecernji list/PIXSELL
Bojan Jerbić
Foto: Marko Lukunic/PIXSELL
Marin Mrčela
Foto: Boris Scitar/Vecernji list/PIXSELL
Bojan Jerbić
24.11.2018.
u 23:45
I najsloženiji neovisni robotski sustav mora imati ugrađen program zaštitnih mjera koje će spriječiti samostalne pogrešne procjene robota
Pogledaj originalni članak

Jedan od najkreativnijih pisaca znanstvene fantastike Isaac Asimov još je davne 1942. u jednom od svojih djela robotima namijenio svoja tri znamenita zakona iz “Priručnika robotike”, čije je izdanje smjestio u 2058. godinu. Sudac Vrhovnog suda dr. sc. Marin Mrčela i izv. prof. dr. sc. Igor Vuletić s osječkog Pravnog fakulteta nedavno su u zaključku svog znanstvenog rada napisali “realno je očekivati razvoj posve nove pravne grane (prava robotike), koja će promijeniti postulate na kojima su odgajane generacije dosadašnjih pravnika”. Do tog su zaključka došli polazeći od pitanja može li robot biti kazneno odgovoran za (prometnu) nesreću i kakav odgovor nudi hrvatsko zakonodavstvo u usporedbi s njemačkim, švicarskim i američkim.

Riječ je o prvom znanstvenom radu o pravu robotike u Hrvatskoj koji su naslovili: “Kazneno pravo pred izazovima robotike: Tko je odgovoran za prometnu nesreću koju je prouzročilo neovisno vozilo?”. Riječ je o robotima programiranima da, upijajući podatke iz okoline, stvaraju “vlastite” procjene na temelju kojih onda samostalno postupaju. Nacionalni robotski centar u KBC-u Zagreb na proljeće bi trebao dobiti prvi kirurški robotski sustav. U SAD-u 90% operacija prostate izvode roboti. Prije šest godina robot Da Vinci, kakvih je na tisuće diljem svijeta, pomogao je kirurzima u devetosatnoj operaciji srca 22-godišnje Natalie Jones. Robotske “ruke” preciznije zaobilaze prepreke u tijelu pa su ožiljci manji, a oporavak kraći. Prije dvije i pol godine robot Ronna, kako su ga nazvali kreatori sa zagrebačkog Fakulteta strojarstva i brodogradnje na čelu s prof. dr. sc. Bojanom Jerbićem, uz pomoć kamera i uz nadzor neurokirurga prof. dr. sc. Darka Chudyja, probušio je glavu pacijenta kako bi uveo sondu kojom je uzet uzorak tkiva radi dijagnosticiranja i operacije tumora na mozgu. Chudy je tada novinarima rekao: “Robot je točan u milimetar, a ljudskom oku to bi bilo nemoguće.” Pa ipak, postavlja se pitanje što ako nešto pođe krivo. Tko je odgovaran, robot, programer, konstruktor, proizvođač ili kirurg koji sve nadzire? Ili nitko. Za dr. Chudyja to nije problem dok roboti nisu samostalni.

– Odgovornost je na tvrtki koja proizvodi robote kao i za ozljede pacijenta koje izazove druga neispravna oprema u operacijskoj dvorani. Ako je greška u uporabi uređaja, pa i robota, odgovoran je liječnik koji je dao krivu naredbu robotu. Zasad je tako, a kada sami roboti budu donosili odluke, tada će biti moguće da će se morati utvrditi odgovornost bolnica – rekao nam je prof. Chudy. I prof. Jerbić smatra kako nesreća zbog pogreške u radu običnog industrijskog robota može biti uzrokovana jedino zbog greške programera u upravljačkom programu ili konstrukcijske greške inženjera.

Sustavi bez potpune kontrole

– Tu su etički principi više-manje jasni. Međutim, četvrtu industrijsku revoluciju koju danas živimo obilježava razvoj tzv. opće, evolucijske i kreativne umjetne inteligencije kao „električne energije“ koja pokreće autonomne sustave. To su sustavi koji samostalno donose odluke i oblikuju svoje ponašanje. Nad takvim sustavima čovjek nema potpunu kontrolu, već samo očekivanja. Takvi sustavi samostalno uče i kreiraju svoj „mentalni sklop“. Stoga moramo biti svjesni novih oblika rizika s kojima se već danas suočavamo. Neki od novih rizika autonomnih inteligentnih sustava mogu proizaći na temelju korištenja sirovih i nestrukturiranih ili modificiranih podataka putem interneta ili društvenih mreža koji su refleksija dijela društva te pojačavaju postojeće kognitivne predrasude ili iskrivljenje „stvarnosti“. Pored kognitivne pristranosti valja voditi računa o rizicima netransparentnosti postupaka odlučivanja, „cyber“ kriminala koji mogu ugroziti konzistentnost upravljačkih robotskih programa, „neposlušnost“ autonomnih sustava, ugrožavanje humanih etičkih principa, problem usklađivanja umjetne inteligencije, kao i daljnje razumijevanje naprednih kognitivnih i emocionalnih procesa. Ljudska vrsta oduvijek je znala upravljati rezultatima svojeg znanstvenog i tehnološkog napretka pa ne vidim razloge zašto ne bi i u budućnosti – ističe Jerbić. A pravi nas problemi, kaže, očekuju tek u tzv. petoj znanstveno-tehnološkoj revoluciji koju će obilježiti razvoj superinteligencije.

Foto: Boris Scitar/Vecernji list/PIXSELL
Bojan Jerbić

– To je strojna inteligencija koja nadmašuje ljudsku. To će biti doba koegzistencije ljudi i strojeva kao zasebnih vrsta i tzv. obrnute inteligencije gdje strojevi podučavaju ljude – kaže Jerbić.

Joshua Brown prva je žrtva prometne nesreće izazvane automobilom s autopilotom 7. svibnja 2016. u Willistonu, Florida. Njegov Tesla Model nije uočio kamion s prikolicom na 18 kotača koji se ispriječio, pa je odrubljena krova prošao ispod njega i skršio se. Tesla odbacuje krivnju za prvu nesreću tog modela nakon prijeđenih oko 200 milijuna kilometara. Ističu i da je vozač ipak morao držati ruke na upravljaču, a Brown ih je držao samo 25 sekundi tijekom 37-minutne vožnje. Kočenja nije bilo.

Prednosti samostalnih vozila

Američki nacionalni ured za sigurnost prometa razlikuje pet stupnjeva samostalnosti vozila. Nulti je stupanj gdje vozač upravlja svime, a na prvom neka je funkcija automatizirana (npr. tempomat). Drugi stupanj podrazumijeva barem dvije od tzv. primarnih funkcija upravljanja u rukama robota, dok vozač motri stanje na cesti i po potrebi preuzima upravljanje. Na trećem stupnju automobil sam vozi dok je vozač više putnik od kojeg se očekuje da bude dostupan u slučaju potrebe. Na četvrtom stupnju automobil radi sve sam, pa ne treba vozača. Prednosti vozila s najvećim stupnjem samostalnosti su povećanje sigurnosti jer 90% nesreća uzrokovano je pogreškama vozača, smanjenje zastoja u prometu (zbog preciznijeg držanja razmaka), smanjenje potrošnje, omogućuje vožnju starijima i onima bez vozačke, eliminira pijane vozače iz prometa...

Zbog toga se zagovara izbjegavanje prestrogih kaznenopravnih zahvata kako to ne bi imalo odvraćajući učinak na daljnji razvoj tehnologije, navode Mrčela i Vuletić, te ističu kako je nužno pronaći ravnotežu između interesa za napretkom i interesa oštećenih u nesrećama. Što se odgovornosti robota tiče kao (filozofskog) koncepta budućnosti, postavlja se pitanje može li robot biti kriv i smisla njegova sankcioniranja. U filozofiji kaznenog prava, kažu autori, dva su suprotstavljena stajališta. Tzv. restriktivisti ističu kako samo ljudska bića koja djeluju svjesno i voljno mogu shvatiti koncept društvenih pravila i odgovornosti. Robotima se ne može uputiti moralni prijekor koji je u biti kaznenog prava. Nasuprot njima su tzv. permisivisti koji ističu da se pravo mora prilagoditi suvremenom življenju pa onda i robot može biti kazneno odgovoran ako za to postoji društvena potreba. Tako je uvedena i kaznena odgovornost pravnih osoba, a na Novom Zelandu je pravni subjektivitet priznat i dijelovima prirode, rijeci Whanganui.

A što se tiče moralne prekorljivosti, zanimljivi su rezultati istraživanja moralnosti postupaka u prometu, u kontekstu moguće ugradnje moralnih algoritama u robota. U anonimnoj online anketi ispitanici su se trebali opredijeliti bi li kupili automobil programiran da u slučaju nesreće smanji broj žrtava ili za automobil koji bi i pod cijenu desetak žrtava bio programiran da spasi svoje putnike. Većina se opredijelila za potonji tip vozila, što je, ističu Mrčela i Vuletić, osobito zanimljivo jer su se ti ispitanici nekoliko pitanja ranije izjasnili da je za njih moralniji pristup smanjenja broja žrtava od spašavanja putnika pod svaku cijenu. Stav autora je: “Dokle god se krivnja temelji na prijekoru koji društvo upućuje počinitelju jer nije odabrao drukčije, moralno prihvatljivo ponašanje, jasno je da nije moguća kaznena odgovornost robota iz jednostavnog razloga. Robotu, kao stroju, nije moguće uputiti prijekor pa njegova “krivnja” utoliko niti nije moralna krivnja, na kojoj se inzistira u suvremenom kaznenom pravu.”

Oživotvorenje ideje permisivista bit će moguće “tek onda kada znanstvenici uspiju razviti robote koji će biti u stanju živjeti život nalik ljudskom, emocionalno i moralno određen”. Odgovornost proizvođača i programera za djela robota predmet je znanstvenih rasprava u djelima njemačkih, švicarskih i američkih pisaca. U nijednom sustavu na robote se ne može primijeniti koncept kaznene odgovornosti. Za njemačke autore ni pravne osobe nisu u stanju razlikovati dobro i zlo, niti snositi prijekor pa ih nema svrhe ni kažnjavati. Što vrijedi i za robote, pa rješenje treba tražiti u odgovornosti čovjeka koji stoji iza robota. Odgovornost u slučaju namjere nije problematična, a kod nehaja postoji ako je posljedica počinitelju bila predvidljiva, a on je propustio poduzeti radnje kojima bi spriječio njezin nastup i takav je propust u uzročno-posljedičnoj vezi s posljedicom.

Kod neovisnih robota otvara se dvojba. Treba li odustati od kaznene odgovornosti proizvođača i programera jer im nije moguće dokazati nehaj ili treba poći od pretpostavke da je robot potencijalno opasna stvar pa je i svaka šteta koju učini bila potencijalno predvidljiva? Prvo rješenje odlučno se odbacuje jer načelna nepredvidljivost posljednje generacije neovisnih robota ne može biti ekskulpirajući temelj za njihove tvorce jednako kao što nepredvidljivost divljih životinja ne može opravdati upravitelja Zoološkog vrta. U protivnom nitko ne bi snosio krivnju, što je pravno neodrživo. Proizvođač je dužan provesti testiranja i zadovoljiti tehničke standarde radi osiguranja određene razine sigurnosti za korisnike. Kao i izdati upozorenja te kontrolirati proizvod i nakon što je pušten na tržište te ga odmah povući u slučaju najmanje sumnje u sigurnost za kupce. Ako bilo što od toga propusti, smatra se da je postupao (najmanje) iz nehaja i kazneno će odgovarati. Iako njemački autori upozoravaju da će daljnji razvoj neovisne robotike dovesti do prekida uzročnosti pa neće biti moguće uspostaviti kaznenu odgovornost proizvođača i programera.

To će se dogoditi kad pogreška robota ni u najširem tumačenju neće moći biti pripisana njegovim kreatorima, već će biti isključivo posljedica njegove prosudbe. Kako u njemačkom pravu nema kaznene odgovornosti pravnih osoba, moguće je da nitko neće biti kazneno odgovoran, što se pravda “rizikom življenja u suvremenom opasnom svijetu” koji je prihvatljiv uzmu li se u obzir prednosti koje robotika donosi. I Švicarci odgovornost traže kod proizvođača, programera i korisnika polazeći od uzroka nesreće: pogreške u programiranju, organizaciji proizvodnje, pogreške pri rukovanju. Programeru se mora dokazati propust u programiranju ili što nije predvidio neki nedostatak programa. Ali samo u slučaju smrti ili teške ozljede, te ako je ta posljedica bila predvidljiva, a programiranje po pravilima struke bi spriječilo tešku nesreću.

Švicarsko pravo korak je ispred njemačkog jer predviđa odgovornost pravnih osoba za štetu. Tu se postavlja pitanje kriterija odgovornosti proizvođača za propust svojih zaposlenika. Temelj prijekora nalazi se u infrastrukturnim propustima ili u samoj organizaciji posla, što je u praksi teško dokazivo. Korisnik odgovara ako nije postupio po uputama za rukovanje pa, recimo, unatoč upozorenju nije držao ruke na upravljaču. Švicarci buduće rješenje nalaze u propisivanju kaznenih djela konkretnog i apstraktnog ugrožavanja pa bi se inkriminiralo već i prouzročenje apstraktne opasnosti jer se, primjerice, robot nije pustio u rad pod definiranim uvjetima ili nakon završenog tečaja. Anglo-američko pravo, tumače Mrčela i Vuletić, imaju kaznenopravne odgovore za nesreće neovisnih vozila jer taj koncept ne može dovesti do toga da nitko ne odgovara. Naime, u SAD-u je dovoljno dokazati da je tvrtka delegirala određene ovlasti na zaposlenike, ali korporativna kaznena odgovornost šira je jer postoji i kad nema odgovornosti zaposlenika. Što je na udaru kritika jer pravna osoba odgovara za nemar zaposlenika i kad su poduzete preventivne radnje za sprečavanje štete. Kupac nije odgovoran ako je samo putnik u vozilu, a jest ako ima obvezu u svakom trenutku preuzeti upravljanje, pa je to propustio ili nije reagirao kako je trebao da spriječi nesreću.

Foto: Marko Lukunic/PIXSELL
Marin Mrčela

Odgovornost programera

U Hrvatskoj postoji jedino kaznena odgovornost fizičke osobe koja je navršila 14 godina te pravne osobe. Robot u kaznenom postupku ima samo status predmeta, koji može biti oduzet pa i uništen. Za njegove postupke temeljem tzv. garantne dužnosti odgovaraju osobe koje stoje iza njega. Kod neovisnih robotskih sustava stupanj odgovornosti programera i proizvođača je najveći: ako nisu proveli sve nužne provjere i testiranja, ako su pogriješili u proizvodnji, programiranju, informiranju distributera i javnosti.

Odgovornost pravne osobe temelji se na krivnji odgovorne osobe. Korisnik odgovara ovisno o stupnju neovisnosti vozila. Kod vozila s najvećim stupnjem neovisnosti s ili bez putnika, garantna dužnost tereti vlasnika u pogledu održavanja vozila i sustava. Za programera i proizvođača dolazi u obzir kazneno djelo dovođenja u opasnost života i imovine općeopasnom radnjom ili sredstvom. I najsloženiji neovisni robot mora imati uprogramirane i mjere zaštite koje će spriječiti pogrešne procjene. Programer će ogovarati ako nije predvidio neku situaciju te “uopće ne postupa po propisima ili tehničkim pravilima o zaštitnim mjerama”. Za prometni delikt odgovaraju samo sudionici u prometu, a kreatori robota i putnici to nisu. Vlasnik u takvom vozilu može odgovarati za općeopasnu radnju ako nije preuzeo upravljanje iako je morao, ali i za prometni delikt ako je bio vozač.

Pogledajte na vecernji.hr

Komentari 2

DU
Deleted user
01:32 25.11.2018.

Novinari dobili zadatak odvraćati ljude od razmišljanja o sudbonosnim odlukama koje se donose sada, pišući o utopiji koju većina nas ne će doživjeti, i koja se vjerojatno nikada ne će ni dogoditi.

DO
dosta
06:18 25.11.2018.

Kad moze Medonja, moci ce i robot, pod presu s njim pa neka trpi,