Acţiunea, inacţiunea și legătura de cauzalitate în cazul inteligenţei artificiale

17 iun. 2022
Articol UJ Premium
Vizualizari: 942
 

Universuljuridic.ro PREMIUM

Aici găsiți informaţiile necesare desfăşurării activităţii dvs. profesionale.

Universuljuridic.ro PREMIUM pune la dispoziția profesioniștilor lumii juridice un prețios instrument de pregătire profesională. Oferim un volum vast de conținut: articole, editoriale, opinii, jurisprudență și legislație comentată, acoperind toate domeniile și materiile de drept. Clar, concis, abordăm eficient problematicile actuale, răspunzând scenariilor de activitate din lumea reală, în care practicienii activează.

Testează ACUM beneficiile Universuljuridic.ro PREMIUM prin intermediul abonamentului GRATUIT pentru 7 zile!

🔑Vreau cont PREMIUM!


 

2.5. Controverse privind condițiile acțiunii. Aplicare în materie de inteligență artificială și roboți. Caracterul voluntar

S-ar putea considera că roboții și inteligența artificială acționează într-un mod voluntar? Un autor consideră că această condiție nu ține de acțiune și o elimină cu totul atunci când analizează acest aspect prin raportare la roboți[62]. Acesta arată că „voința poate iniția acte, dar în sine nu are o reprezentare factual-externă, fiind corelată nu cu elementul factual, ci cu cel mental. Această viziune nu este singulară, acest aspect fiind controversat[63]. După cum am arătat infra, considerăm că aceste elemente nu pot fi analizate decât împreună. Așadar, pentru a analiza riguros această condiție, considerăm că este necesar mai întâi să analizăm aspectele referitoare la vinovăție, după care vom reveni la această problemă. Totuși, dorim să arătăm aici că există două abordări posibile. Există posibilitatea de a considera că elementul voluntar presupune manifestarea unei voințe proprii, caz în care analiza trebuie făcută pe terenul conștiinței și al filosofiei. Există însă și posibilitatea de a aprecia că acest caracter voluntar se rezumă la faptul că entitatea pur și simplu avea și posibilitatea de a acționa în alt mod decât cel în care a ales să o facă.

Dacă pornim de la prima construcție teoretică, nu vom putea bifa existența acestei trăsături, la acest moment[64]. Mai mult decât atât, există riscul de a nu putea niciodată considera că roboții și inteligența artificială dețin această conștiință. După cum am văzut supra, această noțiune este oricum foarte vagă, iar criteriile necesar a fi îndeplinite se tot schimbă. Multe dintre ele au fost îndeplinite pe parcurs (începând de la testul Turing până la programarea inteligenței artificiale să simuleze o conștiință), dar pe măsură ce aceste criterii au fost bifate, criteriile s-au tot schimbat, pentru că deși formal erau „trecute” respectivele teste, intuitiv, acele inteligențe artificiale nu puteau fi considerate „persoane”.

În schimb, cea de-a doua construcție teoretică se situează la polul opus, existând riscul să pară prea superficială. Dacă elementul voluntar se rezumă la a alege dintre mai multe variante posibile, nu există niciun argument pentru care nu am considera acțiunea animalelor ca fiind voluntară. Unii autori chiar afirmă că „în ceea ce privește caracterul voluntar, la o primă privire acesta ar putea fi atribuit oricărui agent care «alege» pe baza unui set de fapte, astfel încât inclusiv despre un computer care alege dintre două opțiuni, în funcție de datele de intrare și obiectiv, s-ar putea spune că există caracter voluntar. Dar la un nivel mai profund, caracterul voluntar, chiar și în ceea ce privește mișcările corporale, își are rădăcinile în judecată și în liberul arbitru. […] Abilitatea de a judeca este și mai pregnantă când vorbim despre vinovăție și pedeapsă”.

Problema este una complicată, fără un răspuns esențial greșit, în opinia noastră. Ambele construcții teoretice au avantaje și dezavantaje. Cu toate criticile care se pot aduce unei astfel de idei, s-ar putea să ajungem într-un punct în care, dincolo de considerațiile de ordin filosofic cu privire la conștiință, să apreciem că este util să concluzionăm că roboții și inteligența artificială pot acționa din punct de vedere penal. Dacă în cazul persoanei juridice se apelează la o veritabilă ficțiune pentru a putea atrage răspundere penală a acesteia (înțelegem aici să ne raliem viziunii potrivit căreia rațiunea este eminamente una care ține de echitate, iar nu de anumite criterii stricte de ordin teoretic și filosofic referitoare la noțiunea de personalitate), ar exista posibilitatea ca și în cazul roboților/inteligenței artificiale să considerăm că este suficient pentru elementul volitiv că, din mai multe variante posibile, inteligența artificială a ales una anume. Aici nu ar fi vorba despre o veritabilă ficțiune, cum se întâmplă în cazul persoanei juridice, ci cel mult despre o „forțare” a acestei condiții.

Cu toate acestea, apreciem în continuare că pot fi aduse argumente și în sens contrar necesității existenței liberului arbitru în materie de inteligență artificială, pentru a putea vorbi despre un caracter voluntar al acțiunii, după cum vom argumenta. Dreptul penal, la nivel conceptual, pare a fi bazat pe conceptul voinței libere, iar nu pe determinism. Probabil că de aici și juriștii care tratează această problemă vorbesc despre conceptul de liber arbitru. Dar din punct de vedere filosofic, problema nu este nici pe departe atât de clar rezolvată. Pentru a defini mai întâi conceptele de bază, noțiunea de liber arbitru reprezintă ideea potrivit căreia noi suntem liberi să alegem ce acțiuni să întreprindem: suntem liberi să alegem să acționăm într-un fel sau în altul. La capătul opus, determinismul dur pornește de la observația că lumea înconjurătoare este construită pe o relație cauză-efect.

O parte importantă a filosofiei consideră că cele două noțiuni sunt incompatibile[65]. Incompatibilitatea apare tocmai datorită testului care este folosit și pentru a determina dacă acțiunea întrunește condiția voluntarității: este vorba despre principiul posibilităților alternative[66]. Potrivit acestui principiu, o persoană este liberă și responsabilă moral pentru acțiunea sa numai dacă putea să acționeze în mod diferit[67]. În cazul determinismului dur, în schimb, felul în care a acționat este întotdeauna singurul mod în care putea să acționeze (ca urmare a raportului de cauză – efect).

Principala problemă a teoriei voinței libere provine din aceea că este fundamental diferită de felul în care, după cunoașterea noastră colectivă, funcționează lumea înconjurătoare[68]. De ce nu am funcționa precum lumea înconjurătoare? Pentru a răspunde la această întrebare dificilă, proponenții acestei teorii au creat distincția între cauzalitatea externă, a mediului și cea internă a agentului[69]. În esență, această dihotomie spune că există acțiuni determinate de un raport de cauză- efect, existente în mediul înconjurător. Cu toate acestea, agentul, prin libertatea sa de voință, are posibilitatea de iniția el însuși un lanț de acțiuni și raporturi de cauzalitate. Astfel, mingea de fotbal care, în virtutea efectului gravitației și al frecării cu aerul, pică în plasa porții, este efectul mediului înconjurător. Decizia de a lovi mingea într-un anumit moment și într-un anumit mod reprezintă voința liberă a fotbalistului care a creat astfel un nou lanț cauzal.

Această teorie este, însă, profund criticată în filosofie[70]. Acestei teorii i s-a reproșat faptul că, deși ea pare intuitivă, este în realitate „foarte obscură și chiar incoerentă”[71]. Întrebarea dificilă este următoarea: ce anume motivează un agent să ia aceste „decizii libere”? Atunci când există mai multe posibilități, ce îl determină pe agent să aleagă una dintre variantele posibile? Dacă răspunsul este că acțiunea este determinată de sistemul de credințe al persoanei, de experiența sa, factori genetici, idei etc., atunci argumentul este, de fapt, unul în favoarea determinismului. Deși, la suprafață, pare că agentul acționează liber, în realitate există un cumul de factori conștienți și inconștienți care determină o anumită acțiune. În exemplul nostru, experiența, antrenamentul, credința că de la acea poziție poate înscrie etc., toate au determinat conduita fotbalistului de a trage spre poartă. Mergând pe acest raționament, este dificil de argumentat că oamenii sunt înzestrați cu o veritabilă voință liberă. Există filosofi care au argumentat că pur și simplu, prin experiența noastră subiectivă, pare că avem cu adevărat voință liberă[72]. Ei argumentează că este necesar să luăm în calcul și experiența empirică, umană. Deși acest argument pare foarte valoros la nivel intuitiv, suferă de o lipsă de fundament teoretic.

Am văzut deja că unii autori consideră că nu este suficient ca inteligența să aibă posibilitatea și capacitatea de a alege dintre mai multe variante teoretic posibile, ci este necesar ca ea să manifeste o voință și o conștiință. Motivul pentru care am expus discuția anterioară este următorul: dacă este și așa foarte discutabil dacă noi, ca ființe umane, avem cu adevărat voință liberă sau nu, de ce am pretinde acest lucru de la inteligența artificială și nu ar fi suficient ca ea doar să aleagă dintre mai multe variante teoretic posibile? De altfel, doctrina germană, după o evoluție tumultoasă a teoriei acțiunii, s-a întors în final la conceptul natural de acțiune, potrivit căruia este suficient ca agentul să dorească ceva prin acțiunea sa, orice, conținutul propriu-zis al voinței sale fiind irelevant pentru subiectul analizat aici[73].

2.6 Controverse privind condițiile acțiunii. Aplicare în materie de inteligentă artificială și roboti. Relevanta socială a acțiunii

Doctrina germană admite condiția ca acțiunea să poarte o anumită încărcătură socială, după cum am văzut supra. Unii autori consideră că, pentru a putea vorbi despre o acțiune a roboților în sensul legii penale, este necesar ca această condiție să existe în mod cumulativ alături de celelalte două, analizate anterior[74]. Am văzut deja supra că această concluzie este discutabilă. Totuși, dacă ar fi într-adevăr să admitem această condiție, trebuie să arătăm că există autori care consideră că această condiție nu este îndeplinită: „Relevanța socială își are rădăcinile într-un context istoric specific, dar este construit în timp prin evoluția dinamicii și percepției sociale, iar agenții de tip inteligență artificială sunt în continuare prea tineri pentru a obține «masa critică» de semnificație și importanță socială. Acest fapt, totuși, s­ar putea schimba în viitor, pe măsură ce indivizii și societățile devin din ce în ce mai familiare cu inteligența artificială, în special roboții furnizori de servicii care prezintă o înfățișare umană”[75]. Apreciem că această concluzie este criticabilă, cel puțin pentru argumentele aduse în sprijinul acestei concluzii.

În primul rând, contextul istoric nu este, credem noi, modelul cel mai fericit de a verifica relevanța socială. Doctrina germană, de unde provine acest concept, a încercat să dea o definiție acestei trăsături, dar s-a ferit să încorporeze în el un element social-istoric[76]. După cum am văzut deja supra, definițiile au fost mai mult orientate în jurul conceptului de acțiune care face o diferență în realitatea socială[77]. Folosind criteriul istoric, ar fi trebuit să refuzăm să conferim relevanță socială anumitor categorii de persoane până când societatea le recunoaște valoarea. Spre exemplu, în SUA au existat comunități întregi care s-au opus abolirii sclaviei și nu au recunoscut acest fenomen social. Aplicând criteriul istoric al relevanței sociale, până la acceptarea în conștiința socială, persoanelor ținute în sclavie anterior ar fi trebuit să li se refuze recunoașterea relevanței acțiunilor. O soluție ar fi să apreciem că, într-un astfel de caz, însăși legea conferă relevanță socială acestor acțiuni. O astfel de abordare conceptuală a acțiunii, însă, este criticabilă, după cum s-a văzut supra.

Pe de altă parte, nu înțelegem de ce, pentru a obține recunoaștere în societate, roboții ar trebui să aibă o înfățișare umană. Nici măcar în diverse forme de divertisment roboții nu sunt portretizați ca având o înfățișare umană, decât arareori[78]. Nu credem că în acest element constă relevanța socială a roboților și inteligenței artificiale.

Finalmente, diverși roboți au invadat deja piața comercială. Poate cel mai simplu exemplu este cel al aspiratorului robot, care se bucură de un succes comercial[79]. Alți roboți, precum mașinile autonome, au fost atacați de către rezidenți cu pietre și cuțite[80]. Acest gen de comportament nu este unul izolat, companii precum Waymo raportând că autovehiculele lor autonome au fost atacate de persoane înarmate cu pietre, cuțite și chiar arme de foc, de aproape 24 de ori[81]. În aceste condiții, ne întrebăm: oare o reacție de antagonizare nu reprezintă, în sine, o recunoaștere a relevanței lor sociale? Considerăm că o astfel de atitudine din partea unei fracțiuni a societății implică anticiparea unui pericol. Cu alte cuvinte, cel mai probabil această reacție vine ca urmare a neîncrederii în această tehnologie, sau poate chiar ca o manifestare a unor diverse frustrări (pierderea locului de muncă în detrimentul automatizării facilitate de roboți, spre exemplu). Oricare ar fi motivul, considerăm că o astfel de reacție, chiar negativă fiind, este suficientă pentru a le recunoaște rolul lor în realitatea socială. Așadar, chiar și dacă se aplică acest criteriu conform viziunii propuse de autorul menționat, tot este discutabilă soluția la care s-a ajuns.

2.7. Concluzii cu privire conceptul de acțiune în materie de roboți și inteligență artificială

După toată această prezentare, se impune întrebarea finală: poate inteligența artificială să acționeze, de lege lata, din punct de vedere penal? După cum s-a văzut deja, este dificil de răspuns la această întrebare întrucât conceptul de acțiune este, în sine, unul atât de fundamental încât este foarte dificil de explicat. În consecință, condițiile sunt, de asemenea, destul de vagi. În principiu, s-ar părea ca sistemele actuale de drept penal nu sunt pregătite să accepte faptul că inteligența artificială „acționează” din punct de vedere penal. Trebuie însă menționat că, dacă este să acceptăm o astfel de teză a răspunderii inteligenței artificiale în nume propriu, această condiție nu este cea mai dificil de adaptat. În acest sens, arătăm că există și autori care, aplecându-se asupra acestei probleme, au concluzionat că inteligența artificială poate „acționa” în nume propriu, din punct de vedere al legislației penale[82]. Pentru a ajunge la o astfel de concluzie, se argumentează că singura condiție reală pentru a putea vorbi despre elementul actus reus este existența unei acțiuni care se manifestă în planul extern, indiferent că ea este voită sau nu. Această opinie rămâne însă, la momentul redactării acestor rânduri, una izolată[83].

Conferința națională „Prevenirea și combaterea spălării banilor”. Impactul noii legi asupra profesiilor liberale

După cum am văzut deja în repetate rânduri, în sistemul nostru juridic, accidental sau nu, elementul voluntar nu ține de acțiune, ci de imputabilitate. Mai mult, relevanța socială nu este acceptată drept condiție a acțiunii în sistemul nostru de drept. În aceste condiții, singura condiție identificată în doctrină supra ca opunându-se bifării acestei condiții este cea a unei mișcări corporale.

Acestea fiind zise, vom proceda în continuare la a analiza condițiile inacțiunii.

3. Trăsăturile inacțiunii

Dacă o entitate nu poate acționa, nu se poate vorbi despre o omisiune, întrucât omisiunea presupune că autorul omisiunii trebuia și putea să acționeze în mod diferit. Or, dacă noi am ajuns la concluzia că inteligența artificială nu poate acționa, cum am putea vorbi despre omisiune? Cu toate acestea, apreciem că o analiză a omisiunii este utilă, cel puțin din perspectiva persoanelor care omit să intervină în controlarea inteligenței artificiale. În plus după cum am văzut deja, s-ar putea relativ ușor aprecia că și inteligența artificială poate să acționeze, dacă am considera că acea condiție a unei mișcări corporale este una desuetă. Finalmente, există deja autori care susțin insistent că inteligența artificială bifează elementul actus reus[84]. Prin prisma tuturor acestor elemente, considerăm că este util să ne aplecăm asupra acestei probleme. Vom analiza așadar inacțiunea pornind de la premisa că ar fi posibilă acțiunea.

3.1. Condițiile omisiunii

În ceea ce privește inacțiunea, în doctrină s-a evidențiat că „omisiunea nu se analizează in abstracto, ca o simplă pasivitate, ci ea se evidențiază întotdeauna prin raportare la o anumită acțiune determinantă, care îi este cerută subiectului[85]. În plus, se mai arată că „așa se face că inacțiunea a fost definită ca nerealizarea unei acțiuni posibile pe care subiectul avea obligația juridică de a o realiza sau ca neefectuarea unei acțiuni așteptate din partea unei persoane[86]”.

Temeiul legal pentru răspunderea pentru infracțiunea comisivă prin omisiune se regăsește la art. 17 Cod Penal. Potrivit acestuia, există omisiune când: (a) există obligație legală sau contractuală de a acționa, respectiv când (b) autorul omisiunii, printr-o acțiune sau inacțiune anterioară, a creat pentru valoarea socială protejată o stare de pericol care a înlesnit producerea rezultatului.

Dreptul german operează, în principiu, cu aceleași concepte. Astfel, în mod normal inacțiunea nu are relevanță penală, cu excepția cazului în care este prevăzută expres de lege sau dacă sunt întrunite condițiile faptei comisive prin omisiune[87]. Această teorie își are rădăcinile în conceptul negativ de acțiune, care definește atât acțiunea cât și inacțiunea drept „neevitarea a ceea ce era evitabil dintr-o poziție de garant”[88].

Spre deosebire de reglementările codului penal, în privința infracțiunilor comisive prin omisiune, în dreptul german se consideră că nu este suficientă simpla existență a unei obligații de a acționa, ci trebuie analizat și scopul respectivei obligații[89]. În acest sens este conferit exemplul unui angajator care își găzduiește o angajată. Se arată că deși se nasc astfel în sarcina angajatorului anumite obligații, acesta nu are obligația de a interveni pentru a opri săvârșirea infracțiunii de întrerupere ilegală a sarcinii[90]. Similar, mai este oferit exemplul unui asigurator care își asumă obligația contractuală de a asigura o casă, dar în sarcina căruia nu se naște obligația de a interveni pentru a stopa un incendiu asupra respectivei case[91].

Trebuie menționat însă că există totuși o diferență fundamentală între dreptul român și cel german: dreptul național are o viziune formalistă asupra poziției de garant. În dreptul penal românesc art. 17 prevede în mod limitativ situațiile în care se poate naște o poziție de garant. Prin urmare, în măsura în care nu se poate identifica o obligație legală sau contractuală de a acționa, este exclusă reținerea unei poziții de garant. În exemple precum cel cu angajatorul care găzduiește o angajată lipsește tocmai acest fundament juridic, motiv pentru care astfel de situații nu se încadrează în ipotezele care pot genera o eventuală poziție de garant. În mod similar, între concubini nu se naște o poziție de garant tocmai din cauza lipsei unui fundament juridic în conformitate cu dispozițiile de la art. 17 lit. a).

• Acțiunea și inacțiune raportată la inteligența artificială și roboți

Pornind de la această definiție, punem în discuție speța în care un aspirator robot a calculat, din eroare, că părul femeii care dormea pe podea reprezintă murdărie care trebuie aspirată. Incidentul a fost suficient de grav încât să o determine pe femeie să sune la serviciile de urgentă pentru a o ajuta, fiind nevoie de 4 pompieri în acest sens[92]. Având în vedere această stare de fapt, este vorba în principiu despre o auto-lezare a victimei, din culpă. Totuși, presupunând că, prin absurd, o astfel de faptă ar întruni elementele constitutive ale unei infracțiuni, problema relevantă este dacă utilizatorul aspiratorului ar fi avut obligația de a supraveghea aspiratorul-robot. În mod evident, nu există nicio normă legală care să prevadă obligația de a supraveghea aspiratorul. Cu atât mai puțin am putea vorbi despre vreo obligație contractuală. Prin urmare, principalul aspect care trebuie lămurit este dacă acțiunea de pornire a aspiratorului constituie sau nu o conduită periculoasă. Pentru a răspunde unei astfel probleme, trebuie stabilit dacă aspiratorul-robot este un bun periculos, pentru care este necesară gestionarea stării de pericol. În principiu, un astfel de bun nu ar trebui să reprezinte o sursă de pericol, dar trebuie luate în calcul și criterii precum conduita anterioară a robotului sau dacă a mai fost utilizat anterior. Dacă robotul este utilizat pentru prima dată, utilizatorul are obligația de diligență de a se asigura că acesta funcționează în mod corespunzător. Totuși, având în vedere că, în principiu, lansarea unui robot- aspirator nu reprezintă o acțiune periculoasă, concluzionăm că nu se poate vorbi despre o infracțiune omisivă improprie într-o astfel de situație, de altfel pur ipotetică.

O altă speță interesantă este Random Darknet Shopper, de data aceasta o speță reală care a dat naștere unei întregi anchete penale.

Darknet-ul este o parte a internetului unde se desfășoară un număr mare de activități ilicite, precum traficul de persoane și de droguri. Primul website care a fost o veritabilă piață de astfel de activități ilegale, similar cu site-uri precum OLX, a fost the silk road (drumul mătăsii)[93].

Un grup de artiști a efectuat următorul experiment: au creat o inteligență artificială, denumită Random Darknet Shopper, căreia îi dădeau săptămânal 100 de Bitcoin (monedă virtuală) pentru a efectua, în mod complet autonom și nesupravegheat, câte o achiziție săptămânală de pe o altă astfel de piață de pe Darknet. Bunurile astfel obținute erau ulterior expuse în cadrul unei galerii de artă[94]. Inteligența artificială a achiziționat o pereche de blugi contrafăcuți, o cheie universală, 200 de țigarete, o geantă Louis Vuitton contrafăcută și 10 pilule de ecstasy[95]. Pentru aceste din urmă droguri a fost începută o urmărire penală. În mod interesant, s-a dispus începerea urmăririi penale atât cu privire la producător, cât și cu privire la inteligența artificială în sine[96]. Urmărirea penală nu s-a finalizat cu trimiterea în judecată, dar drogurile au fost confiscate și distruse[97].

Într-o astfel de situație, prin prisma celor analizate mai sus, se pune din nou problema răspunderii pentru o infracțiune comisă prin omisiune. Ipoteza care ar putea fi incidentă într-o astfel de situație este cea de la lit. b) a art. 17. Practic, analiza care trebuie făcută este următoarea: trebuie analizat dacă simpla lansare a acestei inteligențe artificiale reprezintă o sursă de pericol ce trebuie gestionat. S-a exprimat opinia potrivit căreia există un pericol, dar nu e suficient de serios pentru a putea vorbi despre o poziție de garant[98]. Autorii acestei opinii relevă că simpla conduită de a lansa inteligența artificială nu reprezintă, de facto, un pericol care să înlesnească producerea rezultatului. Se arată că se poate imagina un pericol constând în achiziționarea de droguri de pe o astfel de piață, dar ar trebui stabilit care era probabilitatea statistică, în funcție de frecvența cu care se vând acele droguri pe respectiva piață, pentru a putea vorbi despre răspundere penală. Or, din moment ce această frecvență este una incertă, nu se poate vorbi despre așa ceva[99]. Această speță scoate în evidență aplicațiile practice ale considerentelor expuse mai sus: trebuie verificat dacă, prin prisma informațiilor deținute de către producătorul inteligenței artificiale, aceasta poate fi considerată periculoasă la un examen ex ante. În speța anterioară, într-adevăr, nu există date statistice concludente care să spună cu certitudine în ce măsură se vând droguri pe darknet. Pe de altă parte, condiționarea răspunderii de un astfel de criteriu este nerealistă, întrucât situația-premisă este că vorbim despre o „piață neagră”, care prin definiție există pentru a fi în afara reglementărilor legale. Realizarea unei astfel de statistici reprezintă un standard probator imposibil de realizat fiind totodată și un demers inutil, în opinia noastră. Pe de altă parte, întreg scopul acestui proiect artistic a fost tocmai de a observa ce anume ar cumpăra inteligența artificială de pe darknet, legal sau ilegal. Mai mult, este chiar un fapt notoriu că pe darknet se comercializează bunuri ilegale, care variază de la droguri până la materiale pornografice interzise. Așadar, contrar celor reținute în doctrină, apreciem că în speță au existat suficiente elemente care să conducă la ideea că acțiunea de a lansa Random Darknet Shopper năștea obligația de supraveghere și gestiune a stării de pericol. În consecință, în acea speță apreciem că, raportat la starea de fapt identificată, existau suficiente elemente pentru a putea vorbi despre o răspundere pentru o faptă comisivă prin omisiune, în persoana utilizatorilor.

4. Legătura de cauzalitate

Deși nu este consacrată expres la nivel legislativ, între acțiune/inacțiune și rezultat trebuie să existe o legătură de cauzalitate. Acțiunea lui A trebuie să cauzeze decesul lui B. Problema care apare în contextul inteligenței artificiale este de a stabili dacă intervenția acesteia rupe legătura de cauzalitate dintre acțiunea actorului uman și urmarea produsă. Inteligența artificială învață pe baza propriei experiențe și își dezvoltă astfel propriile capacități, nefiind limitată la a reproduce ceea ce este învățată. Spre exemplu, dacă se dorește o inteligență care să diferențieze între mamifere și alte categorii, după ce este educată prin diverse metode, aceasta ar trebui ca, după o anumită perioadă de timp, fiindu-i prezentat un animal cu privire la care nu are nicio altă experiență anterioară, să poată stabili singură, în mod corect, dacă este vorba despre un mamifer sau nu. Cu alte cuvinte, inteligența artificială nu se rezumă doar la a reda o bază de date (un tabel exhaustiv cu toate mamiferele din lume), ci învață efectiv să le recunoască pe baza anumitor criterii și a propriei experiențe, similar într-o anumită măsură cu modul în care sunt educate ființele umane. În acest context, se pune întrebarea dacă există legătură de cauzalitate între acțiunea de programare/producere și rezultatul efectiv produs, având în vedere interpunerea acestui factor decizional, care apare oarecum ca fiind extern propriei programări. Pentru a complica și mai mult lucrurile, există inteligență artificială care programează alte inteligențe artificiale, fiind și mai îndepărtat actorul uman în acest lanț. Totodată, există diferite metode de învățare, unele în care inteligență artificială este supravegheată de un operator uman, altele în care nu (supervised learning vs. unsupervised learning). În aceste condiții, există legătură de cauzalitate relevantă din punct de vedere penal între acțiunea de programare, respectiv producție a robotului/inteligenței artificiale și rezultatul efectiv produs?

Generalizând, la nivelul dreptului comparat se consideră legătura de cauzalitate științifică și cea juridică sunt două chestiuni diferite[100]. Unele legislații aplică un test în mai multe etape, prima etapă fiind cea a aplicării unui test „but-for” („dacă- atunci”), pentru a afla cauza științifică și apoi o serie de alte criterii, care diferă de la legislație la legislație, pentru a identifica dacă respectiva conduită s-a aflat în legătură de cauzalitate juridică cu rezultatul. Spre exemplu, într-o speță de la Curtea de Apel a Regatului Unit (UKHL) s-a stabilit că deși drogurile au fost furnizate de inculpat persoanei care, ca urmare a administrării unei doze prea puternice, a decedat, întrucât dreptul penal este fundamentat pe principiul libertății de voință, nu se poate considera că există și o legătură de cauzalitate din perspectiva dreptului penal. Pentru a decide astfel, în esență, s-a reținut că dreptul penal este fundamentat pe principiul liberului arbitru și, cu excepția anumitor categorii prezumate vulnerabile (copii, persoane puse sub interdicție sau care au în genere un discernământ limitat), adulții sănătoși din punct de vedere mental și corect informați sunt liberi să își conducă acțiunile în funcție de cum consideră, fiind astfel înlăturat raportul de cauzalitate de către respectiva instanță[101].

Unul dintre cele mai utilizate teste pentru a stabili legătura de cauzalitate juridică este cel al condiției sine qua non, sau al teoriei echivalenței condițiilor, după cum este cunoscut în dreptul național[102]. Aplicând acest raport de cauzalitate, este evident faptul că acțiunea producătorului de a pune în circulație respectivul autovehicul autonom se află în legătură de cauzalitate cu decesul persoanei accidentate, întrucât dacă nu ar fi fost pus în circulație autovehiculul, pietonul nu ar fi decedat. Cu toate acestea, teoria este foarte criticabilă atunci când este problematic raportul de cauzalitate, doctrina considerând în mod majoritar că are neajunsuri semnificative[103]. Teoriile mai moderne mută accentul de pe legătura clasică și strictă de cauzalitate pe elementul responsabilității rezultatului[104]. Această poziție doctrinară se regăsește în teoria imputării obiective a rezultatului, în care analiza se face în două etape: I. verificarea existenței unui risc nepermis pentru valoarea socială protejată și II. materializarea stării de pericol în rezultat[105]. Aplicând acest algoritm, se impune o analiză cu privire la măsura în care acțiunile producătorului au creat o stare de pericol pentru valoarea socială a vieții pietonului și în ce măsura aceasta s-a concretizat în decesul respectivului pieton. În ceea ce privește această a doua etapă, problema principală este în ce măsură intervenția inteligenței artificiale face ca riscul să survină din cauza unui factor extern producătorului, cu alte cuvinte, în ce măsură este incident riscul deviat[106]. Exemplul oferit aici de doctrină este cel al unei victime care este înjunghiată cu o lovitură de cuțit, fiind transportată la spital, unde decedează din cauza unui incendiu, caz în care conduita autorului nu va fi în raport de cauzalitate cu decesul victimei[107]. Cu toate acestea, s-a statuat că „nu va exista un risc deviat atunci când pericolul creat a înlesnit acțiunea împrejurării care ulterior a determinat producerea rezultatului”[108]. În practica instanțelor germane nu s-a reținut riscul deviat și a fost atrasă răspunderea penală pentru o infracțiune din culpă în cazul unei persoane care și-a uitat arma de foc într-un palton dintr-un teatru, armă ce a fost găsită de o altă persoană și utilizată pentru a împușca mortal victima[109]. Exemplul dat de doctrină în acest caz este cel al unui farmacist care prepară în mod greșit medicamentele unui pacient, a cărui stare se înrăutățește și necesită internare. În spital, pacientul decedează din cauza unei infecții nosocomiale. Având în vedere faptul că sistemul imunitar este slăbit tocmai din cauza acțiunii farmacistului, nu va fi incident riscul deviat.

Față de cele expuse anterior, după cum am arătat cu altă ocazie[110], acțiunea de punere în circulație a unui autoturism autonom creează, de lege lata, un risc relevant cu privire la siguranța pietonilor. Traficul rutier reprezintă o activitate inerent periculoasă, care – din punct de vedere statistic – presupune prin el însuși faptul că se vor produce pagube de ordin material, vor vătăma integritatea fizică a unor persoane și, din păcate, vor cauza pierderea de vieți omenești. Cu toate acestea, în vederea utilității sale, acest pericol este acceptat, astfel încât în măsura în care traficul rutier se desfășoară în condiții legale, este exclusă cauzalitatea din punct de vedere al dreptului penal. În acest sens, este edificator textul convenției de la Viena din 1968 asupra traficului rutier, ratificată și de România și publicată în Buletinul Oficial nr. 86 din 20 Octombrie 1980[111]. Unul dintre principiile fundamentale pe care se întemeia această convenție a fost acela potrivit căruia șoferul este operatorul mașinii și trebuie să se afle întotdeauna în controlul autovehiculului și a sursei de pericol pe care o creează. Aceeași soluție legislativă fiind și în actualul cod rutier[112], care prevede la art. 1 că circulația pe drumurile publice a vehiculelor, pietonilor și a celorlalte categorii de participanți la trafic, drepturile, obligațiile și răspunderile care revin persoanelor fizice și juridice, precum și atribuțiile unor autorități ale administrației publice, instituții și organizații sunt supuse dispozițiilor prevăzute în prezenta ordonanță de urgență. Tot astfel, noțiunea de conducător, potrivit art. 6 pct. 12 din actul menționat este definită drept persoana care conduce pe drum un grup de persoane, un vehicul sau animale de tracțiune, animale izolate sau în turmă, de povară ori de călărie. Este evident că legiuitorul nu a avut niciodată în vedere mașinile autonome atunci când a elaborat respectivele acte legislative. Cu titlu comparativ, există legislații în unele state SUA (Michigan), care au modificat deja legislația și au introdus în sfera noțiunii de conducător și sistemul de conducere al unei mașini autonome[113]. Legislația europeană începe, de asemenea, să permită mașinilor autonome să circule pe drumurile publice. Țările care sunt în curs de modificare a legislației sau care și-au modificat în mod expres legislația pentru a permite circulația lor pe drumurile publice sunt: Olanda[114], Marea Britanie[115], Franța[116], Germania[117] și altele.

Prin urmare, având în vedere actuala legislație, trebuie concluzionat că simpla punere în circulație a unui autovehicul autonom este ilicită, pentru simplul motiv că se creează un risc pentru valoarea socială ocrotită care nu este acceptat de societate și autorizat de lege ca atare (risc nepermis). Traficul rutier, atunci când se desfășoară în limitele legale, exclude imputarea rezultatului ca urmare a incidenței riscului permis[118]. Or, situația-premisă este că aceste activități, prin natura lor, creează o stare de pericol intrinsecă […], dar care, în considerarea utilității lor sociale, sunt autorizate de lege și se desfășoară cu respectarea dispozițiilor legale[119]. Având în vedere că autovehiculele autonome nu sunt autorizate de către lege, rezultă că nu se poate vorbi despre un risc permis.

Dar în măsura în care acest risc va deveni unul permis, este interesant de analizat în ce măsură intervenția inteligenței artificiale ar atrage incidența riscului deviat. Pentru a analiza legătura de cauzalitate în cazul infracțiunilor din culpă, doctrina germană ia în calcul și cât de previzibil era la momentul comiterii faptei rezultatul acțiunii neglijente[120]. Viziunea tradițională era în sensul că în ceea ce privește infracțiunile din culpă, singurul criteriu obiectiv este legătura de cauzalitate, restul elementelor ținând de persoana și abilitățile autorului, fiind prin urmare o problemă de vinovăție. În prezent, această construcție teoretică a fost abandonată, întrucât se consideră că simpla includere a culpei în norma de incriminare presupune existența unui etalon obiectiv, nefiind atrasă răspunderea penală pentru orice eroare umană, în virtutea principiului minimei intervenții, ci doar pentru cele în care acțiunea penală este justificată fie de importanța valorii sociale ocrotite, fie de gravitatea culpei, ori o combinație între cele două[121]. Revenind la exemplul cu victima unui atac cu cuțitul care decedează la spital din cauza unui incendiu, în măsura în care autorul avea informații certe cu privire la succesiunea evenimentelor (în sensul că la spital va avea loc un incendiu), rezultatul nu mai este produs din cauza unui eveniment extern survenit întâmplător, ci rezultatul calculat al unui plan. Or, a analiza în ce măsură rezultatul este previzibil în cazul infracțiunilor săvârșite din culpă atunci când este vorba despre inteligența artificială este o discuție amplă, care excedează scopului prezentei lucrări. După cum am arătat anterior, practica germană a decis că va răspunde pentru o infracțiune comisă din culpă persoana care uită o armă de foc în haină, armă utilizată apoi de un terț pentru a ucide o altă persoană. Totodată, s­a decis că rezultatul era previzibil în cazul unei fapte în care proprietarul autoturismului a omis să asigure ușile unui autoturism pe care victima l-a condus ulterior, murind într-un accident rutier[122] ori în cazul vătămării din culpă a unui minor de către un câine care manifestase comportament agresiv exclusiv față de alți câini până la momentul săvârșirii faptei[123]. Prin urmare, reperul pare să fie următorul: în măsura în care starea de pericol creată pur și simplu înlesnește acțiunea intervenită întâmplător, legătura de cauzalitate există. Spre exemplu, simpla fragilitate a victimei nu înlătură legătura de cauzalitate în cazul unei agresiuni din partea autorului. În schimb, în măsura în care era imprevizibil însuși lanțul cauzal, nu va exista legătură de cauzalitate între starea de pericol creată și rezultatul astfel produs[124]. Or, previzibilitatea în cazul intervenției inteligenței artificiale este, după cum am menționat, un subiect dificil. Ca și criteriu general, în măsura în care decizia inteligenței artificiale se manifestă ca un factor extern, întâmplător – iar nu ca un răspuns programat și previzibil – apreciem că va fi incident riscul deviat și ruptă astfel legătura de cauzalitate.

Raportat la inteligența artificială în sine, în măsura în care s-ar considera că aceasta poate să acționeze într-un mod relevant din punct de vedere penal, limita dintre o acțiune proprie și una programată devine foarte fină. În cazul unei acțiuni programate, a unei comenzi predefinite, inteligența artificială este mai apropiată de un instrument în mâinile utilizatorului decât de o entitate care acționează în nume propriu. O acțiune „proprie” a I.A. ar trebui să se îndepărteze de la acea comandă rigidă și să se manifeste mai mult ca un factor extern acesteia, astfel încât decizia să îi aparțină, în mare măsura. Spre exemplu, dacă un pasager se urcă într-o mașină autonomă și îi cere să îl transporte din punctul A în punctul B, robotul acționează ca un instrument în mâinile utilizatorului. În schimb, aspecte precum banda pe care circulă, viteza pe care o adoptă, traseul pe care se deplaseze în cazul în care sunt mai multe rute viabile, dacă să claxoneze sau nu alți participanți la trafic, dacă să comită anumite încălcări minore ale regulilor de circulație pentru fluidizarea traficului – toate aceste decizii își au centrul mai degrabă în structura inteligenței artificiale, apărând ca fiind proprii acesteia. Acestea fiind zise, diferența între o conduită independentă și una pre-programată a inteligenței artificiale este una greu de trasat.

5. Concluzii

În cazul infracțiunilor în care este implicată inteligența artificială (în special a celor din culpă), situația dreptului penal este atipică, întrucât pe de o parte, a nu trage pe nimeni la răspundere riscă să creeze o impunitate nejustificată, iar pe de altă parte, independența decizională a inteligenței artificiale face să pară nejustificată și tragerea la răspundere a unor actor umani. Chiar și în măsura în care se poate reproșa o culpă, este dificil de identificat cu precizie care dintre zecile sau sutele de actori umani au fost direct responsabili, iar cu atât mai puțin fezabilă apare tragerea la răspundere a tuturor programatorilor implicați vreodată în crearea și gestionarea respectivei inteligențe artificiale. Dacă va fi necesară o schimbare de paradigmă și cum va arăta aceasta, rămâne de văzut.


[62] G. Hallevy, op. cit., p. 39.

[63] În același sens, că elementul unei acțiuni voluntare ține mai mult de vinovăție, a se vedea M.D. Dubber, T. Hornle, op. cit., p. 194.

[64] În același sens a se vedea D. Lima, op. cit., p. 682.

[65] A se vedea McKenna, Michael and Coates, D. Justin, „Compatibilism”, The Stanford Encyclopedia of Philosophy (Summer 2020 Edition), Edward N. Zalta (ed.), URL: https://plato.stanford.edu/archives/sum2020/entries/compatibilism/

[66] Robb, David, „Moral Responsibility and the Principle of Alternative Possibilities”, The Stanford Encyclopedia of Philosophy (Fall 2020 Edition), Edward N. Zalta (ed.), forthcoming URL: https://plato.stanford.edu/archives/fall2020/entries/alternative-possibilities/

[67] Ibidem.

[68] Ibidem.

[69] O’Connor, Timothy and Franklin, Christopher, „Free Will”, The Stanford Encyclopedia of Philosophy (Fall 2020 Edition), Edward N. Zalta (ed.), forthcoming URL: https://plato.stanford.edu/archives/fall2020/entries/freewill/.

[70] Ibidem.

[71] Ibidem.

[72] C.A. Campbell, T. O’Connor apud Clarke, Randolph and Capes, Justin, „Incompatibilist (Nondeterministic) Theories of Free Will”, The Stanford Encyclopedia of Philosophy (Spring 2017 Edition), Edward N. Zalta (ed.), URL: https://plato.stanford.edu/archives/spr2017/entries/incompatibilism-theories/

[73] C. Roxin, op. cit., p. 243.

[74] D. Lima, op. cit., p. 679 și următoarele.

[75] Idem, p. 682.

[76] Pentru o analiză a evoluției acestui concept, a se vedea C. Roxin, op. cit., pp. 244-247.

[77] C. Roxin, op. cit., p. 244.

[78] A se vedea, spre exemplu, cărțile lui Isaac Asimov sau filme precum trilogia Matrix.

[79] B. Bennet, „cNet”, Why are iRobot’s new Roombas so damn expensive?, articol accesibil online la adresa https://cnet.co/3lgBc5J

[80] S. Romero, The New York Times, Wielding Rocks and Knives, Arizonans Attack Self-Driving Cars, disponibil online la adresa https://nyti.ms/2Qq6Q2C

[81] A. Palmer, DailyMail, Waymo reveals its Phoenix self-driving cars have been attacked by people wielding rocks, guns and knives nearly two dozen times, ianuarie 2019, articol disponibil on-line la adresa http://dailym.ai/34zIlrQ

[82] G. Hallevy, op. cit., pp. 38-43.

[83] În sens contrar lui Hallevy, a se vedea D. Lima, op. cit., p. 689-694, R. Charney, op. cit., pp. 69-72, M. Claussen-Karlsson, „Artificial Intelligence and the External Element of the Crime An Analysis of the Liability Problem”, în Orebro Universittet Juridicum, 2017, p. 22­24.

[84] Aceeași idee evidențiată mai sus se regăsește și în alte lucrări scrise de același autor: Gabriel Hallevy, „Virtual Criminal Responsibility”, Original Law Review 6, no. 1 (2010): 6-[vii], Gabriel Hallevy, „The Criminal Liability of Artificial Intelligence Entities – From Science Fiction to Legal Social Control”, Akron Intelectual Property Journal 4, no.2 (2010): 171-202, Gabriel Hallevy, „Unmanned Vehicles: Subordination to Criminal Law under the Modern Concept of Criminal Liability”, Journal of Law, Information and Science 21, no. 2 (2011/2012): 200-211 și multe altele.

[85] F. Mantovani, apud F. Streteanu, D. Nițu, op. cit., vol. I, p. 282.

[86] F. Streteanu, D Nițu, op. cit., vol. I, pp. 282-283.

[87] M. Bohlander, op. cit., p. 40.

[88] Herzberg apud C. Roxin, op. cit., p. 247.

[89] Idem, p. 41.

[90] Idem.

[91] Ibidem. Deși s-ar părea că la o primă vedere obligația este doar de a oferi bani în cazul în care se produce un astfel de eveniment, trebuie menționat că au existat hotărâri care au considerat că această obligație este suficientă pentru a putea vorbi despre o infracțiune comisivă prin omisiune, potrivit aceluiași autor.

[92] Starea de faptă este preluată astfel cum este ea relatată de S. Songhoon Lee, „Woman rescued from vacuum-bot attack”, în CBS News, 2015, disponibil online la adresa https://cbsn.ws/3ek1rEu.

[93] Hout, M. C. V., & Bingham, T. „Silk Road, the virtual drug marketplace: A single case study of user experiences”, în International Journal of Drug Policy, 2013.

[94]A se vedea mai multe despre acest proiect pe site-ul grupului artistic !Mediengruppe Bitnik, la adresa https://www.bitnik.org/r/

[95] M. Power, „What happens when a software bot goes on a darknet shopping spree”, în The Guardian, publicat în decembrie 2014, articol accesibil on-line la adresa https://bit.ly/2GX9mMz

[96] J. Turner, op. cit., p. 203.

[97] Ibidem.

[98] M. Claussen-Karlsson, op. cit., p. 29.

[99] Idem, p. 30.

[100] P. Ryu, „Causation in Criminal Law” în University of Pennsylvania Law Review, 106(6), 1958, pp. 773- 774. doi:10.2307/3310397.

[101] [2007] UKHL 38 http://www.bailii.org/uk/cases/UKHL/2007/38.html

[102] F. Streteanu, D. Nițu, op. cit., vol. I, p. 300.

[103] Idem.; P. Ryu, op. cit., p. 773-805; M. Bohlander, op. cit., pp. 46-47.

[104] A.L. Godheart apud P. Ryu, op. cit., p. 778.

[105] F. Streteanu, D. Nițu, op. cit., pp. 304-314.

[106] Idem, p. 309-310.

[107] Ibidem.

[108] Ibidem.

[109] RGSt 34, 91 apud M. Bohlander, op. cit., p. 56.

[110] G. M. Husti „Vinovăția și alte elemente privind răspunderea penală în cazul mașinilor autonome”, în rev. Caiete de Drept Penal nr. 3/2019.

[111] Accesibil online la adresa https://bit.ly/2Rq07EH.

[112] O.U.G. nr. 195 din 12 decembrie 2002 privind circulația pe drumurile publice.

[113] W. Westbrook, „The google made me do it: the complexity of criminal liability in the age of autonomous vehicles”, în Michigan Law Review, SUA, 2017.

[114] A se vedea Government of Netherelands, „New legislation allows for the testing of cars with remote drivers”, accesibil online la adresa https://bit.ly/2AlubcO.

[115] Foray Motor Group, „New laws for driverless cars arrive in the UK”, accesibil online la adresa https://bit.ly/2RAPdN8.

[116] A se vedea Business France Nordic, „France allows the testing of autonomous vehicles on public roads”, articol accesibil online la adresa https://bit.ly/2RMrQ2e.

[117] Reuters, „Germany adopts self-driving vehicles law”, accesibil online la adresa https://reut.rs/2ILo0EC.

[118] F. Streteanu, D. Nițu, Drept Penal. Partea generală, Ed. Universul Juridic, București, 2014, p. 306.

[119] Ibidem.

[120] M. Bohlander, op. cit., p. 55.

[121] Ibidem.

[122] BGHSt 10, 3. apud M. Bohlander, op. cit., p. 57.

[123] OLG Stuttgart, Justiz 1984, 209 apud M. Bohlander, op. cit., p. 57.

[124] De altfel, după cum am arătat anterior, aceeași este și orientarea doctrinei naționale: F. Streteanu, D. Nițu, op. cit., vol. I, pp. 309-310.

Acțiunea, inacțiunea și legătura de cauzalitate în cazul inteligenței artificiale was last modified: iunie 16th, 2022 by Georgian Marcel Husti

PARTENERI INSTITUȚIONALI

Vă recomandăm:

Rămâi la curent cu noutățile juridice