Poate avea inteligența artificială capacitate penală?

15 apr. 2024
Vizualizari: 167
 

Universuljuridic.ro PREMIUM

Aici găsiți informaţiile necesare desfăşurării activităţii dvs. profesionale.

Universuljuridic.ro PREMIUM pune la dispoziția profesioniștilor lumii juridice un prețios instrument de pregătire profesională. Oferim un volum vast de conținut: articole, editoriale, opinii, jurisprudență și legislație comentată, acoperind toate domeniile și materiile de drept. Clar, concis, abordăm eficient problematicile actuale, răspunzând scenariilor de activitate din lumea reală, în care practicienii activează.

Testează ACUM beneficiile Universuljuridic.ro PREMIUM prin intermediul abonamentului GRATUIT pentru 7 zile!

🔑Vreau cont PREMIUM!


 

I. Introducere

În fiecare an, guvernul SUA publică un document intitulat „Worldwide Threat Assessment”, prin intermediul căruia face publică analiza sa referitoare la cele mai mari amenințări la adresa securității națiunilor. În raportul din anul 2007 nu se făcea nicio mențiune cu privire la problemele de ordin informatic[1]. În 2011, problema siguranței informatice a apărut, fiind clasificată pe ultimul loc relativ la amenințarea pe care o reprezintă, fiind așadar considerată aproape complet insignifiantă[2]. Din anul 2013 încoace, aceste rapoarte plasează problemele de ordin informatic pe locul întâi[3]. În anul 2010 a avut loc un veritabil război informatic între SUA și Iran, în care SUA a plasat un vierme informatic (un tip de virus autoreplicant) într-o uzină de îmbogățire a uraniului din Iran. Odată plasat acolo, a înlocuit imaginile de pe camerele de înregistrare, a dezactivat sistemul principal de alarmă, a adunat informații cu privire la activitatea din respectiva uzină și a accelerat numărul de rotații al centrifugilor cu mult peste limita normală, timp de 15 minute, după care a redus brusc numărul la doar 2 rotații pe minut, timp de alte 15 minute. În tot acest timp, sistemele de supraveghere și control ale respectivei uzine raportau o funcționare normală, întrucât au fost de asemenea vizate de atacul asupra sistemului informatic. Acest gen de conduită s-a repetat la anumite intervale de timp, pentru a nu trezi suspiciuni. Se estimează că, în urma acestui atac, 1/5 din cantitatea de uraniu a fost compromisă, fiind afectat puternic programul nuclear al Iranului[4].

Acest atac a fost, fără îndoială, unul intenționat, plănuit cu atenție și  coordonat. Dar o altă amenințare din partea inteligenței artificiale vine din însăși autonomia ei. Pe măsură ce avansează tehnologia, actorul uman devine din ce în ce mai redundant. În unele situații, actorul uman poate reprezenta chiar o vulnerabilitate pentru buna funcționare a sistemului. Aceste condiții fac ca în materie juridică să apară riscul unui vid de responsabilitate. Pentru a acoperi acest vid, se discută din ce în ce mai des despre o capacitate penală a inteligenței artificiale, care ar urma să răspundă în nume propriu. Prezenta lucrare își propune să prezinte aceste teorii, să clarifice noțiunea de capacitate juridică, să analizeze ce presupune un astfel de demers și să ofere o concluzie cu privire la problema pertinenței capacității juridice pentru a acoperi potențialul vid de responsabilitate.

 

II. De ce ar fi nevoie de o capacitate penală?

Unii autori afirmă că este nevoie de o capacitate penală pentru a ține ritmul cu noile tehnologii care apar[5]. Acești autori susțin că noțiunile clasice de responsabilitate, răspundere pentru produse și altele asemenea nu mai au capacitatea de a asigura înfăptuirea justiției și de a proteja interesele legitime relativ la această tehnologie. Totodată, acești autori declară că unghiul din care este văzută inteligența artificială începe să se schimbe, de la simple unelte în mâinile unui utilizator, la ceva care depășește acest concept. În viziunea acestor autori, schimbarea percepției are loc întrucât tehnologia exhibă o inteligență și o autonomie din ce în ce mai impresionantă, precum și abilități sociale, capacitate de a percepe și de a arăta empatie.

Alți autori susțin că, în realitate, ceea ce determină schimbarea nu este evoluția tehnologiei, ci factorii economici[6]. În viziunea lor, schimbările majore în drept apar atunci când tehnologia creează niște riscuri economice crescute. În continuare, acești autori explică felul în care  a evoluat inteligența artificială de-a lungul decadelor și concluzionează că, în prezent, sume importante de bani sunt investite în acest sector. Conform articolului citat, unii specialiști în materie (Tractica) estimează că veniturile din inteligența artificială (I.A.) vor crește de la 1,4 miliarde de dolari, la nivelul anului 2016, la 59,8 miliarde, până în 2025. Într-adevăr, un raport privind statusul tehnologiei în 2021 relevă, în esență, faptul că domeniul inteligenței artificiale continuă să crească și să se dovedească unul avantajos[7]. Studiul a concluzionat, între altele, că cel puțin 56% dintre participanții la studiu au achiziționat cel puțin un astfel de sistem. Majoritatea acestor achiziții au vizat optimizarea serviciilor oferite, în timp ce îmbunătățirea produselor pe baza implementării unei I.A. a fost pe locul doi, iar automatizarea comunicării cu destinatarii produselor (servicii de comunicații) a fost pe locul 3. Conform aceluiași studiu, în 2019 și 2020, costurile adoptării unor noi tehnologii au scăzut concomitent cu creșterea veniturilor realizate din exploatarea acestei piețe. Este cert faptul că inteligența artificială are efecte practice importante și care au fost observate de investitori.

În materia dreptului penal, problemele principale privesc, în opinia noastră, latura subiectivă a infracțiunii și legătura de cauzalitate. I.A. diferă de alte tehnologii prin aceea că prezintă un oarecare grad de autonomie. Unele sisteme de acest tip denotă o asemenea autonomie, încât devine problematică capacitatea de prevedere a celui care o programează. În unele cazuri, inteligența artificială se ocupă chiar cu programarea inteligenței artificiale, astfel încât actorul uman este și mai îndepărtat. În atari condiții, demersul stabilirii poziției subiective, în special atunci când este vorba despre infracțiuni neintenționate, devine un demers extrem de dificil. Totodată, în materie de cauzalitate este problematic în ce măsură intervenția inteligenței artificiale nu rupe lanțul cauzal (risc deviat). Dacă inteligența artificială deviază de la programarea sa inițială, mai poate fi respectiva acțiune atribuită unei persoane? Dacă da, cui? Programatorului, producătorului sau utilizatorului?

Alte probleme în materie de răspundere juridică a inteligenței artificiale vizează nu atât cadrul teoretic, cât cel practic. Presupunând că o mașină autonomă accidentează mortal o persoană și materialul probator relevă o culpă în ceea ce privește programarea autoturismului, deși nu este exclus ca respectiva culpă să aparțină unei singure persoane, în practică, cel mai probabil, va fi vorba despre niște culpe concurente. În ceea ce privește dreptul penal, pentru existența infracțiunii, în principiu, nu contează gradul de culpabilitate, acest aspect urmând a fi avut în vedere la individualizare. Or, în materie de procedură penală, trimiterea în judecată a unui întreg departament de programatori și eventual și a persoanei juridice reprezintă un demers anevoios și disproporționat. În plus, un astfel de fenomen ar descuraja în mod semnificativ munca într-un astfel de domeniu, având în vedere lipsa generală de previzibilitate a modului în care ar opera răspunderea penală. O parte importantă a forței de muncă ar fi stimulată să aleagă mai degrabă un cadru mai ferit de riscuri juridice.

Finalmente, un alt argument privind importanța practică a discuției propuse în prezenta lucrare provine din aceea că diverse state au procedat deja fie la modificarea cadrului legislativ, fie au analizat serios această chestiune. Inclusiv în România există la acest moment un proiect de lege propus de către Ministerul Afacerilor Interne, care vizează utilizarea pe drumurile publice a mașinilor autonome[8]. În aceste condiții, este interesant de remarcat modificarea propusă la pct. 4 din proiectul de lege, respectiv „În timpul testării pe drumul public al unui autovehicul prevăzut cu sistem de conducere automatizată se consideră îndeplinită condiția ca un autovehicul să fie condus de o persoană dacă sunt îndeplinite prevederile art. 131       alin. (1) și (2). De altfel, am semnalat nevoia unei modificări a Codului rutier și în trecut, cu ocazia unor alte lucrări în materie, prin prisma legăturii de cauzalitate și a riscului permis[9].

Chiar și făcând abstracție de toate celelalte aspecte menționate, simpla intrare în vigoare a acestei norme – dacă va intra vreodată în vigoare – ar pune probleme deosebite în cazul în care s-ar produce un eveniment rutier cu semnificație penală.

Mai mult decât atât, deși aceste probleme sunt cele mai importante, asta nu înseamnă că alte elemente ale teoriei generale a infracțiunii nu sunt provocate de noile tehnologii.

Pentru toate aceste motive apreciem că discuția nu este una strict teoretică, chiar dacă este la un grad mai ridicat de abstractizare, ci are în final serioase ramificații practice.

 

III. Noțiuni

La ora actuală, nu există în literatura de specialitate o definiție general acceptată a inteligenței artificiale (I.A.)[10]. Motivele sunt numeroase. Pe de o parte, dacă a defini ce înseamnă artificial este relativ simplu, a defini conceptul de inteligență este un demers complicat. Pe de altă parte, definițiile rigide nu sunt adecvate unui domeniu care avansează constant. O definiție dată în 1956 nu s-ar mai fi aplicat și tehnologiei expert system care a apărut ulterior. Similar, chiar dacă s-ar reuși astăzi o definiție care să includă toată tehnologia inteligenței artificiale, ea ar risca să excludă tehnologii viitoare pe care, altminteri, le-am califica drept I.A. la nivel intuitiv. Un astfel de exemplu ar putea să îl constituie o tehnologie care să emuleze întru totul un creier: whole brain emulation[11]. Trebuie menționat că nici în științele juridice nu există o definiție asupra căreia autorii de specialitate să fie de acord.

În ceea ce ne privește, vom defini inteligența artificială drept entitatea care are abilitatea de a percepe informații din mediul înconjurător, de a le interpreta, de a învăța din respectivele informații și de a întreprinde acțiuni pentru a-și crește șansele de a-și îndeplini cu succes obiectivele.

Pachet: Codul administrativ comentat. Explicatii, jurisprudenta, doctrina. Volumul I si Volumul II

 

IV. Viziunea conform căreia actuala concepție a dreptului penal nu este suficientă

Cu privire la o posibilă reglementare juridică, în doctrină s-a evidențiat că, cel mai probabil, răspunderea roboților va cunoaște 3 etape:

i. pe termen scurt, vor fi extinse sistemele actuale, cu intervenții din partea legiuitorului și pe cale jurisprudențială, pentru a putea judeca cauzele în care se pune problema răspunderii roboților[12],

ii. pe termen mediu, reglementarea unor modele de răspundere obiectivă (în sens de strict liability, adică, în esență, să fie răsturnată prezumția de vinovăție) și recunoașterea unei capacități juridice limitate[13] și

iii. o modificare fundamentală a dreptului, constând în recunoașterea și atribuirea roboților a unei personalități juridice, de entități electronice[14].

Analizând trendurile în materie, se poate afirma că la acest moment ne aflăm în etapa i, dar tindem spre etapa ii. Sistemele moderne de răspundere penală au din ce în ce mai mari dificultăți în a face față noilor provocări conceptuale puse de roboți și I.A. La ora actuală, roboții, din punct de vedere penal, sunt asimilați unor simple unelte[15]. Dar această comparație devine din ce în ce mai problematică atât în teorie, cât și în practică. La nivelul literaturii de specialitate în materie, există numeroase articole care subliniază faptul că sunt mai mult decât niște simple unelte[16].

În al doilea rând, dincolo de discuțiile teoretice în materie, încep să fie din ce în ce mai multe probleme de ordin practic. În anul 2018, o mașină autonomă a accidentat mortal un pieton[17]. Accidentul a fost investigat de comisia națională a siguranței rutiere. Printre altele, a concluzionat că un factor major în ceea ce privește accidentul a fost lipsa unui cadru legislativ adecvat[18]. Aceeași problemă a fost semnalată în urmă cu aproape 40 de ani, când un muncitor a fost ucis de un robot industrial în Japonia, concluzionându-se că nu există o reglementare suficientă în materie[19]. Într-o altă speță, o I.A. a cumpărat automat droguri de pe darknet. Probabil mai degrabă dintr-o eroare a organelor de cercetare penală, au fost vizați de anchetă atât proprietarul respectivului program, cât și programul în sine[20].

Organele de specialitate semnalează aproape constant lipsa unui cadru legislativ adecvat atunci când există accidente în care sunt implicați roboți. Spre exemplu, organismul de siguranță rutieră din SUA (National Transportation Safety Board, abreviat NTSB), cu ocazia investigării accidentului Uber din 2018, a concluzionat că statul Arizona nu a implementat niciun standard de siguranță pentru utilizarea autoturismelor autonome. NTSB a făcut următoarele recomandări legislative[21]:

1. Persoanele juridice care vor să testeze autoturismele autonome să fie obligate să întocmească un plan care să prevadă și măsurile minime de siguranță luate;

2. Crearea unui grup de experți care să avizeze aceste planuri;

3. Instituirea unei obligații, în sarcina companiilor, de a trimite un raport referitor la activitatea desfășurată;

4. Evaluarea acestui raport de către un organ al statului;

5. Transmiterea datelor legate de eventuale accidente către ceilalți producători de mașini autonome, spre evaluare;

Aceste recomandări nu au nicio semnificație juridică și nu au fost implementate până la acest moment.

Referitor la afirmația făcută anterior cu privire la faptul că tindem spre etapa ii, se remarcă faptul că la nivel legislativ începe să se acorde din ce în ce mai mare atenție răspunderii roboților/I.A. Spre exemplu, la nivelul anului 2017, Parlamentul European a adoptat o rezoluție prin intermediul căreia propunea Comisiei Europene să reglementeze statutul roboților, luând în calcul acordarea unui statut cu personalitate juridică, anume de „entități electronice”[22]. La nivelul Națiunilor Unite se organizează un summit în vederea discutării implicațiilor I.A.[23]. Comisia Europeană s-a ocupat recent cu identificarea problemelor legislative existente la nivel european în ceea ce privește I.A.[24]. Nu în ultimul rând, tot la nivelul anului 2017, Arabia Saudită a acordat cetățenie unui robot numit Sophia[25]. Într-un episod similar, districtul Shibuya din Tokyo a conferit „drept de rezidență” unei alte inteligențe artificiale[26].

 

V. Răspunderea penală a inteligenței artificiale de lege lata

G. Hallevy opinează că sistemele de tip I.A./roboți pot avea, de lege lata, capacitate penală. În raționamentul său, acesta analizează fiecare trăsătură a infracțiunii și concluzionează că este aplicabilă subiectelor în discuție. Autorul argumentează ideea conform căreia singurul temei al răspunderii penale este infracțiunea și, atâta vreme cât o entitate poate bifa fiecare element din structura infracțiunii, aceasta va răspunde penal indiferent de alte considerente de ordin filosofic sau etic, având în vedere autonomia dreptului față de aceste științe sociale[27].

Totodată, această viziune pornește de la premisa că pentru a comite o infracțiune, nu sunt necesare toate abilitățile cognitive umane, astfel încât este irelevant că inteligența artificială, în acest stadiu, nu emulează în totalitate un creier uman și nu a atins un grad mai mare de autonomie și independență[28]: „abilitățile umane, care sunt irelevante cu privire la comiterea unei anumite infracțiuni, în măsura în care nu sunt cerute expres de către lege, nu sunt luate în considerare în raționamentul juridic de stabilire a răspunderii penale[29].

Într-adevăr, faptul că autorul unei infracțiuni de furt are niște abilități culinare extraordinare este, de regulă, irelevant cu privire la stabilirea vinovăției penale a unei persoane. Această concluzie nu legitimează însă în niciun mod faptul că I.A./roboții pot fi asimilați oamenilor într-o asemenea măsură încât să se poată vorbi despre o eventuală capacitate penală a acestora, în opinia noastră. Pornind de la aceeași concluzie expusă anterior, s-ar putea la fel de ușor considera că animalele ori obiectele pot răspunde penal. Omorul, potrivit art. 188 C.pen., este definit drept „uciderea unei persoane”. Or, un urs care ucide un om în pădure comite o faptă similară cu cea a laturii obiective a infracțiunii de omor. Totodată, într-o anumită măsură, acesta are abilități cognitive similare cu cele ale omului. De ce în cazul lui nu este valabilă concluzia autorului referitoare la lipsa necesității tuturor abilităților umane? De altfel, uciderea unor oameni de către animale este un fenomen relativ uzual, însă cu siguranță nu se pune problema răspunderii penale a acestora în dreptul penal contemporan.

Autorul opiniei argumentează că I.A. este mai apropiată, ca natură, de oameni decât de animale, în special deoarece comunicarea cu roboții este mai facilă și folosește logica formală, în timp ce animalele sunt ființe bazate preponderent pe instinct și emoție[30].

Dincolo de această concluzie discutabilă[31], apreciem că problema reală în stabilirea capacității penale a I.A./roboților nu o reprezintă atât faptul că ar trebui ca aceștia să fie aidoma oamenilor din toate punctele de vedere, ci alegerea unor criterii minimale pentru conferirea acestei capacități, urmată de aplicarea lor la respectiva tehnologie. Profesorul Hallevy, deși tratează problema animalelor și a obiectelor în lucrarea sa, nu identifică și argumentează existența acestor criterii minime și, în consecință, nici nu demonstrează îndeplinirea lor de către tehnologie. Mai mult, folosind sistemul acestui autor, orice robot este capabil de a acționa din punct de vedere penal, fie că este vorba despre o cafetieră, o mașină autonomă, un bec inteligent ori o dronă armată.

Trecând peste aceste observații, autorul la care am făcut referire analizează în detaliu felul în care se aplică actuala teorie generală a infracțiunii la răspunderea penală a roboților. Referitor la latura obiectivă, acesta o separă complet de orice elemente legate de voință și concluzionează că orice robot poate realiza latura obiectivă a unei infracțiuni.

Concluzia este discutabilă, întrucât una dintre condițiile tradiționale ale acțiunii este ca aceasta să fie voluntară. În dreptul comparat, atât în legislațiile anglo-saxone, cât și în cele continentale se consideră că acțiunea trebuie să întrunească următoarele criterii: i. să fie externalizată (adică să nu rămână în forul intern al făptuitorului) ii. să fie voluntară[32], iar dreptul german adaugă condiția ca acțiunea iii. să fie relevantă social[33].


* Material extras din Revista Pro Lege nr. 2/2022, editată de Parchetul de pe lângă Înalta Curte de Casație și Justiție.

[1] A se vedea site-ul https://www.dni.gov/files/documents/Newsroom/Testimonies/20070111_testimony.pdf.

[2] A se vedea site-ul https://www.dni.gov/files/documents/Newsroom/Testimonies/20110310_testimony_clapper.pdf.

[3] A se vedea site-ul https://www.dni.gov/files/documents/Intelligence%20Reports/2013%20ATA%20SFR%20for%20SSCI%2012%20Mar%202013.pdf.

[4] James P. Farwell & Rafal Rohozinski (2011) Stuxnet and the Future of Cyber War, Survival, 53:1, 23-40, DOI: 10.1080/00396338.2011.555586

[5] Laukyte, Migle. (2019). AI as a Legal Person. 209-213. 10.1145/3322640.3326701.

[6] Curtis E.A. Karnow – Research Handbook on the Law of Artificial Intelligence – Edward Elgar Pub (2018), p. XIX și urm.

[7] McKinsey Analytics, The state of AI in 2021, studiu accesibil on-line la adresa https://mck.co/3xKiXhr, accesat în 12 iunie 2022, ora 10.00.

[8] A se vedea site-ul https://webapp.mai.gov.ro/frontend/documente_transparenta/459_1650348699_proiect%20Lege%20testare%20autovehiculelor%20automatizate_03.02.2022.pdf, accesat în 12 iunie 2022.

[9] G. Husti, Vinovăția și alte elemente privind răspunderea penală în cazul mașinilor autonome, în Caiete de Drept Penal, nr. 3/2019, pp. 84-86.

[10] J. Turner, Robot rules. Regulating Artificial Intelligence, Editura Macmillan, Londra, 2019, p. 7.

[11] A. Sandberg, N. Bostrom, Whole brain emulation. A roadmap, Oxford University, 2008, pp. 1-113.

[12] B.J. Koops, M. Hildebrandt, D.-O. Jaquet-Chiffell, Bridging the Accountability Gap: Rights for New Entities in the Information Society?, „Minnesota Journal of Law, Science & Technology”, Vol. 11, nr. 2/2010, p. 554.

[13] Idem, p. 555.

[14] Idem, p. 558.

[15] V.A.J. Kurki, T. Pietrzykowski, Legal Personhood: Animals, Artificial Intelligence and the Unborn, Elveția, Editura Springer, 2017, p. 100.

[16] Ibidem.

[17] A.J. Hawkins, Uber is at fault for fatal self-driving crash, but it’s not alone, „The Verge”, 2019, accesibil on-line la adresa https://bit.ly/2X1ft8a, accesat la 1 aprilie 2020.

[18]Arizona’s “insufficient” policies to regulate automated vehicles on its public roads were found to have contributed to the crash. Ibidem.

[19] R. Whymant, From the archive, 9 December 1981: Robot kills factory worker, „The Guardian”, accesibil on-line la adresa https://bit.ly/39AJ2QB, accesat la 1 aprilie 2020, ora 12.00. „Labour officials blamed a combination of unfamiliarity of the workers and neglect of regulations governing the new machines”.

[20] Apud J. Turner, op. cit., p. 203.

[21] A se vedea site-ul https://bit.ly/3HdVmsq, accesat în 12 iunie 2022, ora 16.15.

[22] A se vedea rezoluția la adresa https://bit.ly/2xK5tFB, accesată la 1 aprilie 2020, ora 13.

[23] A se vedea summit-ul „AI for Good”, la adresa https://aiforgood.itu.int/, accesată la 1 aprilie 2020, ora 13.06.

[24] A se vedea raportul comisiei la adresa https://bit.ly/2UAyVXL, accesată la 1 aprilie 2020, ora 13.10.

[25] E. Reynolds, The agony of Sophia, the world’s first robot citizen condemned to a lifeless career in marketing, „The Wired”, 2018, accesibil on-line la adresa https://bit.ly/2wJqEI4, accesată la 1 aprilie 2020, ora 13.15.

[26] P. Caughill, An Artificial Intelligence Has Officially Been Granted Residency, Futurism, 6 noiembrie 2017, disponibil pe site-ul https://futurism.com/artificial-intelligence-officially-grantedresidency/, accesat la 22 decembrie 2021.

[27] G. Hallevy, Liability for crimes involving Artificial Intelligence, Editura Springer, Elveția, 2015, p. 25.

[28] Idem, p. 23.

[29] Idem, p. 24.

[30] Idem, p. 27.

[31] La nivelul societății contemporane există idealul de a acționa în mod rațional, însă așteptarea de a fi rațional întotdeauna este în sine nerezonabilă și irațională. În consecință, latura emoțională nu este și ea la fel de necesară pentru a putea vorbi despre un om? De ce utilizarea logicii formale face automat ca inteligența artificială să se apropie mai mult de un om decât o face utilizarea laturii emoționale de către animale?

[32] M.D. Dubber, T. Hörnle, Criminal Law. A Comparative Approach, Editura Oxford University Press, 2014, pp. 188-196.

[33] Dafni Lima, Could AI Agents Be Held Criminally Liable: Artificial Intelligence and the Challenges for Criminal Law, South Carolina Law Review 69, nr. 3 (Spring 2018): 677-696.

Poate avea inteligența artificială capacitate penală? was last modified: aprilie 14th, 2024 by Georgian Marcel Husti

PARTENERI INSTITUȚIONALI

Vă recomandăm:

Rămâi la curent cu noutățile juridice