Poate avea inteligența artificială capacitate penală?

15 apr. 2024
Vizualizari: 212
 

Universuljuridic.ro PREMIUM

Aici găsiți informaţiile necesare desfăşurării activităţii dvs. profesionale.

Universuljuridic.ro PREMIUM pune la dispoziția profesioniștilor lumii juridice un prețios instrument de pregătire profesională. Oferim un volum vast de conținut: articole, editoriale, opinii, jurisprudență și legislație comentată, acoperind toate domeniile și materiile de drept. Clar, concis, abordăm eficient problematicile actuale, răspunzând scenariilor de activitate din lumea reală, în care practicienii activează.

Testează ACUM beneficiile Universuljuridic.ro PREMIUM prin intermediul abonamentului GRATUIT pentru 7 zile!

🔑Vreau cont PREMIUM!


 

În dreptul nostru penal, însă, caracterul voluntar este irelevant pentru latura obiectivă: „Dată fiind însă reglementarea actuală din dreptul nostru, trebuie să admitem că relevanța penală a acțiunii nu este condiționată, din păcate, de caracterul voluntar al acesteia. Argumentul irefutabil în acest sens este dat de reglementarea în art. 24 C.pen. a constrângerii fizice, nu ca o cauză de înlăturare a acțiunii, ci ca una care înlătură imputabilitatea faptei. Cu alte cuvinte, potrivit concepției legiuitorului român, în situațiile de constrângere fizică de genul celei prezentate există o faptă prevăzută de legea penală (deci și o acțiune), numai că aceasta nu constituie infracțiune, lipsindu-i ultima dintre trăsăturile menționate de art. 15. C.Pen. – imputabilitatea[34].

Hallevy consideră, de asemenea, că elementul volitiv nu ține de acțiune și îl elimină cu totul atunci când analizează acest aspect prin raportare la roboți: „voința poate iniția acte, dar în sine nu are o reprezentare factual-externă, fiind corelată nu cu elementul factual, ci cu cel mental[35]. Această viziune nu este singulară, acest aspect fiind controversat[36]. Pe de altă parte, o separare perfectă a celor două elemente poate fi uneori destul de dificilă.

Mergând mai departe, la nivelul laturii subiective, autorul afirmă că voința în dreptul penal presupune două etape, respectiv obținerea de informații senzoriale din exterior și interpretarea[37]. În continuare, acesta explică în detaliu cum inteligența artificială și roboții operează cu aceleași procese, absorbind informații din mediul înconjurător și creând o interpretare a respectivelor informații.

Finalmente, acesta analizează diverse cauze justificative și de neimputabilitate și felul în care pot fi acestea adaptate pentru inteligența artificială. Spre exemplu, acesta aplică minoritatea unei tehnologii care se află într-o fază incipientă, argumentând că o inteligență artificială care nu a apucat să se dezvolte suficient pentru a avea capacitate penală nu va răspunde pe acest temei al „minorității”[38].

Problema principală a viziunii prezentate este că supraestimează considerabil capacitățile tehnologiei[39]. Spre exemplu, într-un anumit punct al lucrării, autorul vorbește despre posibile dileme etice ale unor roboți folosiți să asigure paza în penitenciarele din Coreea de Sud, punând niște probleme legate de utilizarea de către aceștia a unei forțe disproporționate în intervenția pentru a opri o persoană privată de libertate care încearcă să evadeze. În realitate, însă, ceea ce fac respectivii roboți este să patruleze holul penitenciarelor, fiind dotați cu o cameră, un microfon și mecanisme de recunoaștere a anumitor conduite periculoase (agresiuni, suicid, incendiere etc.). Gardienii penitenciarului se uită pe camera robotului și, în funcție de situație, fie vorbesc deținuților prin intermediul acestuia, fie intervin fizic pentru a detensiona situația[40]. Cu alte cuvinte, tehnologia pur și simplu nu este la acest moment suficient de dezvoltată pe cum este prezentată în respectiva lucrare. Roboții la care face referire Hallevy sunt mai apropiați de niște microfoane portabile decât de niște agenți de pază.

Într-o altă lucrare de specialitate se evidențiază faptul că fie roboții utilizați în comerț sunt atât de inofensivi încât cu greu se poate pune în mod pertinent problema unei răspunderi penale, cum este cazul aspiratorului-robot, fie aceștia sunt foarte periculoși (roboții ucigași din industria militară, care au făcut prima victimă în războiul din Libia din 2021, conform unui raport ONU[41], roboții industriali care ridică greutăți masive sau lucrează cu substanțe toxice ori periculoase, roboții care lucrează cu materiale la temperaturi extrem de ridicate – 2000 grade Celsius, roboții utilizați pentru manipularea deșeurilor radioactive etc.), motiv pentru care sunt ținuți în mod deliberat cât mai departe de orice personal neinstruit, iar cei care într-adevăr intră în contact cu tehnologia sunt profesioniști bine pregătiți, care acționează pe baza unor proceduri bine implementate[42]. Este adevărat că de la momentul la care a fost publicat articolul, în 2013, până la momentul la care sunt redactate aceste rânduri s-a scurs un interval de timp de 9 ani, iar tehnologia a făcut progrese semnificative, respectiv a penetrat mai adânc societatea modernă. Spre exemplu, la nivelul anului 2013, Google avea o flotă de mașini autonome, iar Nevada era singurul stat în curs de modificare a legislației în acest sens[43]. Dar chiar și luând în calcul toate aceste aspecte, tehnologia nu este nici pe aproape de viziunea profesorului Hallevy. La un moment dat în lucrarea sa, acesta vorbește despre un malpraxis medical al unui medic-robot care diagnostichează în mod greșit un pacient[44]. Într-adevăr, există inteligență artificială care poate diagnostica pacienții, iar literatura de specialitate în domeniu afirmă că aceasta este cel puțin la fel de eficientă precum medicii tradiționali[45]. Potrivit studiului citat, eficiența I.A. a fost de 87%, iar a agenților umani, de 86%. În pofida acestui lucru, realitatea diferă de cea expusă de Hallevy în lucrarea sa. În secțiunea dedicată sistemului sancționator, acesta oferă exemplul unui robot de la o clinică privată care este folosit pentru diagnosticarea pacienților și care este obligat să presteze muncă neremunerată în folosul comunității la un spital public, sub supravegherea unui medic[46]. Tehnologia folosită în sistemul medical este departe de aceste capabilități. Inclusiv în ceea ce privește eficiența ei în diagnosticarea pacienților, studiul citat anterior relevă faptul că, în ciuda rezultatelor bune dovedite de respectivul studiu, există în continuare prea puține cercetări care să confirme eficiența lor. Alți experți din industria I.A. susțin că roboții și inteligența artificială din sectorul medical vin să complinească munca medicilor, nu să o înlocuiască[47]. În consecință, o automatizare precum cea reprezentată de Hallevy în lucrările sale nu doar că nu există la momentul de față, dar cel mai probabil nici nu va exista în viitorul apropiat.

În opinia noastră, pentru ca viziunea acestui autor să poată fi relevantă din punct de vedere teoretic, este necesar să tranșeze niște limite clare referitor la asimilarea I.A. cu noțiunea de „persoană”, în sensul identificării unor criterii clare și pertinente. Pentru ca roboții în sine să fie trași la răspundere, trebuie determinat dacă și de la ce moment aceștia dobândesc această capacitate. Este evident că nu se poate pune semnul egalității între un robot-aspirator și cei folosiți în industria militară, iar referirea vagă la îndeplinirea condițiilor subiective prin raportare la faptul că conduita unei inteligențe artificiale este ghidată de obiective raționale nu este, în opinia noastră, suficientă. Trebuie spus că Hallevy nu afirmă în niciun moment că aspiratorul-robot ar avea capacitate penală, dar nici nu stabilește o delimitare clară a conceptelor cu care operează pentru a distinge între entitățile care ar avea capacitate penală și cele care nu ar avea.

De altfel, este improbabil ca răspunderea penală a I.A. să fie instituită pe cale de interpretare a noțiunii de persoană de către instanțele de judecată ori alte tertipuri similare, chiar și în legislațiile de tip common law, unde jurisprudența are un rol mult mai important în configurația dreptului. Soluția mai probabilă, în opinia noastră, este o intervenție pe cale legislativă în sensul reglementării capacității juridice penale a I.A./roboților. În sistemele de tip civil law, accentul este oricum pus pe legislația scrisă, astfel încât o schimbare conceptuală atât de dramatică la nivel de interpretare este, dacă nu imposibilă, cel puțin improbabilă. Susținătorii concepției potrivit căreia dreptul pozitiv este suficient pentru reglementarea răspunderii I.A. indică mai degrabă sistemele de tip common law[48], însă în doctrină s-a apreciat că și în aceste legislații o astfel de abordare ar fi riscantă și ineficientă[49].

Revenind la sistemul propus de Hallevy, acesta este inaplicabil pentru că tehnologia pur și simplu nu este atât de avansată precum este prezentată în acea lucrare, motiv pentru care se impune a respinge ferm premisa de la care pornește autorul. O schimbare conceptuală atât de fundamentală a dreptului este incompatibilă, în opinia noastră, cu lipsa unei intervenții radicale asupra legislației penale. Pentru a păstra mecanismele juridice penale de lege lata, este necesar ca I.A. să rămână la conceptul de instrumentum, pentru că, deși rămân într-adevăr chestiuni distincte, disonanța între filosofia dreptului și aplicarea sa ar fi prea mare pentru a genera un cadru coerent și eficient. Cu toate acestea, lucrarea rămâne un punct de pornire interesant referitor la cum s-ar putea aplica dreptul penal pentru a trage la răspundere I.A.

Dar dacă într-adevăr s-ar putea conferi capacitate penală inteligenței artificiale, cum ar arăta aceasta? Apreciem că pentru a analiza dacă este oportună acordarea capacității juridice unor entități de tip I.A., un prim punct de pornire ar fi definirea noțiunii de capacitate juridică drept concept.

 

VI. Concepția modernă a capacității juridice. Repere teoretice

Atunci când se vorbește despre o noțiune care nu are o definiție legală, sensul este cel comun. Doctrina civilă definește persoana ca fiind un individ al speciei umane, un om considerat în totalitatea însușirilor sale fizice și psihice, menționând că în limbaj juridic, persoana desemnează omul în capacitatea sa juridică[50]. În acest sens, Matei Cantacuzino considera că „înțelesul juridic al cuvântului persoană corespunde în domeniul dreptului privat exact cu noțiunea de subiect de raporturi juridice, de ființă susceptibilă de a fi subiect de drepturi și obligațiuni[51]. Doctrina civilă franceză definește capacitatea juridică drept capacitatea de a deveni subiect de drept și de a valorifica aceste drepturi[52].

Se consideră că noțiunea de persoană derivă din lat. „persona”, care înseamnă „mască”. Din perspectivă juridică, în Roma antică, un om putea avea mai multe „măști” juridice: senator, pater familias, cetățean roman etc.[53]. De aici au pornit o serie de discuții, inițial purtate în context religios, iar apoi purtate în context filosofic[54]. Discuțiile continuă până astăzi, neexistând încă niște criterii speciale referitoare la ce înseamnă o persoană. Care sunt, concret, trăsăturile pe care trebuie să le aibă o entitate pentru a fi considerată o persoană? În special prin raportare la inteligența artificială, există nenumărate opinii, după cum vom prezenta infra.

Personalitatea, în sens juridic, desemnează posibilitatea unei persoane de a avea drepturi și obligații[55]. Ieșind din sfera dreptului penal, se remarcă faptul că de esența unei persoane, din punct de vedere juridic, este că aceasta poate dobândi drepturi și i se pot impune obligații[56].

Pachet: Codul administrativ comentat. Explicatii, jurisprudenta, doctrina. Volumul I si Volumul II

La ora actuală, dreptul este văzut ca fiind divizat în mai multe ramuri specifice. În consecință, fiecărei ramuri de drept din cadrul sistemului îi corespunde o „ramură” a capacității juridice[57]. Luând în considerare obiectul acestei lucrări, este avută în vedere ramura penală a capacității juridice.

O autoare a încercat să identifice un fundament teoretic[58], făcând o sinteză a teoriei capacității juridice prin analiza diverselor subiecte de drept în diferite ramuri juridice, precum și prin raportare la entitățile cărora nu le este recunoscută o astfel de personalitate juridică. Astfel, ea identifică trei mari categorii de teorii, pe care le vom analiza în cele ce urmează.

1. Personalitatea juridică drept concept formal

Prima teorie este denumită de autoare „Cheshire cat” (pisica de Cheshire), după un personaj din povestea „Alice în țara minunilor”. Denumirea provine din aceea că, aidoma personajului, este acolo când e convenabil și dispare când nu. Cu alte cuvinte, conform acestui model teoretic, capacitatea juridică este o pură ficțiune, formală, fără nicio dimensiune etică, morală sau filosofică. Potrivit acestui model, absolut oricine poate avea capacitate juridică penală, inclusiv inteligența artificială. Capacitatea juridică este considerată ecuație matematică construită pentru a simplifica calculele juridice[59]. În mod interesant, una dintre implicațiile acestei teorii este că nu se poate considera că personalitatea juridică a societăților de persoane este o ficțiune, iar cea a persoanelor fizice este veridică, întrucât întotdeauna este vorba despre un concept abstract și fictiv, golit de conținut moral, istoric, biologic, religios etc. Potrivit adepților acestei teorii, ar fi chiar greșit să identificăm astfel de criterii, întrucât astfel ar deveni inutilă noțiunea de personalitate juridică în calitate de concept[60]. În acest sens, un autor afirmă că o persoană există în plan juridic numai în măsura în care are drepturi și obligații, astfel încât drepturile și obligațiile sunt ceea ce formează personalitatea juridică, neexistând un strat mai înalt al unei persoane care posedă aceste drepturi și obligații[61]. Această teorie a fost îmbrățișată de practica judiciară din provincia Quebec, sursă de inspirație a legiuitorului român, conform expunerii de motive a Codului civil. Într-o cauză în care reclamantul, care concepuse un copil împreună cu pârâta, a solicitat instanței să îi interzică celei din urmă să avorteze, punând în discuție statutul de persoană al fetusului[62], instanța de recurs a statuat că argumentele metafizice, deși pot fi relevante, nu pot fi considerate elementul decisiv al cauzei. Mai mult, instanța a stabilit că nici argumentele de natură științifică ori biologică nu sunt determinante, întrucât stabilirea noțiunii de „persoană” în drept este diferită de cea a noțiunii de persoană din științele naturii. Atribuirea personalității juridice este în mod fundamental o problemă normativă, reprezentând recunoașterea de drepturi și obligații, chestiune ce excedează problemelor de natură științifică și filosofică. Pentru aceste motive, instanța a admis recursul pârâtei și a respins cererea reclamantului. Totodată, în sprijinul acestei teorii pot veni argumente de ordin istoric și social, existând numeroase situații în care unele ființe umane erau tratate drept subiecte de drept, iar altele drept simple bunuri.

Teoria nu este nicidecum una nouă. În doctrina civilă franceză veche s-a discutat despre faptul că încă din cele mai vechi timpuri s-a conferit capacitate juridică unor entități non-umane. Pe de altă parte, persoanele fizice sunt singurele înzestrate cu voință, singurele care pot fi veritabile subiecte de drept. Când dreptul conferă personalitate juridică unui subiect, nu recunoaște o capacitate preexistentă de a exercita drepturi și obligații ci, din contră, acesta o instaurează, o creează[63].

În doctrina noastră s-a purtat de asemenea discuția referitoare la această teorie, prin raportare la persoana juridică. Profesorul Ion Tanoviceanu, analizând posibilitatea tragerii la răspundere a persoanei juridice, concluzionează că nu se poate deduce o voință proprie a unei colectivități separată de cea a persoanelor care o compun. Întrucât această voință proprie este fundamentală pentru dreptul penal, nu se poate angrena răspunderea penală a persoanei juridice[64]. În materia persoanei juridice, în antiteză cu această teorie stă teoria realității, susținută inițial de autorii germani și, în dreptul nostru, de către V. Dongoroz[65]. Conform acesteia, între manifestările unei colectivități și membrii acesteia există o legătură cauzală, motivată de faptul că respectiva colectivitate își alege conducătorii, le dă instrucțiuni și ratifică măsurile luate de respectivii lideri. Totodată, acesta este și fundamentul pentru pedepsirea membrilor colectivității: alegerea greșită a conducătorilor și omisiunea de a îi supraveghea[66]. Pornind de la art. 188 C.civ., în legislația noastră se consideră că actuala reglementare românească operează cu teoria realității[67].

Revenind la teoria ficțiunii, aplicând această teorie la inteligența artificială, implicațiile sunt că s-ar putea recunoaște personalitatea juridică a roboților pornind de la utilitatea folosirii unui astfel de concept într-un sistem de drept. Esența unei astfel de abordări este următoarea: este util, din punct de vedere social, economic și moral, să conferim roboților și I.A. statutul de „persoane electronice”?

O parte a autorilor consideră că inteligența artificială și roboții sunt niște simple unelte, nefiind de conceput o personalitate juridică specială, la fel cum nu este necesar să se confere personalitate juridică unui ciocan[68]. Alți autori, însă, apreciază fie că roboții trebuie încă de la acest moment să se bucure de personalitate juridică[69], fie că va exista un moment în care va fi necesar să se întâmple acest lucru[70].


[34] F. Streteanu, D. Nițu, Drept Penal. Partea generală, Editura Universul Juridic, București, 2014, pp. 281-282.

[35] G. Hallevy, op. cit., p. 39.

[36] În același sens, că elementul unei acțiuni voluntare ține mai mult de vinovăție, a se vedea M.D. Dubber, T. Hörnle, op. cit., p. 194.

[37] G. Hallevy, op. cit., p. 88.

[38] G. Hallevy, op. cit., p. 150 și urm.

[39] În același sens, a se vedea R. Charney, Can Androids Plead Automatism – A Review of When Robots Kill: Artificial Intelligence under the Criminal Law by Gabriel Hallevy, University of Toronto, Faculty of Law Review 73, no. 1 (Winter 2015): 69-3.

[40] L. Kim, Meet South Korea’s new robotic prison guards în „digitaltrends”, publicat în 21 aprilie 2012, accesibil on-line la adresa https://bit.ly/3mnaDhq, accesat la 21 decembrie 2021.

[41] A se vedea site-ul https://www.npr.org/2021/06/01/1002196245/a-u-n-report-suggests-libya-saw-the-first-battlefield-killing-by-an-autonomous-d?t=1655030905086, accesat în 12 iunie 2022, ora 13.50.

[42] N.M. Richards, W.D. Smart, How Should the Law Think About Robots? (May 10, 2013). Disponibil la SSRN: https://ssrn.com/abstract=2263363 sau http://dx.doi.org/10.2139/ssrn.2263363.

[43] Idem, pp. 10-11.

[44] G. Hallevy, op. cit., p. 129.

[45] X. Liu, L. Faes, A.U. Kale, S.K. Wagner, D.J. Fu, A. Bruynseels, T. Mahendiran, G. Moraes, M. Shamdas, C. Kern, J.R. Ledsam, M.K. Schmid, K. Balaskas, E.J Topol,     L.M. Bachmann, P.A. Keane, A.K. Denniston, A comparison of deep learning performance against health-care professionals in detecting diseases from medical imaging: a systematic review and meta-analysis, The Lancet Digital Health, Volume 1, Issue 6, 2019, Pages e271-e297, ISSN 2589-7500, https://doi.org/10.1016/S2589-7500(19)30123-2. Accesat on-line la adresa https://www.sciencedirect.com/science/article/pii/S2589750019301232. Ultima accesare în 22 decembrie 2021, ora 09.37.

[46] G. Hallevy, op. cit., p. 224.

[47] C. Edwards, Will automation take over healthcare jobs? Industry experts share their opinion, în Medical Device Network, accesibil on-line la adresa https://www.medicaldevice-network.com/features/will-automation-take-healthcare-jobs-industry-experts-share-opinion/. Accesat la 22 decembrie 2021, ora 13.16.

[48] K. Graham, Of Frightened Horses and Autonomous Vehicles: Tort Law and Its Assimilation of Innovations, Santa Clara Law Review, Vol. 52 (2012), 101-131.

[49] J. Turner, op. cit., pp. 221-225.

[50] I. Reghini, Ș. Diaconescu, P. Vasilescu, Introducere în dreptul civil, Editura Hamangiu, București, 2013, p. 80.

[51] Apud I. Reghini, Ș. Diaconescu, P. Vasilescu, ibidem.

[52] Capitant, Henri, Introduction a l’étude du droit civil: notions générales, 5e édition, 1929, p. 169.

[53] V.A.J. Kurki, T. Pietrzykowski, op. cit., p. 5.

[54] Ibidem.

[55] N. Mindaugas, Should Fully Autonomous Artificial Intelligence Systems Be Granted Legal Capacity, rev. „Teises Apzvalga Law Review”, nr. 17/2018, pp. 114-116.

[56] J.C. Gray, R. Gray, op. cit., p. 28.

[57] I. Reghini, Ș. Diaconescu, P. Vasilescu, op. cit., p. 84.

[58] W. Lucy, Review of Persons in Law, by N. Naffine, Oxford Journal of Legal Studies 29, nr. 4 (2009): 787-804, accesibil on-line la adresa http://www.jstor.org/stable/27750074.

[59] Idem, p. 351.

[60] A. Neka apud N. Naffine, op. cit., p. 351.

[61] H. Kelsen apud N. Naffine, op. cit., p. 353.

[62] Tremblay v. Daigle, Supreme Court Judgments, 1989-11-16, accesată on-line la adresa https://scc-csc.lexum.com/scc-csc/scc-csc/en/item/515/index.do, la 12 martie 2022, ora 13.15.

[63] H. Capitant, op. cit., pp. 199-200.

[64] A.-R. Trandafir, Răspunderea penală a persoanei juridice, ediția II, Editura C.H. Beck, București, 2021, p. 4.

[65] Idem, p. 5.

[66] Idem, p. 6.

[67] R. Rizoiu apud A.-R. Trandafir, op. cit., p. 7.

[68] A se vedea E. Fraser, Computers as Inventors – Legal and Policy Implications of Artificial Intelligence on Patent Law, „SCRIPTed: A Journal of Law, Technology and Society”, nr. 3/2016, pp. 305-333. De asemenea, v. V.A.J. Kurki, T. Pietrzykowski, op. cit., p. 100.

[69] G. Hallevy, op. cit., pp. 25-37.

[70] V.A.J. Kurki, T. Pietrzykowski, op. cit., pp. 91-101.

Poate avea inteligența artificială capacitate penală? was last modified: aprilie 14th, 2024 by Georgian Marcel Husti

PARTENERI INSTITUȚIONALI

Vă recomandăm:

Rămâi la curent cu noutățile juridice