Poate avea inteligența artificială capacitate penală?

15 apr. 2024
Vizualizari: 219
 

Universuljuridic.ro PREMIUM

Aici găsiți informaţiile necesare desfăşurării activităţii dvs. profesionale.

Universuljuridic.ro PREMIUM pune la dispoziția profesioniștilor lumii juridice un prețios instrument de pregătire profesională. Oferim un volum vast de conținut: articole, editoriale, opinii, jurisprudență și legislație comentată, acoperind toate domeniile și materiile de drept. Clar, concis, abordăm eficient problematicile actuale, răspunzând scenariilor de activitate din lumea reală, în care practicienii activează.

Testează ACUM beneficiile Universuljuridic.ro PREMIUM prin intermediul abonamentului GRATUIT pentru 7 zile!

🔑Vreau cont PREMIUM!


 

Merită menționat însă că acest curent umanist este unul destul de răspândit, găsindu-și susținători în diverse domenii. În anul 2017, Parlamentul European a adoptat o rezoluție prin intermediul căreia propunea Comisiei Europene să analizeze problema personalității juridice a roboților. Ca răspuns la această problemă, în 2018, un grup de peste 150 de persoane, de la practicieni și teoreticieni ai dreptului până la experți în robotică și inteligență artificială și psihologi, au semnat o scrisoare deschisă prin care au semnalat faptul că nu este adecvat să se confere anumite drepturi roboților[116]. Această scrisoare deschisă are 3 puncte potrivit cărora ar fi o greșeală acordarea unei personalități juridice roboților. Unul dintre ele este următorul: „statutul legal al roboților nu poate fi derivat din modelul persoanelor naturale, din moment ce robotul ar urma să se bucure de drepturile omului, precum dreptul la demnitate, integritate, remunerație, cetățenie […]”[117].

Dincolo de critica deja adusă cu privire la asemănarea cu un om, mai remarcăm o problemă: semnatarii acestei scrisori deschise văd personalitatea juridică ca pe ceva absolut. După cum au observat și alți autori, ea este mai degrabă o scală decât un concept absolut[118]. Conferirea unei personalități juridice nu înseamnă că o entitate dobândește toate drepturile și obligațiile posibile. La fel ca în cazul societăților de persoane, în funcție de voința legiuitorului, se pot acorda unele drepturi și unele obligații.

Tuturor acestor observații am mai dori să adăugam faptul că, pornind de la asemănarea roboților cu oamenii, există riscul de a nu ajunge niciodată într-un asemenea stadiu. Până la urmă, ce înseamnă mai exact conceptul de conștiință? Care ar fi testul care ar determina dacă un robot/I.A. are sau nu conștiință? Faimosul test Turing, spre exemplu, este depășit de I.A. cu succes, cel puțin pentru perioade de timp limitate[119]. Mereu apar noi teste și noi standarde în această privință[120]. Dincolo de riscul imaginat de divertismentul de tip S.F. ca roboții să piardă controlul, există riscul ca aceștia să fie semnificativ sub așteptări, în condițiile în care deja s-au infiltrat în foarte multe domenii cruciale ale vieții.

Alți autori au răspuns acestor critici indicând faptul că răspunderea penală a persoanelor juridice funcționează în mod eficient[121]. Într-adevăr, în dreptul penal român, în principiu, vor răspunde atât persoana juridică, cât și persoana fizică. Personalitatea juridică a societăților de persoane nu este un paravan care să creeze impunitate asociaților. Din contră, se dorește a fi o extindere a răspunderii penale pentru a preveni eventuale abuzuri în care persoana juridică ar fi cea care s-ar bucura de impunitate.

3. Subiectul responsabil[122]

Conform acestei teorii, nu toate ființele umane se bucură de capacitate juridică, ci doar cele capabile să acționeze într-un mod rațional. Spre deosebire de teoria prezentată anterior, noțiunea nu mai necesită apel la științe extrajuridice. Subiectul de referință este persoana capabilă să acționeze juridic, să uzeze de drepturile recunoscute de lege. Potrivit acestei teorii, un subiect care nu are libertate de voință nu poate dispune de drepturi și nu poate fi considerat, în mod rezonabil, ca bucurându-se de capacitate juridică.

Într-o cauză din Anglia, de la England and Wales Court of Appeal[123], o instanță a fost chemată să decidă dacă doi gemeni siamezi reprezintă o persoană sau două. Sentința a fost în sensul că există două persoane, astfel încât implicit instanța s-a ghidat după teoria prezentată la punctul 2. Comentatorii acestei decizii au opinat că ar fi fost mult mai ușor dacă instanța ar fi utilizat această a treia teorie, statuând că de fapt nu exista nicio persoană, având în vedere capacitatea lor cognitivă aproape inexistentă[124].

Această din urmă teorie pare a fi cea îmbrățișată de dreptul penal român, în măsura în care înțelegem să ne ghidăm și în funcție de trăsătura de imputabilitate a infracțiunii și, prin abstracție, să o includem în ideea de capacitate. Minorii sub 14 ani și persoanele lipsite de discernământ nu vor răspunde penal, lipsind imputabilitatea ca trăsătură a infracțiunii.

Merită menționat aici că, potrivit articolului original, cele trei teorii merg pe scară din ce în ce mai restrânsă, astfel încât, aplicând cu strictețe teoria, se menține și condiția de ordin biologic. Cu toate acestea, apreciem că, deși în continuare se vorbește despre o ființă umană, accentul este pus pe elementele care transcend această condiție. Prin urmare, ar putea exista o portiță pentru a recunoaște și entităților artificiale capacitatea juridică, în măsura în care ar putea să denote o astfel de voință.

La ora actuală există programe și inteligențe artificiale capabile de a naște, modifica sau stinge raporturi juridice. Majoritatea acestor programe sau entități acționează pe baza unor parametrii prestabiliți. Contractele smart sunt utilizate des în tehnologiile de tip blockchain. Fără a intra în detalii, acestea execută automat contractele când sunt întrunite condițiile și asigură securitatea tranzacțiilor fără a fi necesară supravegherea și intervenția unor autorități centrale. Deși acționează în mod automat, nu considerăm că se poate vorbi despre o voință proprie a programului. Totuși, rămâne în continuare problema: când s-ar contura în mod suficient o astfel de voință? Deși inteligența artificială cunoaște în continuare multe limitări, limbajul juridic nu este greu de transcris în sistem informatic, fiind vorba despre o sumedenie de condiții „dacă – atunci”. Prin urmare, cel mai probabil nu ar fi dificil de inventat o inteligență artificială care, fără a avea neapărat o astfel de voință liberă de a exercita drepturile, să o simuleze îndeaproape. Asta înseamnă că ar trebui recunoscută capacitatea juridică a inteligenței artificiale? În opinia noastră, nu, indiferent de existența acestei voințe sau nu. Deși această din urmă teorie este cea mai pertinentă și argumentată din punct de vedere filosofic, realitatea socială, în opinia noastră, relevă mai degrabă faptul că legiuitorul folosește prima teorie pentru a fundamenta sau nu capacitatea juridică. Astfel, mai degrabă se va conferi o astfel de personalitate juridică unor entități la momentul la care este util să se procedeze astfel, decât prin raportare la analiza libertății de voință.

 

VII. Cine ar avea personalitate juridică?

O altă problemă importantă, mai puțin analizată în literatura de specialitate, este cine anume ar urma să aibă personalitate juridică. Atunci când se discută despre capacitatea penală a unor roboți, deși nu se menționează expres, este evident că nu sunt avute în vedere tehnologii  precum aspiratorul-robot ori o mașină de spălat inteligentă. Este vorba despre roboți precum Watson, un super-calculator creat de IBM. Acesta își desfășoară activitatea în domenii precum cercetarea genomului, pedagogie, cultivarea și selecția plantelor, diagnosticare medicală și multe altele. Este estimat că peste 70% dintre instituțiile bancare folosesc Watson[125]. Cu alte cuvinte, sunt vizați roboții/I.A. care efectuează operațiuni peste un anumit prag de complexitate. O altă problemă referitor la această chestiune pornește de la faptul că, dacă oamenii sunt, cel puțin la acest moment, limitați la corpul lor fizic, I.A. nu cunoaște astfel de limitări. Programul ei poate fi copiat sau mutat destul de ușor. Mai mult, inteligența artificială descărcată pe un calculator se poate comporta diferit de inteligența artificială descărcată pe alt calculator. Motoare de căutare, precum cele de la Google, se particularizează în funcție de căutările individuale ale fiecărei persoane, astfel încât există un subtip al inteligenței artificiale în funcție de fiecare utilizator. Chiar mai problematic, există la ora actuală I.A. care creează ea însăși o altă I.A. Există chiar și posibilitatea ca noua I.A. creată să fie mai avansată decât cea care a creat-o. În aceste condiții, cine ar  trebui să aibă personalitate juridică, dacă   s-ar dori adoptarea unei astfel de măsuri?

Cu privire la această problemă, cel mai frecvent se discută despre crearea unui sistem de înregistrare a I.A., similar cu sistemul de înregistrare al persoanelor juridice[126] sau similar cu cel al persoanelor fizice, cum se întâmplă în țări precum Japonia (Koseki)[127]. Fără a intra în profunzime în această problemă, semnalăm faptul că ea este una importantă atunci când vine vorba despre o eventuală răspundere proprie a inteligenței artificiale. Deocamdată, reglementarea unui sistem de înregistrare pare a fi cea mai bună soluție cu privire la această chestiune.

 

Conferința națională „Prevenirea și combaterea spălării banilor”. Impactul noii legi asupra profesiilor liberale

VIII. Ce fel de drepturi și obligații ar putea avea roboții și inteligența artificială?

Din nou, răspunsul dat aici la această problemă se vrea a fi unul exemplificativ și superficial, nicidecum exhaustiv[128]. Din punct de vedere penal, ar fi important ca roboții să aibă drept de proprietate, întrucât astfel ar putea fi posibilă aplicarea unor pedepse pecuniare și obligarea acestora la repararea prejudiciului produs. Totodată, acordarea dreptului de a avea un patrimoniu propriu ar putea rezolva unele probleme la nivelul drepturilor de autor, probleme care se reflectă și în sfera penală[129]. Există din ce în ce mai mulți roboți care au capacitatea de a crea proprietate intelectuală. Există inclusiv cărți publicate care au fost scrise în întregime de inteligență artificială[130]. Există, de asemenea, din ce în ce mai multe melodii compuse de I.A.[131], precum și picturi[132]. Un alt set de drepturi cu o semnificație importantă în dreptul penal ar fi reprezentată de recunoașterea unor drepturi la auto-conservare. Astfel de drepturi ar avea relevanță, spre exemplu, în ceea ce privește legitima apărare.

 

Concluzii. Este sau nu pertinentă conferirea unei personalități juridice inteligenței artificiale?

Având în vedere scopul acestei lucrări, ne vom limita la a răspunde doar cu privire la o eventuală capacitate penală, fără a analiza oportunitatea unei astfel de soluții în alte ramuri de drept. Cu siguranță nu poate fi exclusă de plano o astfel de posibilitate, însă cel puțin la ora actuală, pe termen scurt și, îndrăznim să apreciem, chiar și mediu, nu pare ca fiind oportun un astfel de demers.

În primul rând, este extrem de puțin probabil ca această capacitate juridică să fie recunoscută pe cale jurisprudențială, chiar și în sistemele în care practica instanțelor are un statut diferit de cel prezent în sistemul autohton de drept. Or, în contextul actual, pare că legiuitorul își va concentra atenția pe alte domenii, pentru simplul fapt că problema nu prezintă suficientă importanță practică și nici nu rezolvă în mod esențial multe chestiuni. Teoriile prezentate supra, indiferent cât de pertinente sau nu, pălesc în fața voinței legiuitorului. Or, acesta acționează (sau cel puțin ar fi dezirabil să acționeze) pe baza unor fundamente teoretice, însă ghidat, în final, de o rațiune pragmatică în atingerea scopurilor. La acest moment, recunoașterea unui statut de „persoane electronice” pur și simplu nu rezolvă prea multe probleme de ordin practic. Din contră, odată deschisă portița unei eventuale răspunderi juridice, se pune o suită întreagă de probleme; pe unele am încercat deja să le antamăm. Spre exemplu, cine ar avea, în concret, personalitate juridică?     I.A. nu este limitată la un anumit corp și poate fi clonată ușor. Toate instanțele acelei inteligențe ar avea personalitate juridică separată sau ar exista o singură personalitate juridică pentru toate? Ce drepturi și obligații ar avea inteligența artificială? Cum am pedepsi-o din punct de vedere penal și care ar fi rațiunea unei astfel de pedepse? Din punct de vedere procesual, cum ar arăta un astfel de proces? Cine ar avea dreptul de a reprezenta inteligența artificială? Ori s-ar reprezenta ea însăși, în nume propriu? Dacă da, cum? Deși s-a încercat formularea unor răspunsuri, apreciem că cercetarea în profunzime a acestei chestiuni relevă lipsa de sustenabilitate a unui astfel de demers.  Argumentele prezentate anterior, conform cărora s-ar putea valorifica rolul educativ al pedepsei, sunt în mare măsură lipsite de substanță, în opinia noastră, atât timp cât tehnologia pur și simplu nu este suficient de dezvoltată pentru a înțelege și opera cu astfel de concepte. Această ultimă frază permite să dezvoltăm un alt argument în sensul respingerii teoriei capacități juridice a inteligenței artificiale; după cum urmează.

Tehnologia, la acest moment, pur și simplu nu este atât de dezvoltată precum o prezintă autorii în lucrările lor. Spre exemplu, s-a spus că există și situații în care s-ar părea că inteligența artificială creează un vid de răspundere ori un paravan de impunitate în ceea ce privește răspunderea penală. „Vital” a fost un software menit să ia decizii legate de investiții financiare într-un mod automat, pe baza capacității de a recunoaște tipare. În anul 2014, compania Deep Knowledge Ventures a susținut că a numit această inteligență artificială membru în consiliul de administrare[133]. În continuare, autorii remarcă faptul că în măsura în care respectiva persoană juridică și-ar baza decizia pe cele calculate de inteligența artificială, ar fi problematică determinarea unui lanț cauzal al răspunderii penale și determinarea vinovăției cu care a acționat aceasta. Prin urmare, autorul creează o imagine în care inteligența artificială are statut de membru cu drept decizional în consiliul de administrație. De altfel, chiar aceasta a fost poziția companiei la acel moment. În realitate însă, tot acest episod nu a fost nimic altceva decât o cascadorie mediatică care să promoveze compania. În plus, presupunând că această afirmație ar fi fost reală, locul în consiliul de administrație ar fi fost cel mult unul simbolic, fiind discutate și luate în calcul cele relevate de respectivul software. Este greu de imaginat că investitorii ar accepta ca un astfel de program să ia decizii financiare în numele lor, fără niciun fel de supraveghere. Finalmente, chiar și în măsura în care acesta ar acționa în numele companiei, în mod complet nesupravegheat, apreciem că nu se poate vorbi despre un vid de răspundere, întrucât s-ar putea identifica cel mai probabil o conduită omisivă reprobabilă din punct de vedere penal, comisă cu vinovăție. Deși există numeroase discuții la nivel conceptual cu privire la problema răspunderii penale a roboților prin prisma recunoașterii capacității juridice, fie nu se prezintă niciun exemplu concret, fie se prezintă în mod deformat starea de fapt, în special în ceea ce privește capabilitățile inteligenței artificiale. S-a contraargumentat că se impune a avea o conduită profilactică, în sensul de a nu aștepta să apară probleme de nerezolvat înainte de a interveni. Este neîndoielnic faptul că prevenția este cea mai bună variantă, însă opinăm că a recunoaște capacitate juridică inteligenței artificiale ar crea mai multe probleme decât ar rezolva. Luând în calcul toate implicațiile unui astfel de demers, aceasta pur și simplu apare ca fiind o soluție extrem de complicată relativ la problemele concrete pe care le pune la acest moment inteligența artificială.

Trecând la un strat superior, mai abstract, singurele teorii ale capacității apte de a deschide drumul pentru recunoașterea capacității penale a tehnologiilor sunt Cheshire cat (I) și cea a subiectului responsabil (III), întrucât categoria II, privitoare la orice ființă rezonabilă, exclude de plano o astfel de acțiune[134]. După cum am argumentat deja supra, categoria I este golită de un conținut fundamental, iar la ora actuală nu apreciem ca fiind util a adopta un model de răspundere penală bazat pe răspunderea proprie a inteligenței artificiale. Cu privire la categoria III, problema prealabilă care trebuie lămurită este ce trăsături, concret, trebuie să aibă voința unui subiect pentru a se bucura de capacitate juridică. Cel puțin la nivel intuitiv, inteligența artificială nu este nici măcar pe aproape de standardele pe care le impune această voință de a acționa ca un actor rațional. Lipsa unor criterii foarte precise face dificilă respingerea acestei teorii, însă se remarcă faptul că la acest moment nu există decât narrow/weak A.I., adică inteligență artificială slabă (prin opoziție cu inteligența artificială generală), strict specializată. Spre exemplu, Stockfish este un motor de șah extrem de puternic, cu mult peste capacitățile celui mai bun jucător de șah de la ora actuală, Magnus Carlsen. Cu toate acestea, capacitățile sale dincolo de jocul de șah sunt zero. Or, cu greu s-ar putea concilia o astfel de voință a unui actor responsabil cu faptul că la ora actuală inteligența artificială are o specializare îngustă.

Faptul că nu este oportună, în opinia noastră, conferirea unei capacități juridice penale nu înseamnă însă că nu există probleme la nivel conceptual în ceea ce privește inteligența artificială. Înțelegem aici să respingem soluția la problemele pe care le pune în materie juridică această tehnologie, iar nu situația premisă în sine. Problemele de cauzalitate și vinovăție în materie rămân în continuare aspecte critice de rezolvat.


[116] A se vedea textul acestei scrisori la adresa https://bit.ly/39IP1mq, accesată la 3 aprilie 2020, ora 15.00.

[117] Textul original este în engleză: „A legal status for a robot can’t derive from the Natural Person model, since the robot would then hold human rights, such as the right to dignity, the right to its integrity, the right to remuneration or the right to citizenship, thus directly confronting the Human rights. This would be in contradiction with the Charter of Fundamental Rights of the European Union and the Convention for the Protection of Human Rights and Fundamental Freedoms”.

[118] Bryson et al., op. cit., p. 280.

[119] Idem, p. 284.

[120] G. Hallevy, op. cit., p. 9 și urm.

[121] Laukyte, Migle, (2019), AI as a Legal Person, 209-213. 10.1145/3322640.3326701.

[122] N. Naffine, op. cit., p. 362 și următoarele.

[123] Re A (Children) Conjoined Twins: Surgical Separation [2000] 4 All ER 961. http://www.bailii.org/ew/cases/EWCA/Civ/2000/254.html, accesat la 22 martie 2022, ora 12.58.

[124] N. Naffine, op. cit., pp. 363-364.

[125] A se vedea site-ul http://www.ibm.com/watson/.

[126] Laukyte, Migle (2019), AI as a Legal Person, 209-213. 10.1145/3322640.3326701.

[127] Colin P. A. Jones, The Robot Koseki: A Japanese Law Model for Regulating Autonomous Machines, Journal of Business and Technology Law 14, nr. 2 (2019): 403-468.

[128] Pentru o discuție mai profundă cu privire la aceste aspecte, a se vedea J. Turner, op. cit., p. 133 și urm.

[129] G. Hallevy, AI v. IP – Criminal Liability for Intellectual Property IP Offenses of Artificial Intelligence AI Entities (November 17, 2015). Disponibil la SSRN: https://ssrn.com/abstract=2691923 sau http://dx.doi.org/10.2139/ssrn.2691923.

[130] A se vedea, spre exemplu, Harry Potter and the Portrait of What Looked like a Large Pile of Ash, carte scrisă de un AI pe nume Botnik, https://botnik.org/content/harry-potter.html, accesat la 7 aprilie 2020, ora 15.00.

[131] A se vedea, spre exemplu, piesa On the Edge, compusă de un AI pe nume AIVA, piesă disponibilă on-line la adresa https://www.youtube.com/watch?v=gA03iyI3yEA, accesată la 7 aprilie 2020, ora 15.00.

[132] A se vedea, spre exemplu, această galerie de picturi create de AI: https://www.cbsnews.com/pictures/art-created-by-artificial-intelligence/, accesată la 7 aprilie 2020, ora 15.00.

[133] Dyer-Witheford, Nick (2015). Dean, Jodi; Hands, Joss; Jordan, Tim (eds.). Cyber-proletariat: Global Labour in the Digital Vortex, Londra, Pluto Press, pp. 1-2. ISBN 978-0-7453-3404-2.

[134] Din nou atragem atenția că, potrivit articolului citat, și în cea de-a treia categorie este prevăzută condiția fiziologică, însă am inclus-o aici întrucât, considerăm noi, aspectul biologic nu mai este de esența teoriei. Aspectul esențial îl reprezintă voința rezonabilă.

Poate avea inteligența artificială capacitate penală? was last modified: aprilie 14th, 2024 by Georgian Marcel Husti

PARTENERI INSTITUȚIONALI

Vă recomandăm:

Rămâi la curent cu noutățile juridice