Efectele implementării inteligenței artificiale în justiție asupra drepturilor fundamentale și asupra drepturilor procedurale

23 aug. 2022
Vizualizari: 574

În Articol:

 

Universuljuridic.ro PREMIUM

Aici găsiți informaţiile necesare desfăşurării activităţii dvs. profesionale.

Universuljuridic.ro PREMIUM pune la dispoziția profesioniștilor lumii juridice un prețios instrument de pregătire profesională. Oferim un volum vast de conținut: articole, editoriale, opinii, jurisprudență și legislație comentată, acoperind toate domeniile și materiile de drept. Clar, concis, abordăm eficient problematicile actuale, răspunzând scenariilor de activitate din lumea reală, în care practicienii activează.

Testează ACUM beneficiile Universuljuridic.ro PREMIUM prin intermediul abonamentului GRATUIT pentru 7 zile!

🔑Vreau cont PREMIUM!


 

Partea I – Ce este inteligența artificială?

Inteligența artificială (prescurtată în continuare „IA”) este aptitudinea unei mașini de a imita com­portamentul uman, fiind programată să gândească și să acționeze asemenea unui om. Una dintre caracteris­ticile esențiale ale IA este învățarea continuă, pe baza stimulilor externi și a informațiilor colectate din mediul înconjurător. IA observă realitatea înconjurătoare și acționează în consecință, fără a avea nevoie de aju­torul sau asistența umană[1].

Deși această definiție este una actuală, trebui să avem în vedere că standardul la care ne raportăm pentru a stabili ce este IA se află într‑o evoluție con­tinuă, asemenea tehnologiei. Astfel, este posibil ca peste câțiva ani acestea atribute să nu mai caracterizeze inte­ligența artificială, fiind doar funcții de bază ale dis­pozitivelor pe care le vom folosi în viața de zi cu zi.

Inteligența artificială a fost clasificată în literatura de specialitate în: i) IA analitică, ii) IA inspirată de om și iii) IA umanizată. În scopul dezvoltării prezen­tului articol, vom considera că inteligența artificială la care ne referim și care ar putea fi implementată în sistemul judiciar este o IA umanizată. Aceasta din urmă „prezintă caracteristicile tuturor tipurilor de com­petențe (de exemplu, inteligența cognitivă, emoțională și socială), este capabilă să fie conștientă de sine atât ca atare, cât și în interacțiunile cu ceilalți[2]”.

Ideea unor mașini care pot gândi asemenea oame­nilor nu este noua, ci a apărut încă din Grecia Antică, însă aceasta a început să prindă cu adevărat contur în anii ’50. Aceasta este perioada în care a fost inventat chiar și un test pentru a determina abilitatea unei mașini de a gândi ca un om[3]. De atunci și până în zilele noastre, tehnologia a evoluat neîncetat, cu o viteză alarmantă. Chiar dacă în anii 2020 nu avem (încă) mașini zburătoare, așa cum preziceau cercetătorii și filmele SF din anii ’70‑’80, tehnologia a devenit parte din viața noastră mai mult decât ne dăm seama.

Uitându‑ne la evoluțiile tehnologice recente, nu este prea îndrăzneț să afirmăm faptul că în curând IA va evolua pentru a fi utilizată la o scară tot mai largă, inclusiv în domeniul judiciar.

 

Partea a II‑a – Cum ar putea fi implementată inteligența artificială în sistemul judiciar?

Pentru a avea o imagine unitară pe tot parcursul acestui articol, ipoteza de lucru este următoarea – profesioniștii dreptului ar putea fi înlocuiți de IA uma­nizată, care are toate cunoștințele și aptitudinile unui practicant cu cel puțin zece ani de experiență în dome­niul juridic (fie că este vorba de judecători, procurori, avocați etc.)

Având în vedere toate acestea, este momentul să încercăm să răspundem la întrebarea „Cum ar putea face parte IA din sistemul judiciar?

Mai întâi de toate, cel mai probabil primul răspuns la această întrebare care ne vine în minte este jude­cătorul‑robot. Cum ar fi ca peste câțiva ani pe scaunul judecătorului să stea un robot umanoid ca Sofia?[4] Sau poate chiar să nu mai fie nevoie de instanțele fizi­ce, litigiile fiind soluționate folosind doar un program? Cu toate că aceste idei pot provoca o oarecare neliniște în rândurile practicienilor dreptului, trebuie să recu­noaștem că există avantaje incontestabile. De exem­plu, cazurile mai puțin complexe (contestațiile la pro­ce­sele‑verbale de contravenție, succesiunile, divorțu­rile, rectificările de carte funciară și alte asemenea) ar putea fi soluționate mai rapid și mai eficient de către IA[5].

Dacă ideea de a înlocui judecătorii cu roboți pare extremă, IA ar putea fi cel puțin folosită pentru dis­tribuirea aleatorie a dosarelor într‑un mod care să excludă de la repartizare judecătorii cu eventuale preconcepții legate de un anumit subiect, cu interese în cauză, afinități sau antipatii față de părțile litigante sau de avocaților acestora. Prin folosirea unui astfel de sistem instituția incompatibilității judecătorului[6] nu ar mai fi aplicabilă. Astfel, ideea de judecător im­parțial ar fi dusă la un alt nivel.

Pe aceeași linie de idei, IA ar putea face chiar și munca unui procuror sau a organelor de cercetare penală. Mașinile pot lucra neobosite la orice oră, strângând dovezi în mod obiectiv. Acestea pot fi pro­gramate să respecte cu strictețe protocoalele de prelu­crare a probelor, iar riscul de contamina probele cu propriul ADN este inexistent. Procesarea probelor ar deveni mai simpla și mai eficientă dacă ar fi realizată prin intermediul unor programe bazate pe IA.

Nici avocații nu sunt în afara pericolului de a fi înlocuiți de IA. Chiar și în prezent, există tot mai multe programe care sunt capabile să analizeze contracte, să facă analize de tipul due dilligence și chiar să eva­lueze rata de succes a unui caz, toate acestea mult mai rapid, eficient și ieftin decât un avocat. Mașinile inte­ligente sunt capabile de a se dedica mai mult clien­ților din moment ce nu au nevoie de odihnă, nu au viață personală și bineînțeles toate aceste pentru costuri semnificativ mai reduse.

Un alt mod în care IA ar putea fi implementată în justiție se referă la activitățile desfășurate de grefieri. Mași­nile ar putea foarte ușor să efectueze toate acti­vitățile premergătoare unei ședințe de judecată (cita­rea, pregătirea listei de dosare, întocmirea dosarelor, ș.a.m.d.). Chiar mai mult, IA ar putea înregistra și con­semna aproape în mod instantaneu și exact aspectele petrecute în ședința de judecată.

Nici sistemul de executare al pedepselor nu ar putea scăpa de influența mașinilor. IA ar putea înlocui comi­siile care decid asupra cererilor de eliberare condițio­nată, fiind mult mai obiective decât oamenii. Ar fi posibil chiar ca în viitor penitenciarele să fie în între­gime controlate pe baza inteligenței artificiale.

Conferința națională „Prevenirea și combaterea spălării banilor”. Impactul noii legi asupra profesiilor liberale

În ciuda faptului că implementarea IA în sistemul judiciar ar avea aparent numeroase avantaje (printre care cele mai evidente sunt reducerea costurilor și efi­ciența) este necesară o analiză detaliată atât a avantajelor, cât și a dezavantajelor pentru a ajunge la o concluzie. În cele ce urmează vom prezenta o astfel de analiză, cu referire la cei trei actori principali ai sistemului de justiție care ar putea fi înlocuiți de IA – judecătorii, procurorii și avocații.

 

Partea a III‑a – Care ar putea fi efectele im­plementării inteligenței artificiale în justiție asupra drepturilor fundamentale?

Capitolul 1 – Înlocuirea judecătorilor cu inte­ligența artificială

Secțiunea 1 – Dreptul la un proces echitabil conform exigențelor Convenției Europene a Drepturilor Omului

Conform Art. 6 alin. (1) din Convenția Europeană a Drepturilor Omului „Orice persoană are dreptul la judecarea cauzei sale în mod echitabil, în mod public și în termen rezonabil, de către o instanță independentă și imparțială, instituită de lege, care va hotărî fie asupra încălcării drepturilor și obligațiilor sale cu caracter civil, fie asupra temeiniciei oricărei acuzații în materie penală îndreptate împotriva sa.” În ce măsură sunt compatibile aceste cerințe cu o instanță formată din IA?

 

1. Accesul la o instanță

Trebuie să avem în vedere existența unui echilibru între dreptul fundamental de acces la o instanță și cerințele formale procedurale. În acest sens, Curtea Europeană a Drepturilor Omului a stabilit că „instan­țele trebuie, în aplicarea normelor de procedură, să evite un formalism excesiv care ar aduce atingere carac­terului echitabil al procedurilor”[7], o interpretare prea restrictivă a normelor de procedura putând afecta însăși dreptul de acces la o instanță[8].

Așadar, simpla aplicare mecanică a unor norme procedurale nu satisface condițiile impuse de juris­prudența CEDO, ci este necesară o apreciere de la caz la caz a incidenței acestor norme. Pentru realizarea unei astfel de aprecieri factorul decizional uman este indispensabil. IA nu poate ține cont de multitudinea diferențelor aparent minore dintre cauze. Există astfel riscul de a aplica normele de procedură fără luarea în considerare a situației concrete a părților sau într‑o manieră prea formalistă.

Prin urmare, implementarea IA ca instanță ar crea dificultăți cu privire la respectarea dreptului de acces la o instanță.

 

2. Echitatea

Art. 6 din Convenția Europeană a Drepturilor Omului face referire și la judecarea cauzei într‑un mod echitabil, lucru greu de realizat în ipoteza unui jude­cător cu IA. Se ridică în primul rând întrebarea dacă este echitabil ca o mașină să decidă soarta unui om. Cu toate că IA ar fi mai obiectivă decât o persoană, fiind lipsită preconcepții, înclinații religioase, politice sau alte trăsături subiective ce caracterizează omul, IA este de asemenea lipsită de empatie și de etică.

În al doilea rând, judecățile IA în aparență obiec­tive, bazate doar pe situația de fapt și actele normative incidente, ar putea fi totuși lipsite de echitate. Aceasta se datorează faptului că echitatea este un concept nu poate fi cuprins doar în norme de drept și raționamente juridice, ci variază de la speță la speță. Echitatea este lă­sată la aprecierea judecătorului care se bazează în luarea deciziei sale și pe anumite însușiri inerente omului – compasiune, empatie, integritate.

Astfel, chiar dacă IA este un judecător imparțial, aceasta nu înseamnă că poate judeca o cauză în mod echitabil.

 

3. Termenul rezonabil

Respectarea unui termen rezonabil este esențială pentru desfășurarea procesului în conformitate cu exi­gențele impuse de Convenția Europeană a Drepturilor Omului. Întrucât oamenii sunt limitați din punct de vedere al capacității de muncă, timpul lor este de ase­menea limitat. Aceasta este principala cauză a supra‑aglomerării instanțelor și implicit a duratelor lungi ale proceselor. În schimb, IA nu este limitată din punct de vedere al timpului de lucru, putând să funcționeze aproape neîntrerupt. Am putea avea în acest fel un judecător care nu obosește, care are ședințe în fiecare zi și redactează hotărâri fără pauze. O astfel de instanță ar reduce în mod semnificativ durata procesului, respectând cu siguranță standardul termenului rezonabil.

 

4. Independența instanței

Independența este una dintre cele mai importante atribute ale unei instanțe. Acest aspect are în vedere inde­pendența individuală a oricărui judecător față de orice factor exterior[9]. În aparență, IA este indepen­dentă față de oameni, aceasta fiind chiar una dintre caracteristicile de bază pentru ca o mașină să fie considerată IA. Cu toate acestea, trebuie să ținem cont de faptul că IA este creată de oameni, evoluând ulterior în mod independent printr‑un proces de învă­țare continuă. Programatorul IA, poate, teoretic, să intervină asupra modului în care acționează/gândește IA oricând.

Din moment ce unul sau mai mulți oameni au posibilitatea de a accesa și modifica codul ce stă la baza funcționării mașinii care este chiar judecătorul, în ce măsură mai există garanția independenței? Dacă pentru judecători independența este asigurată printr‑un cadrul legal și prin valorile morale și etice, aceasta nu se poate aplica și în cazul roboților. În timp ce un judecător poate rezista influențelor externe, un calcu­lator/robot nu poate să acționeze altfel decât a fost programat.

Prin urmare, standardul independenței IA este diferit de cel al unui judecător. Pe când „judecătorii sunt independenți și se supun numai legii”[10], am putea spune că IA este independentă și se supune numai legii și programatorului.

 

Secțiunea 2 – Discriminarea, egalitatea și im­parțialitatea

Toți cetățenii au dreptul de a fi tratați în mod egal de către instituțiile statului. Interzicerea discriminării, consacrată de art. 14 din Convenția Europeană a Drep­turilor Omului și de art. 16 din Constituția României, este cu atât mai importantă în cazul unui proces. Este de neconceput ca o persoană să fie tratată diferit pe simple considerente legate de naționalitate, rasă, sex, orientare sexuală ș.a.m.d.

Chiar dacă discriminarea ar părea un defect uman, și IA este capabilă de discriminare. Un exemplu în acest sens este sistemul de predictibilitate a gradului de recidivă folosit în Statele Unite ale Americii. Acest sistem, numit COMPAS, a fost conceput pentru a ajuta judecătorii să individualizeze pedepsele inculpaților, ținând cont de posibilitatea ca aceștia să recidiveze. S‑a dovedit că acest sistem acorda un scor mai mare de recidivă indivizilor Afro‑Americani decât celor­lalți[11]. Chiar dacă a fost argumentat în literatura de specialitate faptul că această disproporție nu a fost ba­zată pe rasă, ci pe statisticile conform cărora persoa­nele de culoare recidivează într‑o proporție mai mare decât alți indivizi[12], existența unui anumit grad de dis­cri­minare nu poate fi trecută cu vederea.

Concluzionând, nu putem considera că un jude­cător cu IA care încalcă dreptul fundamental al ega­lității dintre cetățeni este o instanță imparțială.

 

Secțiunea 3 – Dublul grad de jurisdicție

1. Instanța superioară

Un proces cu adevărat just nu poate fi imaginat într‑o societate democratică fără dublul grad de jurisdicție, mai ales în materie penală. Art. 2 alin (1) din Protocolul 7 al Convenției Europene a Drepturilor Omului prevede că „Orice persoană declarată vinovată de o infracțiune de către un tribunal are dreptul să ceară examinarea declarației de vinovăție sau a con­damnării de către o jurisdicție superioară”.

În ipoteza unei instanțe cu IA, se mai justifică controlul jurisdicțional, având în vedere riscul redus al unei greșeli judiciare? Consider că răspunsul este afir­mativ. Necesitatea unui al doilea grad de juris­dicție se impune atâta timp cât există posibilitatea ca primul verdict să fie greșit, oricât de redusă ar fi această posi­bilitate. În acest caz, cine va efectua controlul: IA sau o persoană?

Dacă am admite ca deciziile IA să fie cenzurate de o altă IA, se pune problema efectivității acestui control. În jurisprudența Curții Europene a Drepturilor Omului a fost consacrată ideea că pentru un mijloc de apel valabil, instanța ce efectuează controlul jurisdicțional trebuie să poată anula decizia atacată, aceasta ducând fie la pronunțarea unei noi decizii de către instanța de control, fie la o retrimitere către instanța de fond[13]. Această exigență nu poate fi respectată în ipoteza a două mașini cu IA, din moment de instanța de control judiciar raționează într‑un mod foarte asemănător sau chiar identic cu instanța de fond. Neexistând diferențe majore între modul de gândire al celor două instanțe, aproape toate căile de atac ar fi respinse, iar dublul grad de jurisdicție ar deveni doar o formă fără fond.

O soluție ar fi ca deciziile IA să fie cenzurate de instanțe umane. Însă, oamenii ar avea tendința de a modifica hotărârile emise de IA, chiar dacă există sau nu motive reale de cenzură, dată fiind neîncrederea oa­me­nilor în algoritmul folosit[14]. Aversiunea oame­nilor față de deciziile IA ar duce la admiteri nefondate și excesive ale căilor de atac.

Prin urmare, controlul jurisdicțional al deciziilor emise de IA ar genera probleme, ducând fie la respin­geri excesive ale căilor de atac, fie la admiteri și modi­ficări nefondate. În oricare dintre cele două extreme, dreptul fundamental la justiție, ce include și un control jurisdicțional, ar fi afectat.

 

2. Transparența decizională

Pentru ca decizia unei instanțe să poată fi con­testată, este necesar ca raționamentul din spatele deciziei să poată fi explicat. Acest lucru se transpune nu numai în motivarea din cuprinsul unei hotărâri jude­cătorești, dar și în operațiunile de logică juridică ce duc la o anumită concluzie.

Un profesionist al dreptului, sau chiar și un jus­tițiabil, poate să înțeleagă raționamentul unui jude­cător, dar ar avea dificultăți în a îl înțelege pe cel al unui sistem de IA. Neînțelegerea argumentelor și a cone­xiunilor logice ce au fundamentat o decizie, creează o problemă din perspectiva posibilității de a ataca hotărârea judecătorească. Cu alte cuvinte, cum poți contesta ceva ce nu înțelegi?

Principiul explicabilității este esențial pentru o IA ce poate fi implementată în realitate[15]. Prin urmare, este important ca mecanismele și procesele din spatele deciziilor mașinilor să poată fi explicate și înțelese, în special de către justițiabili.


* Material publicat în Revista „Avocatul”, iunie/2022.

[1] Definiții asemănătoare sunt prezentate în următoarele articole:

https://www.europarl.europa.eu/news/ro/headlines/society/20200827STO85804/ce‑este-inteligenta-artificiala-si‑cum‑este‑utilizata;

https://www.investopedia.com/terms/a/artificial-intelligence‑ai.asp.

[2] Text preluat din https://ro.wikipedia.org/wiki/Inteligen%C8%9B%C4%83_artificial%C4%83.

[3] Mai multe despre testul Turing și evoluția IA în articolul https://www.wired.com/insights/2015/01/the-evolution-of‑artificial‑intelligence/.

[4] Mai multe informații despre Sofia pot fi găsite aici – https://ro.wikipedia.org/wiki/Sophia_(robot).

[5] Ipoteză dezvoltată și exemplificată în articolul https://www.iacajournal.org/articles/10.36745/ijca.343/.

[6] Art. 41 și urm. Codul de Procedură Civilă, art. 64 și urm. C. pr. pen.

[7] CEDO – Ghid privind art. 6 din Convenția europeană a drepturilor omului, Dreptul la un proces echitabil (aspectul civil), Actualizat la 30 aprilie 2018, p. 21, cu referire la cauza Hasan Tunç și alții împotriva Turciei.

[8] CEDO, cauza Pérez de Rada Cavanilles împotriva Spaniei – 28090/95, Decizia din 28.10.1998, pct. 49.

[9] CEDO – Ghid privind art. 6 din Convenția europeană a drepturilor omului, Dreptul la un proces echitabil (aspectul civil), Actualizat la 30 aprilie 2018, p. 41.

[10] Art. 126 din Constituția României.

[11] https://massivesci.com/articles/machine‑learning-compas‑racism‑policing‑fairness/.

[12] Mirko Bagaric, Dan Hunter, Nigel Stobbs – Erasing the Bias Against Using Artificial Intelligence to Predict Future Criminality: Algorithms are Color Blind and Never Tire, 88 U. Cin. L. Rev. 1037 (2020), https://scholarship.law.uc.edu/uclr/vol88/iss4/3, p. 1067.

[13] CEDO, cauza Kingsley împotriva Regatului Unit – 35605/97, Hotărârea Marii Camere din 28 Mai 2002, pct. 32‑34.

[14] Studii cu privire la neîncrederea oamenilor în deciziile roboților – Berkeley J. Dietvorst, Algorithms Versus Counter‑Normative Reference Points. People reject (superior) algorithms because they compare them to counter‑normative reference points, The University of Chicago Booth School of Business https://papers.ssrn.com/sol3/papers.cfm?abstract_ id=2881503.

[15] Orientări în materie de etică pentru o inteligență artificială (IA) fiabilă – Grupul independent de experți la nivel înalt instituit de Comisia Europeană, Bruxelles, aprilie 2019.

Efectele implementării inteligenței artificiale în justiție asupra drepturilor fundamentale și asupra drepturilor procedurale was last modified: august 23rd, 2022 by Ioana Ciutacu

PARTENERI INSTITUȚIONALI

Vă recomandăm:

Rămâi la curent cu noutățile juridice