Transformarea justiției și avocaturii în era inteligenței artificiale
În Articol:
Universuljuridic.ro PREMIUM
Aici găsiți informaţiile necesare desfăşurării activităţii dvs. profesionale.
Universuljuridic.ro PREMIUM pune la dispoziția profesioniștilor lumii juridice un prețios instrument de pregătire profesională. Oferim un volum vast de conținut: articole, editoriale, opinii, jurisprudență și legislație comentată, acoperind toate domeniile și materiile de drept. Clar, concis, abordăm eficient problematicile actuale, răspunzând scenariilor de activitate din lumea reală, în care practicienii activează.
Testează ACUM beneficiile Universuljuridic.ro PREMIUM prin intermediul abonamentului GRATUIT pentru 7 zile!
Introducere
Inteligența artificială[1] este un subiect care a suscitat și continuă să suscite multe dezbateri aprinse, însă nu doar în cadrul conferințelor tech din Silicon Valley. Departe de a fi doar un nou progres înregistrat în domeniul tehnologic, inteligența artificială a cunoscut un interes crescut, datorită potențialului său impresionant (și, probabil, încă nebănuit în complexitate), în domenii dintre cele mai variate.
Mediul juridic nu a făcut excepție. Într‑un articol purtând un nume sugestiv, „The winter, the summer and the summer dream of artificial intelligence in law” (în traducere: „Iarna, vara și visul de vară al inteligenței artificiale în drept”)[2], sunt amintite debuturile timide ale preocupării pentru potențiale utilizări ale inteligenței artificiale în drept, plasate la începutul anilor 1980, odată cu seria de conferințe „Logica, Informatica și Dreptul” organizate de Consiliul Național de Cercetare al Italiei și, mai apoi, cu înființarea Asociației Internaționale pentru Inteligență Artificială și Drept[3]. La acel moment, inteligența artificială era privită cu scepticism, din cauza utilizărilor limitate și, în mare măsură, circumstanțiate unor scopuri specifice, inspirate din funcțiile inteligenței umane. Este și motivul pentru care, termenul de „inteligență artificială” părea excesiv de avangardist pentru funcționalitățile limitate ale proceselor automate deductive sau interpretative concepute până la acel moment.
Și, totuși, câteva decenii mai târziu, titluri precum „Pot roboții fi avocați?”[4] sau „Poate inteligența artificială înlocui judecătorii din instanțe?”[5], din ce în ce mai frecvente atât în mediul academic, cât și publicistic, aduc în atenție posibilitatea ca progresul tehnologic să atingă la un moment dat, cel puțin ipotetic, idealul replicării inteligenței umane, cu toate funcționalitățile sale cognitive, înlocuind, astfel, actori cheie (la momentul actual) ai sistemului judiciar. În articolul citat anterior[6], una dintre ipotezele lansate pentru „visul de vară” al inteligenței artificiale în drept este posibilitatea conceperii unui „judecător automat”, capabil să interpreteze nu doar date și informații obiective, ci și emoții și intuiții, necesare pentru dezvoltarea unui raționament bazat pe conștiință, similar celui specific uman.
Sunt aceste scenarii plauzibile? Cât de aproape sau de departe am fi de ele? Și, mai ales, ce ar însemna un astfel de punct de cotitură pentru evoluția umanității, iar nu doar a sistemului judiciar? S‑a scris mult pe aceste teme ample, fără a se găsi un răspuns. Și e firesc. Întrebările ce tind să înlăture vălul ce acoperă fereastra spre viitor nu pot primi răspunsuri opace. Articolul de față, cu atât mai puțin, își propune să ofere răspunsuri sau să tranșeze dezbateri. Dimpotrivă, țelul modest pe care și‑l asumă este de a contura cadrul pentru deschiderea unei dezbateri, pornind de la prezentarea stadiului actual al utilizării inteligenței artificiale în domeniul justiției.
În cele ce urmează, pentru o înțelegere cât mai facilă a tematicii, vor fi avute în vedere câteva referințe introductive despre inteligența artificială, dintr‑o perspectivă generală (Secț. II). Ulterior, vor fi analizate progresele înregistrate și riscurile semnalate în privința utilizării inteligenței artificiale (i) în sistemul judiciar (Secț. III) și (ii) în avocatură (Secț. IV), pentru ca, în final, să fie prezentate cele mai recente îndrumări în domeniu ale forurilor internaționale competente (Secț. V) și o serie de concluzii (Secț. VI).
Aspecte introductive privind inteligența artificială
Excede scopului prezentului articol o prezentare exhaustivă, tehnică, exprimată într‑un jargon riguros a conceptului de inteligență artificială, însă câteva explicații prealabile sunt necesare pentru o corectă înțelegere a exemplelor de AI amintite în capitolele subsecvente. Definirea sintagmei de „inteligență artificială” se dovedește dificilă, întrucât nici măcar cu privire la definirea conceptului de „inteligență” nu există consens. În celebra lucrare „Artificial Intelligence: A Modern Approach” (în traducere: „Inteligența Artificială: O Abordare Modernă”)[7], profesorii Stuart J. Russell și Peter Norvig consideră că un sistem este cu adevărat inteligent când are capacitatea de a acționa în lumea reală ca entitate independentă, cu propriile seturi de valori și propria rațiune (definite în diverse forme).
Termenul de inteligență este, de altfel, intim legat de abilitatea de a explica mediul înconjurător și de a acționa în consecință. Până în prezent, oamenii sunt singurele ființe universal inteligente, în sensul în care pot găsi explicații extrem de precise ale fenomenelor (fizice, sociale, economice ș.a.) care sunt validate de experiență. Rațiunea ideală fiind întotdeauna bazată pe argumentație și explicație, un sistem ar putea fi inteligent numai dacă poate oferi explicații precise asupra înțelegerii lumii, asupra deciziilor pe care le va lua, și nu în ultimul rând, asupra propriei inteligențe[8].
Sistemele software pe care le numim astăzi „inteligente” nu se apropie de descrierea unei inteligențe cu capacitate universală de explicație, raționament, decizie și acțiune. Aceste sisteme sunt „inteligente” doar într‑un sens restrâns, având o funcționalitate specifică și, implicit, capacitatea de a da soluții doar pentru probleme punctuale, clar delimitate, cu parametri cunoscuți sau ușor de reprezentat în software.
Întrebarea subsecventă firească este ce diferențiază un sistem software „inteligent” de un sistem software obișnuit. În termeni cât mai simpli, diferența poate fi explicată prin faptul că un sistem software obișnuit așteaptă întotdeauna acțiuni sau informații din partea operatorului, ca mai apoi să urmeze pașii care i‑au fost programați. Spre exemplu, ori de câte ori operatorul apasă tasta pentru espresso a aparatului de cafea, aparatul va executa operațiunile asociate acelei taste și va livra cafeaua. Dar acesta nu va face niciodată un espresso, dacă niciun factor extern nu a acționat tasta corespunzătoare (în condiții optime de funcționare ale aparatului). Prin comparație, un sistem „inteligent” (chiar și în sensul restrâns pe care îl folosim astăzi) are capacitatea de a‑și colecta propriile informații și/sau de a lua propriile decizii, fără intervenție din partea unui operator uman. În exemplul dat, dacă aparatul de cafea ar colecta date istorice cu privire la momentul în care operatorul și‑a făcut cafeaua în diminețile anterioare și preferințele de cafea și ar lua decizia, fără a fi programat sau acționat extern, de a face un espresso la ora la care în mod frecvent își făcea operatorul cafeaua, aparatul de cafea nu ar mai fi un simplu software, întrucât nu doar a executat o operațiune, ci a luat o decizie.
Așadar, algoritmii AI, astfel cum sunt cunoscuți astăzi, nu reprezintă o formă de inteligență artificială „generală”, însă sunt mai mult decât simple sisteme software. În această categorie se regăsesc și exemplele prezentate în capitolele următoare.
Inteligența artificială în sistemul judiciar
Într‑un discurs recent din luna martie 2022[9], susținut în cadrul conferinței „The Future for Dispute Resolution: Horizon Scanning” (în traducere „Viitorul soluționării disputelor: Scanarea Orizontului”), Sir Geoffrey Vos, Master of the Rolls al Marii Britanii[10], anticipează că în anul 2040 justițiabilii din Marea Britanie vor putea apela la justiție printr‑un sistem online integrat, compus din portale pre‑litigioase ce vor soluționa variate tipuri de diferende, susținut, totodată, de sistemul judiciar online de soluționare a disputelor civile și de familie. Având în vedere același orizont de timp, cu privire la anumite tipuri de cauze cu un impact mai scăzut, Sir Geoffrey Vos se așteaptă ca părțile să fie din ce în ce mai puțin dispuse să investească resurse importante financiare și de timp pentru a se angrena în litigii în fața instanțelor naționale, preferând ca aceste cauze să fie soluționate de portale online bazate pe inteligență artificială.
Prefigurând potențiala reticență a avocaților sau a opiniei publice față de astfel de hotărâri judecătorești pronunțate cu ajutorul AI, Sir Geoffrey Vos este încredințat că acest impediment va putea fi depășit printr‑o înțelegere corectă a ce este și ce nu este supus deciziei AI și, mai ales, dacă în final justițiabilii vor avea posibilitatea să critice aceste decizii în fața unor judecători umani.
Fiind proiectat nu tocmai departe în viitor, scenariul propus de Sir Geoffrey Vos are în vedere ipoteza în care întregul proces de luare a deciziei este delegat unui algoritm, chiar dacă pentru cauze cu un potențial impact minor. Însă inteligența artificială este deja prezentă, sub diverse forme și pentru diverse funcționalități în sistemul judiciar.
Printre utilizările concepute pentru optimizarea și eficientizarea interacțiunii dintre justițiabili și sistemul judiciar, putem aminti[11]:
a) Ghiduri inteligente de completare online a unor formulare,
b) Sisteme inteligente de revizuire a documentelor,
c) Chatbots (programe ce simulează conversațiile cu un interlocutor uman) care sprijină cetățenii cu informații și îndrumare în domeniul juridic,
d) Programe de auto‑transcripție,
e) Platforme interactive pentru a urmări statusul soluționării unui dosar ș.a.
Dar utilizările nu se opresc la o experiență mai prietenoasă a justițiabililor în interacțiunea cu organele judiciare. Scopurile pentru care este folosită în prezent inteligența artificială în justiție includ și funcționalități mai complexe precum[12]:
a) Identificarea informațiilor relevante în procesul de administrare electronică a probatoriului (procedură cunoscută sub numele de e‑discovery), inclusiv procesarea imaginilor pentru recunoașterea unor persoane, obiecte sau locuri,
b) Dezvoltarea unor politici de prevenție a criminalității prin distribuirea echipajelor de poliție în diferite zone ale unei localități, unde se anticipează că există o probabilitate mai mare de săvârșire a unor noi infracțiuni, bazat pe predicțiile unor algoritmi ce fac conexiuni între date de localizare, evenimente și rate anterioare ale criminalității[13],
c) Analiza și interpretarea sunetelor de împușcătură pentru identificarea tipului de armă de foc cu care s‑a tras, calibrul și clasa armei de foc, numărul de împușcături și direcția din care s‑a tras,
d) Evaluarea potențialului infracțional sau de recidivă a unui infractor, în cauzele penale, pentru a lua decizii cu privire la dispunerea arestului preventiv sau pentru a cuantifica durata pedepsei cu închisoarea[14],
e) Identificarea infractorilor în cadrul unor spații publice sau în mulțimi prin recunoaștere facială[15].
Astfel, deși nu a fost conceput încă un algoritm care să soluționeze (integral) o cauză printr‑un raționament similar celui efectuat de un judecător uman, există deja decizii importante (particularizate la aspecte punctuale) ce sunt luate prin intermediul sau cu ajutorul inteligenței artificiale.
Una dintre cele mai sensibile și disputate utilizări dintre cele listate mai sus este evaluarea potențialului infracțional sau de recidivă al unui infractor, întrucât dreptul fundamental la libertate al unei persoane (reale) ajunge să depindă de scorul calculat în mod automat de un algoritm (abstract, cel puțin în înțelegerea unui non‑specialist). Problema esențială în această situație rezidă în înțelegerea corectă a mecanismului prin care se iau astfel de decizii de către un algoritm, în general.
Astfel, într‑un mod cât mai simplu și concis, funcționarea unui algoritm de învățare automată supervizată poate fi rezumată în două etape principale de dezvoltare, respectiv etapa de antrenare (experimentală) și etapa de predicție (operațională):
a) Astfel, în prima etapă (experimentală), este necesară colectarea și procesarea unui volum cât mai mare de date, structurate cu ajutorul unor parametri. Aceste date includ atât „problema” la care trebuie să răspundă algoritmul, cât și „soluția” corectă. Spre exemplu, dacă este vorba despre un algoritm conceput pentru recunoașterea unor tipuri diferite de fructe dintr‑o imagine, această etapă presupune punerea la dispoziție a unui număr cât mai mare de imagini (cu sau fără fructe), precum și precizarea, pentru fiecare imagine, dacă este prezent un fruct, precum și numele fructului.
b) În cea de‑a doua etapă (operațională), pe baza experienței căpătate în etapa de antrenare, algoritmul este capabil să facă predicții cu privire la date nou inserate. De această dată, algoritmul primește doar „problema” pe care trebuie să o rezolve, iar el încearcă să găsească „soluția”. Revenind la exemplul dat, în această etapă, algoritmul primește o serie de fotografii și încearcă să recunoască și să numească fructele, pe baza similitudinilor cu exemplele din etapa de antrenare, când soluția îi era oferită.
Când „problema” pe care trebuie să o rezolve algoritmul este însă mult mai complexă decât recunoașterea unui măr într‑o fotografie, precum evaluarea potențialului infracțional sau de recidivă al unui infractor, implicațiile practice ale unor potențiale erori într‑una dintre cele două etape devin mult mai însemnate. Ce se întâmplă, spre exemplu, când, în etapa de antrenare, algoritmul primește exemple de soluții injuste prezentate ca fiind corecte? Algoritmul nu poate discerne între moral și imoral, legal sau ilegal, just sau injust, ci doar învață ceea ce i s‑a prezentat ca fiind corect.
Astfel se poate ajunge în situația ca soluții injuste și tratamente discriminatorii, disproporționate și frauduloase să servească drept bază de învățare pentru algoritmi ce vor lua apoi decizii, cel puțin în aparență, obiective. Există suspiciuni că o astfel de situație nu este doar ipotetică.
Mai exact, în anul 2010, Departamentul de Justiție al Statelor Unite ale Americii a investigat activitatea Departamentului de Poliție din New Orleans, publicând apoi un raport în care a constatat încălcări repetate ale dispozițiilor legale federale și constituționale prin folosirea excesivă a forței împotriva persoanelor de culoare, minorităților rasiale, membrilor comunității LGBTQ, precum și prin nesoluționarea cauzelor privind violența domestică și agresiunile sexuale[16]. Un an mai târziu, autoritățile locale au contractat serviciile unei companii pentru dezvoltarea unui algoritm de „predictive policing” pentru predicții referitoare la potențiale activități infracționale[17]. Există însă acuzații în spațiul public cu privire la faptul că dezvoltatorii algoritmului respectiv nu au înlăturat datele din istoria Departamentului de Poliție din New Orleans despre care Departamentul de Justiție al Statelor Unite ale Americii a constatat că erau rezultatul unor comportamente abuzive și contrare dispozițiilor legale[18].
Acest exemplu ilustrează riscurile semnificative pe care le implică folosirea inteligenței artificiale în astfel de scopuri și, mai ales, consecințele extrem de grave la care se poate ajunge dacă aceste tehnologii nu sunt înțelese și aplicate corespunzător de toți actorii implicați (fie autorități publice, fie agenți privați). Practic, în acest fel, prejudecățile, abuzurile și nedreptățile săvârșite în trecut de către oameni aflați în funcții cu rol decizional ar fi perpetuate și amplificate cu ajutorul unor programe care beneficiază de aparența obiectivismului și legitimității unui așa‑zis mecanism decizional incoruptibil. De vreme ce un calculator nu are emoții, sentimente, preferințe sau prejudecăți, nu i s‑ar putea imputa că este subiectiv în analizele și predicțiile făcute. Dar ce se întâmplă dacă prejudecățile sunt încifrate în datele furnizate în etapa de antrenament? Dacă în imaginile folosite în etapa de antrenament, merele sunt, de fapt, stricate? Ce va învăța algoritmul și ce predicții va face apoi? Ura de rasă sau măsurile disproporționate vor fi mult mai greu de depistat și de dovedit printre linii de cod sau șiruri nesfârșite de 0 și 1, de necuprins cu mintea unui singur om și cu atât mai puțin de înțeles de către cei ce suportă consecințele acestor predicții.
Luând în considerare riscurile utilizării necorespunzătoare a uneltelor bazate pe AI și pe alte tipuri de algoritmi avansați, Comitetul de Justiție și Afaceri Interne al Marii Britanii a publicat pe 30 martie 2022 un raport numit „Technology rules? The advent of new technologies in the justice system” (în traducere: „Reguli în tehnologie? Apariția unor noi tehnologii în sistemul judiciar”)[19]. Printre măsurile propuse în cadrul acestui raport pentru a maximiza potențialul tehnologic și a minimiza riscurile asociate se numără:
a) crearea unui registru obligatoriu de algoritmi utilizați de poliție și organele judiciare, alături de introducerea unei obligații de onestitate („duty of candour”),
b) sporirea importanței acordate principiului transparenței pentru dezvăluirea informațiilor referitoare la folosirea soluțiilor tehnologice avansate (tipul de tehnologie, durata utilizării, scopul utilizării, garanțiile aferente pentru respectarea drepturilor și libertăților ș.a.), astfel încât acestea să poată fi supuse dezbaterii publice și eventual contestate,
c) reglementarea acestui domeniu prin adoptarea unor acte normative, pe două nivele: legislație primară care să fixeze principiile generale și legislație secundară care să conțină prevederi detaliate,
d) introducerea obligativității efectuării unor training‑uri prealabile pentru utilizatorii acestor tehnologii din sistemul judiciar,
e) constituirea la nivel național a unui organism central de autorizare și supraveghere a respectării unor standarde minime de protecție, precum și organizarea la nivel local a unor comitete de etică în cadrul inspectoratelor de poliție.
Astfel, progresele înregistrate de tehnologia AI pot avea efecte benefice asupra sistemului judiciar, atât în cauzele civile, cât și în cele penale, precum facilitarea interacțiunii justițiabililor cu sistemul judiciar, reducerea timpului și costurilor pentru soluționarea anumitor tipuri de dispute, combaterea fenomenului infracțional și eficientizarea investigațiilor criminalistice. Cu toate acestea, după cum spune un proverb englezesc: „the devil is in the details” (în traducere: „răul sălășluiește în detalii”). În absența unui cadru legislativ și instituțional bine puse la punct, care să țină pasul cu progresul tehnologic, drepturile și libertățile fundamentale ale cetățenilor, precum libertatea individuală, accesul la justiție și dreptul la viață privată sunt periclitate.
Pe cale de consecință, înainte de a găsi răspuns la întrebarea dacă și în ce măsură vor exista judecători AI în sălile de judecată și de a considera eventual această ipoteză un scenariu science‑fiction, plasat într‑un moment îndepărtat din viitor, avem responsabilitatea de a răspunde și a face față unor provocări mai stringente cu care sistemele judiciare deja se confruntă într‑o formă sau alta.
* Material publicat în Revista „Avocatul”, iunie/2022.
[1] În cadrul prezentului articol, pentru ușurință, sintagma „inteligență artificială” va fi utilizată alternativ cu prescurtarea „AI”.
[2] E. Francesconi, The winter, the summer and the summer dream of artificial intelligence in law, Artif Intell Law 30, 147–161 (2022), disponibil la https://doi.org/10.1007/s10506‑022‑09309‑8 (accesat la 7 mai 2022).
[3] Pentru mai multe detalii, a se consulta website‑ul http://www.iaail.org/ (accesat la 7 mai 2022)
[4] D. Remus, F.S. Levy, Can Robots Be Lawyers? Computers, Lawyers, and the Practice of Law, 27 noiembrie 2016, disponibil la https://ssrn.com/abstract=2701092 sau http://dx.doi.org/10.2139/ssrn.2701092 (accesat la 7 mai 2022).
[5] Dawn Lo, Can AI replace a judge in the courtroom? Disponibil la https://newsroom.unsw.edu.au/news/business-law/can‑ai‑replace‑judge‑courtroom (accesat la 7 mai 2022).
[6] E. Francesconi, op. cit.
[7] A se vedea S.J Russel, P. Norvic, Artificial Intelligence: A Modern Approach, ed. a IV‑a, Ed. Pearson Education Limited, 2021.
[8] Pentru o analiză mai amplă în acest sens a se vedea D. Deutsch, The Beginning of Infinity. Explanations that transform the world, Ed. Penguin Books Ltd, 2012, p. 148‑164.
[9] A se vedea https://www.judiciary.uk/wp‑content/uploads/2022/03/MR-to‑SCL-Sir‑Brain-Neill-Lecture‑2022-The‑Future‑for‑Dispute‑Resolution‑Horizon‑Scannings‑.pdf (accesat la 7 mai 2022).
[10] Pentru mai multe detalii despre Master of Rolls, a se consulta https://www.judiciary.uk/about‑the‑judiciary/who‑are‑the‑judiciary/judicial‑roles/judges/profile‑mor/ (accesat la 7 mai 2022).
[11] S. Azam, Unnovation & Technology, Artificial Intelligence, the „AI Justice Challenge” and the Future of Law, disponibil la https://www.cbabc.org/BarTalk/Articles/2019/August/Features/Artificial‑Intelligence,-the‑AI-Justice‑Challenge (accesat la 7 mai 2022).
[12] Jud. Herbert B. Dixon Jr., Artificial Intelligence: Benefits and Unknown Risks, disponibil la https://www.americanbar.org/groups/judicial/publications/judges_journal/2021/winter/artificial‑intelligence‑benefits‑and‑unknown‑risks/ (accesat la 7 mai 2022).
[13] O astfel de unealtă este Predpol. Pentru mai multe detalii, a se vedea https://www.predpol.com/ (accesat la 7 mai 2022).
[14] O unealtă de acest gen care a stârnit multe controverse este COMPAS („the Correctional Offender Management Profiling for Alternative Sanctions”). Pentru o analiză mai detaliată, a se vedea J. Angwin, J. Larson, S. Mattu & L.Kirchner, Machine Bias: There s Software Used Across the Country to Predict Future Criminals, and It s Biased Against Blacks., Propublica, 23 mai 2016, disponibil la https://bit.ly/3lPNmS1 (accesat la 7 mai 2022).
[15] Pentru o analiză mai detaliată a acestui subiect, a se vedea K. Walch, Cognitive World (Contributor Group), The Growth Of AI Adoption In Law Enforcement, disponibil la https://www.forbes.com/sites/cognitiveworld/2019/07/26/the‑growth‑of‑ai‑adoption‑in‑law‑enforcement/?sh=5c7f 713d435d (accesat la 7 mai 2022).
[16] A se vedea Comunicatul de presă nr. 11‑342 al Departamentului de Justiție al Statelor Unite, disponibil la https://www.justice.gov/opa/pr/department-justice-releases-investigative‑findings‑involving‑new‑orleans‑police-department (accesat la 7 mai 2022).
[17] Pentru o analiză a avantajelor și dezavantajelor algoritmilor de tip predictive policing, a se vedea A. Norga, 4 Benefits And 4 Drawbacks Of Predictive Policing, disponibil la https://www.liberties.eu/en/stories/predictive‑policing/43679 (accesat la 7 mai 2022).
[18] K. Hao, Police Across the US Are Training Crime‑Predicting AIs on Falsified Data, MIT TECH. REV, 13 februarie 2019, disponibil la https://bit.ly/3lVQYlu. (accesat la 7 mai 2022).
[19] Disponibil la adresa https://publications.parliament.uk/pa/ld5802/ldselect/ldjusthom/180/180.pdf (accesat la 7 mai 2022)