Transformarea justiției și avocaturii în era inteligenței artificiale

24 aug. 2022
Vizualizari: 915
 

Universuljuridic.ro PREMIUM

Aici găsiți informaţiile necesare desfăşurării activităţii dvs. profesionale.

Universuljuridic.ro PREMIUM pune la dispoziția profesioniștilor lumii juridice un prețios instrument de pregătire profesională. Oferim un volum vast de conținut: articole, editoriale, opinii, jurisprudență și legislație comentată, acoperind toate domeniile și materiile de drept. Clar, concis, abordăm eficient problematicile actuale, răspunzând scenariilor de activitate din lumea reală, în care practicienii activează.

Testează ACUM beneficiile Universuljuridic.ro PREMIUM prin intermediul abonamentului GRATUIT pentru 7 zile!

🔑Vreau cont PREMIUM!


 

Introducere

Inteligența artificială[1] este un subiect care a sus­citat și continuă să suscite multe dezbateri aprinse, însă nu doar în cadrul conferințelor tech din Silicon Valley. Departe de a fi doar un nou progres înregistrat în domeniul tehnologic, inteligența artificială a cu­noscut un interes crescut, datorită potențialului său impresionant (și, probabil, încă nebănuit în comple­xitate), în domenii dintre cele mai variate.

Mediul juridic nu a făcut excepție. Într‑un articol pur­tând un nume sugestiv, „The winter, the summer and the summer dream of artificial intelligence in law” (în traducere: „Iarna, vara și visul de vară al inte­ligenței artificiale în drept”)[2], sunt amintite debuturile timide ale preocupării pentru potențiale utilizări ale inteligenței artificiale în drept, plasate la începutul anilor 1980, odată cu seria de conferințe „Logica, Infor­matica și Dreptul” organizate de Consiliul Național de Cercetare al Italiei și, mai apoi, cu înființarea Aso­ciației Internaționale pentru Inteligență Artificială și Drept[3]. La acel moment, inteligența artificială era privită cu scepticism, din cauza utilizărilor limitate și, în mare măsură, circumstanțiate unor scopuri speci­fice, inspirate din funcțiile inteligenței umane. Este și motivul pentru care, termenul de „inteligență artifi­cială” părea excesiv de avangardist pentru funcționa­litățile limitate ale proceselor automate deductive sau interpretative concepute până la acel moment.

Și, totuși, câteva decenii mai târziu, titluri precum „Pot roboții fi avocați?[4] sau „Poate inteligența arti­fi­cială înlocui judecătorii din instanțe?[5], din ce în ce mai frecvente atât în mediul academic, cât și pu­blicistic, aduc în atenție posibilitatea ca progresul teh­nologic să atingă la un moment dat, cel puțin ipotetic, idealul replicării inteligenței umane, cu toate funcțio­nalitățile sale cognitive, înlocuind, astfel, actori cheie (la momentul actual) ai sistemului judiciar. În articolul citat anterior[6], una dintre ipotezele lansate pentru „visul de vară” al inteligenței artificiale în drept este posibilitatea conceperii unui „judecător automat”, ca­pabil să interpreteze nu doar date și informații obiec­tive, ci și emoții și intuiții, necesare pentru dezvoltarea unui raționament bazat pe conștiință, similar celui spe­cific uman.

Sunt aceste scenarii plauzibile? Cât de aproape sau de departe am fi de ele? Și, mai ales, ce ar însemna un astfel de punct de cotitură pentru evoluția umanității, iar nu doar a sistemului judiciar? S‑a scris mult pe aceste teme ample, fără a se găsi un răspuns. Și e firesc. Întrebările ce tind să înlăture vălul ce acoperă fereastra spre viitor nu pot primi răspunsuri opace. Articolul de față, cu atât mai puțin, își propune să ofere răs­punsuri sau să tranșeze dezbateri. Dimpotrivă, țelul modest pe care și‑l asumă este de a contura cadrul pentru deschiderea unei dezbateri, pornind de la pre­zentarea stadiului actual al utilizării inteligenței artifi­ciale în domeniul justiției.

În cele ce urmează, pentru o înțelegere cât mai fa­cilă a tematicii, vor fi avute în vedere câteva referințe introductive despre inteligența artificială, dintr‑o perspec­tivă generală (Secț. II). Ulterior, vor fi ana­lizate progresele înregistrate și riscurile semnalate în privința utilizării inteligenței artificiale (i) în sistemul judiciar (Secț. III) și (ii) în avocatură (Secț. IV), pentru ca, în final, să fie prezentate cele mai recente îndrumări în domeniu ale forurilor internaționale competente (Secț. V) și o serie de concluzii (Secț. VI).

 

Aspecte introductive privind inteligența arti­ficială

Excede scopului prezentului articol o prezentare exhaustivă, tehnică, exprimată într‑un jargon riguros a conceptului de inteligență artificială, însă câteva explicații prealabile sunt necesare pentru o corectă înțelegere a exemplelor de AI amintite în capitolele sub­secvente. Definirea sintagmei de „inteligență arti­ficială” se dovedește dificilă, întrucât nici măcar cu privire la definirea conceptului de „inteligență” nu există consens. În celebra lucrare „Artificial Intelligence: A Modern Approach” (în traducere: „Inteligența Artificială: O Abordare Modernă”)[7], profesorii Stuart J. Russell și Peter Norvig consideră că un sistem este cu adevărat inteligent când are capa­citatea de a acționa în lumea reală ca entitate inde­pendentă, cu propriile seturi de valori și propria rațiu­ne (definite în diverse forme).

Termenul de inteligență este, de altfel, intim legat de abilitatea de a explica mediul înconjurător și de a acționa în consecință. Până în prezent, oamenii sunt singurele ființe universal inteligente, în sensul în care pot găsi explicații extrem de precise ale fenomenelor (fizice, sociale, economice ș.a.) care sunt validate de experiență. Rațiunea ideală fiind întotdeauna bazată pe argumentație și explicație, un sistem ar putea fi inteligent numai dacă poate oferi explicații precise asupra înțelegerii lumii, asupra deciziilor pe care le va lua, și nu în ultimul rând, asupra propriei inte­ligențe[8].

Sistemele software pe care le numim astăzi „inte­ligente” nu se apropie de descrierea unei inteligențe cu capacitate universală de explicație, raționament, decizie și acțiune. Aceste sisteme sunt „inteligente” doar într‑un sens restrâns, având o funcționalitate spe­cifică și, implicit, capacitatea de a da soluții doar pentru probleme punctuale, clar delimitate, cu para­metri cunoscuți sau ușor de reprezentat în software.

Întrebarea subsecventă firească este ce diferențiază un sistem software „inteligent” de un sistem software obișnuit. În termeni cât mai simpli, diferența poate fi explicată prin faptul că un sistem software obișnuit așteaptă întotdeauna acțiuni sau informații din partea operatorului, ca mai apoi să urmeze pașii care i‑au fost programați. Spre exemplu, ori de câte ori opera­torul apasă tasta pentru espresso a aparatului de cafea, aparatul va executa operațiunile asociate acelei taste și va livra cafeaua. Dar acesta nu va face niciodată un espresso, dacă niciun factor extern nu a acționat tasta corespunzătoare (în condiții optime de funcționare ale aparatului). Prin comparație, un sistem „inteligent” (chiar și în sensul restrâns pe care îl folosim astăzi) are capacitatea de a‑și colecta propriile informații și/sau de a lua propriile decizii, fără intervenție din partea unui operator uman. În exemplul dat, dacă aparatul de cafea ar colecta date istorice cu privire la momentul în care operatorul și‑a făcut cafeaua în diminețile ante­rioare și preferințele de cafea și ar lua decizia, fără a fi programat sau acționat extern, de a face un espresso la ora la care în mod frecvent își făcea operatorul ca­feaua, aparatul de cafea nu ar mai fi un simplu software, întrucât nu doar a executat o operațiune, ci a luat o decizie.

Așadar, algoritmii AI, astfel cum sunt cunoscuți astăzi, nu reprezintă o formă de inteligență artificială „generală”, însă sunt mai mult decât simple sisteme software. În această categorie se regăsesc și exemplele prezentate în capitolele următoare.

 

Inteligența artificială în sistemul judiciar

Într‑un discurs recent din luna martie 2022[9], susținut în cadrul conferinței „The Future for Dispute Resolution: Horizon Scanning” (în traducere „Viitorul soluționării disputelor: Scanarea Orizontului”), Sir Geoffrey Vos, Master of the Rolls al Marii Britanii[10], anti­cipează că în anul 2040 justițiabilii din Marea Britanie vor putea apela la justiție printr‑un sistem online integrat, compus din portale pre‑litigioase ce vor soluționa variate tipuri de diferende, susținut, toto­dată, de sistemul judiciar online de soluționare a dispu­telor civile și de familie. Având în vedere același ori­zont de timp, cu privire la anumite tipuri de cauze cu un impact mai scăzut, Sir Geoffrey Vos se așteaptă ca părțile să fie din ce în ce mai puțin dispuse să inves­tească resurse importante financiare și de timp pentru a se angrena în litigii în fața instanțelor naționale, pre­ferând ca aceste cauze să fie soluționate de portale online bazate pe inteligență artificială.

Prefigurând potențiala reticență a avocaților sau a opiniei publice față de astfel de hotărâri judecătorești pro­nunțate cu ajutorul AI, Sir Geoffrey Vos este încre­dințat că acest impediment va putea fi depășit printr‑o înțelegere corectă a ce este și ce nu este supus deciziei AI și, mai ales, dacă în final justițiabilii vor avea posi­bilitatea să critice aceste decizii în fața unor judecători umani.

Conferința națională „Prevenirea și combaterea spălării banilor”. Impactul noii legi asupra profesiilor liberale

Fiind proiectat nu tocmai departe în viitor, scenariul propus de Sir Geoffrey Vos are în vedere ipoteza în care întregul proces de luare a deciziei este delegat unui algoritm, chiar dacă pentru cauze cu un potențial impact minor. Însă inteligența artificială este deja pre­zentă, sub diverse forme și pentru diverse funcțio­na­lități în sistemul judiciar.

Printre utilizările concepute pentru optimizarea și efi­cien­tizarea interacțiunii dintre justițiabili și sistemul judiciar, putem aminti[11]:

a) Ghiduri inteligente de completare online a unor formulare,

b) Sisteme inteligente de revizuire a documentelor,

c) Chatbots (programe ce simulează conversațiile cu un interlocutor uman) care sprijină cetățenii cu in­for­mații și îndrumare în domeniul juridic,

d) Programe de auto‑transcripție,

e) Platforme interactive pentru a urmări statusul soluționării unui dosar ș.a.

Dar utilizările nu se opresc la o experiență mai prie­tenoasă a justițiabililor în interacțiunea cu organele judiciare. Scopurile pentru care este folosită în prezent inteligența artificială în justiție includ și funcționalități mai complexe precum[12]:

a) Identificarea informațiilor relevante în procesul de administrare electronică a probatoriului (procedură cunoscută sub numele de e‑discovery), inclusiv pro­cesarea imaginilor pentru recunoașterea unor per­soane, obiecte sau locuri,

b) Dezvoltarea unor politici de prevenție a crimi­na­lității prin distribuirea echipajelor de poliție în dife­rite zone ale unei localități, unde se anticipează că există o probabilitate mai mare de săvârșire a unor noi infracțiuni, bazat pe predicțiile unor algoritmi ce fac conexiuni între date de localizare, evenimente și rate anterioare ale criminalității[13],

c) Analiza și interpretarea sunetelor de împușcătură pentru identificarea tipului de armă de foc cu care s‑a tras, calibrul și clasa armei de foc, numărul de împuș­cături și direcția din care s‑a tras,

d) Evaluarea potențialului infracțional sau de reci­divă a unui infractor, în cauzele penale, pentru a lua decizii cu privire la dispunerea arestului preventiv sau pentru a cuantifica durata pedepsei cu închisoarea[14],

e) Identificarea infractorilor în cadrul unor spații publice sau în mulțimi prin recunoaștere facială[15].

Astfel, deși nu a fost conceput încă un algoritm care să soluționeze (integral) o cauză printr‑un rațio­nament similar celui efectuat de un judecător uman, există deja decizii importante (particularizate la as­pecte punctuale) ce sunt luate prin intermediul sau cu ajutorul inteligenței artificiale.

Una dintre cele mai sensibile și disputate utilizări dintre cele listate mai sus este evaluarea potențialului infracțional sau de recidivă al unui infractor, întrucât dreptul fundamental la libertate al unei persoane (reale) ajunge să depindă de scorul calculat în mod auto­mat de un algoritm (abstract, cel puțin în înțele­gerea unui non‑specialist). Problema esențială în această situație rezidă în înțelegerea corectă a meca­nismului prin care se iau astfel de decizii de către un algo­ritm, în general.

Astfel, într‑un mod cât mai simplu și concis, func­țio­narea unui algoritm de învățare automată super­vizată poate fi rezumată în două etape principale de dez­voltare, respectiv etapa de antrenare (experimen­tală) și etapa de predicție (operațională):

a) Astfel, în prima etapă (experimentală), este necesară colectarea și procesarea unui volum cât mai mare de date, structurate cu ajutorul unor parametri. Aceste date includ atât „problema” la care trebuie să răspundă algoritmul, cât și „soluția” corectă. Spre exemplu, dacă este vorba despre un algoritm conceput pentru recunoașterea unor tipuri diferite de fructe dintr‑o imagine, această etapă presupune punerea la dispoziție a unui număr cât mai mare de imagini (cu sau fără fructe), precum și precizarea, pentru fiecare ima­gine, dacă este prezent un fruct, precum și numele fructului.

b) În cea de‑a doua etapă (operațională), pe baza experienței căpătate în etapa de antrenare, algoritmul este capabil să facă predicții cu privire la date nou inserate. De această dată, algoritmul primește doar „problema” pe care trebuie să o rezolve, iar el încearcă să găsească „soluția”. Revenind la exemplul dat, în această etapă, algoritmul primește o serie de fotografii și încearcă să recunoască și să numească fructele, pe baza similitudinilor cu exemplele din etapa de antre­nare, când soluția îi era oferită.

Când „problema” pe care trebuie să o rezolve algo­ritmul este însă mult mai complexă decât recunoaște­rea unui măr într‑o fotografie, precum evaluarea poten­țialului infracțional sau de recidivă al unui infractor, implicațiile practice ale unor potențiale erori într‑una dintre cele două etape devin mult mai însemnate. Ce se întâmplă, spre exemplu, când, în etapa de antre­nare, algoritmul primește exemple de soluții injuste prezentate ca fiind corecte? Algoritmul nu poate dis­cerne între moral și imoral, legal sau ilegal, just sau injust, ci doar învață ceea ce i s‑a prezentat ca fiind corect.

Astfel se poate ajunge în situația ca soluții injuste și tratamente discriminatorii, disproporționate și frau­duloase să servească drept bază de învățare pentru algo­ritmi ce vor lua apoi decizii, cel puțin în aparență, obiective. Există suspiciuni că o astfel de situație nu este doar ipotetică.

Mai exact, în anul 2010, Departamentul de Justiție al Statelor Unite ale Americii a investigat activitatea Departamentului de Poliție din New Orleans, publicând apoi un raport în care a constatat încălcări repetate ale dispozițiilor legale federale și constituționale prin folosirea excesivă a forței împotriva persoanelor de culoare, minorităților rasiale, membrilor comunității LGBTQ, precum și prin nesoluționarea cauzelor privind violența domestică și agresiunile sexuale[16]. Un an mai târziu, autoritățile locale au contractat ser­viciile unei companii pentru dezvoltarea unui algoritm de „predictive policing” pentru predicții referitoare la potențiale activități infracționale[17]. Există însă acuzații în spațiul public cu privire la faptul că dez­voltatorii algoritmului respectiv nu au înlăturat datele din istoria Departamentului de Poliție din New Orleans despre care Departamentul de Justiție al Statelor Unite ale Americii a constatat că erau rezultatul unor com­por­tamente abuzive și contrare dispozițiilor legale[18].

Acest exemplu ilustrează riscurile semnificative pe care le implică folosirea inteligenței artificiale în astfel de scopuri și, mai ales, consecințele extrem de grave la care se poate ajunge dacă aceste tehnologii nu sunt înțelese și aplicate corespunzător de toți actorii im­plicați (fie autorități publice, fie agenți privați). Practic, în acest fel, prejudecățile, abuzurile și nedreptățile săvârșite în trecut de către oameni aflați în funcții cu rol decizional ar fi perpetuate și amplificate cu ajutorul unor programe care beneficiază de aparența obiecti­vismului și legitimității unui așa‑zis mecanism deci­zional incoruptibil. De vreme ce un calculator nu are emoții, sentimente, preferințe sau prejudecăți, nu i s‑ar putea imputa că este subiectiv în analizele și predicțiile făcute. Dar ce se întâmplă dacă prejudecățile sunt înci­frate în datele furnizate în etapa de antrenament? Dacă în imaginile folosite în etapa de antrenament, merele sunt, de fapt, stricate? Ce va învăța algoritmul și ce pre­dicții va face apoi? Ura de rasă sau măsurile dispro­por­ționate vor fi mult mai greu de depistat și de do­vedit printre linii de cod sau șiruri nesfârșite de 0 și 1, de necuprins cu mintea unui singur om și cu atât mai puțin de înțeles de către cei ce suportă consecințele acestor predicții.

Luând în considerare riscurile utilizării necorespun­zătoare a uneltelor bazate pe AI și pe alte tipuri de algoritmi avansați, Comitetul de Justiție și Afaceri Interne al Marii Britanii a publicat pe 30 martie 2022 un raport numit „Technology rules? The advent of new technologies in the justice system” (în traducere: „Reguli în tehnologie? Apariția unor noi tehnologii în sistemul judiciar”)[19]. Printre măsurile propuse în cadrul acestui raport pentru a maximiza potențialul tehnologic și a minimiza riscurile asociate se numără:

a) crearea unui registru obligatoriu de algoritmi utilizați de poliție și organele judiciare, alături de introducerea unei obligații de onestitate („duty of candour”),

b) sporirea importanței acordate principiului trans­pa­renței pentru dezvăluirea informațiilor referitoare la folosirea soluțiilor tehnologice avansate (tipul de tehnologie, durata utilizării, scopul utilizării, garanțiile aferente pentru respectarea drepturilor și libertăților ș.a.), astfel încât acestea să poată fi supuse dezbaterii publice și eventual contestate,

c) reglementarea acestui domeniu prin adoptarea unor acte normative, pe două nivele: legislație primară care să fixeze principiile generale și legislație se­cun­dară care să conțină prevederi detaliate,

d) introducerea obligativității efectuării unor training‑uri prealabile pentru utilizatorii acestor teh­nologii din sistemul judiciar,

e) constituirea la nivel național a unui organism central de autorizare și supraveghere a respectării unor standarde minime de protecție, precum și organizarea la nivel local a unor comitete de etică în cadrul inspec­toratelor de poliție.

Astfel, progresele înregistrate de tehnologia AI pot avea efecte benefice asupra sistemului judiciar, atât în cauzele civile, cât și în cele penale, precum facili­tarea interacțiunii justițiabililor cu sistemul judiciar, reducerea timpului și costurilor pentru soluționarea anumitor tipuri de dispute, combaterea fenomenului in­fracțional și eficientizarea investigațiilor crimina­listice. Cu toate acestea, după cum spune un proverb englezesc: „the devil is in the details” (în traducere: „răul sălășluiește în detalii”). În absența unui cadru legislativ și instituțional bine puse la punct, care să țină pasul cu progresul tehnologic, drepturile și liber­tățile fundamentale ale cetățenilor, precum libertatea individuală, accesul la justiție și dreptul la viață privată sunt periclitate.

Pe cale de consecință, înainte de a găsi răspuns la întrebarea dacă și în ce măsură vor exista judecători AI în sălile de judecată și de a considera eventual această ipoteză un scenariu science‑fiction, plasat într‑un moment îndepărtat din viitor, avem responsa­bilitatea de a răspunde și a face față unor provocări mai stringente cu care sistemele judiciare deja se con­fruntă într‑o formă sau alta.


* Material publicat în Revista „Avocatul”, iunie/2022.

[1] În cadrul prezentului articol, pentru ușurință, sintagma „inteligență artificială” va fi utilizată alternativ cu prescurtarea „AI”.

[2] E. Francesconi, The winter, the summer and the summer dream of artificial intelligence in law, Artif Intell Law 30, 147–161 (2022), disponibil la https://doi.org/10.1007/s10506‑022‑09309‑8 (accesat la 7 mai 2022).

[3] Pentru mai multe detalii, a se consulta website‑ul http://www.iaail.org/ (accesat la 7 mai 2022)

[4] D. Remus, F.S. Levy, Can Robots Be Lawyers? Computers, Lawyers, and the Practice of Law, 27 noiembrie 2016, disponibil la https://ssrn.com/abstract=2701092 sau http://dx.doi.org/10.2139/ssrn.2701092 (accesat la 7 mai 2022).

[5] Dawn Lo, Can AI replace a judge in the courtroom? Disponibil la https://newsroom.unsw.edu.au/news/business-law/can‑ai‑replace‑judge‑courtroom (accesat la 7 mai 2022).

[6] E. Francesconi, op. cit.

[7] A se vedea S.J Russel, P. Norvic, Artificial Intelligence: A Modern Approach, ed. a IV‑a, Ed. Pearson Education Limited, 2021.

[8] Pentru o analiză mai amplă în acest sens a se vedea D. Deutsch, The Beginning of Infinity. Explanations that transform the world, Ed. Penguin Books Ltd, 2012, p. 148‑164.

[9] A se vedea https://www.judiciary.uk/wp‑content/uploads/2022/03/MR-to‑SCL-Sir‑Brain-Neill-Lecture‑2022-The‑Future‑for‑Dispute‑Resolution‑Horizon‑Scannings‑.pdf (accesat la 7 mai 2022).

[10] Pentru mai multe detalii despre Master of Rolls, a se consulta https://www.judiciary.uk/about‑the‑judiciary/who‑are‑the‑judiciary/judicial‑roles/judges/profile‑mor/ (accesat la 7 mai 2022).

[11] S. Azam, Unnovation & Technology, Artificial Intelligence, the „AI Justice Challenge” and the Future of Law, disponibil la https://www.cbabc.org/BarTalk/Articles/2019/August/Features/Artificial‑Intelligence,-the‑AI-Justice‑Challenge (accesat la 7 mai 2022).

[12] Jud. Herbert B. Dixon Jr., Artificial Intelligence: Benefits and Unknown Risks, disponibil la https://www.americanbar.org/groups/judicial/publications/judges_journal/2021/winter/artificial‑intelligence‑benefits‑and‑unknown‑risks/ (accesat la 7 mai 2022).

[13] O astfel de unealtă este Predpol. Pentru mai multe detalii, a se vedea https://www.predpol.com/ (accesat la 7 mai 2022).

[14] O unealtă de acest gen care a stârnit multe controverse este COMPAS („the Correctional Offender Management Profiling for Alternative Sanctions”). Pentru o analiză mai detaliată, a se vedea J. Angwin, J. Larson, S. Mattu & L.Kirchner, Machine Bias: There  s Software Used Across the Country to Predict Future Criminals, and It  s Biased Against Blacks., Propublica, 23 mai 2016, disponibil la https://bit.ly/3lPNmS1 (accesat la 7 mai 2022).

[15] Pentru o analiză mai detaliată a acestui subiect, a se vedea K. Walch, Cognitive World (Contributor Group), The Growth Of AI Adoption In Law Enforcement, disponibil la https://www.forbes.com/sites/cognitiveworld/2019/07/26/the‑growth‑of‑ai‑adoption‑in‑law‑enforcement/?sh=5c7f 713d435d (accesat la 7 mai 2022).

[16] A se vedea Comunicatul de presă nr. 11‑342 al Departamentului de Justiție al Statelor Unite, disponibil la https://www.justice.gov/opa/pr/department-justice-releases-investigative‑findings‑involving‑new‑orleans‑police-department (accesat la 7 mai 2022).

[17] Pentru o analiză a avantajelor și dezavantajelor algoritmilor de tip predictive policing, a se vedea A. Norga, 4 Benefits And 4 Drawbacks Of Predictive Policing, disponibil la https://www.liberties.eu/en/stories/predictive‑policing/43679 (accesat la 7 mai 2022).

[18] K. Hao, Police Across the US Are Training Crime‑Predicting AIs on Falsified Data, MIT TECH. REV, 13 februarie 2019, disponibil la https://bit.ly/3lVQYlu. (accesat la 7 mai 2022).

[19] Disponibil la adresa https://publications.parliament.uk/pa/ld5802/ldselect/ldjusthom/180/180.pdf (accesat la 7 mai 2022)

Transformarea justiției și avocaturii în era inteligenței artificiale was last modified: august 24th, 2022 by Angelica-Georgiana Alecu

PARTENERI INSTITUȚIONALI

Vă recomandăm:

Rămâi la curent cu noutățile juridice