Transformarea justiției și avocaturii în era inteligenței artificiale

24 aug. 2022
Vizualizari: 938
 

Universuljuridic.ro PREMIUM

Aici găsiți informaţiile necesare desfăşurării activităţii dvs. profesionale.

Universuljuridic.ro PREMIUM pune la dispoziția profesioniștilor lumii juridice un prețios instrument de pregătire profesională. Oferim un volum vast de conținut: articole, editoriale, opinii, jurisprudență și legislație comentată, acoperind toate domeniile și materiile de drept. Clar, concis, abordăm eficient problematicile actuale, răspunzând scenariilor de activitate din lumea reală, în care practicienii activează.

Testează ACUM beneficiile Universuljuridic.ro PREMIUM prin intermediul abonamentului GRATUIT pentru 7 zile!

🔑Vreau cont PREMIUM!


 

Inteligența artificială în avocatură

AI nu a exceptat nici activitatea avocațială. Dimpo­trivă, progresul înregistrat a condus chiar la noutăți lingvistice, începând să fie utilizați termeni precum „lawbot” sau „lawyer bot”[20]. Încă de acum 2 ani, o socie­tate de avocatură anunța lansarea primului lawyer bot în Georgia, despre care fondatorul societății estima că va putea automatiza 30% din activi­tatea unui avocat.

Mai recent, la finalul anului trecut, banca de investiții Morgan Stanley[21] anunța că a economisit 10 milioane de dolari pentru onorarii avocațiale și 50.000 de ore de muncă folosind „robot Libor lawyers”, în loc de servicii prestate exclusiv de avocați umani, pentru procesul de analiză și revizuire a clau­zelor din contractele de credit referitoare la Libor (London Interbank Offered Rate)[22]. În același articol, este dat un alt exemplu al ING, care a apelat, de ase­menea, la AI pentru revizuirea a 1.4 milioane de pagini de contracte de credit și care analizează posibilitatea de a extinde utilizarea software‑ului și la aprobarea creditelor.

Studiind piața serviciilor bazate pe AI în domeniul avocaturii, se poate constata existența a două tendințe principale de dezvoltare: pe de o parte, algoritmi care înlocuiesc activități ale avocaților umani, iar pe de altă parte, algoritmi care eficientizează activitatea avo­caților umani.

Prima categorie este cea care suscită dezbaterile cele mai aprinse, aducând în atenție întrebarea anta­mată încă de la debutul prezentului articol, și anume în ce măsură poate un algoritm AI să înlocuiască un avocat. Exemplele practice demonstrează că au fost deja făcuți pași în această direcție.

Cu un nume sugestiv, Do Not Pay (în traducere „Nu plăti”) se autoproclamă pe prima pagină a website‑ului propriu „primul avocat robot din lume”, îndemnând vizitatorii „să lupte împotriva corpora­țiilor, să învingă birocrația și să dea în judecată pe oricine cu apăsarea unui singur buton[23]. Aplicația pretinde să acorde utilizatorilor facilitatea de a reda în cuvinte proprii problema de drept cu care se con­fruntă, urmând ca software‑ul dezvoltat pe modelul de învățare automată să traducă în limbaj juridic și să completeze documentele necesare pentru soluționarea problemei. Printre serviciile listate pe website se regăsesc sarcini ce sunt în mod previzibil relativ ușor de automatizat, precum contestarea amenzilor pentru parcări ilegale sau rezilierea unor contracte de prestare servicii, dar și servicii cel puțin surprinzătoare sau de o complexitate sporită, precum „annul my marriage” (în traducere „anulează‑mi căsătoria”) sau „make money online” (în traducere „fă bani online”).

Interesantă este și povestea din spatele platformei Do Not Pay. În urmă cu câțiva ani, pe vremea când avea 18 ani, fondatorul Joshua Browder obișnuia să ia amenzi pentru parcare, a căror plată nu și‑o per­mitea. Căpătând o experiență nedorită, dar vastă, a învățat care sunt argumentele pe care le putea utiliza pentru a contesta cu succes amenzile. Ulterior, pentru a nu copia conținutul contestațiilor, a creat prima ver­iune a Do Not Pay pentru a automatiza acest proces și pentru a‑și impresiona familia, ca efect colateral[24]. Cinci ani mai târziu, aplicația sa a fost premiată de American Bar Association[25] cu premiul Louis M. Brown Award for Legal Access[26].

În timp ce Do Not Pay este o aplicație destinată utili­zatorilor finali (potențialilor clienți ai serviciilor avocațiale), alte unelte care înlocuiesc rolul avocaților în diverse activități se adresează chiar societăților de avocatură sau departamentelor juridice ale diverselor companii, pentru automatizarea anumitor sarcini. Un astfel de exemplu este Neota Logic[27]. Prin interme­diul acestei platforme, la cererea unor societăți de avo­catură, au fost dezvoltate aplicații precum:

a) Automatizarea încheierii acordurilor de confi­dențialitate (“non disclosure agreements”), integrând în aceeași aplicație procesul de redactare, negociere, semnare electronică și înregistrare,

b) O aplicație web gratuită pusă la dispoziție de echipa de litigii Allen & Overy Hong Kong victimelor fraudelor informatice pentru a parcurge pașii imediați ce trebuie urmați pentru blocarea contului accesat în mod neautorizat și sesizarea autorităților competente,

c) O aplicație pentru îndrumarea persoanelor fizice din Australia ce nu și‑au putut desfășura activitatea din cauza pandemiei, pentru a înțelege criteriile de eli­gi­bilitate și a parcurge procedura pentru acordarea ajutorului financiar guvernamental.

Cea de‑a doua categorie amintită anterior se referă la algoritmi care eficientizează activitatea avocaților umani, iar lista este una lungă și acoperă o gamă variată de activități punctuale „delegate” algoritmilor, dintre care amintim cu titlu de exemplu: KM Stan­dards (pentru redactarea unor template‑uri de con­tracte), Kira Systems (pentru management‑ul sarci­nilor în cadrul unei echipe), Fast Case (pentru cercetare juridică). Spre deosebire de categoria ante­rioară, aceste aplicații nu sunt destinate neapărat util­izatorilor finali, ci chiar avocaților, ocupându‑se de sarcini punctuale ce pot fi automatizate pentru efi­cientizarea muncii acestora.

Din același registru face parte și aplicația ROSS ce utilizează procesarea de limbaj natural și algoritmi de învățare automată pentru a facilita cercetarea juri­dică prin: (i) sistem de căutare pe bază de întrebări, iar nu simple cuvinte‑cheie, (ii) identificarea unor spețe relevante cu limbaj similar, iar nu doar identic cu cel introdus, (iii) rezumarea jurisprudenței identificate, pe baza întrebărilor introduse, (iv) transmiterea unor notificări în cazul unor modificări legislative relevante pentru cercetările efectuate. Întrebat despre relația dintre computere și oameni când vine vorba despre executarea unor sarcini, Andrew Arruda, CEO‑ul ROSS, declara în urmă cu câțiva ani că atunci când aduni laolaltă calculatoarele și oamenii, rezultatul este cu mult mai bun decât atunci când alegi între oameni și calculatoare[28]. În plus, cu o privire specială asupra men­talității avocaților, Andrew Arruda preciza că „atunci când auzim că avocaților nu le place schim­barea, nu e tocmai corect. Avocații acceptă schimba­rea, ceea ce nu le place sunt riscurile[29].

În final, din aceeași categorie poate fi amintit și software‑ul despre care Bruce Braude, CTO‑ul Deloitte Legal, menționa că poate prezice cu o rată de precizie de 70% șansele de succes ale unui potențial litigiu fiscal, pe baza datelor referitoare la jurisprudența rele­vantă în cazuri similare[30].

Sunt aceste exemple suficiente sau concludente pentru a putea trage concluzia că avocații vor fi în curând înlocuiți de algoritmi? Într‑un articol dedicat acestei teme[31], autorii analizează pe rând tipurile de sarcini îndeplinite de avocați, estimând potențialul impact al AI asupra forței de muncă umane sub trei categorii: impact minor, impact moderat și impact major. În timp ce printre activitățile incluse în categoria de impact minor se regăsesc, în opinia autorilor, exem­plificativ consultanța acordată clienților, negocierea și reprezentarea în instanță, la polul opus, printre acti­vitățile cu impact major se regăsește revizuirea docu­mentelor. La granița între cele două, în categoria activi­tăților cu impact moderat sunt listate: redactarea de documente, efectuarea de due diligence, cercetarea juridică și stabilirea strategiei[32].

Pachet: Codul administrativ comentat. Explicatii, jurisprudenta, doctrina. Volumul I si Volumul II

În viziunea acelorași autori, departe de a fi automa­tizată în viitorul apropriat este reprezentarea clienților în instanță de către avocații de litigii. Pe lângă rigoarea normelor procedurale și restricțiile mult mai severe din sălile de judecată, un impediment principal pentru o astfel de automatizare este componenta emoțională implicată în procesul de luare a deciziei. Nu doar argu­mentele sunt cele care contribuie la convingerea unui judecător, ci și emoțiile transmise de avocatul pledant, iar trăirile afective sunt departe de a fi codate și pro­cesate prin algoritmi. Cel puțin în prezent.

Astfel, într‑o măsură mai mică sau mai mare, în funcție de domeniul de activitate și de aria de practică, munca avocaților suferă și va continua să sufere transformări din nevoia de adaptare la cerințele pieței și la progresul tehnologic. Dar, similar riscurilor generate de utilizarea AI în sistemul judiciar, apelarea la aceste unelte pentru a înlocui sau eficientiza servicii avocațiale presupune la rândul său provocări specifice.

În special în privința algoritmilor care înlocuiesc activitățile avocaților umani, de cele mai multe ori, intenția declarată este de a facilita accesul cetățenilor (cu venituri reduse) la servicii avocațiale și, atunci când este cazul, la justiție. Însă dreptul la apărare ar putea fi periclitat dacă serviciile avocațiale sunt oferite de personal necalificat (uman sau computerizat). Auto­rizarea sub diverse forme a profesioniștilor care pres­tează astfel de activități garantează un anumit standard de pregătire și formare profesională care, în final, repre­zintă o garanție a protecției drepturilor și intere­selor cetățenilor ce apelează la acești profesioniști. Liberalizarea completă a acestui domeniu, sub dezi­deratul garantării dreptului la apărare, ar putea con­duce tocmai la consecința contrară, întrucât apărarea trebuie să fie și calificată, iar nu doar la îndemână.

Aceasta este, de altfel, și rațiunea pentru care (i) anumite activități specifice sunt rezervate prin lege avocaților, iar (ii) calitatea de avocat este obținută pe baza unui examen. Spre exemplu, în dreptul româ­nesc, dispozițiile art. 3 alin. (1) din Legea nr. 51/1995 pentru organizarea și exercitarea profesiei de avocat precizează expres care sunt activitățile rezervate prin lege avocaților. Apare astfel întrebarea în ce măsură un algoritm AI care prestează una sau mai multe dintre aceste activități poate fi considerat o persoană neauto­rizată. Învestite cu judecarea unei pricini a cărei solu­țio­nare depindea de răspunsul la această întrebare[33], instanțele din Statele Unite ale Americii au făcut o distincție între activități de practicare a dreptului și acti­­vități de îndrumare prin kit‑uri de tipul „do‑it‑yourself” („ocupă‑te singur”).

Mai exact, în speța menționată, compania Legalzoom (deținătoarea website‑ului cu același nume) a fost acționată în instanță pentru practicarea neautorizată a dreptului, potrivit legislației din statul Missouri, întrucât oferea clienților săi formulare și servicii legale. Website‑ul avea două funcționalități prin­cipale: pe de o parte clienții puteau descărca formulare tipizate legale necompletate, pe care mai apoi să le printeze și completeze singuri, iar pe de altă parte clienții puteau completa un chestionar online, urmând ca un angajat Legalzoom să pregă­tească documentele legale prin inserarea informațiilor furnizate de client într‑un template și să verifice conți­nutul, astfel încât informațiile să fie complete.

În dezvoltarea raționamentului lor, judecătorii s‑au raportat la precedente judiciare în situații de practici potențial neautorizate, recunoscând însă că acestea nu sunt direct aplicabile, luând în considerare nou­tatea tehnologiei în dispută. Concluzia judecătorilor a fost în sensul că portalul online prin care utilizatorii Legalzoom completau un chestionar și primeau în schimb formulare completate și verificate de angajații Legalzoom reprezintă mai mult decât un simplu produs (un kit „do‑it‑yourself”), prestând cu această ocazie și un serviciu, respectiv pregătirea de docu­mente legale. Pe cale de consecință, având în vedere că persoanele care prestau acest serviciu nu erau autorizate să practice dreptul în statul Missouri, exista un risc evident ca publicul să fie consiliat în probleme juridice de persoane necompetente.

Astfel, similar utilizărilor din sistemul judiciar, utilizarea AI în practicarea avocaturii prezintă beneficii însemnate atât pentru avocați, prin creșterea eficienței muncii avocaților, reducerea timpului dedicat activi­tăților de rutină ce pot fi automatizate și îmbunătățirea rezultatelor cercetării juridice, cât și pentru clienți, prin îndrumare în parcurgerea unor proceduri legale lipsite de complexitate și pentru care nu au nevoie de ajutor de specialitate.

Cu toate acestea, dezvoltarea acestor tehnologii de o manieră iresponsabilă sau liberalizarea fără bariere a serviciilor avocațiale ascund pericole despre care utilizatorii finali este posibil să nu fie conștienți. După cum corect s‑a reținut într‑o altă cauză din Statele Unite ale Americii[34], scopul reglementării unor activități rezervate prin lege avocaților „nu este să protejeze baroul de concurență, ci să protejeze pu­blicul de pericolul de a fi consiliat sau reprezentat în probleme legale de persoane incompetente sau neserioase”[35].

 

Îndrumări și tendințe legislative cu privire la utilizarea inteligenței artificiale în domeniul juridic

După cum se poate observa, utilizarea iresponsa­bilă a inteligenței artificiale în justiție sau în avocatură, în absența unor direcții clare de dezvoltare și a unor garanții corespunzătoare, poate conduce la grave atin­geri aduse drepturilor și libertăților fundamentale ale cetățenilor. În aceeași măsură, teama producerii unor erori nu trebuie să împiedice progresul, astfel că soluția rămâne atingerea unui echilibru printr‑o evoluție teh­no­logică dirijată. În acest sens, vestea bună este că există o preocupare tot mai crescută pentru trasarea unor linii diriguitoare care să diminueze riscurile și să maximizeze potențialul de progres.

În decembrie 2018, Comisia Europeană pentru Eficiență în Justiție (CEPEJ) din cadrul Consiliului Europei a adoptat „Carta Etică Europeană în privința utilizării inteligenței artificiale în sistemele judiciare și domeniile adiacente” (denumit în continuare „Carta Etică Europeană”)[36]. primul document european rele­vant în această materie. În cadrul acesteia, au fost stabilite următoarele cinci principii fundamentale, cu ex­plicațiile aferente, după cum urmează:

a) Principiul respectării drepturilor fundamentale – utilizarea AI în sistemele judiciare trebuie să se­rvească scopuri precise, în completă armonie cu respectarea drepturilor fundamentale garantate de Convenția Europeană a Drepturilor Omului și a drep­tului la protecția datelor și să nu aducă atingere garan­țiilor accesului la justiție, dreptului la un proces echi­tabil, principiului ordinii de drept sau a indepen­denței judecătorului,

b) Principiul nediscriminării – prevenirea dez­voltării sau intensificării oricăror discriminări între indivizi sau grupuri de indivizi, cu o grijă sporită în etapa de dezvoltare ce poate presupune procesarea directă sau indirectă de date sensibile (rasă, origine etnică, profil socio‑economic, opinii politice, religie, apar­tenență la sindicate, date genetice, date biome­trice, orientare sexuală ș.a.),

c) Principiul calității și securității – folosirea unor surse certificate și a unor date intacte cu modele con­cepute într‑o manieră multidisciplinară, colectând ariile de expertiză ale mai multor profesioniști din dome­niu (judecători, procurori, avocați), în special în privința procesării hotărârilor judecătorești și a datelor,

d) Principiul transparenței, imparțialității și echi­tății – facilitarea accesului la informații și a înțelegerii metodelor de procesare a datelor, autorizarea unor auditori externi, precum și atingerea unui echilibru între protecția drepturilor de proprietate intelectuală și nevoia de transparență,

e) Principiul „under user control” („sub controlul utilizatorului”) – asigurarea că subiecții sunt actori informați și că au controlul propriei decizii. Aceștia trebuie să fie informați în limbaj cât mai simplu și ușor de înțeles dacă soluțiile oferite de uneltele AI sunt obligatorii sau nu și trebuie să li se aducă la cu­noștință dreptul la asistență juridică și dreptul de acces la o instanță. De asemenea, trebuie să fie infor­mați despre orice potențială procesare a cauzei de către AI, fie anterior, fie chiar în timpul procesului, având posi­bilitatea de a face obiecții și a fi ascultați direct de către o instanță judecătorească în sensul art. 6 din Convenția Europeană a Drepturilor Omului.

Totodată, în anexa II, Carta Etică Europeană oferă anumite indicații de orientare cu privire la direcțiile în care progresul ar trebui urmărit, catalogând utili­zările AI în patru clase:

a) Utilizări încurajate: îmbunătățirea cercetării jurisprudențiale prin procesarea limbajului natural, generarea unor template‑uri de documente, utilizarea chatbots pentru oferirea informațiilor relevante utilizând limbaj natural,

b) Utilizări posibile ce necesită precauții metodo­logice considerabile: sprijinirea unor măsuri de soluționare alternativă a disputelor în materie civilă, soluționarea disputelor prin intermediul platformelor online, utilizarea AI pentru predicții cu privire la zo­nele în care se comit infracțiuni,

c) Utilizări de avut în vedere după studii științifice suplimentare: crearea unor profiluri ale judecătorilor, generarea unor predicții cu privire la decizia instan­țelor judecătorești,

d) Utilizări de privit cu cele mai extreme rezerve: utilizarea în materie penală a unor algoritmi AI pentru crearea de profile ale indivizilor (precum se întâmplă în cazul COMPAS utilizat în Statele Unite ale Americii sau HART în Marea Britanie), orientarea judecătorilor către decizii luate pe criterii cantitative (punând la dispoziție numărul de decizii emise de alți judecători în spețe similare și „blocând” judecătorul în această masă de așa‑zise precedente).

O altă inițiativă salutară, foarte recentă, pentru crearea unor principii călăuzitoare în acest domeniu este publicarea la finalul lunii martie 2022 a „Ghidului pentru utilizarea de către avocați și firmele de avo­catură din Uniunea Europeană a uneltelor bazate pe inteligența artificială” (în continuare „Ghidul CCBE”) de către Consiliul Barourilor și Societăților de Drept din Europa (CCBE) și Fundația Europeană a Avoca­ților (ELF), în cadrul programului AI4Lawyers[37]. Pe lângă descrierea (de o manieră didactică, iar nu comercială) a unor tipuri de unelte bazate pe inteli­gența artificială relevante pentru activitatea avocațială, Ghidul CCBE include potențiale scenarii privind modul în care va fi folosită inteligența artificială în viitor de către avocați, precum și principalele riscuri ale utilizării AI de care avocații ar trebui să fie conștienți, atât cu privire la aspectele tehnice, cât și cu privire la obligațiile profesionale ale acestora față de clienți.

Conform Ghidului CCBE, printre activitățile des­fășurate de avocați cu cel mai mare potențial de a fi eficientizate prin intermediul inteligenței artificiale, sunt enumerate: redactarea de documente, analiza de documente, cercetarea legislației și jurisprudenței, transcrierea automată a unui discurs, utilizarea de chatbots și asistența în organizarea internă a activităților administrative.

În privința riscurilor, este amintit, cu titlu de exemp­lu, riscul de încălcare a obligației de confidențialitate față de client, în cazul în care dezvoltatorii instrumen­telor bazate pe AI utilizate transmit datele puse la dispoziție de avocați pentru procese de antrenare sau de analiză efectuate de către terțe companii. În plus, pe lângă astfel de riscuri ce privesc mai degrabă aspec­tele tehnice și garanțiile unei funcționalități conforme cu standardele legale, Ghidul CCBE amintește și de riscuri prezente mai degrabă la nivel psihologic și deon­tologic, precum „frica de a fi lăsat deoparte” (prescurtată în engleză ca FOMO, de la „fear of missing out”) ce îi poate determina pe avocați să se prezinte public drept pionieri ai unor noi tehnologii, pentru a căror utilizare corespunzătoare nu dețin însă com­petența profesională necesară.

În final, redactorii ghidului menționează că nu suntem în stadiul în care profesiile juridice să devină redundante, însă avocații trebuie să își ajusteze acti­vitatea și competența conform transformărilor prin care întreaga societate trece ca urmare a utilizării noilor tehnologii.

Totodată, cu un interes crescut deopotrivă pentru a deveni un competitor puternic pe piața globală în domeniul AI, dar și pentru a ține riscurile aferente sub control, la nivelul Uniunii Europene, Comisia Euro­peană a propus noi reguli și acțiuni pentru a transforma Uniunea Europeană într‑un hub global pentru tehnologii de AI sigure și fiabile. Astfel, în aprilie 2021 a publicat „Pachetul AI[38], în care se regă­sește inclusiv o propunere de Regulament în domeniul AI[39], ce prevede o listă de practici interzise, clasifi­carea sistemelor AI în funcție de gradul de risc (îm­preună cu cerințele aferente de conformitate), obligația desemnării la nivel național a unei autorități de noti­ficare, instituirea Comitetului European pentru Inteli­gența Artificială, crearea unei baze de date UE pentru sisteme autonome de AI cu grad ridicat de risc, insti­tuirea unui mecanism de monitorizare ulterioară și alte astfel de măsuri.

Cu o privire specială asupra utilizării AI de către auto­ritățile polițienești și judiciare în procedurile penale, în octombrie 2021, Parlamentul European a emis o Rezoluție prin care și‑a manifestat îngrijorarea față de „o serie de riscuri potențiale mari și, în anumite cazuri, inacceptabile pentru protejarea drepturilor fundamentale ale persoanelor, cum ar fi opacitate în luarea deciziilor, diferite tipuri de discriminare și erori inerente în algoritmul de bază care pot fi consolidate prin bucle de feedback, precum și riscuri pentru pro­tejarea vieții private și a datelor cu caracter personal, a libertății de exprimare și de informare, a prezumției de nevinovăție, a dreptului la o cale de atac și la un pro­ces corect, precum și pentru libertatea și securitatea persoanelor[40].

În cadrul acestei rezoluții, Parlamentul European a solicitat Agenției pentru Drepturi Fundamentale a UE ca, în colaborare cu CEPD și AEPD, să elaboreze orientări cuprinzătoare, recomandări și bune practici pentru a detalia criteriile și condițiile pentru dezvol­tarea, utilizarea și implementarea aplicațiilor și solu­țiilor IA care să fie utilizate de autoritățile de aplicare a legii și judiciare. Totodată, și‑a asumat misiunea de a efectua un studiu privind punerea în aplicare a Direc­tivei privind protecția datelor în materie de asigurare a respectării legii pentru a identifica modul în care a fost asigurată protecția datelor cu caracter personal în activitățile de prelucrare de către autoritățile de apli­care a legii și judiciare. În final, Parlamentul European a invitat, de asemenea, Comisia să analizeze dacă este necesară o acțiune legislativă specială pentru specifi­carea mai detaliată a criteriilor și condițiilor pentru dez­voltarea, utilizarea și implementarea aplicațiilor și soluțiilor AI de către autoritățile de aplicare a legii și judiciare.

Astfel, deși nu există încă un set de reglementări spe­cifice cu caracter imperativ la nivel intern sau inter­na­țional, în perioada recentă au fost publicate îndru­mări care să vină în ajutorul profesioniștilor din sistemul judiciar și din avocatură, ce se confruntă cu provocări inedite generate de dezvoltarea accelerată a tehnologiei AI. Inițiativa este mai mult decât binevenită nu doar din perspectiva oferirii unui sprijin celor implicați în prezent în utilizarea uneltelor AI (prin facilitarea înțe­legerii mecanismelor de funcționare ale acestora și a riscurilor aferente), dar mai ales din perspectiva orien­tării direcției potrivite înspre care să fie îndreptat pro­gresul tehnologic în acest domeniu în viitor.

 

Concluzii

Astfel cum a fost precizat încă din debutul pre­zentului articol, până la momentul actual nu a fost concepută o inteligență artificială „generală”, în sensul de entitate cu capacitatea de a acționa în lumea reală în mod independent, având propriile seturi de valori și propria rațiune. Câtă vreme inteligența umană, în toată complexitatea sa, nu este explicată, nu va fi posibilă nici replicarea sa[41]. Din acest punct de vedere, probabilitatea ca în viitorul apropiat avo­cații, judecătorii sau alți actori‑cheie din sistemul judi­ciar să fie înlocuiți de algoritmi bazați pe AI pare să fie una redusă.

Dar acest fapt nu trebuie să conducă la concluzia că inteligența artificială este un domeniu științifi­co‑fan­tastic, plasat într‑un viitor îndepărtat și incert și, prin urmare, nu ar merita să îi fie acordată o atenție însemnată. Dimpotrivă, instrumentele bazate pe inte­ligență artificială pentru funcționalități restrânse sunt deja o realitate și sunt folosite în activitatea de zi cu zi a profesioniștilor din domeniul juridic. Tocmai de aceea, preocuparea ar trebui să fie orientată către modul în care astfel de tehnologii funcționează deja și asupra consecințelor pe care le produc în prezent sau le pot produce în viitor. Numai o dezvoltare res­ponsabilă a acestor tehnologii poate conduce deo­potrivă la eficientizarea muncii umane și la respectarea drepturilor și libertăților fundamentale.

În caz contrar, în absența unor direcții clare de orientare, sub cupola unor intenții declarate dintre cele mai nobile precum facilitarea accesului la justiție, combaterea criminalității sau eficientizarea costurilor, se poate ascunde, în realitate, un cal troian al riscurilor nebănuite. Justiția și avocatura, la fel ca orice alt domeniu, vor suferi treptat transformări semnificative, dar dacă acestea vor fi într‑o direcție pozitivă sau nega­tivă depinde de înțelegerea și acceptarea a două idei: (i) progresul nu poate fi oprit, (ii) dar poate fi dirijat.


[20] A se vedea Lawyers to Engage Team, What everyone must know about lawyer bots, disponibil la https://lawyerstoengage.com/what-everyone-must-know-about-lawyer‑bots/ (accesat la 7 mai 2022)

[21] W. Shaw, Morgan Stanley  s Robot Libor Lawyers Saved 50,000 Hours of Work, disponibil la https://www.bloomberg.com/news/articles/2021‑10‑22/morgan-stanley‑s‑robot‑libor‑lawyers‑saved‑50‑000‑hours‑of‑work (accesat la 7 mai 2022).

[22] Ca urmare a unor fraude constatate, Libor a fost înlocuit începând cu 31 decembrie 2021 cu SOFR (Secured Overnight Financing Rate). Pentru mai multe detalii, a se vedea M. Marquit, B. Curry, What Is Libor And Why Is It Being Abandoned?, disponibil la https://www.forbes.com/advisor/investing/what‑is‑libor/ (accesat la 7 mai 2022).

[23] Disponibil la https://donotpay.com/ (accesat la 7 mai 2022).

[24] P. Belton, Would you let a robot lawyer defend you?, disponibil la https://www.bbc.com/news/business‑58158820 (accesat la 7 mai 2022).

[25] https://bit.ly/38aurRf (generat la 7 mai 2022 prin https://bitly.com/).

[26] Premiul Louis M. Brown este acordat începând cu anul 1995 pentru celor care își dedică munca îmbunătățirii accesului la servicii legale pentru cei cu venituri reduse. Pentru detalii, a se vedea https://www.americanbar.org/groups/delivery_ legal_services/initiatives_awards/louis_m_brown_award_ for_legal_access/ (accesat la 7 mai 2022).

[27] A se vedea https://www.neotalogic.com/industry/legal/ (accesat la 7 mai 2022).

[28] E. Sohn, alt.legal: Can Computers Beat Humans At Law?, disponibil la https://abovethelaw.com/2016/03/alt‑legal‑can‑computers‑beat‑humans‑at‑law/?rf=1 (accesat la 7 mai 2022).

[29] Idem.

[30] P. Belton, op. cit.

[31] D. Remus, F.S. Levy, op. cit.

[32] Deși aparent surprinzătoare, având în vedere că stabilirea strategiei ar putea fi considerată o activitate imună la procesele de automatizare, progresul unor unelte software (i) care fac predicții pe baza datelor istorice sau (ii) care organizează și prezintă utilizatorilor soluții legale într‑un dialog structurat poate conduce, mai ales prin combinarea celor două, la un impact asupra modului în care vor fi stabilite strategiile în viitor, cel puțin pentru anumite cauze mai simple.

[33] Janson și alții c. Legalzoom.com, Inc.‑ 802 F.Supp. 2d 1053, 1059 (W.D. Mo. 2011). Pentru mai multe detalii, a se vedea https://casetext.com/case/janson‑v‑legalzoomcom (accesat la 7 mai 2022).

[34] Hulse, 247 S.W.2d at 857‑58.

[35] Citatul original: „is not to protect the Bar from competition but to protect the public from being advised or represented in legal matters by incompetent or unreliable persons”.

[36] Disponibilă la https://rm.coe.int/ethical‑charter‑en‑for-publication‑4‑december‑2018/16808f699c (accesat la 7 mai).

[37] Disponibil la https://www.ccbe.eu/fileadmin/speciality_distribution/public/documents/IT_LAW/ITL_ Reports_studies/EN_ITL_20220331_Guide‑AI4L.pdf (accesat la 7 mai 2022).

[38] A se vedea https://digital‑strategy.ec.europa.eu/en/policies/european‑approach‑artificial‑intelligence (accesat la 7 mai 2022).

[39] Disponibilă la https://eur‑lex.europa.eu/legal‑content/EN/TXT/?qid=1623335154975&uri=CELEX%3A52021 PC0206 (accesat la 7 mai 2022).

[40] Disponibilă la https://www.europarl.europa.eu/doceo/document/TA‑9‑2021‑0405_RO.html (accesat la 7 mai 2022)

[41] A se vedea și D. Deutsch, op. cit.

Transformarea justiției și avocaturii în era inteligenței artificiale was last modified: august 24th, 2022 by Angelica-Georgiana Alecu

PARTENERI INSTITUȚIONALI

Vă recomandăm:

Rămâi la curent cu noutățile juridice