Transformarea justiției și avocaturii în era inteligenței artificiale
În Articol:
Universuljuridic.ro PREMIUM
Aici găsiți informaţiile necesare desfăşurării activităţii dvs. profesionale.
Universuljuridic.ro PREMIUM pune la dispoziția profesioniștilor lumii juridice un prețios instrument de pregătire profesională. Oferim un volum vast de conținut: articole, editoriale, opinii, jurisprudență și legislație comentată, acoperind toate domeniile și materiile de drept. Clar, concis, abordăm eficient problematicile actuale, răspunzând scenariilor de activitate din lumea reală, în care practicienii activează.
Testează ACUM beneficiile Universuljuridic.ro PREMIUM prin intermediul abonamentului GRATUIT pentru 7 zile!
Inteligența artificială în avocatură
AI nu a exceptat nici activitatea avocațială. Dimpotrivă, progresul înregistrat a condus chiar la noutăți lingvistice, începând să fie utilizați termeni precum „lawbot” sau „lawyer bot”[20]. Încă de acum 2 ani, o societate de avocatură anunța lansarea primului lawyer bot în Georgia, despre care fondatorul societății estima că va putea automatiza 30% din activitatea unui avocat.
Mai recent, la finalul anului trecut, banca de investiții Morgan Stanley[21] anunța că a economisit 10 milioane de dolari pentru onorarii avocațiale și 50.000 de ore de muncă folosind „robot Libor lawyers”, în loc de servicii prestate exclusiv de avocați umani, pentru procesul de analiză și revizuire a clauzelor din contractele de credit referitoare la Libor (London Interbank Offered Rate)[22]. În același articol, este dat un alt exemplu al ING, care a apelat, de asemenea, la AI pentru revizuirea a 1.4 milioane de pagini de contracte de credit și care analizează posibilitatea de a extinde utilizarea software‑ului și la aprobarea creditelor.
Studiind piața serviciilor bazate pe AI în domeniul avocaturii, se poate constata existența a două tendințe principale de dezvoltare: pe de o parte, algoritmi care înlocuiesc activități ale avocaților umani, iar pe de altă parte, algoritmi care eficientizează activitatea avocaților umani.
Prima categorie este cea care suscită dezbaterile cele mai aprinse, aducând în atenție întrebarea antamată încă de la debutul prezentului articol, și anume în ce măsură poate un algoritm AI să înlocuiască un avocat. Exemplele practice demonstrează că au fost deja făcuți pași în această direcție.
Cu un nume sugestiv, Do Not Pay (în traducere „Nu plăti”) se autoproclamă pe prima pagină a website‑ului propriu „primul avocat robot din lume”, îndemnând vizitatorii „să lupte împotriva corporațiilor, să învingă birocrația și să dea în judecată pe oricine cu apăsarea unui singur buton”[23]. Aplicația pretinde să acorde utilizatorilor facilitatea de a reda în cuvinte proprii problema de drept cu care se confruntă, urmând ca software‑ul dezvoltat pe modelul de învățare automată să traducă în limbaj juridic și să completeze documentele necesare pentru soluționarea problemei. Printre serviciile listate pe website se regăsesc sarcini ce sunt în mod previzibil relativ ușor de automatizat, precum contestarea amenzilor pentru parcări ilegale sau rezilierea unor contracte de prestare servicii, dar și servicii cel puțin surprinzătoare sau de o complexitate sporită, precum „annul my marriage” (în traducere „anulează‑mi căsătoria”) sau „make money online” (în traducere „fă bani online”).
Interesantă este și povestea din spatele platformei Do Not Pay. În urmă cu câțiva ani, pe vremea când avea 18 ani, fondatorul Joshua Browder obișnuia să ia amenzi pentru parcare, a căror plată nu și‑o permitea. Căpătând o experiență nedorită, dar vastă, a învățat care sunt argumentele pe care le putea utiliza pentru a contesta cu succes amenzile. Ulterior, pentru a nu copia conținutul contestațiilor, a creat prima veriune a Do Not Pay pentru a automatiza acest proces și pentru a‑și impresiona familia, ca efect colateral[24]. Cinci ani mai târziu, aplicația sa a fost premiată de American Bar Association[25] cu premiul Louis M. Brown Award for Legal Access[26].
În timp ce Do Not Pay este o aplicație destinată utilizatorilor finali (potențialilor clienți ai serviciilor avocațiale), alte unelte care înlocuiesc rolul avocaților în diverse activități se adresează chiar societăților de avocatură sau departamentelor juridice ale diverselor companii, pentru automatizarea anumitor sarcini. Un astfel de exemplu este Neota Logic[27]. Prin intermediul acestei platforme, la cererea unor societăți de avocatură, au fost dezvoltate aplicații precum:
a) Automatizarea încheierii acordurilor de confidențialitate (“non disclosure agreements”), integrând în aceeași aplicație procesul de redactare, negociere, semnare electronică și înregistrare,
b) O aplicație web gratuită pusă la dispoziție de echipa de litigii Allen & Overy Hong Kong victimelor fraudelor informatice pentru a parcurge pașii imediați ce trebuie urmați pentru blocarea contului accesat în mod neautorizat și sesizarea autorităților competente,
c) O aplicație pentru îndrumarea persoanelor fizice din Australia ce nu și‑au putut desfășura activitatea din cauza pandemiei, pentru a înțelege criteriile de eligibilitate și a parcurge procedura pentru acordarea ajutorului financiar guvernamental.
Cea de‑a doua categorie amintită anterior se referă la algoritmi care eficientizează activitatea avocaților umani, iar lista este una lungă și acoperă o gamă variată de activități punctuale „delegate” algoritmilor, dintre care amintim cu titlu de exemplu: KM Standards (pentru redactarea unor template‑uri de contracte), Kira Systems (pentru management‑ul sarcinilor în cadrul unei echipe), Fast Case (pentru cercetare juridică). Spre deosebire de categoria anterioară, aceste aplicații nu sunt destinate neapărat utilizatorilor finali, ci chiar avocaților, ocupându‑se de sarcini punctuale ce pot fi automatizate pentru eficientizarea muncii acestora.
Din același registru face parte și aplicația ROSS ce utilizează procesarea de limbaj natural și algoritmi de învățare automată pentru a facilita cercetarea juridică prin: (i) sistem de căutare pe bază de întrebări, iar nu simple cuvinte‑cheie, (ii) identificarea unor spețe relevante cu limbaj similar, iar nu doar identic cu cel introdus, (iii) rezumarea jurisprudenței identificate, pe baza întrebărilor introduse, (iv) transmiterea unor notificări în cazul unor modificări legislative relevante pentru cercetările efectuate. Întrebat despre relația dintre computere și oameni când vine vorba despre executarea unor sarcini, Andrew Arruda, CEO‑ul ROSS, declara în urmă cu câțiva ani că atunci când aduni laolaltă calculatoarele și oamenii, rezultatul este cu mult mai bun decât atunci când alegi între oameni și calculatoare[28]. În plus, cu o privire specială asupra mentalității avocaților, Andrew Arruda preciza că „atunci când auzim că avocaților nu le place schimbarea, nu e tocmai corect. Avocații acceptă schimbarea, ceea ce nu le place sunt riscurile”[29].
În final, din aceeași categorie poate fi amintit și software‑ul despre care Bruce Braude, CTO‑ul Deloitte Legal, menționa că poate prezice cu o rată de precizie de 70% șansele de succes ale unui potențial litigiu fiscal, pe baza datelor referitoare la jurisprudența relevantă în cazuri similare[30].
Sunt aceste exemple suficiente sau concludente pentru a putea trage concluzia că avocații vor fi în curând înlocuiți de algoritmi? Într‑un articol dedicat acestei teme[31], autorii analizează pe rând tipurile de sarcini îndeplinite de avocați, estimând potențialul impact al AI asupra forței de muncă umane sub trei categorii: impact minor, impact moderat și impact major. În timp ce printre activitățile incluse în categoria de impact minor se regăsesc, în opinia autorilor, exemplificativ consultanța acordată clienților, negocierea și reprezentarea în instanță, la polul opus, printre activitățile cu impact major se regăsește revizuirea documentelor. La granița între cele două, în categoria activităților cu impact moderat sunt listate: redactarea de documente, efectuarea de due diligence, cercetarea juridică și stabilirea strategiei[32].
În viziunea acelorași autori, departe de a fi automatizată în viitorul apropriat este reprezentarea clienților în instanță de către avocații de litigii. Pe lângă rigoarea normelor procedurale și restricțiile mult mai severe din sălile de judecată, un impediment principal pentru o astfel de automatizare este componenta emoțională implicată în procesul de luare a deciziei. Nu doar argumentele sunt cele care contribuie la convingerea unui judecător, ci și emoțiile transmise de avocatul pledant, iar trăirile afective sunt departe de a fi codate și procesate prin algoritmi. Cel puțin în prezent.
Astfel, într‑o măsură mai mică sau mai mare, în funcție de domeniul de activitate și de aria de practică, munca avocaților suferă și va continua să sufere transformări din nevoia de adaptare la cerințele pieței și la progresul tehnologic. Dar, similar riscurilor generate de utilizarea AI în sistemul judiciar, apelarea la aceste unelte pentru a înlocui sau eficientiza servicii avocațiale presupune la rândul său provocări specifice.
În special în privința algoritmilor care înlocuiesc activitățile avocaților umani, de cele mai multe ori, intenția declarată este de a facilita accesul cetățenilor (cu venituri reduse) la servicii avocațiale și, atunci când este cazul, la justiție. Însă dreptul la apărare ar putea fi periclitat dacă serviciile avocațiale sunt oferite de personal necalificat (uman sau computerizat). Autorizarea sub diverse forme a profesioniștilor care prestează astfel de activități garantează un anumit standard de pregătire și formare profesională care, în final, reprezintă o garanție a protecției drepturilor și intereselor cetățenilor ce apelează la acești profesioniști. Liberalizarea completă a acestui domeniu, sub dezideratul garantării dreptului la apărare, ar putea conduce tocmai la consecința contrară, întrucât apărarea trebuie să fie și calificată, iar nu doar la îndemână.
Aceasta este, de altfel, și rațiunea pentru care (i) anumite activități specifice sunt rezervate prin lege avocaților, iar (ii) calitatea de avocat este obținută pe baza unui examen. Spre exemplu, în dreptul românesc, dispozițiile art. 3 alin. (1) din Legea nr. 51/1995 pentru organizarea și exercitarea profesiei de avocat precizează expres care sunt activitățile rezervate prin lege avocaților. Apare astfel întrebarea în ce măsură un algoritm AI care prestează una sau mai multe dintre aceste activități poate fi considerat o persoană neautorizată. Învestite cu judecarea unei pricini a cărei soluționare depindea de răspunsul la această întrebare[33], instanțele din Statele Unite ale Americii au făcut o distincție între activități de practicare a dreptului și activități de îndrumare prin kit‑uri de tipul „do‑it‑yourself” („ocupă‑te singur”).
Mai exact, în speța menționată, compania Legalzoom (deținătoarea website‑ului cu același nume) a fost acționată în instanță pentru practicarea neautorizată a dreptului, potrivit legislației din statul Missouri, întrucât oferea clienților săi formulare și servicii legale. Website‑ul avea două funcționalități principale: pe de o parte clienții puteau descărca formulare tipizate legale necompletate, pe care mai apoi să le printeze și completeze singuri, iar pe de altă parte clienții puteau completa un chestionar online, urmând ca un angajat Legalzoom să pregătească documentele legale prin inserarea informațiilor furnizate de client într‑un template și să verifice conținutul, astfel încât informațiile să fie complete.
În dezvoltarea raționamentului lor, judecătorii s‑au raportat la precedente judiciare în situații de practici potențial neautorizate, recunoscând însă că acestea nu sunt direct aplicabile, luând în considerare noutatea tehnologiei în dispută. Concluzia judecătorilor a fost în sensul că portalul online prin care utilizatorii Legalzoom completau un chestionar și primeau în schimb formulare completate și verificate de angajații Legalzoom reprezintă mai mult decât un simplu produs (un kit „do‑it‑yourself”), prestând cu această ocazie și un serviciu, respectiv pregătirea de documente legale. Pe cale de consecință, având în vedere că persoanele care prestau acest serviciu nu erau autorizate să practice dreptul în statul Missouri, exista un risc evident ca publicul să fie consiliat în probleme juridice de persoane necompetente.
Astfel, similar utilizărilor din sistemul judiciar, utilizarea AI în practicarea avocaturii prezintă beneficii însemnate atât pentru avocați, prin creșterea eficienței muncii avocaților, reducerea timpului dedicat activităților de rutină ce pot fi automatizate și îmbunătățirea rezultatelor cercetării juridice, cât și pentru clienți, prin îndrumare în parcurgerea unor proceduri legale lipsite de complexitate și pentru care nu au nevoie de ajutor de specialitate.
Cu toate acestea, dezvoltarea acestor tehnologii de o manieră iresponsabilă sau liberalizarea fără bariere a serviciilor avocațiale ascund pericole despre care utilizatorii finali este posibil să nu fie conștienți. După cum corect s‑a reținut într‑o altă cauză din Statele Unite ale Americii[34], scopul reglementării unor activități rezervate prin lege avocaților „nu este să protejeze baroul de concurență, ci să protejeze publicul de pericolul de a fi consiliat sau reprezentat în probleme legale de persoane incompetente sau neserioase”[35].
Îndrumări și tendințe legislative cu privire la utilizarea inteligenței artificiale în domeniul juridic
După cum se poate observa, utilizarea iresponsabilă a inteligenței artificiale în justiție sau în avocatură, în absența unor direcții clare de dezvoltare și a unor garanții corespunzătoare, poate conduce la grave atingeri aduse drepturilor și libertăților fundamentale ale cetățenilor. În aceeași măsură, teama producerii unor erori nu trebuie să împiedice progresul, astfel că soluția rămâne atingerea unui echilibru printr‑o evoluție tehnologică dirijată. În acest sens, vestea bună este că există o preocupare tot mai crescută pentru trasarea unor linii diriguitoare care să diminueze riscurile și să maximizeze potențialul de progres.
În decembrie 2018, Comisia Europeană pentru Eficiență în Justiție (CEPEJ) din cadrul Consiliului Europei a adoptat „Carta Etică Europeană în privința utilizării inteligenței artificiale în sistemele judiciare și domeniile adiacente” (denumit în continuare „Carta Etică Europeană”)[36]. primul document european relevant în această materie. În cadrul acesteia, au fost stabilite următoarele cinci principii fundamentale, cu explicațiile aferente, după cum urmează:
a) Principiul respectării drepturilor fundamentale – utilizarea AI în sistemele judiciare trebuie să servească scopuri precise, în completă armonie cu respectarea drepturilor fundamentale garantate de Convenția Europeană a Drepturilor Omului și a dreptului la protecția datelor și să nu aducă atingere garanțiilor accesului la justiție, dreptului la un proces echitabil, principiului ordinii de drept sau a independenței judecătorului,
b) Principiul nediscriminării – prevenirea dezvoltării sau intensificării oricăror discriminări între indivizi sau grupuri de indivizi, cu o grijă sporită în etapa de dezvoltare ce poate presupune procesarea directă sau indirectă de date sensibile (rasă, origine etnică, profil socio‑economic, opinii politice, religie, apartenență la sindicate, date genetice, date biometrice, orientare sexuală ș.a.),
c) Principiul calității și securității – folosirea unor surse certificate și a unor date intacte cu modele concepute într‑o manieră multidisciplinară, colectând ariile de expertiză ale mai multor profesioniști din domeniu (judecători, procurori, avocați), în special în privința procesării hotărârilor judecătorești și a datelor,
d) Principiul transparenței, imparțialității și echității – facilitarea accesului la informații și a înțelegerii metodelor de procesare a datelor, autorizarea unor auditori externi, precum și atingerea unui echilibru între protecția drepturilor de proprietate intelectuală și nevoia de transparență,
e) Principiul „under user control” („sub controlul utilizatorului”) – asigurarea că subiecții sunt actori informați și că au controlul propriei decizii. Aceștia trebuie să fie informați în limbaj cât mai simplu și ușor de înțeles dacă soluțiile oferite de uneltele AI sunt obligatorii sau nu și trebuie să li se aducă la cunoștință dreptul la asistență juridică și dreptul de acces la o instanță. De asemenea, trebuie să fie informați despre orice potențială procesare a cauzei de către AI, fie anterior, fie chiar în timpul procesului, având posibilitatea de a face obiecții și a fi ascultați direct de către o instanță judecătorească în sensul art. 6 din Convenția Europeană a Drepturilor Omului.
Totodată, în anexa II, Carta Etică Europeană oferă anumite indicații de orientare cu privire la direcțiile în care progresul ar trebui urmărit, catalogând utilizările AI în patru clase:
a) Utilizări încurajate: îmbunătățirea cercetării jurisprudențiale prin procesarea limbajului natural, generarea unor template‑uri de documente, utilizarea chatbots pentru oferirea informațiilor relevante utilizând limbaj natural,
b) Utilizări posibile ce necesită precauții metodologice considerabile: sprijinirea unor măsuri de soluționare alternativă a disputelor în materie civilă, soluționarea disputelor prin intermediul platformelor online, utilizarea AI pentru predicții cu privire la zonele în care se comit infracțiuni,
c) Utilizări de avut în vedere după studii științifice suplimentare: crearea unor profiluri ale judecătorilor, generarea unor predicții cu privire la decizia instanțelor judecătorești,
d) Utilizări de privit cu cele mai extreme rezerve: utilizarea în materie penală a unor algoritmi AI pentru crearea de profile ale indivizilor (precum se întâmplă în cazul COMPAS utilizat în Statele Unite ale Americii sau HART în Marea Britanie), orientarea judecătorilor către decizii luate pe criterii cantitative (punând la dispoziție numărul de decizii emise de alți judecători în spețe similare și „blocând” judecătorul în această masă de așa‑zise precedente).
O altă inițiativă salutară, foarte recentă, pentru crearea unor principii călăuzitoare în acest domeniu este publicarea la finalul lunii martie 2022 a „Ghidului pentru utilizarea de către avocați și firmele de avocatură din Uniunea Europeană a uneltelor bazate pe inteligența artificială” (în continuare „Ghidul CCBE”) de către Consiliul Barourilor și Societăților de Drept din Europa (CCBE) și Fundația Europeană a Avocaților (ELF), în cadrul programului AI4Lawyers[37]. Pe lângă descrierea (de o manieră didactică, iar nu comercială) a unor tipuri de unelte bazate pe inteligența artificială relevante pentru activitatea avocațială, Ghidul CCBE include potențiale scenarii privind modul în care va fi folosită inteligența artificială în viitor de către avocați, precum și principalele riscuri ale utilizării AI de care avocații ar trebui să fie conștienți, atât cu privire la aspectele tehnice, cât și cu privire la obligațiile profesionale ale acestora față de clienți.
Conform Ghidului CCBE, printre activitățile desfășurate de avocați cu cel mai mare potențial de a fi eficientizate prin intermediul inteligenței artificiale, sunt enumerate: redactarea de documente, analiza de documente, cercetarea legislației și jurisprudenței, transcrierea automată a unui discurs, utilizarea de chatbots și asistența în organizarea internă a activităților administrative.
În privința riscurilor, este amintit, cu titlu de exemplu, riscul de încălcare a obligației de confidențialitate față de client, în cazul în care dezvoltatorii instrumentelor bazate pe AI utilizate transmit datele puse la dispoziție de avocați pentru procese de antrenare sau de analiză efectuate de către terțe companii. În plus, pe lângă astfel de riscuri ce privesc mai degrabă aspectele tehnice și garanțiile unei funcționalități conforme cu standardele legale, Ghidul CCBE amintește și de riscuri prezente mai degrabă la nivel psihologic și deontologic, precum „frica de a fi lăsat deoparte” (prescurtată în engleză ca FOMO, de la „fear of missing out”) ce îi poate determina pe avocați să se prezinte public drept pionieri ai unor noi tehnologii, pentru a căror utilizare corespunzătoare nu dețin însă competența profesională necesară.
În final, redactorii ghidului menționează că nu suntem în stadiul în care profesiile juridice să devină redundante, însă avocații trebuie să își ajusteze activitatea și competența conform transformărilor prin care întreaga societate trece ca urmare a utilizării noilor tehnologii.
Totodată, cu un interes crescut deopotrivă pentru a deveni un competitor puternic pe piața globală în domeniul AI, dar și pentru a ține riscurile aferente sub control, la nivelul Uniunii Europene, Comisia Europeană a propus noi reguli și acțiuni pentru a transforma Uniunea Europeană într‑un hub global pentru tehnologii de AI sigure și fiabile. Astfel, în aprilie 2021 a publicat „Pachetul AI”[38], în care se regăsește inclusiv o propunere de Regulament în domeniul AI[39], ce prevede o listă de practici interzise, clasificarea sistemelor AI în funcție de gradul de risc (împreună cu cerințele aferente de conformitate), obligația desemnării la nivel național a unei autorități de notificare, instituirea Comitetului European pentru Inteligența Artificială, crearea unei baze de date UE pentru sisteme autonome de AI cu grad ridicat de risc, instituirea unui mecanism de monitorizare ulterioară și alte astfel de măsuri.
Cu o privire specială asupra utilizării AI de către autoritățile polițienești și judiciare în procedurile penale, în octombrie 2021, Parlamentul European a emis o Rezoluție prin care și‑a manifestat îngrijorarea față de „o serie de riscuri potențiale mari și, în anumite cazuri, inacceptabile pentru protejarea drepturilor fundamentale ale persoanelor, cum ar fi opacitate în luarea deciziilor, diferite tipuri de discriminare și erori inerente în algoritmul de bază care pot fi consolidate prin bucle de feedback, precum și riscuri pentru protejarea vieții private și a datelor cu caracter personal, a libertății de exprimare și de informare, a prezumției de nevinovăție, a dreptului la o cale de atac și la un proces corect, precum și pentru libertatea și securitatea persoanelor”[40].
În cadrul acestei rezoluții, Parlamentul European a solicitat Agenției pentru Drepturi Fundamentale a UE ca, în colaborare cu CEPD și AEPD, să elaboreze orientări cuprinzătoare, recomandări și bune practici pentru a detalia criteriile și condițiile pentru dezvoltarea, utilizarea și implementarea aplicațiilor și soluțiilor IA care să fie utilizate de autoritățile de aplicare a legii și judiciare. Totodată, și‑a asumat misiunea de a efectua un studiu privind punerea în aplicare a Directivei privind protecția datelor în materie de asigurare a respectării legii pentru a identifica modul în care a fost asigurată protecția datelor cu caracter personal în activitățile de prelucrare de către autoritățile de aplicare a legii și judiciare. În final, Parlamentul European a invitat, de asemenea, Comisia să analizeze dacă este necesară o acțiune legislativă specială pentru specificarea mai detaliată a criteriilor și condițiilor pentru dezvoltarea, utilizarea și implementarea aplicațiilor și soluțiilor AI de către autoritățile de aplicare a legii și judiciare.
Astfel, deși nu există încă un set de reglementări specifice cu caracter imperativ la nivel intern sau internațional, în perioada recentă au fost publicate îndrumări care să vină în ajutorul profesioniștilor din sistemul judiciar și din avocatură, ce se confruntă cu provocări inedite generate de dezvoltarea accelerată a tehnologiei AI. Inițiativa este mai mult decât binevenită nu doar din perspectiva oferirii unui sprijin celor implicați în prezent în utilizarea uneltelor AI (prin facilitarea înțelegerii mecanismelor de funcționare ale acestora și a riscurilor aferente), dar mai ales din perspectiva orientării direcției potrivite înspre care să fie îndreptat progresul tehnologic în acest domeniu în viitor.
Concluzii
Astfel cum a fost precizat încă din debutul prezentului articol, până la momentul actual nu a fost concepută o inteligență artificială „generală”, în sensul de entitate cu capacitatea de a acționa în lumea reală în mod independent, având propriile seturi de valori și propria rațiune. Câtă vreme inteligența umană, în toată complexitatea sa, nu este explicată, nu va fi posibilă nici replicarea sa[41]. Din acest punct de vedere, probabilitatea ca în viitorul apropiat avocații, judecătorii sau alți actori‑cheie din sistemul judiciar să fie înlocuiți de algoritmi bazați pe AI pare să fie una redusă.
Dar acest fapt nu trebuie să conducă la concluzia că inteligența artificială este un domeniu științifico‑fantastic, plasat într‑un viitor îndepărtat și incert și, prin urmare, nu ar merita să îi fie acordată o atenție însemnată. Dimpotrivă, instrumentele bazate pe inteligență artificială pentru funcționalități restrânse sunt deja o realitate și sunt folosite în activitatea de zi cu zi a profesioniștilor din domeniul juridic. Tocmai de aceea, preocuparea ar trebui să fie orientată către modul în care astfel de tehnologii funcționează deja și asupra consecințelor pe care le produc în prezent sau le pot produce în viitor. Numai o dezvoltare responsabilă a acestor tehnologii poate conduce deopotrivă la eficientizarea muncii umane și la respectarea drepturilor și libertăților fundamentale.
În caz contrar, în absența unor direcții clare de orientare, sub cupola unor intenții declarate dintre cele mai nobile precum facilitarea accesului la justiție, combaterea criminalității sau eficientizarea costurilor, se poate ascunde, în realitate, un cal troian al riscurilor nebănuite. Justiția și avocatura, la fel ca orice alt domeniu, vor suferi treptat transformări semnificative, dar dacă acestea vor fi într‑o direcție pozitivă sau negativă depinde de înțelegerea și acceptarea a două idei: (i) progresul nu poate fi oprit, (ii) dar poate fi dirijat.
[20] A se vedea Lawyers to Engage Team, What everyone must know about lawyer bots, disponibil la https://lawyerstoengage.com/what-everyone-must-know-about-lawyer‑bots/ (accesat la 7 mai 2022)
[21] W. Shaw, Morgan Stanley s Robot Libor Lawyers Saved 50,000 Hours of Work, disponibil la https://www.bloomberg.com/news/articles/2021‑10‑22/morgan-stanley‑s‑robot‑libor‑lawyers‑saved‑50‑000‑hours‑of‑work (accesat la 7 mai 2022).
[22] Ca urmare a unor fraude constatate, Libor a fost înlocuit începând cu 31 decembrie 2021 cu SOFR (Secured Overnight Financing Rate). Pentru mai multe detalii, a se vedea M. Marquit, B. Curry, What Is Libor And Why Is It Being Abandoned?, disponibil la https://www.forbes.com/advisor/investing/what‑is‑libor/ (accesat la 7 mai 2022).
[23] Disponibil la https://donotpay.com/ (accesat la 7 mai 2022).
[24] P. Belton, Would you let a robot lawyer defend you?, disponibil la https://www.bbc.com/news/business‑58158820 (accesat la 7 mai 2022).
[25] https://bit.ly/38aurRf (generat la 7 mai 2022 prin https://bitly.com/).
[26] Premiul Louis M. Brown este acordat începând cu anul 1995 pentru celor care își dedică munca îmbunătățirii accesului la servicii legale pentru cei cu venituri reduse. Pentru detalii, a se vedea https://www.americanbar.org/groups/delivery_ legal_services/initiatives_awards/louis_m_brown_award_ for_legal_access/ (accesat la 7 mai 2022).
[27] A se vedea https://www.neotalogic.com/industry/legal/ (accesat la 7 mai 2022).
[28] E. Sohn, alt.legal: Can Computers Beat Humans At Law?, disponibil la https://abovethelaw.com/2016/03/alt‑legal‑can‑computers‑beat‑humans‑at‑law/?rf=1 (accesat la 7 mai 2022).
[29] Idem.
[30] P. Belton, op. cit.
[31] D. Remus, F.S. Levy, op. cit.
[32] Deși aparent surprinzătoare, având în vedere că stabilirea strategiei ar putea fi considerată o activitate imună la procesele de automatizare, progresul unor unelte software (i) care fac predicții pe baza datelor istorice sau (ii) care organizează și prezintă utilizatorilor soluții legale într‑un dialog structurat poate conduce, mai ales prin combinarea celor două, la un impact asupra modului în care vor fi stabilite strategiile în viitor, cel puțin pentru anumite cauze mai simple.
[33] Janson și alții c. Legalzoom.com, Inc.‑ 802 F.Supp. 2d 1053, 1059 (W.D. Mo. 2011). Pentru mai multe detalii, a se vedea https://casetext.com/case/janson‑v‑legalzoomcom (accesat la 7 mai 2022).
[34] Hulse, 247 S.W.2d at 857‑58.
[35] Citatul original: „is not to protect the Bar from competition but to protect the public from being advised or represented in legal matters by incompetent or unreliable persons”.
[36] Disponibilă la https://rm.coe.int/ethical‑charter‑en‑for-publication‑4‑december‑2018/16808f699c (accesat la 7 mai).
[37] Disponibil la https://www.ccbe.eu/fileadmin/speciality_distribution/public/documents/IT_LAW/ITL_ Reports_studies/EN_ITL_20220331_Guide‑AI4L.pdf (accesat la 7 mai 2022).
[38] A se vedea https://digital‑strategy.ec.europa.eu/en/policies/european‑approach‑artificial‑intelligence (accesat la 7 mai 2022).
[39] Disponibilă la https://eur‑lex.europa.eu/legal‑content/EN/TXT/?qid=1623335154975&uri=CELEX%3A52021 PC0206 (accesat la 7 mai 2022).
[40] Disponibilă la https://www.europarl.europa.eu/doceo/document/TA‑9‑2021‑0405_RO.html (accesat la 7 mai 2022)
[41] A se vedea și D. Deutsch, op. cit.