Etica inteligenței artificiale. Premisele cadrului legal pentru inteligența artificială – o abordare europeană. Cartea albă a Comisiei Europene

6 apr. 2020
Articol UJ Premium
0 voturi, medie: 0,00 din 50 voturi, medie: 0,00 din 50 voturi, medie: 0,00 din 50 voturi, medie: 0,00 din 50 voturi, medie: 0,00 din 5 (0 votes, average: 0,00 out of 5)
You need to be a registered member to rate this post.
Vizualizari: 3246
 

Universuljuridic.ro PREMIUM

Aici găsiți informaţiile necesare desfăşurării activităţii dvs. profesionale.

Universuljuridic.ro PREMIUM pune la dispoziția profesioniștilor lumii juridice un prețios instrument de pregătire profesională. Oferim un volum vast de conținut: articole, editoriale, opinii, jurisprudență și legislație comentată, acoperind toate domeniile și materiile de drept. Clar, concis, abordăm eficient problematicile actuale, răspunzând scenariilor de activitate din lumea reală, în care practicienii activează.

Testează ACUM beneficiile Universuljuridic.ro PREMIUM prin intermediul abonamentului GRATUIT pentru 7 zile!

🔑Vreau cont PREMIUM!


 

Capitolul 1 – INTELIGENTA ARTIFICIALĂ PUNCT DE PLECARE

Poate face față legislația, tehnologiei zilnic înnointă, parcă cu „viteza luminii”?

Poate face față legislația Uniunii Europene, provocărilor actuale, poate ține pasul cu explozia tehnologică, fără să intre în desuetudine sau să devină caducă?

Era digitală?

Trăim în ea.

Bătrânul continent, încă încrezător în rolul său milenar asupra civilizației, a intrat în cursa deținerii supremației morale, privind elaborarea unor orientări de etică referitoare la dezvoltarea inteligenței artificiale, respectiv asigurarea unui cadru etic și juridic adecvat.

Europa? – O iubim… Sublimă cu entuziasmul și ezitările ei…

 

Capitolul 2 – CE ESTE INTELIGENTA ARTIFICIALĂ?

 Potrivit Planului coordonat privind inteligența artificială al Comisiei Europene – COM (2018) 795 final – 07.12.2018 (forma actualizată și publicată de Comisie la data de 04.03.2019), inteligența artificială se referă la sistemele care manifestă comportamente inteligente prin analizarea mediului lor înconjurător și care iau măsuri – cu un anumit grad de autonomie- pentru a atinge obiective specifice.

Grupul independent de experți la nivel înalt privind inteligența artificială instituit de Comisia Europeană în iunie 2018 a propus o definiție a inteligenței artificiale în cadrul Comunicării Comisiei Europene privind AI: „Inteligența artificială (IA) se referă la sistemele care manifestă comportamente inteligente prin analizarea mediului lor înconjurător și care iau măsuri – cu un anumit grad de autonomie – pentru a atinge obiective specifice. Sistemele bazate pe IA se pot baza exclusiv pe software-uri, acționând în lumea virtuală (de exemplu, asistenți vocali, software de analiză a imaginii, motoare de căutare, sisteme de recunoaștere vocală și facială) sau IA poate fi încorporată în dispozitive hardware (de exemplu, roboți avansați, vehicule autonome, drone sau aplicații pentru internetul obiectelor)”.

Este de reținut că, deși personalul Comisiei a facilitat elaborarea „Îndrumarului etic pentru inteligență artificială (IA) fiabilă” elaborat de Grupul de experți la nivel înalt al Comisiei privind inteligența artificială, publicat la 8 aprilie 2019, opiniile exprimate în acesta reflectă punctul de vedere al Grupului de experți (AI HLEG) și nu pot fi considerate în nicio situație ca reprezentând o poziție oficială a Comisiei Europene. De asemenea, conținutul documentului este responsabilitatea exclusivă a Grupului de experți la nivel înalt privind inteligența artificială.

De asememenea, Grupul de experți au elaborat o definiție a IA în scopul documentelor elaborate de grup, întru-un document intitulat „O definiție a Inteligenței Artificiale- principalele capacități și discipline”.

Grupul de experți au utilizat termenul de sistem IA – „pentru a face trimitere la orice componentă, software și/sau hardware, bazată pe IA. Într-adevăr, de obicei sistemele IA nu sunt sisteme de sine stătătoare, ci sunt încorporate drept componente ale unor sisteme de sine stătătoare. Astfel, un sistem IA este în primul rând rațional, conform unuia dintre cele mai utilizate manuale privind IA. Dar cum dobândește rațiune un sistem IA? Astfel cum se subliniază în prima frază din definiția de lucru de mai sus cu privire la IA, un sistem IA dobândește rațiune prin faptul că percepe mediul în care sistemul este înglobat, prin intermediul unor senzori, colectând și interpretând astfel datele, raționând cu privire la informațiile percepute sau prelucrând informațiile derivate din aceste date și decizând care este cea mai bună acțiune și acționând, ulterior, în consecință, prin intermediul unor actuatoare, putând astfel să modifice mediul. Sistemele IA pot fie să utilizeze reguli simbolice sau să învețe un model numeric și, de asemenea, își pot adapta comportamentul analizând modul în care mediul este afectat de acțiunile lor anterioare.

Grupul de experți au mai făcut referire și la robotică, precizând că, „robotica poate fi definită ca – IA în acțiune în lumea fizică- (denumită, de asemenea, IA corporalizată). Un robot este o mașină fizică ce trebuie să facă față dinamicii, incertitudinilor și complexității lumii fizice. Percepția, raționarea, acțiunea, învățarea, precum și capacitățile de a interacționa cu alte sisteme sunt integrate, de obicei, în arhitectura de control a sistemului robotic. Pe lângă IA, și alte discipline joacă un rol în proiectarea și exploatarea roboților, cum ar fi ingineria mecanică și teoria controlului. Exemplele de roboți includ manipulatoarele robotice, vehiculele autonome (de exemplu, mașinile, dronele, taxiurile zburătoare), roboții umanoizi, aspiratoarele robot etc”.

La finalul documentului, membrii Grupului de experți au opinat pentru o definiție actualizată a IA: „Sistemele de inteligență artificială (IA) sunt sisteme software (și, eventual, hardware) proiectate de oameni (oamenii proiectează sistemele IA în mod ditrect, dar pot utiliza și tehnici de IA pentru a optimiza proiectarea acestora), care, dacă li se dă un obiectiv complex, acționează în dimensiunea fizică sau digitală, percepând mediul prin intermediul preluării datelor, prin interpretarea datelor structurate sau nestructurate colectate, prin raționarea cu privire la cunoștințe sau prin prelucrarea informațiilor obținute din aceste date și prin deciderea celei/celor mai bune acțiuni care trebuie întreprinse pentru a realiza obiectivul dat. Sistemele IA pot să utilizeze reguli simbolice sau să învețe un model numeric și, de asemenea, își pot adapta comportamentul analizând modul în care mediul este afectat de acțiunile lor anterioare.

Bibliolex Biblioteca juridica virtuala

Ca disciplină științifică, IA include mai multe abordări și tehnici, cum ar fi învățarea automată (exemple specifice de învățare automată fiind învățarea profundă și învățarea prin consolidare), raționarea automată (ce include planificarea, programarea, reprezentarea cunoștințelor și raționarea, căutarea și optimizarea) și robotica (ce include controlul, percepția, senzorii și actuatoarele, precum și integrarea oricăror altor tehnici în sistemele ciberfizice)”.

Este esențial că, punctul de plecare în definirea Inteligenței Artificiale a fost oferit laolaltă de profesioniști în domeniul tehnologic, digital, robotică, profesori universitari, specialiști în domeniul respectării drepturilor omului, pentru a se contura dintru început o definiție corectă și adecvată tendințelor tehnologice, precum și utilizării acesteia în beneficiul omului.

 

Capitolul 3 – VIZIUNEA UNIUNII EUROPENE ASUPRA CREĂRII UNUI CADRU ETIC ȘI LEGISLATIV ADECVAT ÎN DOMENIUL INTELIGENȚEI ARTIFICIALE

Creșterea puterii de calcul, disponibilitatea datelor și progresele realizate în ceea ce privește algoritmii au transformat IA în una din cele mai importante tehnologii ale secolului XXI.

Dată fiind dezvoltarea cu rapiditate a tehnologiei inteligenței artificiale, se impune ca la nivel european să fie elaborate, ținând cont și de rolul fundamental al CARTEI DREPTURILOR FUNDAMENTALE A UNIUNII EUROPENE, a unor norme etice și a unui cadru legal, care să asigure garanții juridice și evitarea utilizării abuzive a acesteia.

Ambiția Uniunii Europene este ca Europa să devină prima regiune din lume pentru dezvoltarea și implementarea IA de vârf, etică și sigură, promovând o abordare axată pe OM, cu deplina respectare a drepturilor fundamentale, în vederea stabilirii unor standarde etice la nivel mondial și pentru a deveni un lider mondial al inteligenței artificiale etice și de încredere.

Pentru punerea în aplicare a acestor principii în dezvoltarea și utilizarea și legiferarea IA, Comisia Europeană și-a prezentat stategia, în Comunicarea (2019) 168 final din 08.04.2019 către Parlamentul European, Consiliu, Comitetul Economic și Social European și Comitetul Regiunilor, având ca scop construirea încrederii cetățenilor într-o inteligență artificială centrată pe factorul uman.

Astfel, Comisia a învederat că, „UE are un cadru solid de reglementare care va stabili standardul global pentru IA centrată pe factorul uman. Regulamentul general privind protecția datelor asigură un standard ridicat de protecție a datelor cu caracter personal și impune punerea în aplicare de măsuri pentru asigurarea protecției datelor din faza de proiectare și în mod implicit. Regulamentul privind libera circulație a datelor fără caracter personal în Uniunea Europeană elimină barierele din calea liberei circulații a datelor fără caracter personal și asigură prelucrarea tuturor categoriilor de date, peste tot în Europa. Legea privind securitatea cibernetică, adoptată recent, va contribui la consolidarea încrederii în lumea online, iar propunerea de regulament privind respectarea vieții private în comunicațiile electronice vizează același obiectiv.

Cu toate acestea, IA aduce noi provocări pentru că le permite echipamentelor să „învețe”, să ia și să pună în aplicare decizii fără intervenția umană. În curând, acest tip de funcționalitate va deveni standard pentru numeroase produse și servicii, de la telefoane inteligente la mașini automate, roboți și aplicații online. Cu toate acestea, deciziile luate pe baza unor algoritmi ar putea rezulta din date care sunt incomplete și, prin urmare, care nu sunt fiabile, și ar putea fi manipulate prin atacuri cibernetice, ar putea fi subiective sau pur și simplu ar putea fi greșite. Aplicarea fără discernământ a tehnologiei pe măsură ce aceasta se dezvoltă ar conduce, așadar, la rezultate problematice, precum și la reticența cetățenilor de a o accepta sau a o folosi.

Tehnologia IA ar trebui dezvoltată însă într-o manieră care să fie centrată pe factorul uman și care, astfel, să merite încrederea populației. Aceasta înseamnă că aplicațiile IA nu ar trebui să fie doar conforme cu legea, ci și să respecte principiile etice și să garanteze că punerea acestora în aplicare nu provoacă daune nedorite. Diversitatea din punctul de vedere al genului, al originii rasiale sau etnice, al religiei sau al convingerilor, al handicapului și al vârstei ar trebui asigurată în fiecare fază a dezvoltării IA. Aplicațiile IA ar trebui să ofere cetățenilor mijloace pentru a acționa și ar trebui să respecte drepturile fundamentale ale acestora. Scopul lor ar trebui să fie acela de a spori abilitățile persoanelor, nu de a le înlocui, și de a permite totodată accesul persoanelor cu handicap.

Prin urmare, este nevoie de orientări în materie de etică, care să se bazeze pe cadrul de reglementare existent și care ar trebui să fie aplicate de dezvoltatorii, furnizorii și utilizatorii de IA pe piața internă, care să stabilească condiții etice pentru desfășurarea activității în toate statele membre.

Din acest motiv, Comisia a instituit un grup de experți la nivel înalt privind IA, care reprezintă o gamă largă de părți interesate, și a încredințat acestui grup misiunea de a elabora orientări în materie de etică în ceea ce privește IA, precum și de a pregăti un set de recomandări pentru o politică mai amplă referitoare la IA. Totodată, a fost înființată Alianța europeană în domeniul inteligenței artificiale, o platformă multilaterală deschisă, cu peste 2 700 de membri, care să ofere o gamă mai variată de observații pentru activitatea grupului de experți la nivel înalt privind IA.

Grupul de experți la nivel înalt privind IA a publicat o primă versiune a orientărilor în materie de etică în decembrie 2018. În urma unei consultări cu părțile interesate și a întâlnirilor cu reprezentanții statelor membre, grupul de experți privind IA a transmis Comisiei un document revizuit în martie 2019. Până în prezent, în feedback-ul lor, părțile interesate au salutat, per ansamblu, caracterul practic al orientărilor și îndrumările practice pe care le oferă dezvoltatorilor, furnizorilor și utilizatorilor de IA în ceea ce privește asigurarea încrederii.

Orientările elaborate de grupul de experți la nivel înalt privind IA la care se referă prezenta comunicare valorifică în special activitatea Grupului european pentru etică în domeniul științei și al noilor tehnologii și a Agenției pentru Drepturi Fundamentale a Uniunii Europene.

Orientările prevăd că, pentru o „IA de încredere”, sunt necesare trei componente: (1) aceasta ar trebui să respecte legea; (2) ar trebui să respecte principiile etice și (3) ar trebui să fie solidă.

Pe baza acestor trei componente și a valorilor europene prevăzute în secțiunea 2, orientările identifică șapte cerințe-cheie pe care aplicațiile IA ar trebui să le respecte pentru a fi considerate de încredere. Orientările includ și o listă de evaluare, care poate fi folosită pentru a verifica îndeplinirea acestor cerințe.

Cele șapte cerințe-cheie sunt:

– implicare și supraveghere umană;

– robustețe tehnică și siguranță;

– respectarea vieții private și guvernanța datelor;

– transparență;

– diversitate, nediscriminare și echitate;

– bunăstare societală și de mediu;

– responsabilitate.

Deși aceste cerințe sunt concepute pentru a se aplica tuturor sistemelor de IA în contexte și industrii diferite, pentru punerea lor în aplicare într-o manieră concretă și proporțională ar trebui să se țină cont de contextul specific de aplicare, adoptându-se o abordare ce are în vedere impactul. De exemplu, o aplicație IA care sugerează, drept recomandare de lectură, o carte inadecvată este mult mai puțin periculoasă decât stabilirea în mod eronat a unui diagnostic de cancer și, prin urmare, ar putea face obiectul unei supravegheri mai puțin stringente.

Orientările elaborate de grupul de experți la nivel înalt privind IA nu au un caracter obligatoriu și, prin urmare, nu creează nicio nouă obligație juridică. Totuși, numeroase dispoziții existente (și deseori cu utilizare specifică sau specifice unui anumit domeniu) ale dreptului Uniunii reflectă deja, desigur, una sau mai multe dintre aceste cerințe-cheie, de exemplu normele privind siguranța, protecția datelor cu caracter personal, respectarea vieții private sau protecția mediului”.

Comisia a salutat activitatea grupului de experți la nivel înalt privind IA și a considerat-o valoroasă pentru procesul său de elaborare a politicilor, și a explicitat după cum urmează, cele șapte cerințe cheie ale inteligenței artificiale:

I. Implicarea și supravegherea umană

Sistemele IA ar trebui să ajute persoanele să ia decizii mai bune și mai bine informate, în conformitate cu propriile obiective. Acestea ar trebui să contribuie la crearea unei societăți înfloritoare și echitabile, sprijinind implicarea umană și drepturile fundamentale, fără a reduce, a limita sau a orienta eronat autonomia umană. Bunăstarea generală a utilizatorului ar trebui se afle în centrul funcționării sistemului.

Supravegherea umană contribuie la asigurarea faptului că sistemele IA nu subminează autonomia umană și nu provoacă alte efecte adverse. În funcție de sistemul specific bazat pe IA și de domeniul său de aplicare, ar trebui asigurate nivelurile corespunzătoare ale măsurilor de control, inclusiv adaptabilitatea, acuratețea și explicitatea sistemelor bazate pe IA . Supravegherea se poate realiza prin mecanisme de guvernanță, precum asigurarea unei abordări care implică factorul uman, de tipul human-in-the-loop (omul care este implicat în operațiune), human-on-the-loop (omul care monitorizează operațiunea) sau human-in-command (omul care conduce operațiunea). Trebuie să se garanteze faptul că autoritățile publice au capacitatea de a-și exercita atribuțiile de supraveghere în conformitate cu mandatele lor. Dacă toate celelalte condiții rămân neschimbate, cu cât o ființă umană poate exercita mai puțină supraveghere asupra unui sistem IA, cu atât este nevoie de teste mai extinse și de o guvernanță mai strictă.

Etica inteligenței artificiale. Premisele cadrului legal pentru inteligența artificială – o abordare europeană. Cartea albă a Comisiei Europene was last modified: aprilie 3rd, 2020 by Doina Vișan

Vă recomandăm:

Despre autor:

Doina Vișan

Doina Vișan

Este judecător la Curtea de Apel București, Secția a VIII-a Contencios Administrativ și Fiscal.
A mai scris:

Abonează-te la newsletter