Cât de imparţială şi eficientă poate fi inteligenţa artificială în combaterea hate speech?

 

Universuljuridic.ro PREMIUM

Aici găsiți informaţiile necesare desfăşurării activităţii dvs. profesionale.

Universuljuridic.ro PREMIUM pune la dispoziția profesioniștilor lumii juridice un prețios instrument de pregătire profesională. Oferim un volum vast de conținut: articole, editoriale, opinii, jurisprudență și legislație comentată, acoperind toate domeniile și materiile de drept. Clar, concis, abordăm eficient problematicile actuale, răspunzând scenariilor de activitate din lumea reală, în care practicienii activează.

Testează ACUM beneficiile Universuljuridic.ro PREMIUM prin intermediul abonamentului GRATUIT pentru 7 zile!

🔑Vreau cont PREMIUM!


 

3.4. Cât de imparţială şi eficientă poate fi inteligenţa artificială în combaterea hate speech?

Exemplul negativ prezentat anterior generează mai curând întrebări decât răspunsuri, în privinţa impactului folosirii inteligenţei artificiale pentru combaterea mesajelor cu efect vătămător. Una dintre cele mai sensibile este dacă formele actuale de inteligenţă artificială pot să asigure echilibrul între mai multe drepturi şi să analizeze o corectă identificare şi calificare a mesajelor ca discurs al urii.

Problema cea mai sensibilă este reprezentată de faptul că nu există încă elemente juridice şi de etică universale cu privire la semnificaţia discursului urii şi când (dacă este cazul) ar trebui eliminat în mod automat, prin intervenţia exclusivă a algoritmilor ce reprezintă inteligenţa artificială[1].
La acestea se adaugă elemente precum faptul că funcţionarea acestora se bazează pe informaţii ce pot fi părtinitoare, imposibilitatea mecanismelor automate de a distinge între diferite nuanţe ale unor cuvinte şi punerea în aplicare a politicilor adoptate de companiile private.

Circulaţia liberă a ideilor ca parte a libertăţii de exprimare reprezintă o trăsătură a societăţii democratice şi un drept fundamental garantat atât la nivel universal, cât şi la nivel regional. Instrumentele juridice internaţionale nu conţin dispoziţii referitoare la un drept la o informaţie corectă şi nici nu interzic în mod expres răspândirea de informaţii care nu sunt corecte sau adevărate. Această nişă a fost exploatată prin folosirea libertăţii de exprimare în alte scopuri decât cele consacrate în instrumentele juridice internaţionale, ceea ce a determinat intensificarea formelor de hate speech şi a altor tipuri de discursuri nelegale.

Nu trebuie omis faptul că internetul are o dimensiune globală, că libertatea de exprimare este recunoscută, în principiu, indiferent de frontiere. Însă legislaţia naţională a statelor nu este uniformă, iar ceea ce este interzis într‑un anume spaţiu poate fi permis în alte state. Diferenţa cea mai vizibilă este între regimul privind discursul urii în Europa şi în sistemul general de protecţie stabilit prin Pactul internaţional cu privire la drepturile civile şi politice, unde este interzis, şi reglementarea din Statele Unite ale Americii, care nu interzice astfel de manifestări, dacă nu sunt urmate de acte de violenţă.

Apar deci diferenţe între ceea ce constituie conţinut ilegal ce trebuie interzis, de la un spaţiu juridic la altul.

Există o tensiune evidentă între dorinţa de a permite o dezbatere liberă şi deschisă, pe cele mai variate subiecte, parte a libertăţii de exprimare, şi necesitatea de a oferi protecţie grupurilor vulnerabile împotriva discursului de ură. Găsirea unui echilibru între aceste două valori reprezintă o operaţiune complexă şi dificilă, având ca punct de plecare faptul că libertatea de exprimare nu înseamnă libertatea de a incita la violenţă sau de a insulta şi discrimina alte persoane sau grupuri, pe baza unor anumite criterii enumerate în acte internaţionale.

Inteligenţa artificială poate fi folosită pentru a detecta şi filtra formele de hate speech pe platformele online sau pentru a le preveni în anumite contexte. Însă implementarea eficientă a acestor tehnologii poate fi dificilă, deoarece inteligenţa artificială nu este perfectă şi poate interpreta greşit sau cenzura incorect anumite expresii. Totodată, este dificil de imaginat că un ansamblu de algoritmi (chiar extrem de sofisticat) poate lua în considerare testul proporţionalităţii în aplicarea de limitări sau restricţionări, blocarea accesului utilizatorilor, ştergerea conţinutului nociv, măsuri ce reprezintă o formă de cenzură[2], interzisă de manieră imperativă de instrumentele inter­naţionale. Faţă de acţiunile prompte ale formelor de inteligenţă artificială nu există, în concret, aceleaşi garanţii precum cele ce se aplică în cazul rapor­tului tipic în materie de protecţie a drepturilor fundamentale, între titularul de drepturi şi autorităţile guvernamentale. Elemente precum contextul mesa­jului, sensul acestuia (dacă implică sau nu în mod real instigare la discri­minare sau ură), esenţiale pentru calificarea într‑o astfel de categorie, sunt dificil de integrat şi dezvoltat de modelele de inteligenţă artificială care să detecteze nuanţe sau glume.

Facebook, YouTube şi Twitter (în prezent X) s‑au bazat pe dezvoltarea tehnologiilor de inteligenţă artificială pentru a preveni şi stopa răspândirea discursului instigator la ură în reţelele lor. Eficienţa unui astfel de proces este foarte importantă, având în vedere manifestările de violenţă şi instigarea la comiterea unor astfel de acte, limitarea discursului de ură în mediul online reprezentând o provocare.

* Este extras din Carmen Moldovan, Protecția libertății de exprimare în dreptul internațional și european, Ed. Universul Juridic, București, 2025, pp. 262-264.


[1]  N. Alkiviadou, Artificial Intelligence and online hate speech moderation, A Risky Match?, în Sur – International Journal on Human Rights, 32‑v.19 n.32, 2022, pp. 101‑112.


[2]  David Kaye Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression, Mandate of the Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression, OL OTH 41/2018, 13 June 2018, https://www.ohchr.org/sites/default/files/Documents/Issues/Opinion/Legislation/OL‑OTH‑41‑2018.pdf.