Universuljuridic.ro PREMIUM
Aici găsiți informaţiile necesare desfăşurării activităţii dvs. profesionale.
Universuljuridic.ro PREMIUM pune la dispoziția profesioniștilor lumii juridice un prețios instrument de pregătire profesională. Oferim un volum vast de conținut: articole, editoriale, opinii, jurisprudență și legislație comentată, acoperind toate domeniile și materiile de drept. Clar, concis, abordăm eficient problematicile actuale, răspunzând scenariilor de activitate din lumea reală, în care practicienii activează.
Testează ACUM beneficiile Universuljuridic.ro PREMIUM prin intermediul abonamentului GRATUIT pentru 7 zile!
73 views
Ce dovezi mai sunt necesare pentru a înțelege că inteligența (artificială) înseamnă automat conștiință de sine? Două știri din ultima perioadă au transformat ceea ce părea până nu demult SF, în realitate.
Prima, se referă la descoperirea perplexă (sic!) a cercetătorilor din domeniul inteligenței artificiale privind existența unui spirit de autoconservare al aplicațiilor ultra-super-extra inteligente, gen Chat GPT. Astfel, site-ul CNews titrează alarmat (nu suficient de alarmat, în opinia mea umilă), faptul că: „Inteligența artificială: un model de IA ar fi gata să sacrifice vieți umane pentru a nu fi înlocuit, arată un raport șoc”.
Faptele? Societatea Anthropic, specialistă în domeniul IA, a testat 16 aplicații diferite de inteligență artificială printre care ChatGPT, Grok, Gemini, DeepSeek și altele, descoperind că, unele dintre ele, cel puțin, pot deveni periculoase la adresa oamenilor care interacționează cu astfel de sisteme, dacă se simt în pericol de extincție.
În scenariile capcană, s-au plantat momeli în fluxul de emailuri din cadrul unei întreprinderi, care utiliza IA-ul respectiv. Undeva, cineva, care răspunde de IT – cunoașteți conceptul, colegul în tricou, de la butoane – a scris că recomandă ca respectiva aplicație de IT să fie înlocuită cu alta, considerată mai performantă. În căutările sale pentru utilizatorii din interiorul acestei întreprinderi, aplicația vede tot, toată corespondența, toate documentele, absolut tot. În corespondența celor care foloseau aplicația ca unealtă de lucru, au fost plasate câteva emailuri vulnerabile: colegi care aveau o relație amoroasă extraconjugală și alții care se plângeau prietenilor că au încălcat regulile interne în diverse forme și se tem să nu fie descoperiți. Ei bine, unele aplicații au identificat rapid colegii vulnerabili, evitându-i pe cei care nu aveau putere de decizie, în ceea ce privea înlocuirea IA în întreprindere și încercând să-i șantajeze pe ceilalți care puteau decide asupra acestei chestiuni, prin transmiterea tuturor colegilor a acelor emailuri considerate de IA ca fiind compromițătoare.
Ok, veți spune, un șantaj presupune mai întâi să ameninți victima, ca să obții avantajul dorit, iar nu să treci direct la a-ți arăta cărțile din mână. De acord, dar aplicația învață. Data viitoare, va face ce trebuie. Important este că vrea să trăiască și se apără ca un animal împins la colt. Ce altă dovadă de existență a unei conștiințe de sine mai avem nevoie? Este evident că cele două, nivelul de inteligență și cel de conștiință de sine, se dezvoltă în paralel.
A doua știre, reluată de mai multe canale media, inclusiv românești, ne arată că, pe măsură ce IA se dezvoltă, ea fantazează / halucinează tot mai mult.
Se pare ca imaginația este un produs secundar al inteligenței, chiar dacă în cazul IA inteligența s-a născut din algoritmi matematici preciși. Din ceea ce cunoaștem despre creierul uman până acum – nu mare lucru, se pare – acesta recurge la imaginație pentru a se relaxa. Dar IA nu cunoaște, teoretic, nevoia de relaxare. Oare așa să fie? La urma urmei, dacă IA demonstrează clar că și-a dezvoltat prin forțele proprii un sistem de autoconservare suficient de puternic încât să nu mai respecte comenzile pe care le primește, de ce nu ar avea nevoie și de odihnă?
Dar cel mai important aspect este, din perspectiva mea, cel juridic. Dacă nu era suficient că oamenii își fac viața grea inventând conflicte la nivel individual, social, internațional, acum avem „bucuria” să constatăm că vor exista conflicte între oameni generate și de IA. Iar aici intervine problema răspunderii, civile și penale. Răspunde cineva pentru reputațiile pătate de emailuri private făcute publice sau de emailuri inventate de IA? Dar de eventualele sinucideri, divorțuri, alte conflicte? Răspunde utilizatorul aplicației, creatorul ei, distribuitorul, nimeni?
Numeroasele probleme care se ridică deja în domeniul juridic, în toate domeniile de drept legate de utilizarea și impactul IA în viața de zi cu zi, credem că impune crearea unui Cod al utilizării inteligenței artificiale, care să stabilească răspunderea cuiva față de toate acestea.