Sfânta Biserica Ortodoxă

Se afișează postările cu eticheta Onoare. Afișați toate postările
Se afișează postările cu eticheta Onoare. Afișați toate postările

vineri, 2 mai 2025

Av.Prof.Univ.Dr.Gheorghe Piperea - Onoare muncii omului (II)

 

Onoare muncii omului

(II)
Tehno-entuziasmul în jurul apariției și dezvoltării inteligenței artificiale a cuprins și domeniul juridic.
Recent, o asociație a polițiștilor a cerut public guvernului să introducă rapid inteligența artificială în justiția administrativă, pe motiv că s-ar reduce sau elimina costurile, timpul alocat judecăților, corupția judecătorilor, lipsa de unitate a soluțiilor jurisprudențiale etc.
Propunerea face referință la unele țări care, mai mult sau mai puțin complet, au introdus inteligența artificială în justiție. De exemplu, Estonia, care ar fi utilizat IA pentru spețele de valori mici (notă: dat fiind eșecul pe linie al proiectului, Estonia l-a cam abandonat ...). De asemenea, China, care ar fi introdus inclusiv funcții predictive ale IA în procesele judiciare – mă întreb dacă suntem atât de lipsiți de înțelepciune încă să luăm un astfel de exemplu ... Dezvoltat și sofisticat, sistemul justițiar predictiv chinezesc, oricât ar părea de SF și de eficient (cine nu și-ar dori ca crimele și delictele să fie eliminate încă din faza actelor premergătoare, adică, înainte de a se fi comis faptele propriu-zise...) este un sever atribut al totalitarismului. Nu doar că o astfel de IA va ajunge să penalizeze gândul, imaginația, opinia, intenția ne-manifestă, dar va fi foarte ușor de pervertit în armă politică și anihilator al voinței și al libertății. Trecutul va fi șters, viitorul va fi interzis, prezentul va fi sumbru, dar cu zâmbetul de simulated happiness pe față, căci orice gând sau sentiment din lista mereu variabilă de chestii interzise sau nerecomandate va putea fi degradat la stadiul de infracțiune sau delict.
Este de spus și că, de regulă, astfel de inițiative sunt succese numai în state autoritare sau tiranice. De exemplu, Arabia Saudită va utiliza inteligența artificială ca să scrie legi. Evident, legile nu vor privi și establishmentul și, cu siguranță, nu vor atinge controlorii „legiuitorului” artificial ...
Să vedem, totuși, pe scurt, care sunt riscurile utilizării inteligenței artificiale în justiție:
(i) soluțiile judiciare sunt pronunțate conform legii și conștiinței judecătorului – inteligența artificială nu are conștiință de sine; soluția judiciară ține de „luminile și înțelepciunea” judecătorului – inteligența nu are spirit/suflet (adică lumini) și, cu siguranță, nu are înțelepciune;
(ii) judecătorul este (teoretic) independent și se supune numai legii (și asta este cam teoretic și incomplet spus) – inteligența artificială nu este deloc independentă, se supune programatorului, controlorului, proprietarului, statului; dar judecătorul este responsabil pentru faptele sale, atât juridic, cât și moral, în timp ce IA nu e;
(iii) judecătorul este coruptibil, în timp ce inteligența artificială nu e; acesta este un enuța evident fals (chit că este crezut de 99,9% dintre români); de fapt, IA este mai mult decât coruptibilă, fiind controlabilă printr-un simplu click de către stăpân, de către vătaful stăpânului sau de către serviciile secrete; în plus, IA este un potențial uriaș de hazard moral, mai ales în condiții de piratare a sistemelor informatice, pană de curent sau de internet ori de influență politică și ideologică a stăpânului său;
(iv) soluțiile judiciare sunt neunitare și schimbătoare; este real dar, deși stabilitatea, predictibilitatea și unitatea practicii judiciare sunt atribute ale unui act de justiție de calitate, totuși diferențele de opinii, divergențele chiar, revirimentul jurisprudențial sau doctrinar, sunt elemente de progres și de adecvare a actului de justiție la lumea contemporană; oricum, este fals că IA ar putea neutraliza acest neajuns, căci modul în care „judecă” inteligența artificială este periculos pentru dreptate și chiar pentru statul de drept, democratic și social – este vorba, în mare, de o scanare a legii, jurisprudenței și doctrinei de la un moment, de unde rezultă o soluție statistică, soluția cea mai uzitată, cea mai vizibilă; or, această soluție ar putea fi o eroare judiciară „cimentată” în timp doar pentru că cel îndreptățit nu a avut bani, răbdare sau interes să conteste soluția eronată; inteligența artificială nu judecă, ea analizează statistic; IA nu aplică legea decât în litera sa, iar nu și în spiritul său (ceea ce echivalează cu un talibanism juridic); IA nu are resorturile emoționale, înțelepciunea și raționalitatea necesară actului de justiție, care este un act de dreptate; dacă, în parabola biblică a celor două femei care își disputau un copil, nu Solomon ar fi fost judecătorul, ci o inteligență artificială, atunci soluția ar fi fost ca fiecare dintre cele două femei să primească jumătate din copil ...
(v) decât o soluție corectă din punct de vedere statistic, mai bine o soluție dreaptă, umană; decât un mecanism care „judecă” în alb și negru, mai bine un om supus greșelii, dar capabil de empatie și solidaritate în suferință cu victimele nedreptăților.

Av.Prof.Univ.Dr.Gheorghe Piperea – Onoare muncii omului (I)

 

Onoare muncii omului

(I)
Dacă așa-zisa inteligență artificială este sau nu o reală inteligență, adică, este o entitate de sine-stătătoare, un subiect cu o gândire proprie, independent, care ia decizii în nume propriu, este cu totul improbabil. Cu atât mai puțin probabil este că așa-zisa inteligență artificială are o răspundere juridică proprie pentru ceea ce face sau ce nu face (chit că pe rolul Parlamentului European este acum o propunere de directivă privitoare la răspunderea „non-contractuală” a inteligenței artificiale) ... Este mult mai probabil că vorbim de un obiect, de un produs, de o sculă - e adevărat, e o sculă sofisticată și extrem de energofagă, dar tot o sculă, utilizabilă de inteligențe (sau prostii) naturale. Este cert că, subiect sau obiect, inteligența artificială nu are emoționalitate proprie și, deci, tot ceea ce ține de acest atribut exclusiv uman îi este străin.
Mai este cert ceva – existența și expansiunea irațională a tehno-entuziasmului, mișcarea fie progresist – naivă slăvire a tehnologiei și de punere a umanității la cheremul inteligenței artificiale, fie cinică și rău-intenționată. Foarte mulți bani sunt cheltuiți și alocați inteligenței artificiale, o sculă (sau o entitate docilă) utilizabilă mai ales în domeniul militar și în domeniul supravegherii totalitare a umanității. Foarte multă lume se înghesuie să contribuie sau să lucreze la crearea de cât mai multe inteligențe artificiale care au aceste întrebuințări întunecate. Bazele de date gigantice necesare germinării și, ulterior, dezvoltării inteligenței artificiale consumă enorm de multă energie, probabil mai mult de 25% din tot ceea ce se produce anual pe glob. Nu m-ar mira ca pana de curent din Portugalia, Spania și Franța, din data de 29 aprilie 2025, să fi fost cauzată de „necesitatea” de a testa un IA european. Nu uitați că, în decurs de 5 secunde, mai mult de 15 Gigawați de energie au dispărut, pur și simplu, în neant.
Nimic din riscurile inteligenței artificiale nu a fost cu adevărat dezbătut, cu toate că indivizi tehno-entuziaști, ca Elon Musk, au cerut o înghețare pe termen mediu a proiectelor de inteligență artificială.
Or, se pun probleme, în primul rând, filosofice: cine vom mai fi fost noi în prezența unui concurent global, planetar, cu o inteligență (în sens de putere de calcul, iar nu de raționalitate sau înțelepciune) de mii de ori mai performantă decât cea a unui om și cu viteze de reacție comparabile cu viteza luminii?
Se pun, de asemenea, probleme constituționale și de drepturile omului: ce drepturi și libertăți mai putem avea în raport de inteligența artificială?
Dacă este un subiect, iar nu un obiect, este și inteligența artificială îndreptățită să pretindă drepturi și libertăți, merge sau nu la război (și de partea cui), are sau nu obligații de a plăti impozite, taxe și contribuții, are sau nu libertatea de opinie și de convingere religioasă, ideologică sau politică proprie, are sau nu dreptul la viață (iar noi obligația de a nu-i da shut down...), dreptul la sănătate (adică, dreptul de a nu fi virusată) și dreptul la viață intimă și familială?
Și mai grav, se pun probleme sociologice: dacă inteligența artificială este atât de utilă și de eficientă în mai toate domeniile în care oamenii activează, găsindu-și surse de venit și sens al existenței în muncă, afaceri, profesii independente, artă, credință etc., la ce vor mai fi buni oamenii deveniți „socialmente inutili” după înlocuirea lor de către inteligența artificială?
Avertizez că astfel de avertismente au venit de la cei mai detestabili tehno-entuziaști, cei din sau din jurul Forumului Economic Mondial de la Davos. Chit că au vorbit cu cinism, ca și când fix asta este ceea ce ei ne pregătesc nouă, Schwab & co au pus problema exact în acești termeni ...