PWC: Utilizarea AI va fi atent monitorizata in Uniunea Europeana in baza EU AI Act |
Digitalizarea in Constructii & Industrie Publicat de AG&F 20 Dec 2024 10:57 |
Inteligenta artificiala (AI) a devenit o tehnologie cheie pentru transformarea digitala in organizatiile private si publice, anticipandu-se ca, pana in 2030, va fi folosita direct sau indirect in majoritatea sectoarelor. Dealtfel, o analiza realizata de strategy&, departamentul de strategie al retelei globale PwC, arata ca utilizarea inteligentei artificiale generative (GenAI) are potentialul de a genera o crestere economica suplimentara anuala intre 0,4% si 0,7% in Europa, pana in 2030, daca organizatiile sunt receptive la inovare, dezvolta o strategie si mai ales daca sunt dispuse sa faca investitiile necesare, inclusiv pentru prevenirea riscurilor asociate. In aceste conditii, s-ar atinge pana la 90% din potentialul de majorare a productivitatii totale datorate GenAI. Pe langa relevanta economica a utilizarii GenAI, increderea in performanta, securitatea, fiabilitatea si corectitudinea AI sunt esentiale pentru utilizatori, clienti si factori de decizie.
Din acest motiv, la nivelul Uniunii Europene a fost adoptat un regulament vizand utilizarea sistemelor de inteligenta artificiala, sub denumirea de EU AI Act. Acesta este direct aplicabil in statele membre si impacteaza atat organizatiile private, cat si pe cele publice, indiferent daca acestea sunt producatori, distribuitori sau utilizatori de sisteme AI. Alte tari intreprind de asemenea demersuri de reglementare. Astfel, in prezent, SUA se bazeaza pe legile federale existente pentru a reglementa AI, dar isi propune sa introduca o legislatie specifica si o autoritate federala de reglementare. In acelasi timp, Regatul Unit a elaborat ”Cartea alba privind reglementarea AI” care cuprinde un cadru bazat pe principii pe care autoritatile de reglementare ale diferitelor sectoare sa le interpreteze si sa le aplice pentru dezvoltarea si utilizarea AI.
Revenind la UE, regulamentul european impune obligatii in functie de riscurile potentiale ale diferitelor tipuri de sisteme AI. Se asteapta ca acest regulament sa aiba un impact similar cu cel privind protectia datelor cu caracter personal (GDPR). Organizatiile trebuie sa se conformeze legal la noile cerinte. In caz contrar, se expun mai multor riscuri legale, care includ potentiale amenzi. In plus, incalcarea EU AI Act ar putea determina si o analiza privind posibile incalcari ale altor prevederi legale aplicabile, precum GDPR sau alte reglementari specifice fiecarei industrii.
Cine sunt principalii vizati de EU AI Act?
Producatorii si distribuitorii de sisteme de inteligenta artificiala reglementate in Uniunea Europeana sunt vizati de cea mai mare parte a cerintelor. Acestia sunt furnizori care pun pe piata sau implementeaza sisteme de AI, indiferent daca sunt stabiliti in UE sau intr-o tara terta, precum si distribuitori de sisteme de AI reglementate care sunt stabiliti in UE.
Regulamentul UE imparte sistemele de AI in mai multe categorii bazate pe caracteristicile lor de risc, care sunt fie permise fara restrictii, fie permise in anumite conditii, fie interzise. Aceasta abordare se bazeaza pe o evaluare a riscurilor preconizate pe care le poate prezenta un anumit sistem de AI pentru sanatatea, siguranta sau drepturile fundamentale ale cetatenilor UE.
Sistemele de AI cu riscuri inacceptabile sunt interzise per se. Acestea includ, de exemplu, sisteme pentru manipularea subliminala a oamenilor sau anumite sisteme biometrice de recunoastere in timp real in spatiile publice. Sistemele de AI cu risc ridicat sunt in centrul regulamentului. Acestea sunt permise numai in situatii exceptionale, cu respectarea unor cerinte stricte de documentare, monitorizare si calitate.
UE a stabilit termene de conformare pentru diferitele clasificari ale riscurilor. Organizatiile trebuie sa clasifice si sa evalueze in mod proactiv riscurile sistemelor lor de inteligenta artificiala pentru a evita sanctiunile si daunele aduse reputatiei.
De exemplu, la sase luni de la intrarea in vigoare a legii, o companie care implementeaza un sistem de inteligenta artificiala considerat interzis, cum ar fi unul care detecteaza emotii la locul de munca, risca amenzi de pana la 35 milioane euro sau 7% din cifra sa de afaceri anuala totala la nivel mondial din anul financiar precedent, luandu-se in considerare valoarea cea mai mare. Un astfel de sistem trebuie sa fie scos de pe piata europeana sau reproiectat astfel incat sa fie eliminate criteriile interzise definite de Legea UE privind inteligenta artificiala.
Ce masuri trebuie sa ia companiile? O parte dintre ele sunt listate mai jos:
Cartografierea interdependentelor: intelegerea dependentelor interne si externe legate de sistemele de inteligenta artificiala, de exemplu cu furnizorii de cloud si de platforme terte in vederea punerii in aplicare a controalelor si a masurilor de protectie adecvate.
*Autori: Andra Rojanschi, Corporate M&A Partner - Lawyer la D&B David si Baias, si Mircea Bozga, Partner PwC Romania
|