
Dana Barcan
Editor
luni, 18 martie 2024
inteligenta artificiala reglementata prin lege, in ue
Parlamentul European a adoptat un text de lege care reglementează utilizarea inteligenței artificiale, cu o largă majoritate - 523 de voturi pentru, 46 împotrivă şi 49 de abţineri. Acestă legislaţie unică în lume este un regulament convenit în decembrie 2023 cu statele membre, care îşi propune să garanteze siguranţa şi respectarea drepturilor fundamentale şi să stimuleze inovaţia.



FOTO: Gandul
Textul de lege protejează drepturile fundamentale, democraţia, statul de drept şi sustenabilitatea mediului în faţa sistemelor AI, cu grad ridicat de risc. Actul legislativ încurajează inovaţia şi stipulează obligaţii în cazul inteligenţei artificiale, în funcţie de riscurile sale potenţiale şi de impactul preconizat.
Utilizarea inteligenţei artificiale este interzisă de noile norme, dacă sunt ameninţate drepturile cetăţenilor, inclusiv sistemele biometrice de clasificare, bazate pe caracteristicile sensibile ale persoanelor. Printre utilizările interzise este și extragerea fără scop precis a imaginilor faciale de pe internet sau din înregistrările camerelor video cu circuit închis, pentru a crea baze de date de recunoaştere facială.
Recunoaşterea emoţiilor la locul de muncă şi în şcoli, atribuirea unui punctaj social, sistemele de poliţie predictivă - când acestea se bazează doar pe stabilirea profilului unei persoane sau pe analizarea caracteristicilor sale - şi AI care manipulează comportamentul uman sau exploatează vulnerabilităţile oamenilor vor fi, de asemenea, interzise. Este în principiu interzisă folosirea sistemelor de identificare biometrică de către organele de aplicare a legii, cu excepţia unor situaţii enumerate în mod exhaustiv şi definite în mod strict.
Sistemele de identificare biometrică "în timp real" pot fi instalate doar dacă se respectă garanţii stricte: dacă folosirea lor este limitată în timp şi geografic şi este aprobată în prealabil de o autoritate judiciară sau de un organ administrativ. Acestea pot fi folosite, de exemplu, pentru a căuta o persoană dispărută sau pentru a preveni un atac terorist. Folosirea acestor sisteme post-facto, respectiv sistemele de identificare biometrică "ulterioară", este considerat un caz de utilizare cu grad ridicat de risc, fiind posibil doar cu emiterea unei autorizaţii judiciare legate de o infracţiune penală.
Legea prevede şi obligaţii clare pentru alte sisteme de AI cu grad ridicat de risc, datorită potenţialului lor ridicat în afectarea sănătății în mod negativ, a siguranţei, drepturilor fundamentale, mediului, democraţiei şi statului de drept. Utilizări ale IA care prezintă un grad ridicat de risc sunt infrastructura critică, educaţia şi formarea profesională, serviciile publice şi private esenţiale (sănătatea, serviciile bancare etc.), unele sisteme care privesc aplicarea legii, migraţia şi gestionarea frontierelor, justiţia şi procesele democratice (exemplu: pentru a preveni influenţarea alegerilor).
Cetăţenii vor avea dreptul să depună plângeri în legătură cu sistemele AI şi să li se ofere explicaţii despre deciziile bazate pe sisteme AI cu grad ridicat de risc, care le afectează drepturile. Modelele mai puternice pentru sistemele IA de uz general care ar putea prezenta riscuri sistemice vor respecta cerinţe suplimentare, inclusiv privind evaluarea modelelor, evaluarea şi reducerea riscurilor sistemice şi raportarea incidentelor.
Imaginile şi conţinuturile audio şi video artificiale sau manipulate (de tip "deepfake") vor fi etichetate clar, ca atare. Va fi obligatoriu, la nivel național să se creeze spaţii de testare în materie de reglementare şi să se organizeze testări în condiţii reale. IMM-urile şi companiile nou-înfiinţate vor avea acces la aceste instrumente pentru a dezvolta şi antrena Inteligența artificială inovatoare, înainte de introducerea lor pe piaţă.
Textul de lege protejează drepturile fundamentale, democraţia, statul de drept şi sustenabilitatea mediului în faţa sistemelor AI, cu grad ridicat de risc. Actul legislativ încurajează inovaţia şi stipulează obligaţii în cazul inteligenţei artificiale, în funcţie de riscurile sale potenţiale şi de impactul preconizat.
Utilizarea inteligenţei artificiale este interzisă de noile norme, dacă sunt ameninţate drepturile cetăţenilor, inclusiv sistemele biometrice de clasificare, bazate pe caracteristicile sensibile ale persoanelor. Printre utilizările interzise este și extragerea fără scop precis a imaginilor faciale de pe internet sau din înregistrările camerelor video cu circuit închis, pentru a crea baze de date de recunoaştere facială.
Recunoaşterea emoţiilor la locul de muncă şi în şcoli, atribuirea unui punctaj social, sistemele de poliţie predictivă - când acestea se bazează doar pe stabilirea profilului unei persoane sau pe analizarea caracteristicilor sale - şi AI care manipulează comportamentul uman sau exploatează vulnerabilităţile oamenilor vor fi, de asemenea, interzise. Este în principiu interzisă folosirea sistemelor de identificare biometrică de către organele de aplicare a legii, cu excepţia unor situaţii enumerate în mod exhaustiv şi definite în mod strict.
Sistemele de identificare biometrică "în timp real" pot fi instalate doar dacă se respectă garanţii stricte: dacă folosirea lor este limitată în timp şi geografic şi este aprobată în prealabil de o autoritate judiciară sau de un organ administrativ. Acestea pot fi folosite, de exemplu, pentru a căuta o persoană dispărută sau pentru a preveni un atac terorist. Folosirea acestor sisteme post-facto, respectiv sistemele de identificare biometrică "ulterioară", este considerat un caz de utilizare cu grad ridicat de risc, fiind posibil doar cu emiterea unei autorizaţii judiciare legate de o infracţiune penală.
Legea prevede şi obligaţii clare pentru alte sisteme de AI cu grad ridicat de risc, datorită potenţialului lor ridicat în afectarea sănătății în mod negativ, a siguranţei, drepturilor fundamentale, mediului, democraţiei şi statului de drept. Utilizări ale IA care prezintă un grad ridicat de risc sunt infrastructura critică, educaţia şi formarea profesională, serviciile publice şi private esenţiale (sănătatea, serviciile bancare etc.), unele sisteme care privesc aplicarea legii, migraţia şi gestionarea frontierelor, justiţia şi procesele democratice (exemplu: pentru a preveni influenţarea alegerilor).
Cetăţenii vor avea dreptul să depună plângeri în legătură cu sistemele AI şi să li se ofere explicaţii despre deciziile bazate pe sisteme AI cu grad ridicat de risc, care le afectează drepturile. Modelele mai puternice pentru sistemele IA de uz general care ar putea prezenta riscuri sistemice vor respecta cerinţe suplimentare, inclusiv privind evaluarea modelelor, evaluarea şi reducerea riscurilor sistemice şi raportarea incidentelor.
Imaginile şi conţinuturile audio şi video artificiale sau manipulate (de tip "deepfake") vor fi etichetate clar, ca atare. Va fi obligatoriu, la nivel național să se creeze spaţii de testare în materie de reglementare şi să se organizeze testări în condiţii reale. IMM-urile şi companiile nou-înfiinţate vor avea acces la aceste instrumente pentru a dezvolta şi antrena Inteligența artificială inovatoare, înainte de introducerea lor pe piaţă.
Textul de lege protejează drepturile fundamentale, democraţia, statul de drept şi sustenabilitatea mediului în faţa sistemelor AI, cu grad ridicat de risc. Actul legislativ încurajează inovaţia şi stipulează obligaţii în cazul inteligenţei artificiale, în funcţie de riscurile sale potenţiale şi de impactul preconizat.
Utilizarea inteligenţei artificiale este interzisă de noile norme, dacă sunt ameninţate drepturile cetăţenilor, inclusiv sistemele biometrice de clasificare, bazate pe caracteristicile sensibile ale persoanelor. Printre utilizările interzise este și extragerea fără scop precis a imaginilor faciale de pe internet sau din înregistrările camerelor video cu circuit închis, pentru a crea baze de date de recunoaştere facială.
Recunoaşterea emoţiilor la locul de muncă şi în şcoli, atribuirea unui punctaj social, sistemele de poliţie predictivă - când acestea se bazează doar pe stabilirea profilului unei persoane sau pe analizarea caracteristicilor sale - şi AI care manipulează comportamentul uman sau exploatează vulnerabilităţile oamenilor vor fi, de asemenea, interzise. Este în principiu interzisă folosirea sistemelor de identificare biometrică de către organele de aplicare a legii, cu excepţia unor situaţii enumerate în mod exhaustiv şi definite în mod strict.
Sistemele de identificare biometrică "în timp real" pot fi instalate doar dacă se respectă garanţii stricte: dacă folosirea lor este limitată în timp şi geografic şi este aprobată în prealabil de o autoritate judiciară sau de un organ administrativ. Acestea pot fi folosite, de exemplu, pentru a căuta o persoană dispărută sau pentru a preveni un atac terorist. Folosirea acestor sisteme post-facto, respectiv sistemele de identificare biometrică "ulterioară", este considerat un caz de utilizare cu grad ridicat de risc, fiind posibil doar cu emiterea unei autorizaţii judiciare legate de o infracţiune penală.
Legea prevede şi obligaţii clare pentru alte sisteme de AI cu grad ridicat de risc, datorită potenţialului lor ridicat în afectarea sănătății în mod negativ, a siguranţei, drepturilor fundamentale, mediului, democraţiei şi statului de drept. Utilizări ale IA care prezintă un grad ridicat de risc sunt infrastructura critică, educaţia şi formarea profesională, serviciile publice şi private esenţiale (sănătatea, serviciile bancare etc.), unele sisteme care privesc aplicarea legii, migraţia şi gestionarea frontierelor, justiţia şi procesele democratice (exemplu: pentru a preveni influenţarea alegerilor).
Cetăţenii vor avea dreptul să depună plângeri în legătură cu sistemele AI şi să li se ofere explicaţii despre deciziile bazate pe sisteme AI cu grad ridicat de risc, care le afectează drepturile. Modelele mai puternice pentru sistemele IA de uz general care ar putea prezenta riscuri sistemice vor respecta cerinţe suplimentare, inclusiv privind evaluarea modelelor, evaluarea şi reducerea riscurilor sistemice şi raportarea incidentelor.
Imaginile şi conţinuturile audio şi video artificiale sau manipulate (de tip "deepfake") vor fi etichetate clar, ca atare. Va fi obligatoriu, la nivel național să se creeze spaţii de testare în materie de reglementare şi să se organizeze testări în condiţii reale. IMM-urile şi companiile nou-înfiinţate vor avea acces la aceste instrumente pentru a dezvolta şi antrena Inteligența artificială inovatoare, înainte de introducerea lor pe piaţă.
Share this post
inteligență artificială
Parlamentul European
lege
drepturile omului