Legea Inteligenței Artificiale – primul act normativ care reglementează utilizarea AI în Uniunea Europeană

  • Medicina digitală



Utilizarea sistemelor bazate pe inteligență artificială va fi reglementată în Uniunea Europeană odată cu aprobarea Legii Inteligenței Artificiale. Actul normativ are ca scop promovarea adoptării și integrarea inteligenței artificiale într-o manieră transparentă, sigură, non-discriminatorie și prietenoasă cu mediul înconjurător. Implementarea legii urmează să protejeze utilizatorii, atât social cât și din punct de vedere al sănătății, drepturile fundamentale ale acestora precum și democrația în sine de potențialele efecte negative ale anumitor sisteme AI.

Pe lângă implicațiile pe care le are la nivel social, în domeniul IT, în manufactură, în transport și chiar în domeniul energiei, inteligența artificială însumează numeroase beneficii în ceea ce privește sistemele de sănătate. Dispozitivele bazate pe inteligență artificială pot juca un rol major în procesarea datelor medicale, în screening, diagnostic, descoperirea și dezvoltarea tratamentelor inovatoare și chiar în prevenția anumitor afecțiuni. Conform Food and Drug Administration, din 1995 până în 2022, au fost aprobate peste 500 de dispozitive bazate pe AI sau învățare automată. Dacă până în 2016 erau aprobate între 1 și 6 dispozitive anual, în 2020 au fost autorizate 102 dispozitive, următorul an 115 dispozitive, iar până la jumătatea anului 2022 erau deja aprobate 91.

abonare
Legea Inteligenței Artificiale - primul act normativ care reglementează utilizarea AI în Uniunea Europeană
Image by rawpixel.com on Freepik

„Legea Inteligenței Artificiale va seta la nivel mondial un cadru în dezvoltarea și guvernanța inteligenței artificiale, asigurând faptul că această tehnologie, menită să transforme radical societățile prin beneficiile masive pe care le poate oferi, evoluează și este folosită în concordanță cu valorile democratice Europene, cu drepturile fundamentale și cu regulile legislative” – afirmă Dragoș Tudorache, Vice Chair Renew Europe Group, România.

În acest context, Federația Europeană a Academiilor de Științe Medicale (FEAM), alături de alte 10 asociații din domeniul sanitar au semnat un consens cu privire la accesul cetățenilor la servicii medicale inovatoare, sub Legea Inteligenței Artificiale. Consensul cuprinde patru direcții strategice care ar trebui luate în calcul în definirea formei finale a actului normativ, pentru optimizarea potențialului AI în beneficiul cetățenilor, pacienților, aparținătorilor, profesioniștilor în domeniul medical și sistemului de sănătate. Așadar, Legea Inteligenței Artificiale ar trebui:

  • Să se alinieze cu toate legile și conceptele relevante Europene – cadrul legislativ ar trebui să fie construit în așa fel încât să permită inovarea și livrarea serviciilor medicale, urmând principii etice și de siguranță, în același timp în care să fie consistent cu alte legislații precum GDPR (General Data Protection Regulation), MDR (Medical Devices Regulation) etc.
  • Să asigure o claritate superioară modului în care sunt definite anumite concepte precum „utilizator”, „risc”, „sistem de inteligență artificială”;
  • Să asigure date clare și un cadru de guvernanță a datelor, datele fiind indispensabile inteligenței artificiale;
  • Să asigure aplicarea și implementarea uniformă a dispozițiilor sale în toate Statele Membre, pentru a evita fragmentarea inutilă în cadrul Pieței Unice.

Legea Inteligenței Artificiale este parte a strategiei digitale adoptate de Uniunea Europeană, având scopul de a crea condiții mai bune și un cadru corespunzător dezvoltării și utilizării AI. Pe 14 iunie 2023, Parlamentul European și-a votat poziția vizavi de acest act normativ, cu 499 de voturi pro, 28 împotrivă și 93 de abțineri. În 2021, Comisia Europeană a propus primul cadru de reglementare al AI care subliniază importanța clasificării acestor sisteme inovatoare în funcție de nivelul de risc pe care îl presupun. Astfel, există trei categorii principale – sisteme cu risc inacceptabil, sisteme cu risc înalt și sisteme cu risc limitat.

Cu toate că majoritatea sistemelor AI prezintă riscuri minime, tot este nevoie de evaluarea și monitorizarea lor constantă. Sistemele AI cu risc limitat sunt nevoite să îndeplinească cerințe minime de transparență care să permită utilizatorilor să ia decizii informate. Este foarte important ca utilizatorul să fie conștient în momentul în care interacționează cu o aplicație de inteligență artificială, cum ar fi sistemele care generează sau manipulează imagini și conținut audio sau video (de exemplu tehnologia deepfake).

Sistemele AI cu risc înalt sunt cele care au un impact asupra siguranței sau drepturilor fundamentale ale cetățenilor. Acestea ar urma să fie evaluate atât înainte de punerea pe piață cât și pe toată durata lor de viață. Sistemele AI cu risc înalt sunt clasificate în două categorii:

  • sisteme AI utilizate în produse care se află sub legislația Uniunii Europene (sunt incluse dispozitivele medicale, jucăriile, dispozitivele din domeniul aviației, mașinile și ascensoarele);
  • sisteme AI încadrate în 8 domenii specifice care trebuie înregistrate în baze de date ale Uniunii Europene:
    • Identificarea și clasificarea biometrică a persoanelor fizice;
    • Managementul și operarea infrastructurii critice;
    • Educație și formare profesională;
    • Ocuparea forței de muncă, managementul lucrătorilor și accesul la activități independente;
    • Accesul la servicii și beneficii private esențiale precum și la servicii și beneficii publice;
    • Aplicarea legii;
    • Gestionarea migrației, azilului și controlului de frontieră;
    • Asistență în interpretarea și aplicarea legii.

În ceea ce privește sistemele AI generative, cum este și cazul lui ChatGPT, acestea vor trebui să îndeplinească o serie de cerințe pentru creșterea nivelului de transparență:

  • Dezvăluirea faptului că, indiferent de natura lui, conținutul a fost generat de un instrument de inteligență artificială;
  • Dezvoltarea modelului AI într-o asemenea manieră încât să prevină generarea de conținut ilegal;
  • Publicarea dovezilor cu privire la sursele protejate prin drepturi de autor care au fost utilizate pentru instruirea modelului.

Sistemele AI considerate ca având un risc inacceptabil sunt acele instrumente care reprezintă un pericol la adresa cetățenilor. Acestea includ manipularea cognitiv-comportamentală a cetățenilor sau a unor grupuri vulnerabile (de exemplu jucării cu activare vocală care încurajează comportamente periculoase în rândul copiilor), social scoring (clasificarea oamenilor în funcție de comportament, statut socio-economic sau caracteristici personale), sisteme de identificare biometrice, în timp real sau la distanță (recunoaștere facială) și vor fi interzise de la bun început.

Citește și: