Site icon Raportul de gardă

Legea Inteligenței Artificiale – primul act normativ care reglementează utilizarea AI în Uniunea Europeană

Utilizarea sistemelor bazate pe inteligență artificială va fi reglementată în Uniunea Europeană odată cu aprobarea Legii Inteligenței Artificiale. Actul normativ are ca scop promovarea adoptării și integrarea inteligenței artificiale într-o manieră transparentă, sigură, non-discriminatorie și prietenoasă cu mediul înconjurător. Implementarea legii urmează să protejeze utilizatorii, atât social cât și din punct de vedere al sănătății, drepturile fundamentale ale acestora precum și democrația în sine de potențialele efecte negative ale anumitor sisteme AI.

Pe lângă implicațiile pe care le are la nivel social, în domeniul IT, în manufactură, în transport și chiar în domeniul energiei, inteligența artificială însumează numeroase beneficii în ceea ce privește sistemele de sănătate. Dispozitivele bazate pe inteligență artificială pot juca un rol major în procesarea datelor medicale, în screening, diagnostic, descoperirea și dezvoltarea tratamentelor inovatoare și chiar în prevenția anumitor afecțiuni. Conform Food and Drug Administration, din 1995 până în 2022, au fost aprobate peste 500 de dispozitive bazate pe AI sau învățare automată. Dacă până în 2016 erau aprobate între 1 și 6 dispozitive anual, în 2020 au fost autorizate 102 dispozitive, următorul an 115 dispozitive, iar până la jumătatea anului 2022 erau deja aprobate 91.

Image by rawpixel.com on Freepik

„Legea Inteligenței Artificiale va seta la nivel mondial un cadru în dezvoltarea și guvernanța inteligenței artificiale, asigurând faptul că această tehnologie, menită să transforme radical societățile prin beneficiile masive pe care le poate oferi, evoluează și este folosită în concordanță cu valorile democratice Europene, cu drepturile fundamentale și cu regulile legislative” – afirmă Dragoș Tudorache, Vice Chair Renew Europe Group, România.

În acest context, Federația Europeană a Academiilor de Științe Medicale (FEAM), alături de alte 10 asociații din domeniul sanitar au semnat un consens cu privire la accesul cetățenilor la servicii medicale inovatoare, sub Legea Inteligenței Artificiale. Consensul cuprinde patru direcții strategice care ar trebui luate în calcul în definirea formei finale a actului normativ, pentru optimizarea potențialului AI în beneficiul cetățenilor, pacienților, aparținătorilor, profesioniștilor în domeniul medical și sistemului de sănătate. Așadar, Legea Inteligenței Artificiale ar trebui:

Legea Inteligenței Artificiale este parte a strategiei digitale adoptate de Uniunea Europeană, având scopul de a crea condiții mai bune și un cadru corespunzător dezvoltării și utilizării AI. Pe 14 iunie 2023, Parlamentul European și-a votat poziția vizavi de acest act normativ, cu 499 de voturi pro, 28 împotrivă și 93 de abțineri. În 2021, Comisia Europeană a propus primul cadru de reglementare al AI care subliniază importanța clasificării acestor sisteme inovatoare în funcție de nivelul de risc pe care îl presupun. Astfel, există trei categorii principale – sisteme cu risc inacceptabil, sisteme cu risc înalt și sisteme cu risc limitat.

Cu toate că majoritatea sistemelor AI prezintă riscuri minime, tot este nevoie de evaluarea și monitorizarea lor constantă. Sistemele AI cu risc limitat sunt nevoite să îndeplinească cerințe minime de transparență care să permită utilizatorilor să ia decizii informate. Este foarte important ca utilizatorul să fie conștient în momentul în care interacționează cu o aplicație de inteligență artificială, cum ar fi sistemele care generează sau manipulează imagini și conținut audio sau video (de exemplu tehnologia deepfake).

Sistemele AI cu risc înalt sunt cele care au un impact asupra siguranței sau drepturilor fundamentale ale cetățenilor. Acestea ar urma să fie evaluate atât înainte de punerea pe piață cât și pe toată durata lor de viață. Sistemele AI cu risc înalt sunt clasificate în două categorii:

În ceea ce privește sistemele AI generative, cum este și cazul lui ChatGPT, acestea vor trebui să îndeplinească o serie de cerințe pentru creșterea nivelului de transparență:

Sistemele AI considerate ca având un risc inacceptabil sunt acele instrumente care reprezintă un pericol la adresa cetățenilor. Acestea includ manipularea cognitiv-comportamentală a cetățenilor sau a unor grupuri vulnerabile (de exemplu jucării cu activare vocală care încurajează comportamente periculoase în rândul copiilor), social scoring (clasificarea oamenilor în funcție de comportament, statut socio-economic sau caracteristici personale), sisteme de identificare biometrice, în timp real sau la distanță (recunoaștere facială) și vor fi interzise de la bun început.

Citește și:

Exit mobile version