Inteligența Artificială nu va mai fi „de capul ei” în UE
Parlamentul European a votat pentru a aproba propriul proiect de propunere pentru Legea privind IA.
Actul legislativ are ambiția de a contura standarde globale în reglementarea IA. Astfel, se interzice complet folosirea IA pentru supravegherea biometrică, recunoașterea emoțiilor și activitățile polițienești bazate pe analiza predictivă . De asemenea, sistemele generative de IA cum ar fi ChatGPT trebuie să menționeze când conținuturile sunt generate de IA iar sistemele de inteligență artificială folosite pentru a influența alegătorii la vot sunt considerate foarte riscante.
Normele promovează adoptarea unei „IA de încredere, centrată pe om, și urmăresc să protejeze sănătatea, siguranța, drepturile fundamentale și democrația împotriva efectelor sale dăunătoare”.
Totodată, normele vor garanta că IA dezvoltată și utilizată în Europa respectă pe deplin drepturile și valorile Uniunii Europene, inclusiv supravegherea umană, siguranța, viața privată, transparența, nediscriminarea și bunăstarea socială și de mediu.
Practici interzise în contextul IA
Normele urmează o abordare bazată pe riscuri și stabilesc obligații pentru furnizori și pentru cei care implementează sisteme de IA, în funcție de nivelul de risc pe care îl poate prezenta inteligența artificială. Astfel, sistemele de IA cu un nivel inacceptabil de risc pentru siguranța oamenilor ar urma să fie interzise, precum cele care utilizează evaluarea comportamentului social (clasificând oamenii pe baza comportamentului social sau a caracteristicilor personale). Eurodeputații au inclus în listă interdicții referitoare la utilizările intruzive și discriminatorii ale IA, cum ar fi:
• utilizarea sistemelor de identificare biometrică la distanță „în timp real” sau „ulterioară” în spații accesibile publicului;
• sistemele biometrice de clasificare care folosesc caracteristici sensibile (de exemplu, genul, rasa, etnia, statutul de cetățenie, religia, orientarea politică);
• sistemele polițienești bazate pe analiza predictivă (bazate pe profilare, localizare sau comportamentul infracțional anterior);
• sistemele de recunoaștere a emoțiilor folosite la locul de muncă sau în cadrul instituțiilor de învățământ, ori în domeniul aplicării legii sau al gestionării frontierelor;
• extragerea fără scop precis a datelor biometrice din imaginile faciale de pe internet sau înregistrări făcute de televiziunile cu circuit închis pentru a crea baze de date de recunoaștere facială (încălcând drepturile omului și dreptul la viață privată).
Sistemele de IA cu grad ridicat de risc
Eurodeputații s-au asigurat că clasificarea aplicațiilor cu grad ridicat de risc va include acum sistemele de IA care afectează în mod semnificativ sănătatea, siguranța sau drepturile fundamentale ale oamenilor ori mediul înconjurător. Sistemele de IA folosite pentru a influența alegătorii și rezultatul alegerilor și în sistemele de recomandare utilizate de platformele de comunicare socială (cu peste 45 de milioane de utilizatori) au fost adăugate pe lista cu risc ridicat.
Obligații pentru IA de uz general
Furnizorii de sisteme de inteligență artificială de uz general – o branșă nouă, cu evoluție rapidă în domeniul IA – vor trebui să evalueze și să atenueze posibilele riscuri (față de sănătate, siguranță, drepturile fundamentale, mediu, democrație și statul de drept) și să își înregistreze modelele în baza de date a Uniunii înainte de a le lansa pe piața UE. Sistemele de IA generative bazate pe astfel de modele, cum ar fi ChatGPT, ar trebui să respecte cerințele de transparență (adică trebuie să divulge când un conținut a fost generat de IA, inclusiv pentru a ajuta la distingerea așa-numitelor imagini „deep fake” de cele reale) și să introducă garanții împotriva generării de conținut ilegal. Ar trebui să fie puse la dispoziția publicului și rezumate detaliate ale datelor protejate prin drepturi de autor folosite pentru a antrena aceste sisteme.
Sprijinirea inovării și protejarea drepturilor cetățenilor
Pentru a stimula inovarea în domeniul IA și pentru a sprijini IMM-urile, deputații au adăugat derogări pentru activitățile de cercetare și componentele de IA furnizate sub licențe cu sursă deschisă. Noua lege promovează așa-numitele „spații de testare în materie de reglementare”, adică medii controlate similare cu cel real, create de autoritățile publice pentru a testa IA înainte de a o folosi în situații reale.
În fine, eurodeputații doresc să consolideze dreptul cetățenilor de a depune plângeri despre sistemele de IA și de a primi explicații despre deciziile bazate pe sisteme de IA cu grad ridicat de risc care au un impact semnificativ asupra drepturilor lor fundamentale. De asemenea, eurodeputații au actualizat rolul Oficiului pentru IA al Uniunii Europene, care va avea sarcina de a monitoriza modul în care este pus în aplicare cadrul de reglementare privind IA.