Noi reguli în Europa pentru Inteligența Artificială: ce se schimbă pentru utilizatori și pentru giganții tehnologici
Începând cu data de 2 august 2025, Uniunea Europeană aplică un nou set de reguli pentru companiile care dezvoltă modele de inteligență artificială de uz general, precum cele care stau la baza unor servicii populare ca ChatGPT, Gemini sau Midjourney.
Noile măsuri, parte din mult-discutatul AI Act (Legea privind Inteligența Artificială), au ca scop creșterea siguranței și a transparenței, asigurând că tehnologia evoluează într-un mod responsabil. Dar ce înseamnă acest lucru, concret, pentru un utilizator din România?
Mai multă transparență: de unde „învață” inteligența artificială?
Până acum, funcționarea modelelor AI era adesea o „cutie neagră”. Nu era clar ce date au fost folosite pentru a le antrena. Gândiți-vă la un AI ca la un student care a citit o bibliotecă imensă pentru a învăța. Noile reguli europene obligă companiile (precum Google, OpenAI sau Microsoft) să prezinte „bibliografia” acestui student.
Mai exact, dezvoltatorii trebuie să ofere un sumar al tipurilor de date folosite în procesul de antrenament – fie că sunt articole de pe internet, cărți, imagini sau alte surse. Acest lucru ajută la verificarea faptului că AI-ul nu a fost antrenat pe date de proastă calitate, ilegale sau care promovează dezinformarea. Pentru utilizatorul final, aceasta este o garanție suplimentară că răspunsurile generate de AI sunt mai sigure și mai echilibrate.
Respect pentru creatori: protejarea drepturilor de autor
O altă problemă majoră abordată este cea a drepturilor de autor. Mulți artiști, scriitori și muzicieni s-au plâns că operele lor au fost folosite fără permisiune pentru a antrena modelele AI.
Noua legislație impune companiilor să implementeze politici clare pentru a respecta legile privind drepturile de autor. Acest lucru înseamnă că nu mai pot folosi nediscriminatoriu conținut protejat, o veste bună pentru industriile creative din România și din întreaga Europă.
Supraveghere specială pentru cei mai puternici „jucători”
Modelele AI nu sunt toate la fel. Cele mai avansate și puternice, care au capacitatea de a influența societatea la scară largă, sunt clasificate ca având „risc sistemic”. Acestea vor fi supuse unor obligații suplimentare.
Companiile care le dezvoltă trebuie să realizeze teste riguroase de siguranță, să raporteze incidentele și să implementeze măsuri solide de securitate cibernetică. Este un fel de inspecție tehnică periodică, dar pentru algoritmi.
Noile reguli se aplică imediat pentru toate modelele AI care vor fi lansate de acum înainte. Companiile care au deja modele pe piață au la dispoziție o perioadă de grație de doi ani pentru a se conforma.