Aplicabilitatea în trepte a EU AI Act a ajuns la părțile care contează pentru echipele de securitate. Din august 2026, obligațiile pentru AI cu risc ridicat — inclusiv prevederile de cybersecurity — se aplică în serios. Acest articol e pentru liderul de securitate al cărui companie e de o parte sau alta a liniei AI: face un produs cu AI, sau rulează sisteme AI care ating date protejate, procese reglementate sau infrastructură critică.
Articolul 15 — acuratețe, robustețe și cybersecurity
Articolul 15 e partea AI Act care aduce echipele de securitate în scop. Pentru sisteme AI cu risc ridicat, furnizorii trebuie să „proiecteze și să dezvolte” sistemul ca să atingă „un nivel adecvat de acuratețe, robustețe și cybersecurity”, cu măsuri care includ:
- Reziliență la încercările de a altera utilizarea, output-ul sau performanța sistemului prin manipulare neautorizată a datelor de intrare — adică atacuri adversariale de input.
- Reziliență la model inversion, model extraction și membership inference, când datele de intrare sau de antrenare sunt sensibile.
- Logging al evenimentelor relevante de securitate, cu trasabilitatea datelor de intrare și ieșire.
- Un nivel definit de acuratețe, declarat în documentația tehnică, și un proces de monitorizare a drift-ului.
Threat modelling adversarial-ML, pentru echipa de securitate
Amenințările specifice AI relevante Articolului 15 sunt cele bine documentate:
- Atacuri adversariale de input: input-uri construite care provoacă misclassification sau output-uri nesigure. Mitigările includ validare de input, decizii de ensemble și testare cu input-uri delimitate în evaluare.
- Atacuri de data-poisoning: date de antrenare manipulate care corup modelul. Mitigările includ controale de proveniență a datelor, vetting al furnizorilor și verificări de integritate pe pipeline-ul de antrenare.
- Model extraction: query-uri care reconstruiesc modelul. Mitigările includ rate-limiting, perturbare de output și watermarking pentru modele sensibile.
- Model inversion / membership inference: query-uri care reconstruiesc datele de antrenare. Mitigările includ differential privacy în antrenare, zgomot pe output și control de acces.
- Prompt injection (pentru sisteme bazate pe LLM): input-uri adversariale care suprascriu prompturi de sistem. Mitigările includ sanitizarea input-ului, validarea output-ului și apel limitat la unelte.
Sisteme cu risc ridicat — lista practică
Anexa III listează categoriile de risc ridicat. Cele care contează cel mai mult pentru cumpărătorii de securitate și industrii reglementate:
- Identificare și categorizare biometrică.
- Infrastructură critică (electricitate, gaz, apă, transport, management trafic).
- Educație și formare profesională (admitere, evaluare).
- Angajare (recrutare, evaluare performanță).
- Acces la servicii esențiale private și publice (credit scoring, prețuri asigurări de viață și sănătate, eligibilitate beneficii).
- Aplicarea legii (predictive policing, evaluare fiabilitate probe).
- Migrație, azil, gestionare frontiere.
- Administrarea justiției și procese democratice.
Ce trebuie să arate documentația tehnică
Documentația tehnică sub Anexa IV e extensivă. Elementele relevante de cybersecurity:
- O descriere a elementelor sistemului AI și a procesului de dezvoltare — inclusiv metodologia de antrenare, sursele de date și procedura de validare.
- O descriere a măsurilor de cybersecurity, cu trasabilitate la amenințările identificate.
- Planul de monitorizare post-piață, cu metrici și triggere pentru review.
- Documentație de management al riscului care leagă riscurile identificate de mitigări și risc rezidual.
- Pentru sistemele antrenate cu date personale, baza legală și măsurile tehnice de confidențialitate (link în GDPR Articolul 32 și interplay-ul GDPR-AI Act).
Cum aterizează asta într-un program existent de securitate
Pentru organizații care rulează deja programe aliniate NIS2 sau ISO 27001, AI Act adaugă două layer-e operaționale:
- Threat modelling specific AI, integrat în cadența existentă de threat modelling. E incremental; nu e o funcție separată.
- Testare specifică AI — evaluare de input adversarial, testare de prompt-injection pentru sisteme LLM — adăugată la scopul existent de pentest.
Pentru organizațiile care nu au ridicat încă un program de securitate a informației, AI Act devine funcția de forțare pentru unul. Documentația tehnică nu poate fi asamblată credibil fără un ISMS de bază.
Unde se potrivește Sandline
Rulăm testare adversarial-ML și prompt-injection ca parte din angajamentele de pentest, integrăm riscul specific AI în programele existente de management al vulnerabilităților, și producem porțiunea de cybersecurity din documentația tehnică AI Act. Nu acoperim munca de bias și de drepturi fundamentale — pentru asta ai nevoie de specialiști cu un mandat diferit.
