CONSULENZA PRIVACY
Lunedì 16 Febbraio 2026




FAQ – GOVERNANCE, SANZIONE E ROADMAP DI APPLICAZIONI DELL’AI ACT


Il Regolamento UE 2024/1689  istituisce un sistema multilivello composto da autorità nazionali competenti, organismi notificati e da un Ufficio europeo per l’intelligenza artificiale (AI Office). (rif. artt. 64–66)

È l’organo dell’Unione incaricato di coordinare l’applicazione uniforme del Regolamento, con particolare riferimento ai modelli di IA per finalità generali. (rif. art. 65)

Le autorità nazionali vigilano sull’applicazione del Regolamento sul territorio dello Stato membro e applicano le sanzioni. (rif. art. 70)

Gli organismi notificati effettuano le valutazioni di conformità sui sistemi di IA ad alto rischio prima della loro immissione sul mercato. (rif. artt. 30–39)

Sì, è istituita una banca dati pubblica gestita dalla Commissione europea per i sistemi di IA ad alto rischio. (rif. art. 60)

Il fornitore, prima dell’immissione sul mercato o della messa in servizio del sistema. (rif. art. 60, par. 1)

Sì, quando utilizzano sistemi ad alto rischio, è previsto l’obbligo di registrazione. (rif. art. 60, par. 2)

Sono modelli addestrati su grandi quantità di dati e capaci di svolgere una pluralità di compiti diversi. (rif. art. 3, punto 63)

No, ma possono diventarlo quando sono integrati in sistemi ad alto rischio. (rif. art. 52 bis)

Sì, sono previsti obblighi di documentazione tecnica, trasparenza e cooperazione con le autorità. (rif. artt. 52 ter–52 quater)

È il rischio che un modello possa produrre effetti su larga scala pregiudizievoli per la società, i diritti fondamentali o la sicurezza pubblica. (rif. art. 52 quinquies)

Devono adottare misure di mitigazione dei rischi, effettuare valutazioni specifiche e garantire cooperazione rafforzata con l’AI Office. (rif. art. 52 quinquies)

Sì, il fornitore deve attuare un sistema di sorveglianza post-commercializzazione. (rif. art. 61)

Sì, gli incidenti che incidono su diritti fondamentali o sicurezza devono essere comunicati senza indebito ritardo alle autorità competenti. (rif. art. 62)

È l’insieme delle misure adottate per rendere conforme un sistema che presenti non conformità. (rif. art. 20)

Sì, è obbligatoria prima dell’immissione sul mercato. (rif. art. 43)

Solo nei casi previsti dal Regolamento, altrimenti è richiesto l’intervento di un organismo notificato. (rif. art. 43, par. 1–2)

Sono ambienti controllati che consentono di testare sistemi di IA innovativi sotto la supervisione delle autorità. (rif. art. 53)

Gli Stati membri sono incoraggiati a istituirle, ma non vi è un obbligo assoluto. (rif. art. 53, par. 1)

Sì, devono essere chiaramente identificabili come artificialmente generati o manipolati. (rif. art. 52, par. 3)

Sì, purché non siano violati i diritti fondamentali delle persone. (rif. considerando 134)

L’AI Act si applica senza pregiudizio per il GDPR 2016/679, che resta pienamente vigente per i trattamenti di dati personali. (rif. art. 2, par. 7)

Le piattaforme devono rispettare sia le regole sulla moderazione dei contenuti sia gli obblighi di trasparenza dell’AI Act. (rif. considerando 118)

Sì, l’AI Act si applica in modo complementare al Regolamento (UE) 2017/745. (rif. art. 2, par. 5)

No, ma rafforza gli obblighi di prevenzione e controllo, incidendo indirettamente sulla responsabilità. (rif. considerando 150)

Sì, se risulta non conforme ai requisiti del Regolamento. (rif. art. 21)

Le sanzioni possono arrivare fino a 35 milioni di euro o a una percentuale del fatturato mondiale annuo. (rif. art. 99)

Sì, sono graduate in funzione della gravità e della natura della violazione. (rif. art. 99, par. 3–5)

Sì, non solo per i fornitori ma anche per gli utilizzatori che non rispettano gli obblighi. (rif. art. 101)

L’AI Act (Regolamento UE 2024/1689) è entrato ufficialmente in vigore il 1° agosto 2024. Tuttavia, la sua applicazione è graduale: i divieti sui sistemi IA inaccettabili sono scattati il 2 febbraio 2025, mentre la maggior parte delle altre norme diventerà pienamente applicabile a partire dal 2 agosto 2026. (rif. art. 113)

No, è prevista un’applicazione progressiva con periodi transitori differenziati. (rif. art. 113, par. 2)

Sì, anche i sistemi già immessi sul mercato devono essere resi conformi entro i termini stabiliti. (rif. art. 111)

Sì, è raccomandata l’adozione di politiche interne per la gestione dei sistemi di IA. (rif. artt. 9, 17, 29)

Sì, il Regolamento promuove l’alfabetizzazione e la competenza in materia di IA. (rif. art. 4)

Sì, l’AI Act deve essere integrato nei sistemi di gestione della compliance, della privacy e del rischio. (rif. artt. 9, 61 e considerando 89)

Si. Se si usano o si vogliono introdurre sistemi di IA, serve un percorso che unisca conformità al Regolamento (UE) 2016/679 e requisiti del Regolamento (UE) 2024/1689: mappatura e classificazione, revisione contratti, aggiornamento documentazione privacy, DPIA e FRIA quando necessarie, procedure di trasparenza, log, sicurezza e formazione interna.
Per contattare MODI S.R.L. operativa dal 1998 (Venezia) compilare il questionario di autovalutazione:
* Numero verde gratuito 800300333
* WhatsApp 0415412700
* Chat dalla home del sito

Ultima verifica, 15/02/2026