Per sistema di intelligenza artificiale si intende un sistema basato su macchine progettato per operare con diversi livelli di autonomia e che, per obiettivi espliciti o impliciti, genera output quali previsioni, contenuti, raccomandazioni o decisioni. (rif. art. 3, punto 1)
È la persona fisica o giuridica che sviluppa o fa sviluppare un sistema di IA e lo immette sul mercato o lo mette in servizio con il proprio nome o marchio. (rif. art. 3, punto 3)
È la persona fisica o giuridica che utilizza un sistema di IA sotto la propria autorità, escluso l’uso personale non professionale. (rif. art. 3, punto 4)
I modelli e i sistemi open source sono in parte esclusi, salvo che siano integrati in sistemi ad alto rischio o destinati a usi che rientrano nell’ambito applicativo del Regolamento. (rif. art. 2, par. 12 e considerando 60)
Il livello di rischio è determinato in base alla finalità del sistema e al settore di utilizzo, valutando l’impatto potenziale sui diritti fondamentali e sulla sicurezza delle persone. (rif. art. 6 e Allegato III)
Sì, se la finalità d’uso viene modificata o se il contesto applicativo muta, il sistema deve essere nuovamente valutato ai fini della classificazione del rischio. (rif. art. 9 e art. 16)
Sì, sono vietati i sistemi che sfruttano tecniche subliminali o vulnerabilità legate all’età o alla disabilità al fine di alterare in modo significativo il comportamento delle persone. (rif. art. 5, par. 1, lett. a)
Sì, è vietato l’uso di sistemi di IA che valutano o classificano le persone sulla base del loro comportamento sociale o di caratteristiche personali per finalità generalizzate. (rif. art. 5, par. 1, lett. c)
Sì, i sistemi destinati a supportare l’attività giudiziaria o amministrativa incidono sui diritti delle persone e sono classificati come ad alto rischio. (rif. Allegato III, punto 8)
Sì, i sistemi che valutano l’affidabilità creditizia o determinano l’accesso a servizi finanziari essenziali rientrano tra quelli ad alto rischio. (rif. Allegato III, punto 5)
Sì, è obbligatoria la redazione di una documentazione tecnica che dimostri la conformità del sistema ai requisiti del Regolamento. (rif. art. 11)
Sì, i dataset devono essere pertinenti, rappresentativi e privi di distorsioni discriminatorie. (rif. art. 10)
Sì, per i sistemi ad alto rischio il fornitore deve adottare un sistema di gestione della qualità documentato. (rif. art. 17)
Sì, l’utilizzatore è tenuto a usare il sistema secondo le istruzioni fornite e a monitorarne il funzionamento. (rif. art. 29)
Sì, deve essere garantita un’adeguata informazione quando il sistema incide su diritti o interessi delle persone. (rif. art. 29 e art. 52)
È un modello in grado di svolgere un’ampia gamma di compiti diversi e di essere integrato in molteplici sistemi. (rif. art. 3, punto 63)
Sì, devono rispettare obblighi di trasparenza, documentazione e mitigazione dei rischi sistemici. (rif. artt. 52 bis–52 quinquies)
Sì, quando vi è rischio di inganno per l’utente, il contenuto deve essere chiaramente identificabile come generato artificialmente. (rif. art. 52)
Sì, salvo casi di evidenza manifesta, l’utente deve sapere che sta interagendo con un sistema di IA. (rif. art. 52, par. 1)
Sì, deve essere garantita la registrazione automatica degli eventi per consentire controlli successivi. (rif. art. 12)
Sì, sono soggetti a limiti rigorosi e, in molti casi, vietati se usati in tempo reale in luoghi pubblici. (rif. art. 5, par. 1, lett. d)
No, è vietata la categorizzazione biometrica basata su origine etnica, religione o orientamento politico. (rif. art. 5, par. 1, lett. g)
Sono ammessi solo se rispettano i requisiti per i sistemi ad alto rischio e garantiscono controllo umano. (rif. Allegato III, punto 4)
Sì, i lavoratori devono essere informati in modo chiaro e comprensibile. (rif. art. 29 e considerando 71)
Sì, quando incidono su diagnosi o decisioni terapeutiche rientrano tra i sistemi ad alto rischio. (rif. Allegato III, punto 1)
Sì, il sistema non può sostituire il giudizio clinico umano. (rif. art. 14)
Sì, è prevista la registrazione in una banca dati europea. (rif. art. 60)
Solo nel rispetto dei requisiti di legge e con garanzie di trasparenza e controllo umano. (rif. art. 29 e Allegato III)
Sono previste sanzioni amministrative pecuniarie elevate, proporzionate alla gravità della violazione. (rif. artt. 99–101)
È stato istituito un sistema di governance europea con autorità nazionali competenti e un Ufficio europeo per l’IA. (rif. artt. 64–70)
Si. Se si usano o si vogliono introdurre sistemi di IA, serve un percorso che unisca conformità al Regolamento (UE) 2016/679 e requisiti del Regolamento (UE) 2024/1689: mappatura e classificazione, revisione contratti, aggiornamento documentazione privacy, DPIA e FRIA quando necessarie, procedure di trasparenza, log, sicurezza e formazione interna.
Per contattare MODI S.R.L. operativa dal 1998 (Venezia) compilare il questionario di autovalutazione:
* Numero verde gratuito 800300333
* WhatsApp 0415412700
* Chat dalla home del sito
Ultima verifica, 15/02/2026
