AI ACT - LESSON SEVEN
Obblighi dei fornitori dei sistemi ad alto rischio:
Obblighi dei fornitori di sistemi AI ad alto rischio secondo l'AI Act
L'AI Act (Artificial Intelligence Act) impone una serie di obblighi specifici ai fornitori di sistemi di intelligenza artificiale classificati come ad alto rischio. Questi obblighi mirano a garantire che tali sistemi siano sviluppati e utilizzati in modo sicuro, affidabile e etico, minimizzando i rischi per i diritti fondamentali e la sicurezza delle persone.
Ecco una sintesi degli obblighi principali:
Valutazione dei rischi: I fornitori devono condurre una valutazione approfondita dei rischi associati al loro sistema di IA, identificando i potenziali impatti negativi e mettendo in atto misure per mitigarli.
Qualità dei dati: I dati utilizzati per addestrare e alimentare il sistema devono essere di alta qualità, accurati, rappresentativi e privi di pregiudizi.
Trasparenza: I fornitori devono garantire un alto livello di trasparenza, informando gli utenti sulle modalità di funzionamento del sistema, sui limiti delle sue capacità e sui potenziali rischi.
Robustezza e sicurezza: I sistemi devono essere progettati e sviluppati in modo da essere robusti, sicuri e resistenti a manipolazioni o attacchi.
Supervisione umana: Le decisioni critiche che possono avere un impatto significativo sulla vita delle persone devono essere sempre soggette a una supervisione umana.
Documentazione: I fornitori devono tenere una documentazione dettagliata di tutte le fasi del ciclo di vita del sistema, dalla progettazione alla messa in servizio.
Conformità: I sistemi devono essere conformi a tutte le altre disposizioni dell'AI Act, comprese quelle relative alla protezione dei dati personali e alla non discriminazione.
Registrazione: I sistemi di IA ad alto rischio devono essere registrati in una banca dati europea.
Entra in vigore 2 agosto 2026.
Avv. Monica Bombelli