Dopo le trattative, Consiglio e Parlamento UE hanno trovato un accordo provvisorio sulle regole sull'intelligenza artificiale, chiamate Artificial Intelligence Act. Questa legge vuole garantire che i sistemi di Intelligenza Artificiale venduti e usati nell'UE siano sicuri e rispettino i diritti umani e i principi dell'UE. È una proposta importante che vuole anche promuovere gli investimenti e l'innovazione nell'IA in Europa.
La proposta dell'UE per sistemi di IA sicuri e leciti nel mercato unico è importante per lo sviluppo e l'adozione di tali tecnologie, nel rispetto dei diritti fondamentali.
La proposta segue un approccio basato sul rischio e stabilisce un quadro giuridico orizzontale uniforme per l'IA allo scopo di garantire certezza giuridica. L'Atto promuove investimenti e innovazioni nell'IA, migliora la governance e l'applicazione delle leggi sui diritti fondamentali e la sicurezza e facilita lo sviluppo di un mercato unico per le applicazioni di IA.
La segretaria di Stato spagnola ha detto che è un traguardo storico e importante per il futuro.
L'accordo affronta in modo efficace una sfida globale in un ambiente tecnologico in rapida evoluzione, focalizzandosi su un'area chiave per il futuro delle nostre società ed economie. Artigas sottolinea l'importanza di mantenere un equilibrio delicato tra l'innovazione e il rispetto dei diritti fondamentali dei cittadini.
Rispetto alla proposta iniziale della Commissione, l'accordo provvisorio introduce nuovi elementi chiave, tra cui:
L'accordo protegge i sistemi di IA a basso rischio, evitando che siano inclusi se non violano i diritti fondamentali o presentano rischi significativi. Vengono vietati alcuni utilizzi di IA considerati inaccettabili, come la manipolazione comportamentale cognitiva e il riconoscimento delle emozioni sul luogo di lavoro e nelle istituzioni educative.
Vuoi chiedere un parere ai nostri esperti di Ethic AI?
Considerando le specificità delle forze dell'ordine, l'accordo apporta modifiche alla proposta della Commissione per consentire l'uso di sistemi di IA ad alto rischio in situazioni di emergenza. Vengono introdotte misure aggiuntive per garantire la protezione dei diritti fondamentali contro possibili abusi di sistemi di IA.
Viene creato un Ufficio per l'IA nella Commissione. L'Ufficio ha il compito di controllare i modelli di IA più avanzati. Inoltre, aiuta a stabilire standard e test per l'IA.
Infine, l'Ufficio si occupa di far rispettare le regole in tutti gli Stati membri. Sono previste multe proporzionate per le violazioni dell'Atto sull'IA, con limitazioni più moderate per le PMI e le start-up.
L'accordo prevede una valutazione dell'impatto sui diritti fondamentali prima di mettere sul mercato un sistema di IA ad alto rischio. Sono inoltre previste maggiori trasparenze per l'uso di sistemi di IA ad alto rischio, con l'obbligo per le entità pubbliche di registrarsi nel database dell'UE per tali sistemi.
Per favorire l'innovazione, vengono fatte modifiche alle misure di sostegno, come i "sandbox" per lo sviluppo di sistemi di IA e la possibilità di testarli in situazioni reali.
L'accordo provvisorio stabilisce che l'AI Act entrerà in vigore due anni dopo la sua adozione, con alcune eccezioni per disposizioni specifiche. Il lavoro tecnico continuerà nelle prossime settimane per finalizzare i dettagli della nuova normativa prima di sottoporre il testo di compromesso ai rappresentanti degli Stati membri per l'approvazione.
Dopo l'accordo provvisorio, il lavoro procederà a livello tecnico per finalizzare i dettagli della normativa. Il testo di compromesso sarà sottoposto all'approvazione dei rappresentanti degli Stati membri (Coreper) una volta concluso questo lavoro. Sarà necessaria la conferma da parte di entrambe le istituzioni e la revisione legale-linguistica prima dell'adozione formale da parte dei co-legislatori.
L'accordo provvisorio sull'AI Act rappresenta un passo significativo verso un futuro in cui l'IA sia sicura, rispettosa dei diritti fondamentali e promotrice di innovazione. La sua attuazione richiederà collaborazione tra le istituzioni europee, gli Stati membri e gli attori del settore dell'IA. L'UE vuole stabilire un regolamento globale per l'IA, come ha fatto con il GDPR, per influenzare la regolamentazione tecnologica a livello mondiale.