Blog

Artificial Intelligence Act: verso una regolamentazione europea

Scritto da BID Company | 27-apr-2023 13.22.00

Oggi l’intelligenza artificiale è entrata a far parte della nostra vita quotidiana: velocizza processi, automatizza compiti ripetitivi e contribuisce a personalizzare prodotti e servizi, oltre ad essere un valido alleato nel contenimento dei rischi.

Un sistema AI è spesso caratterizzato da componenti black-box che ne compromettono l’interpretabilità. Può essere soggetto a riproporre gli stereotipi e pregiudizi di chi lo addestra e, inoltre, in molti casi ci aspettiamo che l’AI “sostituisca” l’intervento umano, diventando di fatto uno strumento autonomo. Queste caratteristiche, se non regolate, comportano dei rischi legati alla sicurezza, alla responsabilità e al rispetto dei principi etici.

AI Act: i primi passi verso la regolamentazione

Per garantire il rispetto di una serie di requisiti tra cui la protezione dei dati, la tutela dei diritti e di standard etici, nel 2018 la Commissione Europea ha istituito un gruppo di lavoro sull’intelligenza artificiale per raccogliere il contributo degli esperti con l’obiettivo di elaborare una proposta di linee guida sull’etica dell’intelligenza artificiale. In aprile 2021 la Commissione ha presentato il suo pacchetto sull’AI, che includeva la proposta di regolamento per stabilire norme armonizzate sull’intelligenza artificiale.

Per prima cosa, occorre specificare che l’AI Act classifica i sistemi di intelligenza artificiale con un approccio risk-based:

  • Unacceptable risk: sono così classificati i sistemi di rilevamento biometrico che elaborano le informazioni in real-time (a cui fanno eccezione alcune applicazioni legate alle pratiche investigative o alla ricerca dei criminali), e gli algoritmi di social scoring, che determinano l’accesso degli individui a certi servizi sulla base delle loro caratteristiche personali e comportamentali.
  • High risk: ne fanno parte molte applicazioni AI, ed è la categoria per cui è richiesta la messa in atto delle pratiche di monitoraggio e controllo previste dall’AI Act. Tra le applicazioni di questa categoria troviamo quelle che consentono la gestione dei lavoratori e delle assunzioni (come la preselezione dei candidati tramite analisi dei CV), quelle che determinano l’accesso a prestazioni e servizi pubblici o privati essenziali e la fruizione degli stessi (come ad esempio il credit scoring), le applicazioni legate alle identificazioni biometriche e le categorizzazioni delle persone (se non rientrano tra le proibite), la gestione del traffico stradale e nella fornitura di acqua, gas, riscaldamento ed elettricità.
  • AI with specific transparency obligations, che non usano dati personali e producono output che non vanno ad influenzare direttamente o indirettamente le persone
  • Minimal or no risk: quelle applicazioni AI incluse in prodotti o servizi per cui è già prevista una copertura da parte delle regolamentazioni UE.

Data Governance e AI Act

L’attenzione posta sulla governance del dato costituisce le fondamenta per un sistema AI solido e funzionante. Di conseguenza, anche l’AI Act dà molto rilievo a questo abilitatore essenziale, definendo i principi che le organizzazioni che utilizzano l’intelligenza artificiale dovrebbero seguire nell’impostare una Data Governance etica ed efficace.

In questo contesto, l’AI Act richiede che le organizzazioni che utilizzano sistemi di intelligenza artificiale seguano determinati principi di governance dei dati, che possono essere riassunti nei seguenti punti:

  • Accessibilità: i dati devono essere accessibili a chi ne ha bisogno, sulla base dei principi della necessità e della proporzionalità.
  • Trasparenza: le organizzazioni che utilizzano l’IA devono essere trasparenti nel trattamento dei dati, in modo da consentire alle persone di capire come sono utilizzati i loro dati.
  • Qualità: i dati devono essere accurati, affidabili e pertinenti alle finalità dell’IA e dell’organizzazione.
  • Sicurezza: l’organizzazione deve adottare misure di sicurezza appropriate per proteggere i dati dal rischio di perdita, furto o accesso non autorizzato.
  • Responsabilità: l’organizzazione che utilizza l’IA è responsabile dell’uso dei dati per garantire l’etica e la legalità dell’attività, nonché di assicurare che il trattamento dei dati sia in linea con i principi della governance dei dati.

L’importanza della Data Governance per il Fintech

Il settore finanziario è un settore che fa affidamento sulla raccolta, l’elaborazione e la custodia dei dati per poter funzionare correttamente. Pertanto, la data governance ai sensi dell’AI Act è estremamente importante per il settore finanziario. Ad esempio, la mia banca utilizza l’IA per offrire servizi personalizzati ai clienti, erogare crediti e prevenire frodi finanziarie.
La data governance ai sensi dell’AI Act è particolarmente importante nella gestione del rischio. La gestione del rischio finanziario è un processo complesso e delicato che richiede la raccolta e l’analisi di enormi quantità di dati al fine di valutare le minacce e le opportunità di investimento. La data governance ai sensi dell’AI Act consente alle organizzazioni del settore finanziario di rafforzare la loro gestione del rischio, proteggendo i dati degli utenti e garantendo che i processi di analisi dei dati siano accurati, trasparenti e sicuri.

Le normative vigenti e l’AI Act: punti di contatto

Le normative nel contesto finanziario sono di fondamentale importanza quando si parla di etica del dato e data governance. Infatti, esse determinano le linee guida e le regole da seguire per gestire in maniera corretta e responsabile i dati finanziari, che sono spesso sensibili e di grande valore per le aziende e per i clienti.

Gli scenari regolamentari si sono storicamente evoluti da scenari internazionali ed europei a declinazioni di normative puntuali utili a regolamentare ed uniformare il mercato finanziario. Alcuni esempi possono essere:

  • Direttiva open data diventata prima PSD2 e poi PSD3;
  • Regolamento relativo al libero flusso di dati non personali che si è declinato nel MICAR;
  • GDPR inteso come Regime Pilota;
  • DGA/DMA/DSA/Data Act che hanno preso forma nel DORA.

L’AI Act sta diventando un punto di riferimento per il quadro normativo del prossimo futuro ed è possibile immaginare che anche questa linea guida Europea diventerà una specifica normativa di riferimento per le istituzioni finanziarie.

Ambiti e processi coinvolti

Gli investimenti nel settore Fintech sono in costante aumento e le organizzazioni del settore finanziario stanno implementando sempre più soluzioni basate su sistemi di intelligenza artificiale per migliorare la loro efficienza e offrire migliori servizi ai clienti, dalla gestione del credito, del rischio, alla lotta alle frodi finanziarie. L’utilizzo dell’AI richiede, come abbiamo visto, particolare attenzione alla gestione dei dati e alla protezione della privacy degli utenti.

Gli ambiti di applicazione esistenti e in fase di esplorazione sono molteplici e possono riguardare:

  • Decisioni automatizzate: la regolamentazione impatterà sulle tecnologie di analisi e di decisione automatizzata applicate nell’ambito dei finanziamenti, dei prestiti o delle assicurazioni.
  • Ricerca e sviluppo: l’AI Act può influire sulla ricerca e lo sviluppo di prodotti finanziari “intelligenti”, in quanto richiederà che tali prodotti e servizi siano sviluppati in modo responsabile e sicuro, nel rispetto di determinati requisiti.
  • Protezione dei dati: l’AI Act imporrà regole per la raccolta, l’elaborazione e la gestione dei dati utilizzati nell’ambito della “finanza intelligente”, compresi i dati personali.
  • Compliance: le banche, le compagnie assicurative e le altre istituzioni finanziarie che utilizzano sistemi di intelligenza artificiale dovranno rispettare i requisiti di conformità stabiliti dall’AI Act e documentare l’uso dell’AI per dimostrare di essere in regola.

In sintesi, l’AI Act impatterà diversi processi in modo trasversale e rappresenta una misura importante per garantire l’etica e la legalità delle attività nel settore finanziario, proteggendo, in primis, i diritti dei clienti e garantendo una gestione corretta dei dati.

BID Company si propone come partner qualificato e affidabile per accompagnare le aziende verso un percorso di evoluzione AI-powered e data-driven, combinando le competenze tecniche e tecnologiche delle persone con un focus importante sugli impatti di business, riconoscendo insieme le esigenze del cliente per trovare la soluzione più adatta

Vuoi saperne di più sull’etica del dato?