Il ricorso a soluzioni di Intelligenza Artificiale come strumento per affrontare e risolvere le sfide decisionali che si presentano in ambito banking, è da tempo una realtà concreta: la necessità che sta emergendo riguarda gli aspetti di sicurezza, affidabilità ed eticità che sempre di più richiediamo a tali soluzioni, oggi meno human-driven di un tempo.
Ma cosa significa coniugare Etica e Intelligenza Artificiale?
Si tratta nel concreto di voler definire nuove logiche di controllo sui sistemi AI, che ne incrementino gli aspetti di trasparenza e assicurino il rispetto di una serie di requisiti, in coerenza con i principi etici della banca, di cui i sistemi AI devono farsi traduzione metodologica per fini valutativi e previsionali.
Trustworthy AI: cos’è e come si ottiene
Trustworthy AI significa sistemi di Intelligenza Artificiale sicuri, resilienti e affidabili nel tempo, e tale obiettivo si raggiunge tenendo in considerazione una serie di componenti, fortemente connesse tra di loro. L’obiettivo generale dell’AIA (per approfondimenti, si veda l’allegato) è proprio quello di disegnare e definire gli aspetti chiave dei sistemi AI che per il loro intero ciclo di vita assicurino i principi di:
- Legalità, in quanto i sistemi AI devono operare in un contesto di normative nazionali e internazionali, e legate allo specifico dominio di applicazione, con le quali risultare compliant.
- Eticità, poiché l’obiettivo è assicurare anche l’attinenza a vincoli legati a principi etici e non discriminativi da parte dei sistemi AI
- Robustezza tecnica, nel modo in cui i sistemi AI devono garantire solidità e mantenimento del tempo di standard qualitativi, per assicurare performance in linea con la qualità e gli output attesi.
I tre pilastri sono chiaramente correlati tra loro, e una mancanza da un lato determina senz’altro il decadimento delle altre componenti. È interessante anche osservare che i tre pilastri, se combinati tra loro, conducono ad una serie di ulteriori qualità di un sistema AI. Ad esempio, un sistema che sia compliant con i requisiti di legalità ma anche etico è un sistema non discriminante e che non produce bias, e il fattore abilitante per tali caratteristiche è una solida robustezza tecnica che si mantenga nel tempo, fattore reso possibile da un monitoraggio continuo dello strumento.
Il contributo di BID: un toolkit per la Trustworthy AI
In linea con la filosofia BID, si propone il disegno di un framework capace di tradurre in step operativi i principi guida dell’AIA.
Per un’efficace messa a terra di un sistema di controllo, è utile prima di tutto tradurre i tre pillar in una serie di aspetti concreti e misurabili da controllare. Sia in fase di sviluppo, che durante tutto il periodo di utilizzo di un sistema AI, l’impostazione di strumenti di controllo e monitoraggio consente di verificare l’attinenza ai principi etici nel tempo del classificatore, in modo da mitigare l’insorgenza di campanelli d’allarme del decadere delle tre componenti fondamentali di un sistema AI affidabile.
Tali aspetti sono:
- Principi legali:
- Lack di responsabilità: i sistemi AI automatizzano processi decisionali precedentemente gestiti da umani: ciò può complicare l’identificazione della responsabilità di certe decisioni
- Violazione della privacy: i sistemi AI si basano sull’utilizzo di grandi moli di dati, spesso personali. Qualsiasi utilizzo del dato personale deve essere approvato e regolamentato.
- Principi etici:
- Bias e discriminazione: gli strumenti AI inferiscono pattern e dinamiche dalla società che analizzano, e il rischio è quello di amplificare i meccanismi di marginalizzazione, disuguaglianza e discriminazione che esistono in tali sistemi societari.
- Unjustifiable outcomes: i sistemi AI operano su relazioni intercettate in spazi n-dimensionali, al di là delle capacità interpretative umane. Il razionale delle scelte algoritmiche è pertanto spesso caratterizzato da dinamiche «black-box»
- Robustezza tecnica:
- Poor quality outcomes: un sistema AI di qualità deve garantire outcome stabili nel tempo ed essere in grado di intercettare in modo automatico decadimenti di performance
La soluzione di BID
La soluzione di BID si concentra in particolar modo nella verifica degli aspetti etici e tecnici, proponendo una serie di strumenti da applicarsi lungo tutto l’Algo Life Cycle, tra cui:
- Rispetto dei principi etici:
- Monitoraggio della distribuzione dell’outcome nei vari gruppi sociali, nelle minoranze etc
- Vincolo di trasparenza e disclosure: Explainable AI sia in ottica globale che locale
- Garanzia di robustezza tecnica:
- Test di performance iniziale per definizione del benchmark e controllo dell’overfitting (robustezza)
- Monitoraggio e alerting basati su metriche di performance e soglie predefinite
- Interventi di fine tuning in ottica continuous improvement
- Vincolo di cybersicurezza: misure per prevenire gli attacchi di data poisoning progettati per causare errori nel modello
Trustworthiness Life-Cycle (TLC)
BID propone un toolkit di governance che prevede practices da declinare lungo tutto l’AI life cycle per assicurare eticità e robustezza in un sistema di trustworthy AI. Un framework completo di applicazione vede infatti la messa in atto di un trustworthiness life-cycle che si innesta in tutti i punti chiave del ciclo di vita dell’algoritmo, prevedendo:
- L’applicazione di tecniche di Explainable AI per intercettare pattern e comportamenti dei sistemi AI in fase di sviluppo del sistema AI
- L’attività di monitoraggio nel tempo degli output dei sistemi AI, una volta messo in produzione il sistema e lungo tutto il periodo di serving dello stesso per assicurarne l’attinenza ai principi etici e di robustezza
- L’identificazione di metriche e threshold il cui superamento attivi un sistema di alerting
- La definizione di attività di fine tuning da mettere in opera all’accensione di uno o più alert per garantire un sistema resiliente e affidabile.
Vuoi saperne di più su come gestire Etica e AI?