AI Act: cosa è e come cambia l’impatto dell’intelligenza artificiale nel settore banking in Europa
14/10/2024
L’intelligenza artificiale (AI) ha rivoluzionato il settore bancario, portando innovazioni significative in aree come la gestione del rischio, l’automazione dei processi e la personalizzazione dei servizi al cliente. Tuttavia, con l’avanzare di queste tecnologie, emergono nuove sfide, soprattutto in ambito etico e normativo. L’Unione Europea ha deciso di intervenire con una legislazione specifica per regolamentare l’uso dell’AI, noto come AI Act. Questo quadro normativo mira a stabilire regole chiare e a garantire un utilizzo sicuro e trasparente dell’intelligenza artificiale in settori critici come quello bancario. Ma cos’è esattamente l’AI Act e come influenzerà il futuro delle banche in Europa?
Cos’è l’AI Act?
L’AI Act è una proposta normativa dell’Unione Europea pensata per regolamentare l’uso dell’intelligenza artificiale all’interno del mercato unico europeo. L’obiettivo principale è garantire che le applicazioni di intelligenza artificiale vengano sviluppate e utilizzate in modo sicuro, trasparente e responsabile. La normativa classifica i sistemi di AI in diverse categorie di rischio, prevedendo norme più severe per le applicazioni considerate “ad alto rischio”. Tra queste rientrano settori critici come quello bancario, finanziario, sanitario, dell’educazione e della sicurezza pubblica. In particolare, il regolamento pone l’accento sulla protezione dei diritti fondamentali dei cittadini europei, come la privacy e la non discriminazione, oltre a promuovere l’innovazione tecnologica in modo etico e controllato.
Perché è stato introdotto l’AI Act?
L’AI Act è stato introdotto per rispondere alle crescenti preoccupazioni sull’uso non regolamentato dell’intelligenza artificiale, specialmente in settori ad alto impatto sociale, come il banking e il finance. L’intelligenza artificiale, pur offrendo numerosi vantaggi, può anche presentare rischi significativi, come l’accentuazione di pregiudizi o l’opacità nelle decisioni automatizzate. Ad esempio, nel settore bancario, gli algoritmi di AI sono ampiamente utilizzati per la valutazione del credito e per prevenire frodi, ma senza adeguati controlli potrebbero portare a decisioni discriminatorie o ingiuste. L’AI Act mira a prevenire questi rischi garantendo che i sistemi AI rispettino alti standard di sicurezza, trasparenza e responsabilità, proteggendo così sia le aziende che i consumatori.
Obiettivi principali dell’AI Act
Uno degli obiettivi principali dell’AI Act è il rispetto del principio di trasparenza, che si coordina strettamente con il Regolamento Generale sulla Protezione dei Dati (GDPR). Secondo l’AI Act, i sistemi di intelligenza artificiale devono essere trasparenti e tracciabili lungo l’intero ciclo di vita, dalla progettazione fino alla messa in commercio e l’uso effettivo. Questo principio ha lo scopo di garantire che gli utenti finali siano in grado di comprendere come i sistemi di AI funzionano e come i loro dati vengono utilizzati, con l’obiettivo di prevenire abusi o discriminazioni.
Inoltre, il regolamento richiede che le informazioni sul trattamento dei dati personali siano fornite agli interessati in maniera chiara, accessibile e comprensibile, come specificato anche nel GDPR. Questo garantisce che i cittadini siano pienamente informati su come vengono raccolti, utilizzati, conservati e condivisi i loro dati personali. Così facendo, l’AI Act mira a promuovere la fiducia verso le tecnologie di intelligenza artificiale, rendendole più spiegabili e responsabili per il pubblico.
L’AI Act si propone di raggiungere tre obiettivi fondamentali:
- Tutela della sicurezza e dei diritti fondamentali: La normativa stabilisce criteri rigidi per i sistemi AI, in particolare quelli considerati ad alto rischio, per evitare violazioni dei diritti dei cittadini e minimizzare i rischi legati alla sicurezza.
- Promuovere trasparenza e tracciabilità: I sistemi di intelligenza artificiale devono essere trasparenti nel loro funzionamento, in modo che sia chiaro come prendono le decisioni e come utilizzano i dati. Questo è particolarmente rilevante per le applicazioni nel settore finanziario, dove le decisioni possono influenzare direttamente la vita delle persone, come nell’assegnazione di prestiti o polizze assicurative.
- Sostenere l’innovazione responsabile: L’AI Act non vuole frenare lo sviluppo tecnologico, ma creare un ambiente regolamentato che incentivi l’innovazione sicura, garantendo al contempo che i nuovi sviluppi tecnologici rispettino gli standard etici.
Le nuove regolamentazioni per l’intelligenza artificiale
Il regolamento dell’AI Act introduce una classificazione dei sistemi di intelligenza artificiale in tre categorie di rischio, ciascuna con specifici requisiti normativi:
- Sistemi vietati: Sono applicazioni di AI che possono causare danni gravi ai cittadini dell’Unione Europea o alle loro libertà fondamentali, come i sistemi di sorveglianza di massa o quelli che manipolano il comportamento umano. Questi sono proibiti a livello europeo.
- Sistemi ad alto rischio: Questa categoria include applicazioni di AI utilizzate in settori sensibili come il banking e il finance. Gli algoritmi di valutazione del credito o di prevenzione delle frodi, ad esempio, rientrano in questa categoria. Tali sistemi richiedono stringenti verifiche di conformità, audit periodici, e devono fornire alle autorità competenti informazioni dettagliate sul funzionamento del sistema, spiegando chiaramente come viene addestrato e quali dati vengono utilizzati. Questi obblighi di documentazione sono volti a migliorare la tracciabilità e a garantire che il pubblico e le autorità di vigilanza possano accedere a informazioni chiave sul sistema.
- Sistemi a basso rischio: Si tratta di sistemi AI che presentano un rischio minimo per i diritti dei cittadini. Per questi, le regole sono meno restrittive, ma le aziende sono comunque tenute a mantenere un livello di trasparenza e tracciabilità adeguato.
Le nuove regolamentazioni previste dall’AI Act pongono un focus particolare sull’importanza della trasparenza e della tracciabilità. I sistemi di intelligenza artificiale, specialmente quelli classificati come “ad alto rischio”, devono essere conformi a una serie di requisiti volti a garantire che il loro utilizzo sia sicuro e che non vengano violati i diritti fondamentali degli individui. Inoltre, per i deployers (coloro che utilizzano i sistemi di AI ad alto rischio), viene richiesto di condurre una valutazione d’impatto sui diritti fondamentali (FRIA) prima della messa in commercio del sistema. Questa valutazione mira a identificare potenziali rischi per i diritti dei cittadini e garantisce che i sistemi vengano gestiti in modo responsabile.
Le sanzioni per le violazioni dell’AI Act possono essere severe, con multe fino a 30 milioni di euro o il 6% del fatturato globale annuo dell’azienda, a seconda di quale importo sia maggiore. Questo dimostra la determinazione dell’UE nel garantire che l’intelligenza artificiale venga utilizzata in modo responsabile, soprattutto nei settori più delicati.
L’impatto dell’AI Act sul settore banking
L’introduzione dell’AI Act rappresenta un momento cruciale per il settore bancario, specialmente in relazione all’adozione crescente delle tecnologie avanzate come l’intelligenza artificiale (IA). Secondo la Banca d’Italia, il 72% degli intermediari finanziari italiani ha già adottato tecnologie di AI in almeno una parte delle proprie operazioni, con un utilizzo particolarmente diffuso nei contact center, nella gestione delle frodi e nel credito. L’entrata in vigore dell’AI Act, influenzerà profondamente alcuni degli algoritmi più utilizzati nel settore bancario. Tra questi, quelli per la valutazione del rischio di credito e del pricing assicurativo, che rientrano nella categoria degli algoritmi ad “alto rischio”, dove errori o bias algoritmici potrebbero comportare conseguenze gravi per i consumatori, come la discriminazione nell’accesso al credito.
In un contesto sempre più orientato verso soluzioni di alto valore per la clientela bancaria, l’intelligenza artificiale rappresenta un’opportunità fondamentale per ottimizzare la gestione dei contact center. Alcune aziende high-tech stanno introducendo strumenti innovativi basati sull’intelligenza artificiale, parte di un nuovo approccio human-to-human. Questo modello combina l’efficienza dell’AI – tecnologie avanzate come l’AI conversazionale per esempio – con l’elemento umano, garantendo automazione nei compiti più ripetitivi, ma anche una cura particolare nella gestione delle interazioni più complesse, mantenendo il cliente al centro. Con l’ausilio di queste tecnologie all’avanguardia, le banche possono rispondere in maniera più tempestiva alle richieste dei clienti, creando un’esperienza più fluida e orientata alle esigenze reali degli utenti.
Inoltre, l’AI generativa rappresenta una nuova sfida per le banche. Nel 2023, i finanziamenti globali per lo sviluppo di sistemi di AI generativa sono aumentati in modo significativo, con investimenti che hanno superato i 25 miliardi di dollari. Questo tipo di intelligenza artificiale può trasformare l’intero settore bancario, ma è accompagnato da criticità rilevanti. Oltre ai costi elevati per il suo sviluppo — ad esempio, OpenAI ha speso circa 78 milioni di dollari per addestrare ChatGPT-4 e Google ha investito oltre 190 milioni di dollari per Gemini Ultra — emergono questioni legate alla trasparenza e alla supervisione di questi sistemi. Secondo l’AI Act, i sistemi AI generativa, data la loro capacità di produrre contenuti autonomamente, richiedono presidi di controllo rafforzati, per evitare l’adozione di decisioni potenzialmente dannose per gli utenti.
Benefici e sfide dell’AI Act per le banche
Il settore bancario si trova in una fase di intensa trasformazione digitale, che coinvolge diverse aree operative, tra cui l’intermediazione creditizia e i pagamenti, che assorbono circa il 40% della spesa totale in tecnologie digitali. La crescente diffusione dell’AI rappresenta sia un’opportunità che una sfida. Da un lato, l’AI Act introduce un quadro normativo chiaro, che mira a bilanciare l’innovazione tecnologica con la protezione dei consumatori. Le banche potranno beneficiare di una maggiore certezza regolamentare, riducendo il rischio di investimenti non conformi e accelerando l’integrazione di tecnologie avanzate.
D’altro canto, le sfide sono significative. Gli obblighi di conformità introdotti dall’AI Act, come il mantenimento di log completi per ogni operazione e l’implementazione di sistemi di sorveglianza umana su tutti i processi decisionali automatizzati, comportano un notevole sforzo organizzativo e finanziario per gli istituti bancari. La verifica della qualità dei dati è un altro requisito essenziale, poiché la pulizia e l’affidabilità dei dati utilizzati dai modelli AI saranno cruciali per evitare errori o distorsioni nelle decisioni. La mancanza di dati di qualità o la scarsa trasparenza nell’elaborazione dei dati possono comportare rischi significativi per le banche, sia in termini di compliance che di reputazione.
In particolare, per quanto riguarda l‘AI generativa, le banche stanno ancora esplorando il potenziale di queste tecnologie innovative, ma il suo sviluppo rappresenta un salto tecnologico che, se ben gestito, potrebbe davvero trasformare il settore. Tuttavia, l’AI generativa richiede presidi di sicurezza più robusti e monitoraggio continuo per evitare rischi legati alla produzione di contenuti imprevisti o dannosi.
Il futuro dell’AI e della regolamentazione nel settore bancario
Guardando al futuro, l’AI Act e la crescente adozione dell’intelligenza artificiale nel settore bancario promettono di rivoluzionare il modo in cui operano gli istituti finanziari. Le banche stanno già investendo somme ingenti in tecnologie innovative: secondo l’“Indagine Fintech nel sistema finanziario italiano”, di aprile 2024 della Banca d’Italia, tra il 2021 e il 2024, la spesa complessiva per progetti fintech è stimata a quasi 1,9 miliardi di euro, con un focus sulle piattaforme web-mobile, API e AI. In particolare, il cloud computing ha visto un significativo aumento degli investimenti, con un tasso di crescita del 50% in due anni.
L’introduzione di algoritmi generativi, come ChatGPT, ha aperto nuove opportunità per il settore finanziario, ma la loro applicazione nelle banche è ancora nelle fasi iniziali. Le banche potrebbero trarre vantaggio da queste tecnologie per migliorare la personalizzazione dei servizi e la gestione delle relazioni con i clienti, ma dovranno affrontare questioni complesse riguardanti la sicurezza e la gestione del rischio.
Il futuro vedrà un’integrazione sempre più profonda dell’IA nelle funzioni chiave delle banche, come la gestione del credito e la valutazione del rischio, ma anche nella gestione documentale e nelle operazioni di compliance. Tuttavia, la rapidità di adozione non deve superare la capacità degli operatori di gestire in modo efficace i rischi associati a queste tecnologie. Il dialogo continuo con il mercato sarà essenziale per monitorare gli sviluppi dell’AI e adattare la regolamentazione in modo da favorire l’innovazione senza compromettere la sicurezza del sistema finanziario.
Un aspetto che richiederà particolare attenzione è la connessione tra AI, cloud e rischi cyber. Le banche dovranno investire ulteriormente nella sicurezza informatica per proteggere le loro infrastrutture dai crescenti attacchi cibernetici, una minaccia resa più complessa dall’interconnessione dei sistemi AI e cloud. L’AI Act sarà uno strumento chiave per garantire che l’adozione dell’AI avvenga in modo etico e trasparente, mantenendo un ruolo centrale per la supervisione umana.
Il futuro dell’AI nel settore bancario è promettente, ma dipenderà dalla capacità delle banche di bilanciare innovazione e gestione del rischio. L’adozione di presidi di sicurezza rafforzati, soprattutto per le tecnologie emergenti come l’AI generativa, sarà fondamentale per garantire una crescita sostenibile e sicura del sistema finanziario.
