Difficile da prevedere, impossibile da fermare. L’intelligenza artificiale travolge tutti i settori industriali, ma resta particolarmente ostico determinarne gli sviluppi futuri con ragionevole sicurezza. Anche il contesto finanziario non fa eccezione.
«Gli attori di Mercato stanno cercando di orientarsi in questo mondo» dice Claudia Guagliano, Head of Unit per la Consumer Sustainability e Innovation Analysis di ESMA, l’Autorità europea degli strumenti finanziari e dei Mercati, incaricata di regolamentare e vigilare gli operatori europei. «È un fenomeno che stiamo monitorando da tempo. La prima sfida è capire quanto l’AI sia usata a livello europeo, definire il perimetro cui fare riferimento e identificare i principali use cases. Ci sono varie limitazioni, in termini di dati disponibili, che rendono difficile misurare il grado di adozione da parte degli operatori. Molto spesso è necessario ricorrere a survey, come quella che abbiamo condotto di recente presso le entità vigilate da ESMA. Abbiamo anche attivato vari workshop e altre forme di interazione con il Mercato, proprio per analizzare il livello di utilizzo. Una volta identificati i principali use cases e la loro diffusione, ci si può porre il tema di quali siano i rischi e i potenziali benefici».

Dalle indagini che avete condotto sul Mercato, avete riscontrato un interesse da parte degli operatori?
«Sì, anche se la panoramica è molto in divenire un po’ per tutti. Soprattutto, c’è stato un balzo in avanti fondamentale con l’arrivo di ChatGPT e dei modelli di GenAI. Lì ci siamo resi veramente conto della potenza e della facilità di utilizzo di questi strumenti, che abbattono molte barriere all’ingresso».
Qual è il vostro ruolo rispetto alla implementazione dell’AI Act?
«Abbiamo seguito i vari passaggi della normativa, anche se è una regolamentazione orizzontale, che non riguarda solamente i Mercati finanziari. In questo momento, stiamo lavorando anche insieme a DG FISMA (il direttorato generale della Commissione Europea per Stabilità Finanziaria, Servizi Finanziari e Capital Markets Union, ndr) e all’AI Office per capire quali sono le implicazioni per il settore finanziario e seguire l’implementazione del regolamento».
Quali altre azioni avete messo in campo, per prevenire distorsioni?
«Un’ulteriore modalità di intervento a nostra disposizione è la comunicazione diretta al Mercato. Per prima cosa, abbiamo emesso uno statement, relativo alla direttiva MiFID II (Markets in Financial Instruments Directive, che disciplina i Mercati finanziari europei con norme a protezione degli investitori e a garanzia di efficienza e competitività, ndr), in cui si dice che le regole contenute nella direttiva valgono anche per l’intelligenza artificiale. Siamo poi intervenuti con un secondo avvertimento, in cui si invita a prestare attenzione nell’utilizzo di strumenti di AI generativa, come ChatGPT: le indicazioni che eventualmente possono fornire non costituiscono consigli di investimento e non garantiscono alcun tipo di tutela o protezione per chi li riceve».
Quali sono gli aspetti, dal vostro punto di vista di Vigilanza, ma anche da quello del regolatore, che richiedono un intervento prioritario?
«L’avvertimento che citavo è molto importante, perché la protezione degli investitori resta uno degli obiettivi fondamentali per ESMA. Il nostro dovere è cercare di far sì che gli investitori possano operare in un ambiente costantemente regolamentato e tutelato. Così come è fondamentale continuare con il monitoraggio: è un mondo che sta cambiando a una velocità impressionante, al punto che la situazione di oggi potrebbe essere radicalmente modificata anche solo tra sei mesi. È importante lavorare sempre insieme alle autorità nazionali, che sono molto vicine ai Mercati, ma anche a livello internazionale. Ci sono gruppi di lavoro con il Financial Stability Board e con la IOSCO (International Organization of Securities Commissions)».
Insomma, la responsabilità regolamentare, da questo punto di vista, ricade sull’Europa?
«Sì, esatto».
Citava la facilità estrema di accesso, attraverso i chatbot, come un aspetto da tenere sotto controllo. Oltre a questo, quali sono i principali rischi all’orizzonte?
«Un rischio estremamente importante è quello di concentrazione. Il fatto che gli investimenti necessari per sviluppare questi Large Language Model siano così elevati tende a ridurre il numero di attori presenti sul Mercato. È un po’ quello che abbiamo già osservato con il cloud, dove abbiamo tre o quattro service provider che occupano tutto il Mercato. La stessa cosa sembra accadere nel campo della GenAI. Ora, Deepseek potrebbe portare dei cambiamenti, visto che ha mostrato che è possibile avere modelli meno costosi e più efficenti, ma per il momento la concentrazione resta alta».
C’è forse anche un tema legato ai soggetti: a differenza degli operatori del Mercato finanziario, i provider di questo tipo di strumenti sono fuori dal vostro perimetro regolamentare. Come farete a monitorarli?
«È una situazione che abbiamo già vissuto proprio con il cloud. In quel campo, adesso abbiamo il regolamento DORA (Digital Operations Resilience Act), che cattura in parte, da un punto di vista di operational resilience, anche i provider. In più, ora c’è l’AI Act, che considera a sua volta anche gli sviluppatori di intelligenza artificiale. Però è vero, sono sfide che ormai negli ultimi 10 anni i regolatori dei Mercati finanziari si trovano sempre più spesso ad affrontare».
Come accennava, con l’AI Act abbiamo visto un tipo di intervento orizzontale, esteso a un campo largo che comprende molti diversi settori di applicazione. Sarebbe auspicabile implementare anche una normativa più verticale, mirata al settore finanziario?
«Al momento stiamo continuando a lavorare con l’AI Office e non è prevista una nuova regolamentazione di questo tipo. Dopodiché, magari si potranno pubblicare delle linee guida specifiche. Però in molti casi la regolamentazione esistente già tiene in considerazione i casi specifici del comparto».
L’AI offre anche nuove opportunità per lo svolgimento dei compiti di vigilanza. State già sperimentando con questo tipo di strumenti?
«Noi abbiamo modelli, in particolare di analisi testuale, basati su NLP (Natural Language Processing), che consentono di utilizzare banche dati di dimensioni estremamente elevate. Questo permette di sviluppare indicatori che, in un certo senso, lavorano in modo da dare priorità alle aree che richiedono maggiormente un intervento da parte della vigilanza. E questo è fondamentale, perché noi supervisor siamo generalmente dotati di risorse molto scarse. Utilizzare modelli per poter identificare i casi bisognosi di attenzione specifica può contribuire a impiegarle in maniera più efficiente».
Ci può fare qualche esempio concreto di utilizzo?
«Non avremmo mai potuto condurre l’analisi che abbiamo effettuato in materia, prendendo in considerazione 800mila documenti, con le sole risorse umane a nostra disposizione. Invece, grazie a questi modelli si può fare uno screening e processare pagine e pagine nel giro di poche ore. Con la CONSOB (Commissione Nazionale per le Società e la Borsa), stiamo sviluppando un progetto sul Greenwashing basato a sua volta su modelli che consentono di analizzare la comunicazione dei fondi – e non solo – in ambito Green. Questo consente ai supervisor, anche a livello nazionale, di concentrare le proprie risorse solo sui casi che richiedono un intervento diretto».
Quali sfide principali intravede all’orizzonte, nel prossimo periodo?
«Come abbiamo avuto modo di osservare, le cose si muovono rapidamente. Anche per quanto riguarda i casi d’uso, se ne vedono costantemente di nuovi. Diciamo che la sfida consiste nello stare dietro al Mercato, alla tecnologia, all’innovazione».
Ci sono degli aspetti sui quali la vostra visione del futuro si distacca da quella degli operatori di Mercato?
«In questo momento, soprattutto sull’AI, c’è una certa vicinanza tra le due parti. Anche perché la tecnologia è più orizzontale e per lo più sviluppata esternamente al Mercato finanziario, che cerca di seguirne gli sviluppi. Siamo in una fase di cooperazione: lo vediamo anche dalla partecipazione elevata alle survey che vengono lanciate su questo tema. È fondamentale mantenere questo canale tra supervisor e operatori il più aperto possibile, anche in futuro».
©️
Articolo tratto dal numero del 1 giugno 2025 de Il Bollettino. Abbonati!
📸 Credits: ESMA