Non solo investimenti. L’idea di applicare sistemi di intelligenza artificiale alla finanza può evocare l’immagine di un supercalcolatore intento a determinare il portafoglio perfetto, calibrato fino all’ultimo centesimo secondo le esigenze del cliente.
O ancora, possiamo figurarci sistemi di trading avveniristici, in grado di sviluppare modelli predittivi accuratissimi. Forse più difficilmente ci aspetteremmo di trovare applicazioni simili nel mondo del credito, ancora molto legato a modelli e operatori tradizionali…
«L’implementazione dell’AI nel credito rappresenta una delle trasformazioni più significative nel panorama finanziario» dice Laura Grassi, Professore Associato al Politecnico di Milano e a capo del suo Osservatorio Fintech & Insurtech.
«Rileviamo che circa il 43% delle Startup Fintech e Insurtech italiane ha una proposta che fa leva su strumenti di AI e data analytics. In particolare, la crescita dell’AI generativa è stata rapida nell’ultimo anno: con un incremento dal 19% al 26%, anche se per ora concentrata soprattutto su strumenti per efficientare i processi di back-office»

All’interno del settore, chi si è rivelato più reattivo e chi invece rimane al momento indietro nel recepire la novità?
«Il quadro di implementazione è molto eterogeneo e riflette strategie e capacità differenti. Nel mondo bancario tradizionale, l’adozione procede con maggiore cautela, dovendo affrontare la complessità dei sistemi legacy e i vincoli regolamentari. In questo contesto, le banche di grandi dimensioni, grazie a risorse più ampie, sono spesso più avanti, mentre i soggetti più piccoli faticano a sostenere gli investimenti necessari.
D’altro canto, le Fintech e i nuovi operatori si muovono con maggiore agilità. La loro struttura nativa digitale consente di integrare l’AI nei processi core con maggiore rapidità e flessibilità. In generale, il settore sta avanzando verso una maggiore integrazione dell’intelligenza artificiale, anche se con velocità diverse a seconda dei soggetti coinvolti. La sfida è coniugare innovazione tecnologica, qualità dei dati e solidità dei processi, per generare valore reale e sostenibile nel tempo. Rimane però un interrogativo enorme: quanto del dichiarato è davvero realtà? Non possiamo non dirci che in molti casi si tratta di annunci non seguiti poi da progettualità concrete, o anche di progettualità ricondotte un po’ a forza sotto il cappello dell’AI, o più in generale dell’innovazione e della sostenibilità».
Quali sono i principali utilizzi già disponibili attualmente?
«Si dividono in tre aree fondamentali. La prima è la valutazione del rischio e il credit scoring: sempre più operatori stanno sperimentando modelli che sfruttano dati non tradizionali come comportamenti di spesa, movimenti di conto e fatture digitali per analizzare meglio i profili di rischio. È un approccio che consente di ampliare l’accesso al credito e di farlo in modo più rapido e personalizzato, anche per soggetti non bancarizzati o con poca storia bancaria. Un altro ambito promettente è la prevenzione delle frodi e AML, dove l’AI permette di analizzare ad esempio flussi di pagamento in tempo reale, individuando anomalie e comportamenti sospetti che sarebbe difficile rilevare con strumenti tradizionali. Infine, si parla dell’automazione dei processi decisionali: le richieste di credito possono essere valutate e processate in tempi molto più rapidi, migliorando l’efficienza e il livello di personalizzazione sulle esigenze del cliente».

E riguardo alla gestione dei crediti già erogati?
«L’AI gioca un ruolo crescente anche nel monitoraggio costante dei portafogli di credito. Grazie a modelli predittivi, le banche possono identificare in anticipo segnali di difficoltà nei clienti, attivando tempestivamente interventi di gestione proattiva, come revisione delle condizioni contrattuali o rinegoziazione. Va specificato, però, che si parla di intelligenza artificiale, ma non sempre nella sua declinazione “generativa”. In quel campo, la storia è ancora più incerta al momento»
Come si misurano gli impatti?
«L’intelligenza artificiale sta portando cambiamenti concreti e gli effetti si notano su più fronti: dalla rapidità delle risposte alla qualità delle decisioni, fino a una maggiore efficienza interna e a un accesso più ampio ai finanziamenti. Uno degli aspetti più immediati è la velocità. Automatizzare la raccolta documentale o la valutazione del rischio consente di ridurre sensibilmente i tempi di risposta. Ne risulta un processo più snello, con vantaggi evidenti per banche e clienti. Anche la precisione migliora: l’analisi di grandi quantità di dati permette di individuare pattern complessi, migliorando la distinzione tra clienti affidabili e ad alto rischio.
L’AI supporta anche una gestione più proattiva del rischio. I segnali di deterioramento possono essere intercettati prima, consentendo interventi tempestivi e mirati. Dal punto di vista dell’esperienza utente, la tecnologia rende tutto più semplice e trasparente: meno attese, maggiore personalizzazione, interazioni più fluide. E ci sono anche benefici per l’inclusione finanziaria. L’utilizzo di dati alternativi consente di valutare anche chi non ha una storia creditizia, aprendo così l’accesso al credito a fasce prima escluse, senza ridurre l’attenzione al rischio».
Abbiamo visto come sviluppare e allenare questi modelli imponga forti investimenti. Questo sembra poter avvantaggiare gli attori consolidati sul Mercato, così come la manciata di Big Tech con modelli già avanzati. Ci sarà ancora spazio per Startup e piccole Fintech?
«Il panorama che si sta delineando non è necessariamente polarizzato. Grandi banche e Fintech possono occupare ruoli complementari, ciascuno con i propri punti di forza. Lo sviluppo di soluzioni di intelligenza artificiale richiede risorse importanti: capacità computazionale, competenze specialistiche e accesso a grandi volumi di dati. Questo può rappresentare un vantaggio per gli incumbent e per alcuni grandi attori tecnologici, che possono contare su infrastrutture consolidate, budget rilevanti e una maggiore capacità di attrarre talenti. Ma non significa che non ci sia spazio per la novità. Negli ultimi anni l’evoluzione tecnologica ha ridotto le barriere all’ingresso.
La diffusione di modelli open-source, l’accesso a piattaforme cloud e la disponibilità di infastrutture AI as a Service permettono anche a operatori più piccoli di sperimentare e sviluppare soluzioni avanzate senza dover partire da zero. Questo ha aperto nuove possibilità, soprattutto per chi sa muoversi con rapidità e flessibilità. Proprio la capacità di essere agili rappresenta uno dei principali punti di forza delle Fintech. Possono testare rapidamente nuovi approcci, adattarsi a nicchie di Mercato meno presidiate e intervenire dove i player più grandi sono più lenti o meno flessibili. In alcuni casi, l’efficacia dimostrata da queste soluzioni ha portato alla nascita di collaborazioni con banche e operatori istituzionali interessati a integrare modelli sviluppati all’esterno. Naturalmente le difficoltà non mancano: disporre di dati sufficienti, ottenere fiducia sul Mercato, affrontare i costi di compliance o attrarre profili qualificati può essere più complesso per un operatore giovane. Ma esempi recenti mostrano che l’innovazione può arrivare anche da realtà agili e specializzate, capaci di portare valore dove altri faticano».

In un report di ESMA sull’implementazione di queste soluzioni nei fondi di investimento europei, si legge che «i sistemi AI possono esacerbare le vulnerabilità attraverso bias algoritmici, autorinforzando i feedback loop e i problemi di qualità dei dati, potenzialmente compromettendo un risk management efficace». Da cosa dipendono tali rischi?
«La fiducia nell’output generato da un sistema di intelligenza artificiale deve poggiare su tre pilastri fondamentali: la qualità dei dati, la solidità della governance e la presenza costante della supervisione umana. L’AI non è uno strumento neutrale: la sua efficacia e la sua affidabilità dipendono in misura determinante dai dati con cui viene alimentata. Se i dati di input sono incompleti, sbilanciati o non aggiornati, i modelli possono produrre risultati distorti, amplificare bias storici o generare output solo apparentemente plausibili ma in realtà infondati. Il fenomeno delle cosiddette “allucinazioni” è già stato osservato in modelli generativi e può manifestarsi anche in contesti a forte strutturazione normativa come quello finanziario».
Come controbilanciare questi pericoli?
«È necessario un approccio multilivello. In primo luogo, occorre predisporre una data governance strutturata: ciò significa garantire la qualità, la tracciabilità e l’aggiornamento continuo dei dati lungo tutto il ciclo di vita del modello, e non solo nella fase di addestramento. In secondo luogo, occorrono validazioni rigorose, con test su scenari estremi, controlli incrociati, benchmark e analisi fuori campione. Non meno importante è l’implementazione di strumenti di explainability: anche se parziale, la possibilità di interpretare le logiche del sistema è essenziale per il rispetto dei principi di trasparenza e accountability richiesti dalla regolamentazione europea. Infine, resta uno strumento di supporto, non un sostituto delle valutazioni umane. La supervisione esperta rimane necessaria per interpretare i risultati, validare le decisioni e garantire coerenza con gli obiettivi organizzativi e i vincoli normativi».
C’è poi il tema della privacy: esistono problemi nel condividere i dati di credito dei clienti con modelli di intelligenza artificiale?
«Questo rappresenta uno degli snodi più delicati. Da un lato, i modelli ne richiedono grandi quantità per essere efficaci. Dall’altro, il trattamento di informazioni personali, soprattutto in ambito finanziario, è soggetto a vincoli molto stringenti in termini di privacy, sicurezza e responsabilità. Il punto chiave è garantire che l’uso delle informazioni avvenga nel pieno rispetto delle normative vigenti, in primis il GDPR in Europa, che impone obblighi precisi su finalità, trasparenza, proporzionalità o diritto alla spiegazione. Questo significa che gli operatori devono essere in grado di dimostrare non solo che i dati sono trattati in modo corretto, ma anche che gli algoritmi utilizzati non generano discriminazioni o effetti indesiderati per i clienti.
In questo contesto, la cosiddetta natura “black box” di alcuni modelli avanzati rappresenta una criticità rilevante: se il funzionamento di un algoritmo non è trasparente, diventa difficile garantire la conformità alle normative e, soprattutto, spiegare al cliente come è stata presa una decisione. Proprio per questo motivo, l’explainability dei modelli è oggi considerata un requisito sempre più ricercato. A questo si aggiunge una sfida tecnica: l’esigenza di conciliare l’utilizzo di dati granulari con soluzioni che ne preservino la riservatezza. In questo senso, stanno emergendo approcci per lavorare su dati aggregati, anonimizzati o sintetici, in modo da ridurre i rischi legati alla privacy pur mantenendo una buona efficacia dei modelli. Se però partiamo da dati non puliti, in silos, che non comunicano tra loro, allora abbiamo tutt’altro tema che – AI o no – può limitare fondamentalmente il futuro dell’operatore: la sua capacità di agire partendo dai dati, di capire il cliente e proporre soluzioni adatte».
Quali sono al momento gli ostacoli più significativi, nell’introduzione di questo tipo di modelli nel settore del credito?
«Uno dei principali riguarda la disponibilità e la qualità dei dati. In molte realtà, soprattutto nelle fasi iniziali, i dataset a disposizione non sono abbastanza ampi, puliti o strutturati per consentire l’addestramento di modelli affidabili. La presenza di duplicati, informazioni incomplete o isolate limita l’efficacia degli algoritmi. D’altronde, garantire nel tempo la continuità e la coerenza dei dati è un aspetto ancora spesso trascurato. A questo si aggiunge una sfida più profonda, di natura organizzativa. Introdurre soluzioni basate sull’intelligenza artificiale richiede un cambiamento che non sempre incontra una reale predisposizione negli operatori finanziari. L’innovazione, in molti casi, non è ancora percepita come un’opportunità strategica, e l’apertura a ripensare processi, ruoli e competenze rimane limitata. Non si tratta solo di investire in tecnologia, ma di costruire le condizioni per integrarla davvero nei processi decisionali».
©️
📸 Credits: Canva.com
