Abbonati a ilBollettino
  • giovedì, 9 Febbraio 2023

A.I., le leggi utili per uno sviluppo a vantaggio di tutti

A.I.

A.I., automazione e sistemi autonomi mettono in difficoltà l’, che negli ultimi anni è impegnata in un intenso sforzo regolatorio. La materia rischia di diventare complicata e complessa, talvolta anche a causa di problemi definitori. Ad esempio, la definizione di e i rapporti con l’automazione e la robotica in generale.

Il Regolamento 2021/0106 sull’A.I.

«Il sicuramente avrà un impatto importante sugli operatori di mercato, anche se ispirato da una filosofia non invadente. Cioè, il regolatore interviene solo nelle zone e sui problemi critici», afferma Amedeo Santosuosso, Presidente del Centro di Ricerca Interdipartimentale European Centre for Law, Science and New Technologies (ECLT) dell’Università di Pavia.

«La classificazione dei sistemi di intelligenza artificiale sulla base del rischio può essere la traduzione pratica di questa filosofia. Perché solo per i sistemi ad alto rischio è necessario un intervento preciso. Cioè si tratta di sfruttare le potenzialità dell’A.I. in tanti diversi settori, pur monitorando e gestendo i rischi che questa tecnologia comporta. Il nuovo quadro giuridico mira a garantire un approccio univoco a livello Europeo, basato sul rischio e differenzia gli usi dell’A.I. a seconda che creino un rischio inaccettabile, elevato, limitato o minimo».

«Però dei problemi esistono, per rendersene conto basta vedere alcuni pareri redatti sulla prima versione del regolamento, da parte del Comitato Economico e Sociale Europeo (CESE), e da parte della Banca Centrale Europea ()».

Andando più nel dettaglio?

«Cioè, per un verso il CESE si preoccupa di tenere alte alcune garanzie per i cittadini e i consumatori. In particolare, per quanto riguarda le tecniche subliminali che devono essere vietate, l’identificazione biometrica, il credit scoring, cioè il controllo della solidità creditizia con le modalità informatiche».

«Per l’altro verso, la BCE si preoccupa di non essere sovraccaricata di compiti nuovi rispetto al sistema bancario ordinario; oltre a prodigarsi del sistema di monitoraggio del rischio, perché all’interno del sistema creditizio oggi il rischio è un qualcosa di intrinseco».

«Questo sicuramente avrà un impatto sugli operatori di mercato. Il tutto dipende da come il quadro generale del regolamento viene poi tradotto in normative specifiche. Perché, per esempio, già nel settembre del 2022 sono intervenute due proposte di direttiva per la responsabilità in materia di intelligenza artificiale e per la tutela dei consumatori, mentre il regolamento ha un’ottica generale quasi di tipo amministrativo».

«La legislazione di dettaglio, che deriva dalle direttive, va poi a modificare le norme del Codice civile. Quindi, si può dire di avere uno strumento relativamente leggero, l’impatto ci sarà per il fatto che il regolamento ha una portata generale di 360°».

Come si configura il panorama normativo nell’UE?

«Le due direttive di settembre vanno a integrare la legislazione già esistente della zona intelligenza artificiale. Poi ci sono le direttive che devono maturare anch’esse, e poi ci sono interazioni con altri strumenti, come per esempio il regolamento macchine, che è incorso di lavorazione in parallelo, e quindi c’è un grande movimento a livello europeo. Di conseguenza ci saranno anche delle ricadute a livello nazionale».

L’A.I. nel settore medico

Come viene vista dal regolatore l’A.I nel settore medico, ci sono interventi e che prospettive hanno?

«Citerei il caso dei cognitivi, che possono essere inseriti in ambito assistenziale. Sono cioè automi che interagiscono con l’ambiente circostante, con il paziente e con il personale medico. L’interazione avviene attraverso tre canali fondamentali: le immagini, il linguaggio naturale, quindi rispondere alle domande, e poi ci sono i sensori classici, per potersi muovere e spostare, in modo che non vada contro ostacoli fisici. La cosa importante è che tutti questi canali di comunicazione del robot producono una quantità di dati elevata, e per giunta sono dati che si devono coordinare gli uni con gli altri».

«Questo sistema non può essere gestito da un umano, perché non ce la può fare a controllare una tale mole di dati in tempo reale. Si tratta di capire quali possono essere le soluzioni, perché da un primo punto di vista si può dire che se il robot cognitivo deve fare, per esempio, il riconoscimento facciale per individuare un paziente, per sapere che quel degente deve ricevere quel tipo di assistenza o quell’altro tipo di cura, si tratta di attività necessaria, ma è chiaro che sta facendo un qualcosa che può essere in violazione del regolamento sulla privacy».

Cosa si può fare?

«Ci possono essere comunque delle vie d’uscita, nel senso che ci può essere il consenso della persona, e in secondo luogo, si può fare ricorso a una deroga prevista nel Regolamento sui dati personali per quanto riguarda le attività sanitarie o di ricerca. Questo è un esempio di come le potenzialità in ambito sanitario di utilizzo dei sistemi di A.I. siano altissime, e con possibili benefici importanti per i cittadini e anche per i medici e personale sanitario».

«Però, bisogna fare un lavoro di ricognizione delle norme e dei problemi riscontrati per stabilire una rete di regole che possano funzionare a garanzia di tutti. In altri termini, se la quantità di dati che un robot cognitivo processa, è talmente alta da non poter essere gestita da un umano, allora ci deve essere qualcosa che lo sostituisca; ma non può essere una macchina perché a quel punto sarebbe uno scenario preoccupante».

«Tuttavia, si possono stabilire una serie di regole tecniche che riguardano il modo in cui l’automa si può comportare, regole con valore anche etico e giuridico assai importante. Quindi, passare dal controllo fatto da un soggetto al controllo fatto da un sistema di regole che devono essere condivise, create in contesti appropriati, competenti e neutri. È una bella sfida perché la tecnologia per gestire tutte queste cose è in incremento e quindi bisogna trarne tutto il bene limitando i pericoli». 

La neutralità tecnologia

Cosa si intende per neutralità tecnologica sotto un aspetto giuridico?

«La neutralità tecnologica è la possibilità delle persone di scegliere e avere accesso alle tecnologie che siano più corrispondenti ai loro bisogni, ovviamente la mancanza di una connessione Internet facile da reperire può essere un ostacolo».

«C’è un Regolamento europeo del 2013 che parla di questo tipo di problemi. Qui bisogna farsi una domanda fondamentale, diciamo che ad oggi non è un diritto costituzionalmente riconosciuto quello di aver accesso a Internet.  Se un soggetto non può entrare sulla rete, quindi, viene praticamente visto come un cittadino di serie B. Poi è chiaro che in termini pratici ci sono molti aspetti, ad esempio, la copertura a livello nazionale della rete 5G. Altre riguardano problemi di tipo informativo, e quindi di scolarizzazione, di crescita tecnologica dei cittadini, perché se una persona non sa accendere un computer o non sa muoversi nella rete è tagliato fuori».

«Altro ostacolo è il modo in cui sono costruite le comunicazioni su Internet, cioè i siti costruiti bene che consentono una navigazione agevole e precisa, ma sono veramente pochi. La maggior parte non sono all’altezza, questo però è un problema di qualità che andrà affrontato e un po’ alla volta si risolverà».

La disciplina del credit scoring

Il credit scoring può consentire di superare le asimmetrie informative del credito e come viene disciplinato?

«C’è un documento molto interessante della Banca d’Italia dell’ottobre 2022 intitolato “L’intelligenza artificiale nel credit scoring” dal quale emergono una serie di spunti interessanti perché è fatto in modo neutrale. È chiaro che la Banca d’Italia conosce bene i problemi della gestione del credito e c’è un atteggiamento favorevole verso l’utilizzo di tecniche di A.I. nell’ambito creditizio, nel senso che si può migliorare il livello di obiettività delle valutazioni che vengono fatte in ambito bancario».

«Nello stesso tempo, la Banca d’Italia sottolinea alcuni punti critici. Se le informazioni di tipo bancario sono state processate con un sistema machine learning, la banca non è in grado di dare le informazioni al cliente che dovesse chiedere i motivi dietro al rifiuto di un’operazione. Perché spesso, i passaggi che compiono i sistemi di intelligenza artificiale non sono facili da ricostruire nella loro dinamica interna».

«Questo è un qualcosa che la Banca d’Italia sollecita, perché nello stesso tempo riconosce che è un settore promettente, ma ancora limitato. La Banca d’Italia incentiva a fare attenzione, perché sono ancora poco diffuse le analisi sulla distorsione da discriminazione. Cioè sostengono che è necessario mettere in piedi un sistema di monitoraggio, in modo tale da capire effettivamente, qual è l’entità del problema. Perché un conto sono le informazioni sulla condotta finanziaria e creditizia di una persona, un altro conto è se alle valutazioni strettamente legate al credito si dovessero sommare altri criteri di giudizio, che vengono inseriti negli algoritmi che riguardano aspetti sociali, razziali, di genere o altro, perché, in quel caso, se si inseriscono questi criteri nell’algoritmo, ciò porterebbe a una gravissima discriminazione». ©

Marco Castrataro

Marco Castrataro si laurea in Economia, Diritto e Finanza d’impresa presso l’Insubria di Varese. Dopo un'esperienza come consulente creditizio ed un anno trascorso a Londra decide di dedicarsi totalmente alla sua passione, rendere la finanza semplice ed accessibile a tutti. Oltre a gestire la rubrica “l’esperto risponde”, scrive di finanza, crypto, energia e sostenibilità. Per contatti: risparmio@ilbollettino.eu

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.