Attenzione a considerare davvero intelligente l’AI. Non è questo il punto. «E non è neppure importante saperlo», dice Elena Esposito, Professoressa di Sociologia presso l’Università di Bielefeld e l’Università di Bologna. Quello che ha imparato a fare l’Intelligenza Artificiale, anche al di là delle previsioni degli stessi programmatori, è «essere parte del processo comunicativo». In soldoni, significa che gli algoritmi non fanno che comunicare come gli esseri umani, a livelli però enormemente superiori in termini di grandezze. Si inseriscono perciò benissimo nei processi comunicativi, prendendo il posto delle persone.
La portata dell’Intelligenza Artificiale va ridimensionata?
«No, gli effetti sono e saranno dirompenti. Il concetto che voglio esprimere è che non dobbiamo concentrarci solo sulla domanda su chi vincerà tra uomo e macchina. La questione è mal posta perché il punto di vista da cui partire è imparare a trattare con l’Intelligenza Artificiale generativa, una dimensione che dobbiamo accettare di non capire. Che è un po’ il lato oscuro di tutta la vicenda, ma anche quello più interessante. Non c’è dubbio che le macchine né ragionano né hanno coscienza. Gli algoritmi non hanno bisogno di pensare e di capire le informazioni per produrre informazioni significative e farle circolare nella comunicazione. Semplicemente hanno imparato a fornire risposte efficaci e utili».
Dobbiamo prendere consapevolezza del fatto che possiamo interfacciarci con macchine non pensanti
«Esatto. Gli algoritmi, che non pensano, possono fungere da partner di comunicazione. Hanno la capacità di produrre contributi che consentono ai loro utenti – a noi esseri umani intelligenti – di produrre a loro volta informazioni rilevanti e interessanti. E lo fanno partecipando alla comunicazione. Uno dei casi che lo esemplifica è quello dei software delle traduzioni, che adesso funzionano molto bene e con risultati soddisfacenti. È successo perché è cambiato l’atteggiamento dei programmatori, all’incirca intorno al 2010».
Ci spieghi…
«Quello che hanno fatto è smettere di imitare l’intelligenza umana, e quindi tentare di insegnare ai programmi una lingua. Adesso si fornisce loro una immane quantità di testi di tutte le lingue, a livelli non misurabili per noi esseri umani. E le macchine a quel punto trovano delle regolarità sistematiche, delle ripetizioni in questi testi e imparano a tradurre. Ma in realtà non stanno comprendendo quello che dicono, né tantomeno conoscono la lingua».
I traduttori possono dormire sonni tranquilli insomma, così come chiunque lavori con i testi
«L’Intelligenza Artificiale opera grazie a una gigantesca biblioteca, riempita dai libri che siamo noi umani a fornirgli. Tecnicamente l’AI procede visualizzando dei pattern, cioè degli schemi ricorrenti che si presentano costantemente, e grazie a quelli è in grado di sviluppare risposte. Ma il vero punto della questione è che hanno accesso solo a quello che viene loro sottoposto, non al mondo reale e tangibile».
Solo le persone in carne e ossa possono cioè avere esperienza del mondo…
«Lì l’Intelligenza Artificiale non è arrivata né arriverà mai. Non è in grado di lavorare se non sui dati che è l’uomo stesso a procurargli. Magari è in grado di generare risposte che per una persona singola in un dato momento sono impossibili da dare. Tanto per fare un altro esempio: se mi chiedessero come funziona il flusso dei fiumi in Cina io non saprei rispondere, mentre l’Intelligenza Artificiale sì. Ma non perché abbia visitato la Cina, ma solo grazie al fatto che processa una immensa mole di dati. Che sono quelli che noi continuamente carichiamo sul web quando navighiamo in rete, oppure quando traffichiamo con il cellulare. Sono dati eterogenei, pasticciati e non coordinati. E l’intelligenza artificiale li analizza e racchiude dentro schemi ricorrenti. Pattern, appunto».
Non c’è creatività in quello che fa, in fondo
«Se si chiede a un programma di Intelligenza Artificiale generativa di riprodurre un testo con lo stile di Shakespeare lo farà, e questo fa spavento. Ma non sta che prendendo da quello che già ha a disposizione».
Ancora una volta un dato che tranquillizza sul futuro del lavoro e dell’umanità
«Non è che non ci si debba preoccupare perché l’accelerazione che è stata data è effettivamente scioccante. E si pone il tema del dove ci può portare tutto questo e se esista un confine oltre il quale l’Intelligenza Artificiale può spingersi, disobbedendo alla volontà dei suoi stessi programmatori e, dunque, sfuggendo al controllo. Ancora una volta farò un esempio, ed è quello di Alpha Go, un programma di scacchi e un sistema anch’esso basato sull’Intelligenza Artificiale che è riuscito qualche anno fa a battere un giocatore umano di altissimo livello. Eppure si diceva che l’Intelligenza Artificiale non sarebbe mai riuscita a giocare a scacchi e a tenere conto di tutte le variabili in ballo».
Quali sono state le conseguenze?
«Che questo metodo di previsione delle variabili è stato poi testato nella ricerca scientifica e l’ha rivoluzionata. Si è risolto uno dei grandi quesiti dei biologi e cioè prevedere come le proteine si sviluppano creando catene di amminoacidi, il cosiddetto meccanismo del protein folding».
Non possiamo che sederci e aspettare quello che verrà
«Mc Luhan diceva che le macchine non sono altro che estensioni dei sensi. Pensiamo alla catena di montaggio, che produce in misura esponenzialmente maggiore quello che potrebbero fare degli uomini. L’Intelligenza Artificiale inquieta invece perché non riguarda i nostri sensi ma la nostra intelligenza. Se pensiamo alla calcolatrice, abbiamo subito l’istantanea del funzionamento. Qualsiasi dispositivo è in grado di fare operazioni matematiche difficilissime in modo immediato. Magari anche l’uomo ci riuscirebbe, ma impiegandoci molto tempo».
L’uomo e il suo lavoro serviranno sempre?
«Sì, anche perché la stessa Intelligenza Artificiale è fallibile. Innanzi tutto non è oggettiva bensì subisce i cosiddetti bias, quindi i condizionamenti e i pregiudizi che noi umani inseriamo inconsciamente nei dati che immettiamo nel web. E poi non comprende i contenuti che produce, non ne conosce la verità. Pensiamo alla fake news che si possono generare senza il controllo umano. Servirà sempre l’intervento dell’uomo per aggiustare questi disallineamenti, con quello che si chiama tecnicamente tuning degli algoritmi. E poi sono comunque gli uomini che creano i prompt, cioè i comandi a cui le macchine devono obbedire».
Si parla addirittura di allucinazioni degli algoritmi
«Sono i casi in cui l’intelligenza artificiale produce risposte plausibili ma campate in aria, inventando persone, eventi e riferimenti bibliografici mai esistiti. Le allucinazioni sono solo la forma estrema che rivela il funzionamento degli algoritmi, anche quando danno delle risposte corrette. Sono qualcosa di nuovo».
Come possiamo classificarle?
«Non sono degli errori e non sono nemmeno delle bugie o delle finzioni che vengono presentate esplicitamente come delle invenzioni. Queste comunicazioni, in realtà, derivano dal modo in cui funzionano queste macchine, che non sono fatte per capire ma per comunicare. Come spiega Margaret Mitchell, questi sistemi “non sono addestrati a prevedere i fatti, sono addestrati a inventare delle cose che sembrano fatti”».
Dovremmo adattarci a questa ennesima rivoluzione
«Sarà necessario un reskilling, come avviene per esempio già negli studenti. Se esiste Chatgpt che è in grado di riassumere benissimo un testo, meglio di quanto farebbe uno studente, non ha senso non utilizzarlo o fingere che non ci sia. Ma sì allenare gli studenti a discutere di quel testo o a applicarlo in maniera creativa. Guardando al passato possiamo pensare a Platone, che fu preoccupatissimo dall’introduzione della scrittura alfabetica. E questo perché pensava che gli studenti avrebbero completamente perso la capacità di memorizzare. In effetti così è stato, perché nessuno sa più memorizzare volumi di dimensioni come l’Iliade o l’Odissea. Ma chi sa scrivere è in grado di fissare un concetto e di planare tra i contenuti, che riusciamo a connettere tra loro. Oggi a nessuno studente si chiederebbe di conoscere a memoria i Promessi Sposi».
In fondo basta aggiornarsi…
«Nella storia è un continuo deskilling e reskilling. Il che non significa abbandonare il passato, ciò che ci ha preceduto. Tornando alla scrittura per esempio, sappiamo che la scrittura a mano, fatta con la penna, è fondamentale per applicare competenze che invece il digitale sopprime. I pedagogisti per esempio insegnano che il corsivo, imparato alle elementari, è utilissimo per le capacità cognitive».
Il suo libro sull’AI “Comunicazione artificiale, come gli algoritmi producono intelligenza sociale”, edito da Bocconi University Press, è stato pubblicato un anno fa. Cosa è cambiato da allora?
«Tutto e in fondo nulla. C’è stata l’esplosione in termini di massa di Chatgpt, ma l’intelligenza artificiale c’era già. È stata solo messa a disposizione del grande pubblico, e per di più in modo gratuito, la possibilità di creare testi, e anche immagini e video. Il vero cambiamento se c’è stato è stato intorno agli anni Duemila».
Di che cosa si è trattato?
«Le svolte sono state due. L’uso dei Big Data, e poi gli algoritmi di machine learning o autoapprendimento. Quelli che in buona sostanza imparano da soli, e dai propri errori, come avvenuto nel caso del gioco degli scacchi. Sviluppano capacità infinitamente superiori, non governabili dal programmatore. Sono algoritmi che diventano non trasparenti, opachi, che imparano su dimensioni per noi incomprensibili. Il che fa paura, ma porta a risultati strepitosi per gli uomini». ©
📸 Credits: Canva.com
Articolo tratto dal numero del 15 aprile 2024 de il Bollettino. Abbonati!