venerdì, 4 Ottobre 2024

Big Tech vuole scaricare le colpe dell’AI sugli utenti

DiRedazione

5 Luglio 2023 , , , ,
AI

È scontro tra Unione europea e Big Tech. La nuova normativa sull’intelligenza artificiale preoccupa le grandi aziende americane, perché sposterebbe su di loro il peso della regolamentazione di questa nuova tecnologia. I colossi statunitensi preferirebbero che a pagare fossero gli utenti, mentre il settore raccoglie 1 miliardo di dollari in investimenti in quattro mesi.

Cosa propone l’Unione europea nella normativa sulla AI

Sull’intelligenza artificiale l’Europa si è mossa in anticipo. Fin dal 2021 le istituzioni continentali lavorano ad una normativa che regoli il settore. Con il successo di ChatGPT, questa iniziativa ha guadagnato ulteriore supporto e le norme sono diventate ancora più stringenti. Secondo l’ultima bozza approvata dal Parlamento europeo, le aziende che creano intelligenze artificiali saranno responsabili della gestione dei rischi sorti dai loro prodotti.

Questo principio obbligherà chi produce un chatbot o un programma di generazione di immagini tramite AI ad assicurarsi che il suo algoritmo non utilizzi materiale protetto da copyright per addestrarsi. Inoltre sarà obbligatorio per le imprese tenere conto dei rischi causati all’ambiente e al processo democratico dai propri prodotti e assicurarsi che questi non permettano di creare materiale illegale.

Chi non dovesse rispettare questi parametri andrebbe incontro a multe salate, fino al 6% del valore dell’azienda e al divieto di operare nel mercato unico. Ad oggi l’Europa rappresenta tra il 20% e il 25% del giro d’affari mondiale per l’intelligenza artificiale. 

Cosa vuole Big Tech

Questa prospettiva non piace a buona parte delle grandi aziende americane di tecnologia che stanno investendo nel settore dell’intelligenza artificiale. Le reazioni migliori sono state il silenzio di Meta, Apple e Amazon, mentre altri sviluppatori stanno attivamente cercando di contrastare la nuova normativa europea.

Google ha avvertito che la nuova legislazione tratterebbe l’AI come un prodotto ad alto rischio quando in realtà non lo è, rassicurando sul fatto che gli investimenti nel campo della sicurezza sono già massicci, per la prospettiva di danno alla reputazione dell’azienda che un fallimento dell’algoritmo può portare. Alphabet conosce bene questa prospettiva, dato che un errore del suo chatbot Bard a febbraio gli è costato 100 miliardi di dollari in capitalizzazione di mercato.

Sam Altman, CEO di OpenAI, l’azienda che ha creato ChatGPT, ha invece attaccato direttamente i progetti delle istituzioni europee. Secondo il dirigente, la sua azienda proverà a rispettare le nuove norme, ma se non ci riuscirà smetterà di operare nel mercato continentale. Dichiarazioni poi alleggerite, ma che fanno trasparire il fastidio che le nuove regole europee suscitano Oltreoceano. 

Da Microsoft arriva invece una controproposta di regolamentazione. Dato che, secondo l’azienda, il potenziale dell’intelligenza artificiale rende impossibile prevedere i risultati del suo utilizzo, anche gli utenti dovrebbero essere ritenuti responsabili dei contenuti generati. ©

📸 Credits: Canva