domenica, 28 Aprile 2024

Data center: l’obiettivo oggi è la sostenibilità

Sommario

L’implementazione della trasformazione digitale rende fondamentali Data Center di grandi dimensioni e locali (Edge Computing). Ogni progetto di rinnovamento aziendale prevede l’utilizzo di strutture distribuite. L’obiettivo è assicurare la resilienza e l’affidabilità dei servizi applicativi e la protezione dei dati. «Ci sono importanti sfide di sostenibilità che incombono», dice Piergiorgio Sironi, Amministratore Delegato di NAeS Solutions, società specializzata nella progettazione e realizzazione di infrastrutture nei Data Center. Tuttavia, nella costruzione di questa architettura, è essenziale considerare l’impatto sulla sostenibilità sociale e ambientale. Un aspetto particolarmente importante per certi settori specifici, dove l’accesso a un Data Center locale diventa non solo opportuno, ma necessario.

Ad esempio, in campo finanziario, sanitario o manifatturiero, un’infrastruttura IT decentralizzata rappresenta ormai un tratto indispensabile per le imprese più avanzate. In particolare, esistono vari fattori che spingono verso l’adozione di un componente di prossimità all’interno dell’infrastruttura. Uno di questi è legato alla velocità di trasmissione dei dati, o latenza, una misura affidabile dell’esperienza utente e dell’affidabilità dei processi in tempo reale.

«Si tratta del ritardo introdotto da un mezzo di trasmissione, che si verifica tra il momento in cui un segnale viene inviato e quello in cui arriva a destinazione. Il processo può avvenire sia con segnali elettrici sia, nel caso della fibra ottica, attraverso segnali laser». Attività come il trading ad alta frequenza (HFT) hanno spostato le operazioni dal ’’trading floor fisico’’ al Data Center. E questi scambi dipendono fortemente da sistemi a bassa latenza.

COSA DICE LA DIRETTIVA

Un’altra importante esigenza che condiziona il bisogno di Data Center localizzati è quella di conformarsi alle norme che riguardano la gestione e la sicurezza dei dati aziendali.

Tra queste, quella dall’impatto maggiore è senz’altro la MIFID II, che disciplina le modalità in cui vengono gestiti i servizi finanziari, con lo scopo di aumentare i livelli di trasparenza delle transazioni, estendere la protezione degli investitori e regolamentare l’operatività e gli strumenti nelle sedi di negoziazione. La sua introduzione ha portato per le Borse l’obbligo di pubblicare dati come la lunghezza dei cavi, in aggiunta alle linee guida relative alla fornitura dell’accesso alla rete. In particolare, la resistenza del mezzo trasmissivo è rilevante per MiFID II, in quanto è un parametro che impatta il modo in cui le sedi di negoziazione forniscono servizi equi e non discriminatori. «L’hardware ha un ruolo fondamentale quando si tratta di inviare istruzioni tra due dispositivi. Tanto nelle sue componenti di server e storage, fondamentali per la trasmissione dei dati, quanto nel mezzo di trasmissione stesso, che nel nostro caso è la fibra ottica. Per quanto riguarda le transazioni finanziarie, la direttiva europea ne regolamenta tutte le sfaccettature, dalla tecnologia utilizzata alle modalità di trasmissione dei dati».

Per fare un esempio: considerando che la velocità di trasmissione di una fibra ottica è di 5 nanosecondi a metro, se ci fossero due scambi identici che si svolgessero contemporaneamente, con il trader A sul server 1, a 50 metri più vicino allo switch rispetto al trader B sul server 2, la transazione per il server 1 raggiungerebbe lo switch 250ns prima della transazione del server 2. In base alla direttiva, i cavi in fibra ottica tra le apparecchiature attive devono essere di uguale lunghezza, in modo che non venga dato alcun vantaggio, ovunque i dispositivi si trovino.

Qual è l’obiettivo del legislatore europeo?

«Dare una maggiore trasparenza alle transazioni, proteggere l’investitore e quindi regolamentare l’operatività. La direttiva ha avuto un impatto significativo. Infatti, quando abbiamo installato i cablaggi passivi per Euronext (gruppo proprietario di Borsa Italiana, ndr), abbiamo dovuto sottostare a delle specifiche tecniche molto precise, che erano quelle di cercare di tenere il più possibile uguali le lunghezze dei cavi. Questo per dare la stessa latenza ai segnali che arrivano dai vari server nel momento in cui entrano nel Data Center. Lo scopo è quello di offrire una garanzia a tutti gli investitori che inviano l’ordine contemporaneamente: nel momento in cui la transazione arriva all’interno del Data Center deve percorrere la medesima strada, così che nessun operatore sia avvantaggiato rispetto a un altro. Le sale server sono più grandi di 1.000 m/q, vuol dire che le macchine presenti sono dislocate in un’area molto grande, per cui il cavo più corto potrebbe essere 10 metri e quello più lungo 100 metri. Questa differenza va resa nulla. Di conseguenza, dobbiamo fare in modo che i fornitori producano i cavi uguali, gli installatori gli installino con delle regole ben precise e che poi tutto quanto venga certificato in funzione del risultato finale».

Quali strumenti vengono utilizzati per misurare le proprietà della fibra ottica?

«I clienti vogliono cavi assolutamente uguali, ma a livello normativo è necessario stabilire a che livello di precisione bisogna approssimare. Perciò, quando è emersa la normativa, la prima domanda è stata: cosa significa “uguale lunghezza”? Attualmente, la misura di riferimento sarebbe il centimetro. Tuttavia, gli strumenti tipicamente utilizzati per misurare la bontà di una trasmissione hanno delle tolleranze che non possono garantire questa precisione. Per cui si fa riferimento agli OFDR (Optical Frequency Domain Reflectometer), particolarmente precisi, il cui costo si aggira indicativamente a diverse decine di migliaia di euro. È fondamentale che il produttore rispetti le specifiche richieste, dato che le tolleranze sono particolarmente basse. Se io, ad esempio, richiedo sei cavi di 200 metri ciascuno, non posso accettare che mi vengano forniti cavi di lunghezza variabile, come 201 o 205 metri. Ma sono errori comuni nelle produzioni tradizionali, dove si utilizzano macchine con tolleranze anche del 2%».

Quali sono le sfide legate alla normativa?

«Il fornitore deve porre particolare attenzione durante il processo produttivo. Infatti, la fibra ottica è fatta di vetro: il mezzo trasmissivo è un tubicino dentro il quale passa un laser. Questo tubicino è costruito con un sistema particolare di drogaggio (chimico). A seconda della qualità di questo processo, il segnale ha un indice di riflessione diverso. Per cui, ci deve essere molta attenzione anche da parte di chi assembla i cavi, cioè chi si occupa di rivestire il tubicino di vetro con le guaine necessarie. Infatti, è necessario che utilizzi lo stesso lotto di produzione, in modo tale che il vetro abbia lo stesso indice di riflessione. Ma questa normativa impatta anche sul piano della progettazione. Quando si progetta un sistema di cablaggio che servirà per gestire Data Center su cui passano transazioni finanziarie, si dovrà farlo rendendo posssibile utilizzare cavi della stessa lunghezza. Così, il percorso dei conduttori che girano all’interno dell’edificio dev’essere controllato perfettamente. Sono gli installatori che devono dare specifiche ben precise al produttore».

Quali sono le società dietro al boom dei Data Center?

«Molti di questi provider sono aziende quotate, come Google. Di recente ha sviluppato dei servizi di information technology, come anche Microsoft e tante altre aziende presenti in Borsa. Meta, Amazon e Twitter, giusto per citarne alcuni, hanno Data Center molto importanti sparsi per il globo. La sfida è quella di soddisfare le richieste di immagazzinamento dati che ci sono nel mondo. E ogni Paese ha le sue esigenze».

Quali sono le prospettive del settore nei prossimi 5 anni? «Vedo un’evoluzione nel mercato dei Data Center, che saranno sempre più numerosi e capienti. Questi sistemi funzionano a energia elettrica e tanti più se ne installano, tanto maggiore è il fabbisogno di energia necessaria per il funzionamento. Per cui è necessario introdurre un tema di sostenibilità nella produzione di questa elettricità. Un aspetto che investe anche le tecnologie di raffreddamento delle macchine, che tendono a surriscaldarsi quando sono in funzione. Hanno un grosso impatto nello sviluppo tecnologico dei Data Center. L’obiettivo è contenere i costi, ma nulla impedisce che il calore generato sia utilizzato per altri scopi, come riscaldare gli ambienti in inverno. Proprio in quest’ambito stanno nascendo progetti di sostenibilità. Un altra sfida tecnologica è quella di gestire, nella maniera più efficiente possibile, le telecomunicazioni tra un Data Center e l’altro. Quindi, trovare nuovi mezzi trasmissivi, nuovi percorsi, nuove strade per collegarli al meglio». ©

Articolo tratto dal numero del 15 settembre 2023. Abbonati!

                                  

Laureato in Economia, Diritto e Finanza d’impresa presso l’Insubria di Varese, dopo un'esperienza come consulente creditizio ed un anno trascorso a Londra, decido di dedicarmi totalmente alla mia passione: rendere la finanza semplice ed accessibile a tutti. Per Il Bollettino, oltre a gestire la rubrica “il punto sui Mercati”, scrivo di finanza, crypto, energia e sostenibilità. [email protected]