Page 12 - Attualità Elettrotecnica Gennaio-Febbraio 2021
P. 12

la flessibilità
nel progetto
I data center vanno progettati con il massimo della flessibilità. È questa un’esigenza inderogabile per garantire un buon funzionamento e un buon servizio nel tempo
mensioni, i cosiddetti hyperscaler, gestiscono essenzialmente parchi di autocarri con presta- zioni da supercar. Sono gestiti al 100 per cento da software. Utilizzano una piattaforma har- dware quasi identica, una per l’elaborazione e una per l’archiviazione, in ogni data center che possiedono. Questo significa decine di migliaia di dispositivi di archiviazione e processori con- nessi alla rete che funzionano in modo efficace come se fossero uno solo dispositivo. La perdi- ta di un singolo sito causa solo un calo delle prestazioni, non una perdita del servizio. Ad esempio, lo sapevi che quando esegui una ri- cerca di Google, il tuo dispositivo invia tale ri- chiesta a tre diversi data center situati in diver- se aree geografiche? Il data center che vince la corsa ti offre il risultato. Le reti che utilizziamo per trasmettere tutti questi dati sono le stesse, ma con una capacità sempre più efficacemen- te integrata dal primo giorno e nel proseguio, in funzione della necessità specifica. Far passare cavi nel terreno e sotto il mare è molto costoso, per questo i provider di rete di solito pianificano i percorsi almeno per i successivi 10 anni. Man mano che la domanda cresce, i provider devo- no semplicemente “attivare” una connessione in fibra inutilizzata per aggiungere enormi quantità di capacità istantanea. In sostanza, le piattaforme software, i data center che li sup- portano e le reti che connettono tutto sono pro- gettati per offrire livelli di capacità molto elevati con livelli ancora più elevati di ridondanza.
Le richieste a cui stiamo assistendo ora, con professionisti e studenti che lavorano da casa, sono senza precedenti, ma forse non in termini di capacità di picco totale. Quando i sistemi di altoparlanti per Spinal Tap sono arrivati fino a 11, la rete globale di data center è arrivata solo a 9. Questo livello di capacità non è insolito, tut- tavia, lo è sostenerlo per un periodo di tempo così prolungato. In un recente annuncio stam- pa, il direttore dei sistemi informativi di BT ha di- chiarato che la rete britannica, sebbene estre- mamente occupata, non è vicina alla capacità massima. Il picco di traffico di solito avveniva la domenica sera e durava alcune ore. Ora, il pic- co è costante e più alto che mai. Naturalmente ci sono alcuni colli di bottiglia, la necessità di regolare determinati servizi e alcune persone nella parte finale dell’edge delle reti causeran- no scarse prestazioni. Fortunatamente, ciò non è indicativo dell’ecosistema nel suo comples- so. La flessibilità dell’intero ecosistema è in gra- do di svolgere la funzione richiesta in quel mo- mento. So per esperienza personale che ognu- no sta esaminando molto da vicino i colli di bot- tiglia e sta lavorando per risolverli rapidamente. La maggior parte di questa espansione neces- saria, consiste nel mettere online l’apparec- chiatura esistente o ridestinare l’hardware ri- dondante. Dove è richiesta una nuova capaci- tà, questa viene fornita in pochi giorni. A causa dell’evoluzione sopraindicata delle strutture aziendali, è disponibile fin da subito un’enorme quantità di spazio nei data center. Da quello che vedo, il nostro settore è stato messo a dura prova, ma si è guadagnato un bel 10 e lode.
*Cristina Rebolini, Commercial, Industrial and Enterprise Sales Director di Vertiv
di Cristina Rebolini*
 Fino a poco tempo fa, non era raro visitare un sito con un carico di progettazione di 10 MVA che ne utilizzava magari 2. Anco-
ra più comune era vedere l’utilizzo di server al di sotto del 10% e questo non solo su piccole applicazioni, ma anche su sistemi complessi.
I nostri team con grande expertise in efficien- tamento energetico e ottimizzazione, hanno passato anni a cercare di convincere i clienti a effettuare il giusto dimensionamento fin dal primo giorno di attivazione di un nuovo data center, implementando strategie di crescita modulare e garantendo che l’infrastruttura a supporto - come l’alimentazione e il raffredda- mento - corrispondesse strettamente alla do- manda di calcolo necessaria. Nonostante questo, spesso il requisito delle apparecchia- ture IT è stato ampiamente sovrastimato, la- sciando un divario tra aspettativa di progetta- zione e realtà costruita.
Con l’evoluzione del tradizionale data center, l’utilizzo di un singolo server o processore de- dicato a un’unica applicazione non è più at- tuale. Il passaggio a piattaforme software ha
significato un crescente utilizzo delle virtual machine e dei grid-style system.
Uno dei motivi principali per cui si vedeva questo anomalo sottoutilizzo del carico era dato dal fatto che i sistemi erano stati proget- tati e realizzati per supportare il cosiddetto picco di esigenza, ossia il momento nel quale la infrastruttura dovesse dare la massima ca- pacità disponibile. Anche la ridondanza, cor- rettamente, veniva garantita, ma magari non ottimizzata. Un esempio immediato: l’E-com- merce, molto probabilmente riguardava solo grandi eventi di vendita come il Black Friday o il Cyber Monday. Questi clienti hanno dovuto pianificare il carico in previsione del picco an- che se la maggior parte del tempo operavano ben lontani da quei livelli.
Questo scenario di sovracapacità/sottoutilizzo può anche essere paragonato a un’auto. La maggior parte delle automobili è progettata per andare a oltre 190 km all’ora (km/h), ma raramente supera i 130 km/h e per gran parte della vita utile viaggia da 0 a 65 km/h.
Oggi i proprietari dei data center di grandi di-
 12
attualità elettrotecnica - gennaio/febbraio 2021 - numero 1


















































































   10   11   12   13   14