Tra i numerosi effetti causati dall’avvento del cloud computing, uno è risultato particolarmente visibile: in diversi data center, la dimensione dei server si è ridotta al punto di poter parlare di micro-server.

Oggi, un server è definito comunemente come una grande scatola contenente una scheda madre dalle dimensioni di circa 30×40 cm, un alimentatore, alcune ventole e degli hard disk che, dato il peso di circa 20 kg, risulta troppo grande per essere comodamente trasportata. Uno dei principali utilizzi del micro-server è invece una scheda dalle dimensioni di circa 15×25 cm: siamo quindi riusciti a ridurre le dimensioni dei server in modo da occupare meno spazio e risparmiare energia, questo grazie alla condivisione dei componenti all’interno dello chassis.

Per quali motivi i micro-server si stanno imponendo come modelli emergenti? Le ragioni sono principalmente il costo, il consumo energetico e il TCO (Total Cost of Ownership), ovvero il costo totale di proprietà. Le aziende vogliono cercare di accorpare il maggior numero di server possibile date le loro necessità da un punto di vista digitale e i crescenti carichi di lavoro: il problema è che lo spazio disponibile si sta progressivamente esaurendo e i data center moderni sono molto diversi da quelli diffusi anche solo 10 anni fa. Collocare molti server in uno spazio ristretto porta a consumare un grande quantitativo di elettricità e a generare calore fino a pregiudicarne l’operatività in assenza di un controllo. Ventole e altri metodi di raffreddamento rappresentano valide soluzioni, ma anche questi necessitano di molta energia: viene stimato che per ogni euro speso per generare potenza operativa, bisogna aggiungere tra i 50 centesimi e un euro per gestirne il raffreddamento.

Per i fornitori di servizi cloud, la necessità di appoggiarsi a un data center ad alta efficienza al servizio di centinaia o migliaia di clienti sarà ancora più pressante. I modelli di utilizzo potranno variare, ma è abbastanza evidente che i costi di manutenzione e quelli operativi sono i fattori che determineranno l’adozione del cloud. Alcune organizzazioni preferiranno mantenere le loro risorse sotto forma di cloud privato mentre altre sposteranno completamente le loro proprietà. Altre ancora si affideranno a un modello ibrido, sfruttando il cloud come una risorsa da utilizzare solo quando si presenterà la necessità di capacità aggiuntiva.

Tradizionalmente, l’essenza del computing è sempre stata orientata ad essere migliore, più grande e più veloce: la situazione attuale, tuttavia, ricalca molto quella  dell’industria automobilistica americana nel momento dell’impennata dei prezzi del carburante. I cittadini si sono presto resi conto che non esistevano solamente i SUV: in alcuni casi, una vettura ibrida, o almeno una due volumi, sarebbe potuta essere più appropriata.

Inoltre c’è la questione ambientale. Nel mondo del computing aziendale, anche se si potrà disporre del prodotto più ecologico del mondo, saranno in pochi a pensare di spendere anche un solo euro fino a quando non vi sarà un vantaggio di business. Se invece vi sarà un potenziale risparmio, tutti punteranno con decisione sul ‘green’. Le emissioni di anidride carbonica sono chiaramente diventate un argomento di primaria importanza nella definizione delle linee guida aziendali per quanto riguarda la responsabilità sociale, le normative in materia, la capacità di attrarre talenti e altre aree in grado di influenzare il business.

Siamo quindi giunti a un punto di svolta. Nel cloud, la prestazione individuale del server è diventata quasi irrilevante, mentre la gestione dei carichi di lavoro dei data center è la nuova parola d’ordine. Disporre del processore più veloce può persino tradursi in uno svantaggio: a volte è necessario avere più processori in grado di operare più velocemente per suddividere il carico di lavoro su un maggior numero di core, e in modo più efficiente. Ecco dove i processori multicore e l’equilibrio architetturale hanno assunto l’importanza che hanno ora. La potenza per core diventa un punto cruciale in un mondo dove la virtualizzazione, le ricerche sul web e tutte le richieste ai database conducono all’utilizzo di un singolo core. Nel 2006, l’80% dei processori AMD aveva un consumo di 40 watt per core o più, ma già nel 2011 l’80% di questi consumava 20 watt per core, o anche meno.

Sono quindi diversi gli aspetti dell’infrastruttura IT che stanno andando incontro a dei cambiamenti. La GPU ad esempio si farà carico di alcuni compiti della CPU, come nel caso dello streaming video, o della gestione delle enormi quantità di dati generati dalla creazione delle coordinate GPS. Anche il software diventa importante, e l’ottimizzazione dei compilatori permette in questo senso di migliorarne l’efficienza.

E’ inoltre molto importante non lasciarsi ingannare dall’idea che questo possa essere solamente un cambiamento di basso livello – l’impatto sul mondo del business è in realtà enorme. Alla conferenza SXSW, tenutasi di recente a Austin, Texas, che ha visto unirsi il mondo della musica e quello dell’interattività, ho potuto constatare che un grande numero di startup operava nel cloud con ben pochi – se non addirittura nessuno – dispositivi IT interno all’azienda ad eccezione di quelli per l’accesso client; l’idea di possedere un proprio data center o almeno dei server era per loro completamente estranea. Allo stesso modo, le imprese di piccole e medie dimensioni sembrano avere sempre più a che fare con un livello di utilizzo molto incostante, preferendo quindi affidarsi al cloud per evitare di restare penalizzati da una iper-crescita o dall’assunzione di un rischio che potrebbe non tradursi in un risultato positivo. Si tratta dunque di un mondo molto diverso da quello della prima “generazione dotcom” in cui i grandi server e le licenze software aziendali perpetue erano all’ordine del giorno.

Naturalmente, non cambierà tutto. Per esempio, secondo una teoria piuttosto diffusa, gli uffici acquisti saranno in grado di aggirare i grandi marchi dei server dotando i loro data center di prodotti no-brand. Il problema è legato al fatto che in caso di problemi tecnici bisognerà appoggiarsi a degli specialisti, e sono i produttori di server a fornire questo tipo di supporto tecnico. Prendiamo il caso della delocalizzazione: nella fretta di tagliare i costi, i benefici possono facilmente essere sovrastimati e i costi reali possono invece essere calcolati in modo errato.

Nessuno sa esattamente quanto velocemente o in quale direzione stia cambiano il mondo ma una cosa è certa, sta cambiando. Ben presto i mega data center commissionati dai fornitori di servizi di cloud diventeranno i nuovi contact center, e saranno presenti ovunque. L’accesso ai servizi su Internet diventerà pervasivo in ogni aspetto delle nostre vite, sia a livello personale che professionale, e le aziende non penseranno ad altro che ad avere infrastrutture basate su cloud.

Le decisioni di acquisto basate sui rapporti costi/benefici sono ormai fuori moda, anche se il server resta il cuore pulsante dei processi di gestione delle informazioni di qualsiasi organizzazione. Il passaggio da server di grandi dimensioni ai micro-server è indice di un cambiamento più ampio nel trattamento dei dati che promette risparmi sui costi, maggiore disponibilità e affidabilità e una maggiore sicurezza. Il business sta cambiando, l’IT sta cambiando e i CIO devono riconoscerlo e adattarsi di conseguenza.

 

di John Fruehe
Director of Product Marketing, Server Business Development per AMD

Di admin