Menu

Storage Server Software-Defined ed elaborazione parallela in cima alle priorità 2017 per moltiplicare la produttività dei Data Center

Nel 2017 il Software di elaborazione parallela cambierà le regole del gioco non solo nella gestione dello Storage...

George Teixeira, President e CEO, DataCore Software

George TeixeiraNonostante gli incredibili avanzamenti tecnologici registrati negli ultimi anni, ancora oggi nella gran parte dei Data Center delle imprese c'è una grande quantità di potenza di elaborazione che non viene adeguatamente sfruttata. Nel corso del 2017, a cambiare questa situazione contribuirà l'affermarsi di soluzioni software basate sull'elaborazione parallela capaci di sfruttare al meglio l’immensa potenza elaborativa offerta dai moderni sistemi Multi-core.

La chiave di svolta sta nel progressivo incremento di semplicità d'uso del software e nella sua capacità di non interferire con l'esercizio delle applicazioni funzionali. Un'evoluzione in grado di generare impatti enormi sull'esercizio dei sistemi in quqnto le prestazioni applicative, i carichi di lavoro Enterprise e un maggiore consolidamento della densità delle piattaforme virtuali e del Cloud Computing - finora soffocati dal crescente gap tra capacità di calcolo e I/O - non saranno più limitati.

Tutto ciò sarà realizzabile con le nuove tecnologie software per l’I/O parallelo, che oggi sono disponibili e facili da usare, dato che non richiedono modifiche alle applicazioni e che sono in grado di sfruttare completamente la potenza dei multi-core per aumentare notevolmente la produttività e superare il collo di bottiglia dell’I/O che ha frenato l’intero settore: saranno il catalizzatore del cambiamento.

Il software di elaborazione parallela è pronto per andare oltre l’ambito degli impieghi specializzati come l’HPC e di aree come la genomica, che si focalizzano prima di tutto sulla capacità di calcolo, ed estendersi al più ampio mondo applicativo che richiede interazioni e risposte in tempo reale. Ciò comprende applicazioni e Storage molto diffusi che stanno alla base di transazioni aziendali, Cloud Computing, Database e Data Analytics, così come dei mondi interattivi del Machine Learning e dell’Internet of Things (IoT).

Oggi, molte nuove applicazioni come gli Analytics non sono alla portata di qualsiasi azienda in quanto per completare il loro lavoro richiedono centinaia, se non migliaia, di Server. Eppure, ogni singolo Server è in grado di supportare centinaia di core di calcolo Multi-threading per gestire i carichi di lavoro che fino a oggi sono stati messi in attesa di essere completati. Stiamo inaugurando un’epoca in cui un Server farà il lavoro di 10 - o addirittura 100 - Server del passato. Questo è il risultato del software di elaborazione parallela, che sblocca la potenza inutilizzata dei Multi-core per apportare una vera rivoluzione in fatto di produttività dell'IT e a un nuovo mondo applicativo che nel 2017 diventerà molto popolare.

L’impatto degli Analytics in tempo reale

La parallelizzazione potrà portare ad utilizzare gli Analytics in “tempo reale”, offrendone nuove prospettive d'impiego e risultati dalle prestazioni strabilianti. Questa è la previsione di  DataCore per il 2017 appena iniziato. Le esperienze che abbiamo maturato nell’elaborazione parallela, nell’I/O in tempo reale e nel Software-defined Storage ci mettono in grado di cavalcare con successo questo importante cambiamento, dando risposte concrete ad un mondo nel quale la quantità di interazioni e transazioni sono in continua crescita, richiedendo tempi di risposta sempre più rapidi.

Un'area nella quale DataCore sta facendo consistenti investimenti puntando ad assicurare ai propri clienti il cambio di passo necessario a rendere pratico e conveniente l'uso degli Analytics per svolgere analisi e dare risposte anche in tempo reale in contesti quali la finanza, il banking, il retail, l’identificazione delle frodi, la sanità e la genomica.

L’impatto di Microsoft attraverso lo Stack Azure, il cloud ibrido, Windows e SQL Server 2016

Il successo e la crescita di Azure Cloud sono evidenti, sebbene l’impatto reale risulterà in tutta la sua portata mano a mano che si materializzano le strategie di Microsoft per riconciliare il mondo On-premise con quello del Cloud Computing.

Microsoft è stata uno dei primi fornitori Cloud a riconoscere che il mondo non è composto solo da Cloud pubbliche, ma che continuerà a essere un insieme integrato tra soluzioni e componenti On-premise e cloud. Lo Stack Azure di Microsoft così continua a progredire inesorabilmente, offrendo i benefici delle piattaforme di elaborazione in Cloud, indipendentemente dal fatto che si tratti di Cloud pubbliche vere e proprie o di Cloud private. Oggi, questo può esser considetato come l'emblema del Cloud Computing ibrido.

Mentre Windows e Azure attirano la maggior parte delle attenzioni da parte di tutti gli addetti ai lavori, uno dei cambiamenti più sostanziali apportati da Microsoft alle proprie soluzioni di infrastruttura è riconducibile alla trasformazione della sua offerta Database, oggi divenuta la base di una vera piattaforma per la gestione di Big Data e Analytics.

È pertanto giunto il momento di dare nuovamente un’occhiata a SQL Server 2016, molto più potente di tutte le versioni che lo hanno preceduto, capace di gestire tutte le tipologie di dati. Progettato sin dall'inizio per operare nell’ampio ecosistema costituito dai partner presenti nel marketplace di Microsoft, compresa DataCore, questa innovativa piattaforma è particolarmente indicata per gestire l’elaborazione parallela. Si tratta così di ridefinire ciò che è possibile - e conveniente - fare nei tipici casi d’impiego delle tradizionali applicazioni aziendali per l’impresa.

Lo Storage si è trasformato in un’infrastruttura basata su Server e componenti Software-defined!

L'altra evoluzione significativa scaturita dal mutare del contesto è che oggi ci troviamo nel mezzo di un‘inevitabile e crescente tendenza nella quale sono i Server a definire che cos’è lo Storage. Seguendo questo trend, DataCore ha utilizzato le tecnologie software per l’I/O parallelo per potenziare i Server Multi-core pre-configurati e arrivare a sistemi di Storage caratterizzati da altissime prestazioni, bassa latenza e vantaggiosi rapporti prezzo-prestazioni. Questo perché è facilmente dimostrabile che i tradizionali sistemi di Storage non sono più in grado di tenere il passo di quelli di nuova generazione, per cui sono entrati in un'inesorabile fase di declino. Di fatto, vengono sempre più sostituiti con Server economici e soluzioni infrastrutturali Software-defined, che possono sfruttare la loro potenza per risolvere il problema della crescente quantità di dati da memorizzare.

Lo Storage e i relativi servizi dati sono ora gestiti dal Software. In tal modo, la gestione dello Storage sta diventando semplicemente un altro “carico di lavoro applicativo” che gira su Server standard e a basso costo. Un'ondata di sistemi di Storage flessibili basati su Server generici che sta facendo registrare impatti devastanti in tutto il settore. Commercializzati come sistemi SAN Server, SAN virtuali, Web-scale, Scale-out o iper-convergenti, sono un insieme di Server standard pre-configurati, combinati con schede Flash e unità disco. È però il software che definisce veramente il loro valore.

Lo Storage funzione a carico dei Server

Il software di elaborazione parallela e la capacità di sfruttare le tecnologie Multi-core dei Server costituiscono l'elemento principale capace di modificare le regole del gioco.  Unito all’infrastruttura Software-defined, porterà a una rivoluzione della produttività e confermerà ulteriormente i “Server come il nuovo Storage”. (Uno studio dettagliato sull'argomento è visibile sul report: http://wikibon.com/server-san-readies-for-enterprise-and-cloud-domination/)

Superare le tecnologie Flash?

Ricordate quando le tecnologie Flash venivano considerate come una grande novità? Bene, ormai sono divenute realtà.

Quale sarà quindi il prossimo passo? Come faremo a essere più veloci e a fare di più con meno risorse? La risposta è ovvia: sebbene le unità Flash siano oggi realtà quotidiana, le prestazioni di molte applicazioni Enterprise continuano a costituire un problema, specie quando si tratta di Database. Una strada percorribile con successo sta quindi proprio nella parallelizzazione delle operazioni di I/O. Perché? Questa tecnica moltiplica ciò che può essere ottenuto facendo lavorare in parallelo molte unità di elaborazione per gestire e rimuovere i colli di bottiglia e ridurre i ritardi generati dalle code, evitando il più possibile la gestione dell’I/O a livello di dispositivo. Prestazioni e tempi di risposta vanno così ben oltre quello che è possibile ottenere con le sole ottimizzazioni a livello di dispositivo offerte da Flash/SSD.

La potenza di “molti” supera di gran lunga ciò che solo “uno” può fare: l’integrazione tra le unità Flash e le tecnologie di parallelizzazione delle operazioni di I/O consente di eseguire le applicazioni in modo molto più rapido, di completare maggiori quantità di lavoro e aprire le applicazioni ad altre tipologie d‘impiego prima impossibili da concretizzare.

Andare oltre l’iper-convergenza: l’iper-produttività obiettivo reale

Con l’avanzare del 2017, il software iper-convergente continuerà a incrementare la sua popolarità. Per cementare questo successo, però, gli utenti dovranno essere in grado di trarre pieno vantaggio dalle sue promesse di migliori prestazioni. L’incredibile potenza del software di elaborazione parallela permetterà di sfruttare al meglio ciò che hardware e software possono fare.

Gli attuali sistemi iper-convergenti sono in sostanza costituiti da Server combinati in un’infrastruttura software-defined. In molti casi questi risultano estremamente limitati in termini di prestazioni e possibilità d’impiego e ancora più di frequente non sono sufficientemente flessibili o non possono essere integrati in ambienti IT più ampi (per esempio non supportando connessioni in Fibre Channel, spesso è indispensabili per la connettività aziendale e per i Database).

Le potenti tecnologie di Storage Software-defined in grado di eseguire l’I/O parallelo offrono in modo efficace un livello più elevato di flessibilità e sfruttano la potenza dei Server Multi-core così che per eseguire il lavoro è sufficiente disporre di un numero più basso di nodi. Il software può inoltre integrare le unità Flash con lo Storage su disco esistente, senza creare ambienti separati tra loro, facilitando la progressiva migrazione da una tecnologia all'altra e l'utilizzo dei dati memorizzati nella Cloud.

Questa combinazione di software potente e di server porterà a maggiori funzionalità, più automazione e a servizi completi per gestire e memorizzare produttivamente i dati nell’ambito dell’intera infrastruttura dati. Tutto ciò significherà una nuova epoca, i cui benefici potranno essere applicati universalmente.

Ultima modifica ilMercoledì, 01 Febbraio 2017 16:03

Aggiungi commento


Codice di sicurezza
Aggiorna

Torna in alto