venerdì 30 gennaio 2015

Quest’anno il software-defined storage cambierà il mondo dei dati

Secondo George Teixeira, ceo di Datacore Software, nel 2015 la filosofia del “software-defined everything” e del software-defined storage continuerà a evolvere, spinta dai vantaggi in termini di produttività che è in grado di offrire ai clienti. Il cambiamento avrà un impatto maggiore sui fornitori di sistemi per lo storage tradizionali, dato che il software-defined storage promette di rendere una commodity i sottostanti dispositivi per la memorizzazione dei dati. Il risultato sarà quello di portare le funzionalità e i servizi di storage a livelli ancora più elevati di produttività, invece di tenere le aziende bloccate su specifici sistemi. Le vere piattaforme di software-defined storage consentiranno a questi dispositivi di fare di più con minori risorse, incrementandone l’utilizzo e lavorando su piattaforme diverse a livello infrastrutturale. Alla fine, gli straordinari benefici economici, la migliore produttività e la necessità di una maggiore agilità nel rispondere a future esigenze spingeranno il software-defined storage fino a renderlo nel 2015 una soluzione di adozione comune.
Il ceo di Datacore Software, George Teixeira
Non solo, per il ceo di Datacore nel 2015 i server diventeranno un elemento sempre più importante nella strategia di sostituzione delle batterie di storage tradizionali. I server saranno un alleato del software-defined storage, continuando ad alimentare la nuova categoria dei server di storage e le SAN virtuali iper-convergenti. L’ultima generazione di server è potente e riuscirà a supportare quantità di storage sempre maggiori. Soluzioni di software-defined storage come il software Virtual SAN di DataCore sono state pensate per eliminare i problemi e la complessità tipici delle reti di storage tradizionali, proponendo al contempo un percorso di crescita. Il software Virtual SAN sta maturando rapidamente e questo spingerà ulteriormente la trasformazione dei server in potenti sistemi di storage capaci di guardare al futuro trasformandosi in vere e proprie SAN virtuali di livello enterprise.
Ancora: dischi tradizionali e flash faranno gruppo e gli stack software copriranno entrambi i mondi. L’anno che si è da poco concluso ha visto continuare la tendenza a impiegare flash ovunque, con i dispositivi basati su questa tecnologia che si sono velocemente spostati dal semplice utilizzo nei server all’impiego a tutto campo. Inizialmente questo ha spinto molte nuove aziende a proporre storage di questo tipo, ma poi si è andati verso un elevato livello di consolidamento, come dimostrano l’acquisizione di Fusion-io da parte di SanDisk e la scomparsa di numerose startup. Con la flash che si è confermata come tecnologia chiave, ma che è sempre più diventata anch’essa una commodity, il mercato non è più in grado di sostenere tutte le aziende che si sono affacciate su questo mercato. Per questo assisteremo a un ulteriore consolidamento. Il nuovo anno ci mostrerà poi come le tecnologie flash possano essere utilizzate in modo più pratico, migliorando la modalità con cui lavoreranno insieme alle esistenti tecnologie basate su disco. La flash è una soluzione eccellente per carichi di lavoro specifici che richiedono velocità di lettura elevate, come quelli dei database, ma non è conveniente per tutti i carichi di lavoro, e al momento costituisce solo una frazione molto piccola del parco di storage installato. Sul lato opposto sono posizionati gli economici dischi SATA, che continuano la loro avanzata e che utilizzano nuove tecnologie come quella basata sull’elio per supportare capienze sempre maggiori, fino a 10 TB per unità. Il loro limite rimane però la lentezza. Carichi di lavoro transazionali che ricorrono a frequenti operazioni di scrittura hanno poi esigenze ancora diverse.
Per Teixeira nel 2015 avremo bisogno di software intelligente con uno stack di funzionalità in grado di ottimizzare i compromessi tra costi e prestazioni e di spostare i carichi di lavoro sulle risorse più adatte, siano esse dischi tradizionali o tecnologie flash. Un software-defined storage realizzato correttamente può aiutare a unificare il nuovo mondo flash con quello esistente e in continua evoluzione dei dischi. Entrambi hanno un futuro.
Altra previsione: le soluzioni di cloud ibrido e quelle di disaster recovery basato su cloud saranno sempre più pratiche da implementare. Le aziende stanno ancora cercando di immaginare il modo migliore per sfruttare il cloud computing. Sempre di più le grandi imprese si trovano a gestire sia storage installato localmente sia storage cloud remoto (cloud ibrido). Nel 2015 questo diventerà un tema sempre più importante, con i clienti che si fanno sempre più furbi nel capire quali carichi di lavoro possono essere gestiti nella cloud e quali no. Lo storage installato localmente viene solitamente sfruttato per gestire i dati “attivi”, come quelli dei database e quelli delle attività orientate alle transazioni. La cloud, invece, continua a essere tipicamente utilizzata per il backup, l’archiviazione e il disaster recovery e non per i carchi di lavoro in produzione, soprattutto a causa della velocità dei collegamenti Internet. Ora stanno emergendo soluzioni come quella composta da DataCore e Microsoft StorSimple, che permette di spostare in modo trasparente i dati (residenti su qualunque sistema di storage) dai dispositivi locali a una cloud come Microsoft Azure. Questo alimenterà la tendenza più rilevante, che vede le imprese sempre più orientate verso soluzioni che mischiano soluzioni on-premise e nella cloud. In più, anche se le operazioni di disaster recovery dalla cloud rimangono complicate, sono in arrivo nuovi strumenti di integrazione e procedure più automatizzate che renderanno più pratiche queste soluzioni.
Infine, il cloud: la gestione delle risorse interne attraverso un modello cloud diventerà una tendenza sempre più rilevante. Le grandi imprese vogliono emulare la produttività che riescono a raggiungere i fornitori cloud. Per farlo, però, hanno bisogno di sposare un modello di Quality-of-Service (QoS) che comprenda una serie completa di servizi per i dati virtuali. Per esempio, con le sempre crescenti esigenze di storage, le imprese devono essere in grado di gestire, regolare e creare una separazione delle risorse capace di riflettere gli schemi di utilizzo dei diversi dipartimenti. Un esempio tipico è quello del settore finanziario, che ha bisogno di livelli di prestazioni diversi da quelli che bastano all’elaborazione di testi. Le impostazioni del Quality-of-Service sono indispensabili per garantire che i carichi di lavoro con priorità elevata che devono accedere alle risorse di storage possano rispettare i loro Service Level Agreements (SLA) con prestazioni di I/O prevedibili. Questi controlli QoS permettono alle organizzazioni IT di gestire in modo efficiente le loro infrastrutture di storage condiviso. Le risorse di storage possono essere separate in modo logico, monitorate e regolate su base dipartimentale.

giovedì 29 gennaio 2015

DataCore Software: il 2015 sarà l’anno strategico per la virtualizzazione dello storage

Il 2014 ci ha abituato alla filosofia del “software-defined everything”. In particolare nel 2015 Datacore Software ( che opera in questo settore ) prevede che il software-defined storage conquisterà il mercato continuando ad evolversi , spinto dai vantaggi in termini di produttività che è in grado di offrire ai clienti. “Ma il cambiamento avrà un impatto maggiore sui fornitori di sistemi per lo storage tradizionali, dato che il software-defined storage promette di rendere una commodity i sottostanti dispositivi per la memorizzazione dei dati”- ha dichiarato George Teixeira – CEO di DataCore e startega tecnolgico della società. Le piattaforme di software-defined storage consentiranno a questi dispositivi di ‘fare di più con minori risorse’, incrementandone l’utilizzo e lavorando su piattaforme diverse a livello infrastrutturale.
Anche i server saranno un alleato del software-defined storage, continuando ad alimentare la nuova categoria dei ‘server di storage’ e le SAN virtuali iper-convergenti. Soluzioni di software-defined storage come il software Virtual SAN di DataCore sono state pensate per eliminare i problemi e la complessità tipici delle reti di storage tradizionali, proponendo al contempo un percorso di crescita.
datacore-virtual storage
Datacore-virtual storage
In ambito più propriamente storage dischi e flash “faranno squadra” e il software coprirà entrambi i mondi. L’anno che si è da poco concluso ha visto continuare la tendenza a impiegare flash ovunque, con i dispositivi basati su questa tecnologia che si sono velocemente spostati dal semplice utilizzo nei server all’impiego a tutto campo. Inizialmente questo ha spinto molte nuove aziende a proporre storage di questo tipo, ma poi si è andati verso un elevato livello di consolidamento.
Continua Teixeira : “Il nuovo anno ci mostrerà poi come le tecnologie flash possano essere utilizzate in modo più pratico, migliorando la modalità con cui lavoreranno insieme alle esistenti tecnologie basate su disco. Quella flash è una soluzione eccellente per carichi di lavoro specifici che richiedono velocità di lettura elevate, come quelli dei database, ma non è conveniente per tutti i carichi di lavoro, e al momento costituisce solo una frazione molto piccola del parco di storage installato. Sul lato opposto sono posizionati gli economici dischi SATA, che continuano la loro avanzata e che utilizzano nuove tecnologie come quella basata sull’elio per supportare capienze sempre maggiori, fino a 10 TB per unità. Il loro limite rimane però la lentezza. I produttori vorrebbero farci credere che i clienti sposteranno lo storage al 100% su flash, ma un cambiamento di questo genere non è sostenibile a livello di costi, soprattutto considerando l’ampiezza della base installata”.
Un software-defined storage realizzato correttamente può aiutare a unificare il nuovo mondo flash con quello esistente e in continua evoluzione dei dischi. Entrambi hanno un futuro.
Dal punto di vista applicativo le soluzioni di cloud ibrido e quelle di disaster recovery basato su cloud saranno sempre più pratiche da implementare. Sempre di più le grandi imprese si trovano a gestire sia storage installato localmente sia storage cloud remoto (cloud ibrido). Lo storage installato localmente viene solitamente sfruttato per gestire i dati “attivi”, come quelli dei database e quelli delle attività orientate alle transazioni. Il cloud, invece, continua a essere tipicamente utilizzato per il backup, l’archiviazione e il disaster recovery e non per i carchi di lavoro in produzione, soprattutto a causa della velocità dei collegamenti Internet. Ora stanno però emergendo soluzioni come quella composta da DataCore e Microsoft StorSimple, che permette di spostare in modo trasparente i dati (residenti su qualunque sistema di storage) dai dispositivi locali a una cloud come Microsoft Azure. In più, anche se le operazioni di disaster recovery dalla cloud rimangono complicate, sono in arrivo nuovi strumenti di integrazione e procedure più automatizzate che renderanno più pratiche queste soluzioni.
In questo panormana non va dimenticato che è necessario creare servizi di storage per i dati virtuali slegati dall’ hardware e che siano in grado di regolare in modo più automatizzato le modalità con cui vengono sfruttate le risorse dell’infrastruttura.

Scopri di più su http://www.techweekeurope.it/cloud/datacore-software-il-2015-sara-lanno-strategico-per-la-virtualizzazione-dello-storage-76111#IbHHmrHl6TXEw7OA.99

lunedì 19 gennaio 2015

Software-defined, la rivoluzione in atto e le previsioni di DataCore

George Teixeira, Presidente e CEO di DataCore, nonché co-fondatore della società, guida la direzione strategica di DataCore Software e prevede una forte crescita delle piattaforme software-defined per il 2015. 
Il nostro settore sta cambiando. Con l'emergere di nuove tendenze, i principali fornitori di soluzioni di storage dei dati hanno visto il loro fatturato erodersi. Nel 2015 la filosofia del "software-defined everything" e del software-defined storage continuerà a evolvere, spinta dai vantaggi in termini di produttività che è in grado di offrire ai clienti. Il cambiamento avrà un impatto maggiore sui fornitori di sistemi per lo storage tradizionali, dato che il software-defined storage promette di rendere una commodity i sottostanti dispositivi per la memorizzazione dei dati. Il risultato sarà quello di portare le funzionalità e i servizi di storage a livelli ancora più elevati di produttività, invece di tenere le aziende bloccate su specifici sistemi. Le vere piattaforme di software-defined storage consentiranno a questi dispositivi di 'fare di più con minori risorse', incrementandone l'utilizzo e lavorando su piattaforme diverse a livello infrastrutturale.
Alla fine, gli straordinari benefici economici, la migliore produttività e la necessità di una maggiore agilità nel rispondere a future esigenze spingeranno il software-defined storage fino a renderlo nel 2015 una soluzione di adozione comune.
- Nel 2015 il software-defined storage conquisterà il mercato.
- Nel 2015 i server diventeranno un elemento sempre più importante nella strategia di sostituzione delle batterie di storage tradizionali. I server saranno un alleato del software-defined storage, continuando ad alimentare la nuova categoria dei 'server di storage' e le SAN virtuali iper-convergenti. L'ultima generazione di server è potente e riuscirà a supportare quantità di storage sempre maggiori. Soluzioni di software-defined storage come il software Virtual SAN di DataCore sono state pensate per eliminare i problemi e la complessità tipici delle reti di storage tradizionali, proponendo al contempo un percorso di crescita. Il software Virtual SAN sta maturando rapidamente e questo spingerà ulteriormente la trasformazione dei server in potenti sistemi di storage capaci di guardare al futuro trasformandosi in vere e proprie SAN virtuali di livello enterprise (al proposito si veda l'intervento "Dell PowerEdge Servers Make Great Software-Defined Storage Solutions"). 
- Nel 2015 dischi e flash "faranno squadra" e gli stack software copriranno entrambi i mondi. L'anno che si è da poco concluso ha visto continuare la tendenza a impiegare flash ovunque, con i dispositivi basati su questa tecnologia che si sono velocemente spostati dal semplice utilizzo nei server all'impiego a tutto campo. Inizialmente questo ha spinto molte nuove aziende a proporre storage di questo tipo, ma poi si è andati verso un elevato livello di consolidamento, come dimostrano l'acquisizione di Fusion-io da parte di SanDisk e la scomparsa di numerose startup. Con la flash che si è confermata come tecnologia chiave, ma che è sempre più diventata anch'essa una commodity, il mercato non è più in grado di sostenere tutte le aziende che si sono affacciate su questo mercato. Per questo assisteremo a un ulteriore consolidamento.
Il nuovo anno ci mostrerà poi come le tecnologie flash possano essere utilizzate in modo più pratico, migliorando la modalità con cui lavoreranno insieme alle esistenti tecnologie basate su disco. La flash è una soluzione eccellente per carichi di lavoro specifici che richiedono velocità di lettura elevate, come quelli dei database, ma non è conveniente per tutti i carichi di lavoro, e al momento costituisce solo una frazione molto piccola del parco di storage installato. Sul lato opposto sono posizionati gli economici dischi SATA, che continuano la loro avanzata e che utilizzano nuove tecnologie come quella basata sull'elio per supportare capienze sempre maggiori, fino a 10 TB per unità. Il loro limite rimane però la lentezza. Carichi di lavoro transazionali che ricorrono a frequenti operazioni di scrittura hanno poi esigenze ancora diverse (per saperne di più si veda l'intervento "A New Breakthrough Random Write Accelerator", in cui si parla dell'impatto del sistema DataCore di accelerazione della scrittura su dischi e tecnologia flash). I produttori vorrebbero farci credere che i clienti sposteranno lo storage al 100% su flash, ma un cambiamento di questo genere non è sostenibile a livello di costi, soprattutto considerando l'ampiezza della base installata.
Nel 2015 avremo bisogno di software intelligente con uno stack di funzionalità in grado di ottimizzare i compromessi tra costi e prestazioni e di spostare i carichi di lavoro sulle risorse più adatte, siano esse dischi tradizionali o tecnologie flash. Un softwaredefined storage realizzato correttamente può aiutare a unificare il nuovo mondo flash con quello esistente e in continua evoluzione dei dischi. Entrambi hanno un futuro.
Nel 2015 le soluzioni di cloud ibrido e quelle di disaster recovery basato su cloud saranno sempre più pratiche da implementare. Le aziende stanno ancora cercando di immaginare il modo migliore per sfruttare il cloud computing. Sempre di più le grandi imprese si trovano a gestire sia storage installato localmente sia storage cloud remoto (cloud ibrido). Nel 2015 questo diventerà un tema sempre più importante, con i clienti che si fanno sempre più furbi nel capire quali carichi di lavoro possono essere gestiti nella cloud e quali no. Lo storage installato localmente viene solitamente sfruttato per gestire i dati "attivi", come quelli dei database e quelli delle attività orientate alle transazioni. La cloud, invece, continua a essere tipicamente utilizzata per il backup, l'archiviazione e il disaster recovery e non per i carchi di lavoro in produzione, soprattutto a causa della velocità dei collegamenti Internet. Ora stanno però emergendo soluzioni come quella composta da DataCore e Microsoft StorSimple, che permette di spostare in modo trasparente i dati (residenti su qualunque sistema di storage) dai dispositivi locali a una cloud come Microsoft Azure. Questo alimenterà la tendenza più rilevante, che vede le imprese sempre più orientate verso soluzioni che mischiano soluzioni on-premise e nella cloud. In più, anche se le operazioni di disaster recovery dalla cloud rimangono complicate, sono in arrivo nuovi strumenti di integrazione e procedure più automatizzate che renderanno più pratiche queste soluzioni.
- Nel 2015 la gestione delle risorse interne attraverso un modello cloud diventerà una tendenza sempre più rilevante. Le grandi imprese vogliono emulare la produttività che riescono a raggiungere i fornitori cloud. Per farlo, però, hanno bisogno di sposare un modello di Quality-of-Service (QoS) che comprenda una serie completa di servizi per i dati virtuali. Per esempio, con le sempre crescenti esigenze di storage, le imprese devono essere in grado di gestire, regolare e creare una separazione delle risorse capace di riflettere gli schemi di utilizzo dei diversi dipartimenti. Un esempio tipico è quello del settore finanziario, che ha bisogno di livelli di prestazioni diversi da quelli che bastano all'elaborazione di testi. Le impostazioni del Quality-of-Service sono indispensabili per garantire che i carichi di lavoro con priorità elevata che devono accedere alle risorse di storage possano rispettare i loro Service Level Agreements (SLA) con prestazioni di I/O prevedibili (si veda al proposito l'intervento dedicato alle funzionalità di Quality-of-Service di DataCore). Questi controlli QoS permettono alle organizzazioni IT di gestire in modo efficiente le loro infrastrutture di storage condiviso. Le risorse di storage possono essere separate in modo logico, monitorate e regolate su base dipartimentale.
Il software-defined storage deve continuare a evolvere per rispondere a queste esigenze. E' necessario creare servizi per i dati virtuali che offrano servizi di storage slegati dai dispositivi hardware e che siano in grado di regolare in modo più automatizzato le modalità con cui vengono sfruttate le risorse dell'infrastruttura.