giovedì 14 luglio 2016

01net: 4 parametri per valutare le performance dello storage

http://www.01net.it/i-4-parametri-per-valutare-le-performance-dello-storage/

George Teixeira è un manager di lunga esperienza nel settore dello storage enterprise. Da anni è a capo di Datacore Software e in qualità di Ceo con passione porta in giro per il mondo il proprio credo relativo alle performance dello storage. Affabile e paziente, si mette a disposizione di chi ha di fronte per capire quali sono i dubbi e per chiarli. Noi ne abbiamo approfittato anche stavolta e gli abbiamo posto tre questioni: come si fa a capire se lo storage di cui si dispone è adeguato al proprio business; quali sono i parametri per misurare le performance; cosa si deve fare per arrivare ad avere uno storage performante. Ecco cosa ci ha risposto.

Indichiamo ai CIO italiani quali sono i fattori tecnici da considerare per capire se il proprio storage è sufficiente per il proprio business?

La velocità con cui oggi si lavora sta trasformando il datacenter, e la pressione per far fronte al cambiamento e alla crescita non è mai stata così forte. Per rispondere alle esigenze dei clienti, le aziende si trovano sempre più spesso davanti alla sfida di erogare su richiesta applicazioni e servizi It.
Tra gli elementi chiave da considerare ci sono la flessibilità software per rispondere al cambiamento e proteggere gli investimenti già realizzati; le prestazioni che garantiscano il rispetto degli accordi sul livello di servizio e velocizzino le decisioni e le transazioni indispensabili a gestire le applicazioni aziendali e quelle di primo livello; la necessità di offrire modalità semplici ed efficaci per gestire la diversità di modelli e dispositivi di storage oggi disponibili sul mercato: e l’esigenza di fornire le funzionalità necessarie ad automatizzare e proteggere una risorsa aziendale critica: i dati.


Prima di tutto penso sia importante capire che a definire l’infrastruttura di storage sono il software e le applicazioni aziendali: la maggior parte dei CIO pensa ancora troppo a dispositivi hardware proprietari o a specifici marchi invece che all’agilità del software. Il Software-defined Storage e i server di marca pre-configurati dai principali fornitori permettono di ottenere una flessibilità molto superiore nella realizzazione di infrastrutture di storage capaci di scalare e di rispondere ai cambiamenti e alle future esigenze.
Per molte organizzazioni lo storage è implementato con differenti approcci e diversi modelli (per esempio SAN Block, NAS File, Object), fornitori, strumenti e software di gestione; in più bisogna cercare di capirne l’insieme di batterie All-flash, sistemi iper-convergenti e storage Cloud. Anche le tipologie di informazione stanno cambiando, con dati strutturati e non, database orientati alle transazioni, big data e l’Internet of Things.

Secondo, quando si parla di prestazioni non si fa più riferimento solo alle transazioni, ma anche alla velocità con cui i sistemi possono rispondere: troppo spesso è lo storage il collo di bottiglia per il progresso.

Terzo, lo storage non significa più solo batterie di dischi stand-alone, ma l’insieme dei dati aziendali e la loro gestione attraverso reti e combinazioni di dispositivi, batterie, server e anche memorie. Il problema è che la maggior parte dei fornitori offre una soluzione diversa per ciascuna di queste tipologie, mentre un CIO vuole semplicità e gestione comune per evitare i molti “silo”, i costi di gestione e l’esperienza necessari per tenere il passo con tutte queste diverse soluzioni specializzate.
Tutti questi elementi portano a complessità e costi elevati, evidenziando i motivi per cui il Software-defined Storage sta diventando popolare.

Il vantaggio principale è quello di mettere a disposizione una soluzione flessibile basata sul software che può essere aggiunta con facilità a qualunque ambiente senza dover “rottamare” l’infrastruttura esistente.

E infine, ma non meno importante, la flessibilità nella protezione dei dati è critica: la capacità di proteggere i dati non solo localmente, ma anche in altre città o replicati in siti remoti su sistemi diversi, è essenziale per garantire il disaster recovery. Quando si parla di soluzioni di storage, un’altra considerazione importante da fare riguarda il software capace di automatizzare e proteggere i dati offrendo disponibilità continua e accesso ai data store senza intervento umano.


Quali sono i parametri di valutazione per misurare la performance dello storage?

Ovviamente l’ideale è registrare le prestazioni nel mondo reale. In DataCore siamo molto focalizzati sulle prestazioni e siamo i leader mondiali nelle performance dello storage registrate tramite benchmark scientifici, indipendenti e certificati.
Parlando di prestazioni nel mondo reale è spesso difficile ottenere informazioni paragonabili. All’inizio di quest’anno, DataCore ha commissionato a TechValidate un’indagine indipendente realizzata su quasi 2.000 dei nostri 10.000 clienti attivi. Ciò che è emerso è che oltre il 79% di loro ha visto almeno triplicare le prestazioni (i risultati sono disponibili qui).

In termini di benchmark, ogni produttore fa quello che io chiamo benchmarketing, sottolineando i risultati di test creati internamente e finalizzati a mostrare le proprie prestazioni. I CIO dovrebbero essere cauti su questo tema. Almeno nello storage, infatti, c’è un benchmark riconosciuto valido dall’intero settore che è uguale per tutti, indipendente dai produttori e certificato con risultati pubblici, in modo che gli interessati possano riprodurne le condizioni.
Si tratta del benchmark SPC-1 dello Storage Performance Council, in cui DataCore è leader in tutti i parametri chiave per la misurazione delle prestazioni dello storage:
  1. Prestazioni più elevate in I/O per secondo
  2. Tempo di risposta più veloce/latenza più bassa
  3. Miglior rapporto prezzo/prestazioni
  4. Prestazioni elevate negli ingombri più contenuti


Unendo le due cose, quali azioni vanno fatte, in quanto tempo e in che ordine, per arrivare a disporre di un sistema performante?

Bisognerebbe prima determinare quali sono le esigenze aziendali e valutare i costi e le sfide legati al supporto delle applicazioni critiche e del loro storage, valutando anche quale tipo di crescita e cambiamenti ci si aspetta di dover affrontare non solo entro un anno, ma anche in un orizzonte temporale di 3-5 anni.

Con queste informazioni si può passare a valutare le soluzioni di Software-defined Storage per assicurarsi che possano offrire non solo la necessaria flessibilità, ma anche che siano adatte a supportare gli investimenti già realizzati e che siano in grado di scalare per rispondere alle necessità legate alla crescita.

Dal punto di vista delle prestazioni, bisogna fare il proprio lavoro e chiedere delle referenze, fare delle valutazioni personali invece di credere ai risultati del “benchmarketing” e aprire la mente per esplorare nuove innovazioni come l’elaborazione parallela e i server multi-core che stanno rivoluzionando le prestazioni nel mondo dello storage.

È inutile comprare un altro box di storage dallo stesso tradizionale produttore che non comprende veramente il ruolo del software e di come questo stia ridefinendo il mondo dello storage.

martedì 5 luglio 2016

DataCore il nuovo software PSP5 è arrivato

DataCore SANsymphony-V PSP5 arriva con tante novità e ottimizzazioni gratuite integrate direttamente nell’aggiornamento.
 PSP5-001

Miglioramento:
Parallel I/O : si attiva automaticamente con l’aggiornamento. È dinamico secondo i bisogni
 PSP5-002

Performance

Scalabilità quasi perfetta e nuovo record dei tempi di risposta su sistemi a elevata disponibilità
Rispetto ai risultati ottenuti dal codice SANsymphony PSP4 sottoposto a benchmark solo sei mesi fa, i miglioramenti delle prestazioni di Parallel I/O ottenuti nei giorni scorsi con il codice di SANsymphony PSP5 nel test SPC-1 di elevata disponibilità sono decisamente significativi [2]. La precedente configurazione PSP4 a singolo nodo aveva ottenuto un tempo medio di risposta di 0,32 millisecondi con 459.290,87 SPC-1 IOPS™ e con il miglior rapporto prezzo/prestazioni del settore, pari a 0,08 dollari statunitensi per SPC-1 IOPS™ [1].

SANsymphony PSP5, nella configurazione a due nodi a elevata disponibilità con mirroring sincrono su Fibre Channel, ha addirittura abbassato il tempo medio di risposta di oltre il 30%, fino a 0,22 millisecondi, con una velocità di trasferimento dati più che doppia (1.201.961,83 SPC-1 IOPS™). Il rapporto prezzo/prestazioni è invece salito leggermente, a 0,10 dollari per SPC-1 IOPS™ [2], assicurandosi comunque il terzo posto nella relativa Top Ten di SPC-1 [3].

Tutto questo dovrebbe mettere fine alla convinzione che siano le latenze di Fibre Channel a rallentare le prestazioni della SAN,” ha aggiunto Aral. “Nella nostra esperienza è vero l’opposto. DataCore Parallel I/O velocizza qualunque cosa tocchi, comprese certamente le componenti di rete.

Miglioramento:
Aggiunta di tools di misura di performance concreti ed efficienti.
Ad esempio : Top 10 dei dischi più utilizzati. 
PSP5-003

Novità:
Previsione, analisi, trend secondo il consumo medio.

PSP5-004

Miglioramento:
Integrazione completa a SCVMM di Microsoft

PSP5-005

Novità:
Validazione del sistema Microsoft Windows Server 2016 come sistema cliente(host). Per quanto riguarda la parte sistema Datacore, bisognerà aspettare l’uscita ufficiale di Windows Server 2016 (adesso Technical Preview 5 uscito in Aprile 2016).

Novità:
Provisioning automatico dello storage da vCenter

PSP5-006

Novità:
Smart Deployment Wizard : setup automatico dell’architettura di DataCore in modo virtuale su ESXi.

PSP5-007

Miglioramento:
Ottimizzazione della qualità di servizio con dei limiti in Mb e/o IOPS dai gruppi vDisk (funzionalità disponibile solo tramite host, dalla PSP2).

PSP5-008
Novità:
Individuazione dei privilegi utilizzatori.

PSP5-009

Novità:
Datacore crea una nuova licenza, la licenza Bulk per i dati freddi (archivi…). Licenza Bulk = tutte le funzionalità Datacore eccetto il cache, Parallel IO e Random I/O

 PSP5-010


E ancora dei bug fixing, un miglioramento della velocità della console, ecc.

L’aggiornamento è gratuito, non esitate a consultare i nostri esperti Datacore per l’aggiornamento delle vostre infrastrutture.

lunedì 4 luglio 2016

DataCore Parallel Server e SANsymphony, Software-Defined Storage all’ennesima potenza

Top 5:

DataCore sottolinea ancora una volta i numerosi vantaggi offerti dalle proprie soluzioni per il Software-Defined Storage, oggi ancora più veloci ed economicamente sostenibili.
La piattaforma software SANsymphony adotta algoritmi di comunicazione a flussi paralleli (Parallel I/O) e può essere messo in funzione sulla maggior parte dell’hardware esistente, senza limitazioni e senza complesse configurazioni iniziali. Forte di queste peculiarità, DataCore continua il percorso di sviluppo di questa versatile architettura e potenzia periodicamente le capacità del software. Stiamo parlando di un sistema, ormai ampiamente diffuso a livello globale, ideale per ambienti iper-convergenti e SAN server multi-nodo ad elevata disponibilità.
Di fatto, la filosofia di Parallel I/O si è dimostrata estremamente valida nello sfruttare il potenziale inespresso dei processori multi-core, un particolare che sta diventando sempre più dirompente, un vero fattore di cambiamento nel settore dello storage.
Come evidenziato da George Teixeira, Presidente e CEO di DataCore Software, SANsymphony non teme rivali e può competere con successo con batterie hardware blasonate, come Huawei OceanStor 18800 v3 e Hitachi VSP G1000. A fronte di sistemi 4 – 5 volte più costosi, il software DataCore, installato su server Lenovo X3650 M5 (dual Xeon 18 core e 1,5 TByte di RAM e un mix di drive SSD e meccanici), ha raggiunto performance superiori di almeno il 70%, con un costo iniziale di poco superiore ai 500mila Dollari.
Non solo, il sistema ha raggiuto un valido tempo di risposta medio di 0,28 ms e un prezzo/performance di 10 centesimi USD per SPC-1 IOPS.
In più, utilizzando il benchmark di riferimento del settore per i carichi di lavoro di tipo database di livello enterprise – l’SPC-1 dello Storage Performance Council – DataCore ha sfidato le classiche batterie di storage esterno di alto livello con una soluzione SAN Server dual-node con Fibre Channel completamente ridondata. Su questo sistema, composto da una coppia di server standard preconfigurati, DataCore ha installato SANsymphony, la sua piattaforma di servizi per il Software-Defined Storage.
Rispetto ai risultati ottenuti dal codice SANsymphony PSP4 sottoposto a benchmark solo sei mesi fa, i miglioramenti delle prestazioni di Parallel I/O ottenuti nei giorni scorsi con il codice di SANsymphony PSP5 nel test SPC-1 di elevata disponibilità sono decisamente significativi. La precedente configurazione PSP4 a singolo nodo aveva ottenuto un tempo medio di risposta di 0,32 millisecondi con 459.290,87 SPC-1 IOPS e con il miglior rapporto prezzo/prestazioni del settore, pari a 0,08 dollari statunitensi per SPC-1 IOPS.
SANsymphony PSP5, nella configurazione a due nodi a elevata disponibilità con mirroring sincrono su Fibre Channel, ha abbassato il tempo medio di risposta di oltre il 30%, fino a 0,22 millisecondi, con una velocità di trasferimento dati più che doppia (1.201.961,83 SPC-1 IOPS). Il rapporto prezzo/prestazioni è invece salito leggermente, a 0,10 dollari per SPC-1 IOPS, assicurandosi comunque il terzo posto nella relativa Top Ten di SPC-1.
I nuovi risultati mettono DataCore SANsymphony sul quinto gradino della Top Ten delle prestazioni di SPC-1, posizionandola subito dietro mega-batterie pluri-milionarie come Huawei, Hitachi e HP XP7 , allo stesso livello della configurazione Parallel Server iper-convergente di DataCore . La soluzione iper-convergente a elevata disponibilità utilizzata da DataCore è costata 115.142,76 USD, compresi tre anni di supporto.
Al contrario di quanto avviene con le soluzioni concorrenti, il mirroring di DataCore offre come standard la possibilità di supportare sia cluster locali sia cluster estesi, anche su base metropolitana, con la protezione di failover e failback automatici su copie sincronizzate active-active di dati che si trovano in luoghi geografici diversi.
Parlando di riduzione del Total Cost of Ownership (TCO) è importante considerare anche gli elementi legati allo spazio occupato e all’ambiente. Le soluzioni di storage concorrenti occupano diversi rack 42U e molti metri quadrati di superficie, mentre la configurazione DataCore occupa solamente una piccola frazione (12U) di armadio.
Diversamente dalle tradizionali batterie di storage, i nodi DataCore avevano la responsabilità di gestire sia i carichi di lavoro di tipo database sia le loro richieste di I/O sugli stessi server: uno scenario molto più impegnativo. La compatta soluzione SAN Server di DataCore comprime l’infrastruttura necessaria e riduce significativamente costi e complessità di rete e amministrazione. In più, può essere aggiornata in ogni momento senza difficoltà con le tecnologie di server e storage più potenti disponibili sul libero mercato.