martedì 13 dicembre 2016

Tra cloud e analytic, nella nuova partita dello storage, Datacore va a segno grazie all'indipendenza

https://readymag.com/u12452779/avnet-magazine-01/14/
L’architettura offerta da DataCore è adottata da oltre 10.000 clienti in tutto il mondo, e la propria tecnologia adattiva, grazie alle caratteristiche di autoapprendimento e autocorrezione, risolve le problematiche classiche dei processi manuali di gestione, ed è quindi indispensabile per tutte le interpretazioni dei moderni Software Defined Data Center, grazie alla propria architettura hardware independent.
Remi Bargoing, country manager Italia di Datacore

Limitarsi a ricondurre lo storage a una mera conservazione dei dati e relativa accessibilità, concentrandosi quindi su spazio e velocità di accesso, rischia di rivelarsi riduttivo nel contesto di una strategia aziendale. Le grandi quantità e varietà di dati che un'organizzazione è chiamata a gestire hanno anche altre importanti implicazioni. «Chi afferma che lo storage sta morendo in termini di business commette un grande errore - afferma Remi Bargoing, country manager Italia di Datacore -. Oltre all'aumento inarrestabile dei dati, bisogna tenere conto anche dei cambiamenti di scenario».

Uno in particolare si rivela strategico, a condizione di avere una visione abbastanza lungimirante. «È fondamentale raccordare i dati in ottica di business analytic, vale a dire trarre vantaggio dalle proprie informazioni - spiega Bargoing -. Nell'arco di pochi mesi può servire a poco, ma impostando il lavoro su anni si possono ottenere indicazioni importanti, utili a livello tecnico per l'infrastruttura IT, utili anche per il marketing e come supporto al management».

Una situazione nella quale di riflesso si trova inevitabilmente coinvolto anche il mercato dell'offerta. «Chi si adatta e mostra flessibilità, non accusa particolarmente la crisi - osserva Bargoing -. Quelli ancorati al tradizionale invece, hanno speso in grandi strutture, difficili da cambiare e quindi con maggiori rischi».

Datacore non esita a collocarsi tra i primi, forte dei risultati di decisioni prese in tempi non sospetti, all'apparenza di all'ora quasi azzardate. «Chi è riuscito a guardare lo storage oltre l'aspetto fisico oggi è in vantaggio. Nell'approccio alle infrastrutture software defined, possiamo contare su una forza speciale. Le nostre applicazioni non sono legate a nessuno, non l'abbiamo mai voluto fare. Magari fa perdere qualcosa in termini di notorietà, ma alla fine è una strategia che paga».


Trovando conferma anche in chi solo pochi anni fa chi puntava senza esitazioni su una migrazione al cloud puro e oggi si trova a dover fare i conti con uno scenario nettamente orientato all'ibrido, la strategia dell'azienda resta incentrata sulla massima flessibilità. «Credo sempre meno nelle soluzioni proprietarie. Ogni tassello deve adattarsi al contesto del cliente e questo è l'aspetto sul quale raccogliamo le maggiori soddisfazioni».

Datacore: il substrato Software Defined che gestisce l’iperconvergenza

 

lunedì 12 dicembre 2016

DataCore SANsymphony e Virtual SAN

DataCore Software, un’azienda che opera nel campo dello storage definito dal software, si è posta l'obiettivo con SANsymphony di permettere alle organizzazioni IT di gestire e scalare le architetture per lo storage dei dati, nonché di poterlo fare anche in ambienti multivendor e con tecnologie storage di diverse generazioni.

Si tratta di base di un tecnologia software adattativa e capace di auto-apprendere e ripararsi che nella strategia DataCore elimina del tutto o comunque fortemente riduce le difficoltà connesse ai processi manuali e supporta il reparto IT, grazie alla sua architettura agnostica rispetto all’hardware, nel rendere reali le potenzialità espresse dai nuovi data center definiti dal software.

DataCore SANsymphony gira su server x86 e mette in pool lo storage di rete
Peraltro, evidenzia DataCore, la soluzione SANsymphony non solo permette di realizzare infrastrutture virtuali utilizzando diverse piattaforme di base quali server, storage, eccetera anche di fornitori e generazioni di prodotto diverse, ma permette allo stesso tempo di incrementare enormemente l'affidabilità complessiva e la disponibilità dei dati mediante una gestione in pool dinamico delle risorse.

Permette in sostanza, evidenzia George Teixeira, CEO di DataCore, di risolvere il problema connesso alla gestione di "isole di dati", all’utilizzo di hardware di base economico e all’integrazione della tecnologia Flash in abbinamento a macchine basate sui convenzionali dischi o di generazioni precedenti.

Dentro SANsymphony

Una volta che il software è stato installato su server X86 standard, fornisce un set di servizi comuni di storage trasversale a tutti i dispositivi storage disponibili e permette di gestire in pool la capacità storage dei diversi dispositivi di rete. I dati vengono poi automaticamente replicati tra i diversi nodi al fine di non avere un singolo punto di guasto.

La "Virtual SAN" che si viene a costituire è in grado di funzionare con tutti i principali hypervisor (come per esempio VMware vSphere o Microsoft Hyper-V) e su qualunque server o VM standard. In sostanza, se si ragiona in termini di Opex, la DataCore Virtual SAN permette di eliminare i problemi, i costi e le complessità aggiuntive legate alla gestione e al funzionamento di infrastrutture SAN esterne.

In pratica, per chi vuole evolvere da un'architettura convenzionale ad una altamente virtualizzata, DataCore Virtual SAN crea pool di storage condivisi ad alte prestazioni e a elevata disponibilità utilizzando i dischi e lo storage flash installati nei server applicativi. Tramite DataCore Virtual SAN, dal punto di vista infrastrutturale, i responsabili IT possono gestire, virtualizzare e sfruttare i dischi e lo storage basato su flash dei server, oltre che virtualizzare le batterie di storage esterno presenti nei diversi dipartimenti, data center e uffici remoti, con un uptime, evidenzia Teixeira, prossimo al 100%.

Vediamo la soluzione all'opera.
Un esempio concreto di utilizzo di SANsymphony-V10, evidenzia Teixeira, lo fornisce quanto realizzato dal Comune di Bologna. L’infrastruttura informatica del Comune è composta da due Server Farm posizionate nelle due sedi principali, nelle quali si concentrano tutte le risorse, i sistemi di rete e i server , il tutto ridondato per garantire la continuità operativa.
I server gestiti sono 250, dei quali 200 circa virtualizzati tramite VMWare su blade HP e IBM. Il volume totale dei dati è di circa 50 TB. Per far fronte ai carichi di lavoro e trasmissivi tutte le sedi sono poi connesse in banda larga.


In un tale e complesso scenario si erano nel tempo evidenziate tre esigenze specifiche, concretizzatesi in altrettante richieste avanzate dall'alta direzione:
Un primo intervento ha toccato l'architettura ed è consistito nel ridondare le due Server Farm, seguito dall’aumento della potenza dei sistemi tramite l'adozione di componenti tecnologiche virtualizzate e della capacità di storage.

Un'indagine ha poi escluso l’adozione della classica soluzione di potenziamento dell’hardware a favore del Software Defined Storage. Le motivazioni hanno riguardato l’aspetto economico, infatti l’adozione del Software Defined avrebbe eliminato l’esigenza di dotarsi di ulteriore hardware, oltre a garantire una maggiore flessibilità in fase di crescita e senza imporre vincoli rispetto all’acquisto di hardware di uno specifico produttore.

Successivamente è stata eseguita un’approfondita verifica mirata ai livelli funzionali offerti. Questa fase di valutazione ha portato alla scelta di DataCore SANsymphony, che si è rivelata essere la piattaforma che offriva maggiori garanzie in base ai requisiti espressi. L’operazione ha avuto inizio nel 2015 ed è stata portata a termine nel luglio dello stesso anno. La migrazione dei dati dai vecchi ai nuovi apparati è stata effettuate gradualmente e conclusa in tre mesi.

Alla data il Comune ha virtualizzato, con DataCore, storage IBM, NetApp, Nexsan, dischi flash HGST con 4 livelli di Tier distribuiti sui due nodi metropolitani. 

sabato 10 dicembre 2016

giovedì 3 novembre 2016

DataCore offre ai professionisti VMware certificati licenze gratuite di Hyper-converged Virtual SAN, il software più veloce del settore basato sulla tecnologia Parallel I/O

DataCore Software - fornitore leader di SAN virtuali iper-convergenti, Software-Defined Storage e Software adattativo per il Parallel I/O - ha annunciato che offrirà gratuitamente agli esperti VMware delle chiavi di licenza "Not-For-Resale" (NFR) del suo software DataCoreTM Hyper-converged Virtual SAN dotato di Parallel I/O. Queste licenze comprendono gli Universal VVol di Seconda Generazione di DataCore, certificati da VMware per gestire tutte le tipologie di storage tramite un control plane universale, che consente l'amministrazione delle policy di storage basato su macchine virtuali in un mix di infrastrutture di storage nuove ed esistenti.

Le licenze Not-For-Resale (NFR) sono disponibili per i VMware vExpert, i VMware Certified Design Expert (VCDX), i VMware Certified Advanced Professional (VCAP), i VMware Certified Professional (VCP) e i VMware Certified Implementation Expert (VCIX). Le licenze NFR sono state pensate per supportare i consulenti, gli istruttori e gli architetti specializzati in virtualizzazione coinvolti in progetti destinati a gestire e sfruttare a fondo gli asset di storage, e sono utilizzabili esclusivamente per un utilizzo non di produzione.

"Il software Virtual SAN di DataCore consente di offrire le soluzioni iper-convergenti più veloci di tutto il settore grazie all'esclusivo sistema di elaborazione parallela dell'I/O," ha detto Amanda Bedborough, Senior Vice President EMEA Operations di DataCore. "Questa offerta di licenze NFR permetterà agli esperti di VMware di scoprire facilmente come l'elaborazione parallela porti alle infrastrutture iper-convergenti prestazioni elevate e come gli ambienti VMware possano godere di enormi benefici grazie al software DataCore Hyper-converged Virtual SAN."

La potente tecnologia Parallel I/O di DataCore aiuta a incrementare le prestazioni delle applicazioni aziendali di primo livello per una maggiore produttività, oltre a migliorare il consolidamento dell'infrastruttura gestendo quantità maggiori di carichi di lavoro e offrendo i tempi di risposta più rapidi al costo più basso. Sfruttando la sua tecnologia Parallel I/O, DataCore ha fatto registrare nuovi livelli prestazionali e di rapporto prezzo-prestazioni per le soluzioni iper-convergenti e di storage utilizzando uno dei più prestigiosi benchmark del settore: l'SPC-1[1] dello Storage Performance Council. Maggiori dettagli sono disponibili all'indirizzo https://www.datacore.com/products/datacore-hyper-converged-virtual-san

Le licenze NFR sono disponibili gratuitamente per gli esperti qualificati e possono essere ottenute registrandosi all'indirizzo http://info.datacore.com/free-NFR-VMware-Professionals. Queste licenze possono essere utilizzate esclusivamente in attività non di produzione.

I VVol Universali di seconda generazione 
DataCore Hyper-converged Virtual SAN comprende anche il supporto alle ultime evoluzioni dei Virtual Volume (VVol) universali di vSphere. L'implementazione di DataCore dei VVol crea una piattaforma di servizi di storage che unifica le risorse per lo storage dei dati - indipendentemente dal fatto che siano SAN, convergenti, iper-convergenti o cloud - e funziona su un'ampia gamma di soluzioni di altri vendor e su tutte le tipologie di storage (sottosistemi a disco, batterie flash/SSD, DAS e così via).

I VVol universali DataCore aggiungono la capacità di offrire un control plane universale che consente di configurare e gestire facilmente le policy di storage basato su macchine virtuali in un mix di investimenti infrastrutturali in storage nuovo ed esistente di uno o di numerosi vendor, anche se non certificati VVol. Questo migliora l'efficienza operativa attraverso una piattaforma unificata per la gestione e le policy, in cui i servizi dati e le richieste riguardanti i livelli di servizio delle prestazioni vengono disaccoppiati da qualunque carenza sottostante.

Informazioni su DataCore
DataCore è l'azienda leader nel Software-Defined Storage e nel Software per l'I/O Parallelo Adattativo, in grado di sfruttare le potenti e convenienti piattaforme server moderne per risolvere il più importante problema dello storage: i colli di bottiglia nelle fasi di I/O. Maggiori informazioni sono disponibili all'indirizzo http://www.datacore.com.

giovedì 29 settembre 2016

Storage alla velocità della luce grazie al software di DataCore

http://www.ictbusiness.it/cont/news/storage-alla-velocita-della-luce-grazie-al-software-di-datacore/37318/1.html#.V3CN6PkrJD8

Una soluzione San server a due nodi con mirroring sincrono su Fibre Channel e con software SanSymphony ha superato la concorrenza in velocità e rapporto prezzo/prestazioni. DataCore continua a puntare sulla tecnologia Parallel I/O, oltre a coltivare gli accordi con i produttori di hardware.


In diciotto anni di attività, la missione di DataCore è rimasta la medesima: quella di creare un’architettura dinamica e guidata dal software, sfruttando i vantaggi della virtualizzazione applicati allo storage. A essere cambiati sono i numeri che descrivono le prestazioni rese possibili da tale architettura, oltre che i numeri del mercato. Oggi l’azienda guidata dal cofondatore e Ceo,George Teixeira, può vantare un nuovo record di rapporto prezzo/prestazioni su una diversa configurazione di hardware associato al suo software di virtualizzazione dello storage, SanSymphony, e alla tecnologia di calcolo parallelo Adaptive Parallel I/O.
Come già raccontato da Teixeira qualche mese fa e ribadito – numeri alla mano – nella sua trasferta italiana di questa settimana, con Parallel I/O si elimina uno dei principali problemi che vanificano la potenza teorica degli attuali server multi-core: i colli di bottiglia. Disporre di server potenti e multi-core senza associarli alla virtualizzazione del software “è come se si guidasse una Ferrari utilizzando un solo cilindro del motore”, esemplifica il Ceo, spiegando poi che il parallel I/O non è una novità di oggi, ma in passato per sfruttare questa tecnologia era necessaria una complessa e specifica programmazione. “Come possiamo, noi di DataCore, essere più veloci di tutti? Usiamo i motori commodity che tutti hanno, cioè i server, ma che non utilizzano al pieno del potenziale”.  Le destinazioni del parallel server sono in particolare tre: i database enterprise (chiunque utilizzi sistemi Oracle, Sql, Sap e applicazioni in-memory), i sistemi di analytics, Big Data e Business Intelligence (Microsoft Sql Server, Hortonworks, eccetera) e il cloud enterprise.
Il nuovo record a cui si accennava è stato raggiunto con utilizzando il più famoso benchmark per lo storage, l’Spc-1 dello Storage Performance Council, solitamente usato per valutare i sistemi destinati a carichi di lavoro di tipo database enterprise. La misurazione ha messo a confronto alcuni sistemi di storage esterno di alto livello (di Huawei, Ibm, Hitachi, Kaminario e altri) con alcune soluzioni di DataCore, esaminando sia i tempi di risposta sia il rapporto prezzo/prestazioni.
Ebbene, il sistema OceanStor 18800V3 di Huawei è stato scalzato dal primo posto, dove svetta invece una soluzione San server a due nodi, con mirroring sincrono su Fibre Channel e software SanSymphony installato. I server utilizzati sono di Lenovo ma a fare la differenza è il software di I/O parallelo di DataCore, grazie al quale sono stati registrati i tempi di risposta più veloci di sempre: 0,22 millisecondi. Tempi inferiori a quelli garantiti da batterie completamente basate su tecnologia flash o da macchine che costano milioni di dollari. Per esempio, per il sistema Huawei OceanStor e per Hitachi Vsp si possono spendere anche due milioni di dollari, mentre la soluzione DataCore richiede un quarto della spesa.
Il rapporto prezzo/prestazioni è di 10 centesimi di dollaro per Iops, appena superiore agli otto centesimi garantiti da una configurazione a nodo singolo su cui era stato eseguito un precedente benchmark. Va inoltre sottolineato l’ulteriore vantaggio dello scarso spazio occupato, una piccola frazione (12U) di armadio, e dunque di consumi energetici molto ridotti se confrontati con quelle di soluzioni di storage estese su metri quadrati di superficie.
DataCore guarda già oltre, avendo messo a punto un nuovo software di I/O parallelo ottimizzato per i server, attualmente in fase di valutazione da parte di alcuni Oem e con lancio previsto durante l’estate. Numero più, numero meno, lo scenario generale è quello di un’ascesa dell’importanza del software, che diventa il vero fattore differenziante per chi intende elevare le prestazioni oppure ridurre i costi dello storage. Ma non solo: “Quest’anno il parallel processing cambierà le regole del gioco, andando oltre lo storage”, ha affermato Teixeira. A suo dire questa tecnologia, insieme alla virtualizzazione, permetterà di trasformare piattaforme di calcolo standard in sistemi capaci di reggere applicazioni che fanno un uso intensivo di I/O e che sono sensibili ai tempi di latenza.
Di fronte al potere del software, la scelta dell’oggetto fisico non smette di avere una sua importanza.“Siamo software-defined al duecento per cento”, rimarca Rèmi Bargoing, country manager per la filiale italiana, inaugurata due anni fa. “Per il Parallel I/O, però, sono importanti le collaborazioni in ambito hardware”. In primo piano c’è quella con Lenovo, non a caso scelta per realizzare entrambi i benchmark (sulla configurazione a uno e a due nodi). “Negli ultimi mesi”, aggiunge il country manager, “abbiamo lavorato con loro per definire una strategia congiunta e oggi le cose procedono bene. L’obiettivo è quello di continuare a spingere SanSymphony ma anche di aprire delle nuove porte per il Parallel I/O”.
Sebbene il software di DataCore sia destinato a restare hardware-agnostico, l’azienda continuerà a collaborare con alcuni Oem per definire delle configurazioni ottimizzate da proporre ai clienti. Una di queste partnership è già in cantiere e verrà annunciata più avanti nel corso dell’anno. Il modello di vendita indiretto sta funzionando, oltre a essere la migliore alternativa praticabile. “Siamo ancora troppo piccoli per proporci in modo diretto”, ammette Teixeira. “Ma tutte le grandi aziende, tutti i grandi produttori di server ora ci contattano. E il motivo è il Parallel I/O”.
In Italia, DataCore conta oggi 380 clienti attivi (fra cui spiccano conquiste recenti come Armani, Monclair e Atm, l’Azienda Trasporti Milanesi) e si appoggia a tre distributori (Avnet, Ready Informatica e Icos).  Vanta, inoltre, 75 rivenditori attivi e ha realizzato design certificati con i maggiori produttori di hardware come Cisco, Lenovo, Dell, Fujitsu e Super Micro. “I nostri competitor sui grandi progetti rimangono Emc, NetApp, Ibm, Dell”, spiega Bargoing,  precisando poi che “questi grandi vendor, che prima rappresentavano per noi la concorrenza, oggi si sono accorti che non c’è scelta: il mercato va in questa direzione”.
 In diciotto anni di presenza sul mercato, l’azienda pioniera della virtualizzazione dello storage è arrivata a possedere oltre diecimila clienti nel mondo, più di 30mila installazioni (di cui cinquemila aggiuntesi negli ultimi sette mesi) su server, storage e networking. Il 70% del giro d’affari è generato in Europa, con il mercato tedesco a fare da traino.

giovedì 14 luglio 2016

01net: 4 parametri per valutare le performance dello storage

http://www.01net.it/i-4-parametri-per-valutare-le-performance-dello-storage/

George Teixeira è un manager di lunga esperienza nel settore dello storage enterprise. Da anni è a capo di Datacore Software e in qualità di Ceo con passione porta in giro per il mondo il proprio credo relativo alle performance dello storage. Affabile e paziente, si mette a disposizione di chi ha di fronte per capire quali sono i dubbi e per chiarli. Noi ne abbiamo approfittato anche stavolta e gli abbiamo posto tre questioni: come si fa a capire se lo storage di cui si dispone è adeguato al proprio business; quali sono i parametri per misurare le performance; cosa si deve fare per arrivare ad avere uno storage performante. Ecco cosa ci ha risposto.

Indichiamo ai CIO italiani quali sono i fattori tecnici da considerare per capire se il proprio storage è sufficiente per il proprio business?

La velocità con cui oggi si lavora sta trasformando il datacenter, e la pressione per far fronte al cambiamento e alla crescita non è mai stata così forte. Per rispondere alle esigenze dei clienti, le aziende si trovano sempre più spesso davanti alla sfida di erogare su richiesta applicazioni e servizi It.
Tra gli elementi chiave da considerare ci sono la flessibilità software per rispondere al cambiamento e proteggere gli investimenti già realizzati; le prestazioni che garantiscano il rispetto degli accordi sul livello di servizio e velocizzino le decisioni e le transazioni indispensabili a gestire le applicazioni aziendali e quelle di primo livello; la necessità di offrire modalità semplici ed efficaci per gestire la diversità di modelli e dispositivi di storage oggi disponibili sul mercato: e l’esigenza di fornire le funzionalità necessarie ad automatizzare e proteggere una risorsa aziendale critica: i dati.


Prima di tutto penso sia importante capire che a definire l’infrastruttura di storage sono il software e le applicazioni aziendali: la maggior parte dei CIO pensa ancora troppo a dispositivi hardware proprietari o a specifici marchi invece che all’agilità del software. Il Software-defined Storage e i server di marca pre-configurati dai principali fornitori permettono di ottenere una flessibilità molto superiore nella realizzazione di infrastrutture di storage capaci di scalare e di rispondere ai cambiamenti e alle future esigenze.
Per molte organizzazioni lo storage è implementato con differenti approcci e diversi modelli (per esempio SAN Block, NAS File, Object), fornitori, strumenti e software di gestione; in più bisogna cercare di capirne l’insieme di batterie All-flash, sistemi iper-convergenti e storage Cloud. Anche le tipologie di informazione stanno cambiando, con dati strutturati e non, database orientati alle transazioni, big data e l’Internet of Things.

Secondo, quando si parla di prestazioni non si fa più riferimento solo alle transazioni, ma anche alla velocità con cui i sistemi possono rispondere: troppo spesso è lo storage il collo di bottiglia per il progresso.

Terzo, lo storage non significa più solo batterie di dischi stand-alone, ma l’insieme dei dati aziendali e la loro gestione attraverso reti e combinazioni di dispositivi, batterie, server e anche memorie. Il problema è che la maggior parte dei fornitori offre una soluzione diversa per ciascuna di queste tipologie, mentre un CIO vuole semplicità e gestione comune per evitare i molti “silo”, i costi di gestione e l’esperienza necessari per tenere il passo con tutte queste diverse soluzioni specializzate.
Tutti questi elementi portano a complessità e costi elevati, evidenziando i motivi per cui il Software-defined Storage sta diventando popolare.

Il vantaggio principale è quello di mettere a disposizione una soluzione flessibile basata sul software che può essere aggiunta con facilità a qualunque ambiente senza dover “rottamare” l’infrastruttura esistente.

E infine, ma non meno importante, la flessibilità nella protezione dei dati è critica: la capacità di proteggere i dati non solo localmente, ma anche in altre città o replicati in siti remoti su sistemi diversi, è essenziale per garantire il disaster recovery. Quando si parla di soluzioni di storage, un’altra considerazione importante da fare riguarda il software capace di automatizzare e proteggere i dati offrendo disponibilità continua e accesso ai data store senza intervento umano.


Quali sono i parametri di valutazione per misurare la performance dello storage?

Ovviamente l’ideale è registrare le prestazioni nel mondo reale. In DataCore siamo molto focalizzati sulle prestazioni e siamo i leader mondiali nelle performance dello storage registrate tramite benchmark scientifici, indipendenti e certificati.
Parlando di prestazioni nel mondo reale è spesso difficile ottenere informazioni paragonabili. All’inizio di quest’anno, DataCore ha commissionato a TechValidate un’indagine indipendente realizzata su quasi 2.000 dei nostri 10.000 clienti attivi. Ciò che è emerso è che oltre il 79% di loro ha visto almeno triplicare le prestazioni (i risultati sono disponibili qui).

In termini di benchmark, ogni produttore fa quello che io chiamo benchmarketing, sottolineando i risultati di test creati internamente e finalizzati a mostrare le proprie prestazioni. I CIO dovrebbero essere cauti su questo tema. Almeno nello storage, infatti, c’è un benchmark riconosciuto valido dall’intero settore che è uguale per tutti, indipendente dai produttori e certificato con risultati pubblici, in modo che gli interessati possano riprodurne le condizioni.
Si tratta del benchmark SPC-1 dello Storage Performance Council, in cui DataCore è leader in tutti i parametri chiave per la misurazione delle prestazioni dello storage:
  1. Prestazioni più elevate in I/O per secondo
  2. Tempo di risposta più veloce/latenza più bassa
  3. Miglior rapporto prezzo/prestazioni
  4. Prestazioni elevate negli ingombri più contenuti


Unendo le due cose, quali azioni vanno fatte, in quanto tempo e in che ordine, per arrivare a disporre di un sistema performante?

Bisognerebbe prima determinare quali sono le esigenze aziendali e valutare i costi e le sfide legati al supporto delle applicazioni critiche e del loro storage, valutando anche quale tipo di crescita e cambiamenti ci si aspetta di dover affrontare non solo entro un anno, ma anche in un orizzonte temporale di 3-5 anni.

Con queste informazioni si può passare a valutare le soluzioni di Software-defined Storage per assicurarsi che possano offrire non solo la necessaria flessibilità, ma anche che siano adatte a supportare gli investimenti già realizzati e che siano in grado di scalare per rispondere alle necessità legate alla crescita.

Dal punto di vista delle prestazioni, bisogna fare il proprio lavoro e chiedere delle referenze, fare delle valutazioni personali invece di credere ai risultati del “benchmarketing” e aprire la mente per esplorare nuove innovazioni come l’elaborazione parallela e i server multi-core che stanno rivoluzionando le prestazioni nel mondo dello storage.

È inutile comprare un altro box di storage dallo stesso tradizionale produttore che non comprende veramente il ruolo del software e di come questo stia ridefinendo il mondo dello storage.

martedì 5 luglio 2016

DataCore il nuovo software PSP5 è arrivato

DataCore SANsymphony-V PSP5 arriva con tante novità e ottimizzazioni gratuite integrate direttamente nell’aggiornamento.
 PSP5-001

Miglioramento:
Parallel I/O : si attiva automaticamente con l’aggiornamento. È dinamico secondo i bisogni
 PSP5-002

Performance

Scalabilità quasi perfetta e nuovo record dei tempi di risposta su sistemi a elevata disponibilità
Rispetto ai risultati ottenuti dal codice SANsymphony PSP4 sottoposto a benchmark solo sei mesi fa, i miglioramenti delle prestazioni di Parallel I/O ottenuti nei giorni scorsi con il codice di SANsymphony PSP5 nel test SPC-1 di elevata disponibilità sono decisamente significativi [2]. La precedente configurazione PSP4 a singolo nodo aveva ottenuto un tempo medio di risposta di 0,32 millisecondi con 459.290,87 SPC-1 IOPS™ e con il miglior rapporto prezzo/prestazioni del settore, pari a 0,08 dollari statunitensi per SPC-1 IOPS™ [1].

SANsymphony PSP5, nella configurazione a due nodi a elevata disponibilità con mirroring sincrono su Fibre Channel, ha addirittura abbassato il tempo medio di risposta di oltre il 30%, fino a 0,22 millisecondi, con una velocità di trasferimento dati più che doppia (1.201.961,83 SPC-1 IOPS™). Il rapporto prezzo/prestazioni è invece salito leggermente, a 0,10 dollari per SPC-1 IOPS™ [2], assicurandosi comunque il terzo posto nella relativa Top Ten di SPC-1 [3].

Tutto questo dovrebbe mettere fine alla convinzione che siano le latenze di Fibre Channel a rallentare le prestazioni della SAN,” ha aggiunto Aral. “Nella nostra esperienza è vero l’opposto. DataCore Parallel I/O velocizza qualunque cosa tocchi, comprese certamente le componenti di rete.

Miglioramento:
Aggiunta di tools di misura di performance concreti ed efficienti.
Ad esempio : Top 10 dei dischi più utilizzati. 
PSP5-003

Novità:
Previsione, analisi, trend secondo il consumo medio.

PSP5-004

Miglioramento:
Integrazione completa a SCVMM di Microsoft

PSP5-005

Novità:
Validazione del sistema Microsoft Windows Server 2016 come sistema cliente(host). Per quanto riguarda la parte sistema Datacore, bisognerà aspettare l’uscita ufficiale di Windows Server 2016 (adesso Technical Preview 5 uscito in Aprile 2016).

Novità:
Provisioning automatico dello storage da vCenter

PSP5-006

Novità:
Smart Deployment Wizard : setup automatico dell’architettura di DataCore in modo virtuale su ESXi.

PSP5-007

Miglioramento:
Ottimizzazione della qualità di servizio con dei limiti in Mb e/o IOPS dai gruppi vDisk (funzionalità disponibile solo tramite host, dalla PSP2).

PSP5-008
Novità:
Individuazione dei privilegi utilizzatori.

PSP5-009

Novità:
Datacore crea una nuova licenza, la licenza Bulk per i dati freddi (archivi…). Licenza Bulk = tutte le funzionalità Datacore eccetto il cache, Parallel IO e Random I/O

 PSP5-010


E ancora dei bug fixing, un miglioramento della velocità della console, ecc.

L’aggiornamento è gratuito, non esitate a consultare i nostri esperti Datacore per l’aggiornamento delle vostre infrastrutture.