terça-feira, 28 de maio de 2013

Dez erros típicos em projetos de virtualização de armazenamento

É na hora de implementar que as gordurinhas extras impedem que o projeto decole.

Sem um planejamento detalhado até os projetos de virtualização de armazenamento podem dar errado.

Em termos práticos, vale a pena considerar os seguintes pontos, também considerados erros clássicos em projetos de virtualização:
1. Na hora da contratação
É aconselhável uma sabatina completa do fornecedor sobre as atribuições e suas expectativas  de funcionalidade do sistema. É normal que ocorram erros de comunicação quando o assunto é a possibilidade de modificar os caminhos de acesso ao servidor de armazenamento por parte do servidor de aplicativos. O que a empresa contratante esquece ou deixa de observar nesse caso, é que determinados produtos têm tempos de resposta distintos quando recebem a mensagem da alteração no caminho de acessos.
2. Dimensionamento errôneo dos componentes de armazenamento
Outro erro absolutamente corriqueiro é não perguntar ao cliente sobre suas necessidades de tráfego de dados de entrada e saída. Tais informações são cruciais para definir a dimensão dos servidores de storage. A correta configuração desses servidores será composta por escolha de interfaces de rede, memória RAM etc. Por motivos de economia, algumas companhias optam por configurar os servidores com o mínimo aceitável de recursos. Um planejamento cauteloso prevê a configuração de um servidor de backup, capaz de reagir à requisição e responder em casos de desastres sem perturbar a dinâmica da rede.
3. Acertar o cronograma para migração das bases de dados
O pouco tempo dedicado ao diálogo com o fornacedor sobre esse processo de transferência de dados de um servidor para o outro pode ocasionar atrasos no funcionamento da plataforma virtualizada.
4. Backup, Backup e mais Backup
Deixar de conversar detalhadamente sobre as rotinas de backup e ensaios para eventuais recuperações de desastres é o quarto – e um dos mais comuns – erros nas tratativas com o fornecedor de soluções para virtualização de storage.
5. Conhece o teu hardware como a ti mesmo
Saber de cor e salteado todas as informações de compatibilidade entre o hardware em uso na estrutura é crucial.
6. invista em planejamento
Não raramente, o planejamento é dispensado por influenciar demais no preço da solução. Assim, informações importantes acerca da arquitetura, de funções e a descrição completa da dinâmica acabam faltando. Também são descritos em um plano minucioso o volume total de dados a ser transferido, um diagrama da rede, uma lista com os arquivos de sistema e um cronograma.
7. Zoneamento
É uma tática que pode custar um pouco mais. Ainda assim é a melhor maneira de garantir que servidores de aplicativo não interfiram um no desempenho do outro. É recomendado que os switches sejam distribuídos com vistas a atender o zoneamento de 1:1.
8. Testes, ensaios & Cia
Não existe testar demais. Da mesma forma, documentação nunca é dispensável. Tanto os ensaios quanto as informações que guarnecem soluções diferentes, devem ser absorvidos pela companhia e atualizados constantemente. Essas informações são importantes na hora de eventual reconstrução de ambientes ou de integração de novos componentes.
9. Manutenção
Parece esquecida junto com o monitoramento. Paradoxal, se entendermos que a função desses sistemas é crítica. As rotinas de verificação das funções e o estado do sistema devem ser examinadas constantemente e não devem ser relegados a segundo plano em função de falta de tempo ou da interrupção dos sistemas de alta disponibilidade.
10. Capacitação
Não se iluda. O fato da falta de capacitação estar no final dessa lista serve para lembrá-lo que todos os fatores anteriores são evitáveis se os profissionais forem apropriadamente capacitados para dar conta da administração do sistema virtualizado.

segunda-feira, 13 de maio de 2013

CIO: Armazenamento para a virtualização de aplicações críticas, a maior das dores de cabeça na hora de virtualizar


Quatro em cada dez profissionais de TI ressaltam que problemas de desempenho e o alto custo de armazenamento são as principais barreiras para a virtualização de aplicações críticas


A virtualização é uma tecnologia que já está presente de alguma forma na maioria das empresas. No entanto, se falamos de virtualizar aplicações críticas de negócios, a tendência muda drasticamente.
E são muitas as organizações que continuam a ver barreiras grandes e, muitas vezes  intransponíveis, para tomar este passo, segundo estudo recente da  DataCore Software , com 477 gestores internacionais de TI.
Segundo o estudo, 44% dos inquiridos dizem que os custos desproporcionais associados com o armazenamento são um "grande obstáculo" para virtualizar as cargas de trabalho.
Além disso, 42% dos entrevistados dizem o mesmo sobre a diminuição no desempenho ou falhas em atender às expectativas de desempenho.
Assim, o armazenamento atrasa a maioria dos projetos de virtualização. Isso inclui iniciativas relacionadas com o servidor e o desktop. Pouco mais de metade (52%) dos inquiridos diz que as contas de armazenamento comprometem  mais de 25% do orçamento de virtualização.
As organizações também não estão usando armazenamento em nuvem para atender suas necessidades de armazenamento. Oito em cada 10 dizem que não usam qualquer armazenamento em nuvem pública.
Por outro lado, e apesar da incrível atenção que a indústria está dando a discos de estado sólido, um em cada dois entrevistados diz ter em mente o uso de Flash/SSD para seus projetos de virtualização. Mas, ao responderem sobre que tipo de armazenamento está sendo utilizado hoje em seu ambiente, disse já estar empregando  Flash/SSD.
Além disso, os orçamentos de armazenamento de TI estão proporcionalmente menores se compararmos 2013 com 2012. Mais de metade (51%) dos entrevistados diz que seu orçamento de armazenamento manteve-se estável, mas 20% dizem que seu orçamento foi reduzido, contra 14% em 2012. Enquanto 38% afirmaram que seu orçamento de armazenamento aumentou, em 2012, apenas 30% disseram o mesmo este ano.

quinta-feira, 2 de maio de 2013

Relatório de Pesquisa: a adoção da virtualização é desacelerado pelos altos custos de armazenamento e problemas de desempenho

DataCore Software divulgou os resultados de sua terceira pesquisa anual do estado de virtualização

Os resultados completos (em Inglês) estão disponíveis em: Terceira Pesquisa Anual do Estado de virtualização de DataCore Software

DataCore Software Study: Virtualization Hindered by High Storage Costs, Performance

segunda-feira, 29 de abril de 2013

Livro Branco: A virtualização de armazenamento e auto-tiering

Armazenamento Automático em Camadas 
Automated Storage Tiering
DataCore implementa auto-tiering software fora dos sistemas de armazenamento, em vez de a confinar a qualquer um deles. Não requer nenhum hardware especial. A mais recente tecnologia SSD pode estar lado a lado com seus antigos discos rígidos. SANsymphony-V assume o controlo dos mesmos com igual facilidade.


Whitepaper: A virtualização de armazenamento e Auto-tiering 


segunda-feira, 15 de abril de 2013

A virtualização de armazenamento está passando por uma gran transformação


Para saber mais de um hipervisor de armazenamento:

DataCore Software anuncia novas funcionalidades e um desempenho 50% mais rápido para o os aplicativos de nível 1 com o hipervisor de armazenamento SANsymphony-V R9


A virtualização de armazenamento está passando por uma gran transformação

É evidente que o grande sucesso de VMware y Microsoft Híper demonstram que a virtualização dos servidores oferecem um valor convincente. Da mesma forma que a armazenagem hipervisor e a virtualização a nível de armazenamento, são fundamentais para desbloquear as cadeias do hardware que foram uma âncora para a armazenagem da próxima geração dos centros de datos.

A definição da arquitectura do software de armazenagem  cria a necessidade de um hipervisor de armazenagem

O mesmo pensamento que mudou nossos pontos de vista sobre o provedor, é necessário para redireccionar a armazenagem; e o software inteligente é o catalisador. Em resumem, o papel principal do hipervisor de armazenagem é virtualizar os recursos de armazenagem para conseguir os mesmos benefícios - agilidade, eficiência e flexibilidade – características que proporcionam a tecnologia do híper visor aos processadores e memorias.

Agora, o software pegará seu correcto lugar na mesa e começarão a transformar nossa visão sobre a armazenagem. 

O objectivo final: Uma melhor experiencia através da aplicação definida pelo software de armazenagem.

A virtualização mudou a informática e as aplicações que dependemos para administrar os nossos negócios. Ainda assim, o armazenamento empresarial e a nuvem estão dominados pela mentalidade física, e definidos pelo hardware. Temos que mudar nossa forma de pensar e considerar como a armazenagem afecta a experiência da aplicação e ver como a armazenagem definida pelo software, com serviços de armazenagem e características disponíveis para toda empresa e não só incrustado em um dispositivo de hardware central.

Porquê comprar um hardware específico somente para obter a função de um software? Porquê limitar uma função a uma única plataforma frente ao seu uso em toda empresa? Esse é um pensamento antigo, anterior a virtualização, assim é como a industria de servidores funcionava. Hoje em dia, com VMware o Hyper-V, pensamos em como desdobrar as máquinas virtuais versus "se estão executando em um sistema Dell, HP, Intel o IBM?"

A armazenagem está passando por uma transformação similar, no próximo ano, será o software inteligente a qual liderará a industria hacia sua evolução, que estará definida mundialmente pelo software.

George Teixeira é CEO e presidente de DataCore Software. A companhia de software que actua como plataforma de infra-estrutura para solucionar o grande problema do estancamento da armazenagem, mediante a eliminação das iniciativas da armazenagem relacionadas com as barreiras que fazem da virtualização um processo difícil e caro.

sexta-feira, 5 de abril de 2013

DataCore Software: Dez razões e motivos para que uma empresa adopte a Virtualização de Armazenamento


1. Redução de custos
A Virtualização de Armazenamento é a tecnologia chave para fazer um uso mais eficaz dos recursos disponíveis que permitem guardar informação. A funcionalidade Thin Provisioning faz da pré-localização da capacidade de guardar informação, uma coisa do passado. A Uhlmann, por exemplo, teve uma taxa de retorno imediata logo na primeira fase de implementação desta tecnologia, ao permitir uma libertação da capacidade de armazenar informação, superior a 60%.
A Virtualização de Armazenamento permite fazer um uso mais eficaz do hardware existente, ao proteger o valor dos investimentos em equipamentos. A Schiesser, descobriu que era possível re-utilizar o hardware existente, o que significa uma poupança de 50% no capital investido. Já a Oertlinghaus, pode continuar a trabalhar com os seus storage arrays existentes, permitindo a implementação de uma solução genuína de alta disponibilidade baseada em VMware (dual path, dual storage) a um custo inferior ao orçamentado.
A Virtualização de Armazenamento é a única opção com eficácia para estabelecer uma verdadeira infraestrutura multi-plataforma. Por exemplo, o SANSymphony permitiu à AXA Seguros, criar uma infraestrutura com várias camadas (multi-tier), ligando HDS high-end storage systems com HDS mid-range systems. A AXA Seguros, recuperou o investimento no SANSymphony num curto espaço de tempo, economizando €1.5 milhões anualmente, em despesas de manutenção.

2. Simplicidade
O uso de software de Virtualização como interface central para a infraestrutura base de armazenamento pode reduzir drásticamente os custos de gestão e administração. Contudo, recorde que a consolidação dos recursos de armazenamento numa plataforma virtualizada só será eficaz com uma implementação a todos os níveis não dependente de hardware.
É de notar uma redução de pessoal técnico, até por empresas com volumes superiores a 100TB, onde só é necessário um administrador e um helpdesk. A tecnologia de Virtualização de Armazenamento abre caminho para uma verdadeira abordagem integral da gestão de armazenamento. Assim que o sistema esteja estabelecido, a tecnologia assegura a uniformidade de todas as operações de armazenamento e uma administração standardizada. Esta realidade faz com que não seja necessário a contratação de especialistas qualificados e formação especial para todas as novas plataformas.

3. Aumento de Flexibilidade
Assim que o software de virtualização é instalado em qualquer servidor – processo simples de rotina – pode utilizar uma mistura de vários protocolos de armazenamento - FC, SCSI, SAS e SATA. Desta forma, deixa de ficar “amarrado” a qualquer marca ou tecnologia em particular, permitindo-lhe ainda configurar ambientes de teste e produção em poucos minutos.
Também beneficia de uma ampla escolha de possibilidades quando se trata de substituição de componentes e actualizações.
Todos os sistemas têm a mesma aparência. Para a PAPSTAR, passou a ser possível agrupar os requisitos de armazenamento de software de engenharia em poucos minutos.

4. Monitorização e Análise transparentes
As soluções avançadas de Virtualização de Armazenamento estão localizadas no data path (inband), permitindo a monitorização e análise de todas as operações de escrita/leitura. O sistema inclui ferramentas de relatórios e análise para a documentação de toda a insfraestrutura de armazenamento, administração e facturação interna e externa. Isto permite a localização simples e imediata dos possíveis estrangulamentos de desempenho e a identificação das áreas onde se está a produzir um aumento considerável de dados. A análise do histórico dos dados, fornece uma base sólida para a tomada de decisões e como classificar os problemas.

5. Testes mais fáceis
A experiência ganha através de vários testes e instalações de ensaio, dão-nos orientações valiosas para situações de emergência. Testes em ambientes de produção podem ser configurados em ambientes virtuais num ápice. A Virtualização de Servidores no Schwabing Hospital em Munique, por exemplo, permitiu a criação de um servidor de testes, incluindo armazenamento, em menos de 30 minutos. Esse mesmo sistema pode depois passar a produção com especificações pré-definidas e subsequentemente deslocadas para as plataformas de hardware necessárias.

6. Optimização dos processos de negócio
A correcta implementação de um sistema de armazenamento, favorece todos os processos das TI e o seu negócio, através da alta disponibilidade, segurança e aplicações focadas para o desempenho, sempre que o software de virtualização seja executado nos servidores de domínio do armazenamento e utilize as funcionalidades da cache. Nesta situação, a Virtualização de armazenamento e de servidores complementam-se de uma forma extremamente eficaz, sem um acréscimo significativo em termos de custos de staff. A empresa municipal Augsburg Stadtwerke conseguiu triplicar a sua capcidade de desempenho através de uma configuração simples de controladores paralelos.

7. Armazenamento em camadas (Tiers)
Por razões de segurança e desempenho, o armazenamento necessita de uma rede independente. As soluções de hoje em dia permitem o uso das tecnologias em modo hibrído, de acordo com as suas necessidades. As plataformas de Virtualização oferecem conectividade universal, fornecimento global, soluções à prova de falha de todas as operações de negócio, desde o nível de aplicações até ao armazenamento, independentemente dos protocolos (FC, iSCSI, ambientes mistos) e níveis de serviço.

8. Funções escaláveis de armazenamento
Com o mirroring síncrono ou asíncrono a Virtualização permite à arquitectura de dados uma total redundância. O mirroring pode ser executado através de diferentes redes (iSCSI, FC, ou hibrída). Uma plataforma de armazenamento consolidada, fornece muitas opções de implementação. Quando a Virtualização é utilizada de uma forma centralizada, o thin provisioning e outras funções automatizadas, fornecem as bases essenciais para as funções de armazenamento, backup de dados e replicação, backup de datacenters e procedimentos de testes.

9. Migração de dados bem sucedida
Esta tecnologia inclui poderosas ferramentas para uma completa e ininterrupta migração de dados de ou para a plataforma de Virtualização, eliminando as necessidades de consumo de tempo e custos associados à migração dos dados.
A infraestrutura virtualizada significa que qualquer migração (qualquer OS para qualquer meio de armazenamento) pode ser concluída rápida e eficientemente, mesmo através de grandes distâncias.
A Degussa AG, utilizou esta função com um enorme sucesso, ao trocar toda a sua infraestrutura de hardware, sem downtime.

10. Capacidade CDP
Os serviços adicionais de Virtualização para CDP (Continuous Data Protection) também estão incluídos. Este serviço, elimina praticamente todos os problemas mais frequentes de operações de recuperação de dados, desde que a tecnologia permita ter qualquer volume de dados imediatamente disponível. A protecção de conteúdos também podem ser fornecidos juntamente a protecção física de dados. Isto faz com que os processos de backup de dados e recuperação sejam muito mais rápidos em ambientes de armazenamento consolidado.

domingo, 31 de março de 2013

El almacenamiento basado en software cambiará los Data Centers y la arquitectura del software de almacenamiento crea la necesidad de un hipervisor de almacenamiento

El almacenamiento basado en software cambiará los Data Centers.Las tecnologías Flash y la virtualización de aplicaciones de nivel uno están agitando el mundo corporativo.

Las tecnologías Flash y la virtualización de aplicaciones de nivel uno están agitando el mundo corporativo. Por George Teixeira, Presidente y CEO de DataCore Software.
Ya hemos visto los primeros pasos en un intento de definir las arquitecturas del software de almacenamiento. Esto ha provocado una serie de tendencias cruciales que están remodelando y que tienen un impacto importante en el mundo de almacenamiento empresarial, preparando el escenario del año 2013 para que se convierta en el año en el cual el almacenamiento basado en software cambiara los Datacenters.
El cambio de hardware hacia un modelo basado en un software de virtualización, apoya las misiones cruciales de las aplicaciones del negocio que han cambiado la creación de la arquitectura de los ordenadores, redes y de los niveles de almacenamiento, pasando de ser “estáticas” a “dinámicas”. El Software define las bases de agilidad, interacción de los usuarios y la construcción de una infraestructura virtual a largo término, que se adapta a los cambios. El objetivo final es incrementar la productividad del usuario y mejorar la experiencia de la aplicación.
 
Tendencia #1: Las aplicaciones nivel 1 se virtualizán y el rendimiento es crucial
Los esfuerzos para virtualizar aún más el data center continúan y veremos un aumento aún mayor de la movilización de las aplicaciones de nivel 1 (ERP, databases, sistemas de e-mail, OLTP etc.) hacia las plataformas de virtualización. Los factores claves que impulsarán este cambio son los económicos, así como la obtención de una mejor productividad.
Sin embargo, los obstáculos principales para la virtualización de aplicaciones de nivel 1 están en gran medida relacionados con el almacenamiento.
Trasladar el almacenamiento intensivo de las cargas de trabajo a máquinas virtuales (VMs) puede ser de gran impacto para el rendimiento y la disponibilidad. Por lo tanto, el almacenamiento debe ser sobre-abastecido y de gran tamaño. Además, a medida que el negocio se consolida en las plataformas virtuales, deben gastar más para alcanzar los altos niveles de redundancia y continuidad del negocio; sin contar las preocupaciones relacionadas con el rendimiento y los cuellos de botella.
Los altos costes y la complejidad de sobredimensión eliminan los beneficios y ponen el almacenamiento en un bucle sin salida. Con estos puntos en mente, las empresas y los departamentos IT buscan un enfoque más inteligente, con unos costes más rentables, al darse cuenta de que añadir “más hardware al problema” no es la solución más práctica.
Tendencia #2: Las tecnologías SSD flash serán utilizadas en cualquier parte, el almacenamiento no es solo los dispositivos de disco
Otra gran tendencia relacionada con la virtualización de aplicaciones de nivel 1 es la proliferación de tecnologías basadas en SSD flash. La razón es simple, los discos de almacenamiento son dispositivos mecánicos de rotación y no tan agiles como aquellos basados en memorias electrónicas de alta velocidad.
Las memorias flash han estado a nuestro alrededor durante años, al principio eran una solución demasiado cara para su adopción. Aunque son más costosas que la rotación de los dispositivos hardware, su uso masivo en tabletas y teléfonos móviles están conduciendo su precio a la baja. Incluso así, la tecnología flash se desgasta, y un uso continuado de aplicaciones que se reescriben continuamente pueden impactar en su vida útil.
Sí, los dispositivos flash son una parte inevitable de nuestro futuro y necesitan ser incorporados en nuestra visión de arquitectura futura. La economía nos conduce a un mundo que requiere diferentes niveles de almacenamiento, basados en memorias menos caras y hacia discos menos lentos. Esto, a su vez, aumenta la demanda de las empresas en cuanto a la utilización de un software de auto-tiering, capaz de optimizar el rendimiento a un precio atractivo a través del traslado de los datos con una solución de nivel más rentable, que proporcione a la vez un rendimiento aceptable.
Tendencia #3: Más almacenamiento requiere más automatización
Hay una demanda constante e insaciable que requiere más capacidad de almacenamiento de datos, esta demanda sigue creciendo más del 50 por ciento anual. Sin embargo, la necesidad no se centra únicamente en más disco hardware para satisfacer la capacidad bruta. En su lugar, los usuarios quieren automatización, gestión automática del almacenamiento, escalabilidad, rápido aprovisionamiento, gran rendimiento, y los más altos niveles de continuidad del negocio.
Una vez más, se necesita un “software inteligente” para simplificar y automatizar la gestión del almacenamiento.
Tendencia #4: La definición de la arquitectura del software de almacenamiento importará más que el hardware
Estas tendencias – y mejoras TI para los usuarios, hacen que el almacenamiento hardware sea intercambiable con infraestructuras virtuales – tendremos un impacto profundo acerca de cómo pensamos, compramos y utilizamos el almacenamiento. En el 2013 y adelante, las tecnologías TI necesitarán incorporar el software de almacenamiento definitivamente como un elemento esencial de los data centers.
Debido a que los usuarios TI de las compañías actuales están acostumbrados a la rapidez y dinamismo de la sociedad actual, no pueden verse atrapados en arquitecturas rígidas de hardware por cable. La infraestructura se construye sobre tres pilares: computación, redes y almacenamiento – y en cada una de ellas, las decisiones relacionadas con el hardware serán secundarias y vendrán dictadas por el software e impulsadas por las aplicaciones.
Es evidente que el gran éxito de VMware y Microsoft Hyper-V demuestra que la virtualización de servidores ofrece uno valor convincente. Del mismo modo que el almacenamiento hipervisor y la virtualización a nivel de almacenamiento, son fundamentales para desbloquear las cadenas del hardware que han sido un ancla para el almacenamiento de la próxima generación de centros de datos.
Tendencia #5: La definición de la arquitectura del software de almacenamiento crea la necesidad de un hipervisor de almacenamiento
El mismo pensamiento que cambió nuestros puntos de vista sobre el servidor, es necesario para reedireccionar el almacenamiento; y el software inteligente es el catalizador. En resumen, el papel principal del hipervisor de almacenamiento es virtualizar los recursos de almacenamiento para lograr los mismos beneficios - agilidad, eficiencia y flexibilidad – características que ha proporcionado la tecnología del hipervisor a los procesadores y memorias.
Este año, el software cogerá su asiento correcto en la mesa y empezará a transformar nuestra visión sobre el almacenamiento.
El objetivo final: Una mejor experiencia a través de la aplicación definida por el software de almacenamiento
La virtualización ha cambiado la informática y las aplicaciones que dependemos para administrar a nuestros negocios. Aún así, el almacenamiento empresarial y la nube están dominados por la mentalidad física, y definida por el hardware. Tenemos que cambiar nuestra forma de pensar y considerar cómo el almacenamiento afecta a la experiencia de la aplicación y ver cómo el almacenamiento definido por el software, con servicios de almacenamiento y características disponibles para toda la empresa y no sólo incrustado en un dispositivo de hardware central.
¿Por qué comprar un hardware específico sólo para obtener la función de un software? ¿Por qué limitar una función a una única plataforma frente a su uso en toda la empresa? Este es el pensamiento antiguo, anterior a la virtualización, así es como la industria de servidores funcionado. Hoy en día, con VMware o Hyper-V, pensamos en cómo desplegar máquinas virtuales versus "se están ejecutando en un sistema Dell, HP, Intel o IBM?"
El almacenamiento está pasando por una transformación similar, y en el próximo año, será el software inteligente el que liderará la industria hacia su evolución, que estará definida mundialmente por el software.
George Teixeira es CEO y presidente de DataCore Software. La compañía de software que actúa como plataforma de infraestructura para solucionar el gran problema del estancamiento del almacenamiento, mediante la eliminación de las iniciativas de almacenamiento relacionadas con las barreras que hacen de la virtualización un proceso difícil y caro.

sexta-feira, 8 de março de 2013

DataCore Software um desempenho 50% mais rápido para o os aplicativos de nível 1 Oracle, Microsoft SQL, SharePoint, Exchange, SAP e VDI com o hipervisor para virtualização de armazenamento SANsymphony-V R9

DataCore Software, líder em virtualização de armazenamento, anuncia melhorias importantes no armazenamento do hipervisor SANsymphony ™ - V. O novos recursos chegam em um momento crítico em que as reacções dos CIOs, ante uma extraordinária inundação de dados, juntamente com a necessidade de fazer com que o tempo de resposta das aplicações críticas do negócios devem ser rápidas e continuamente disponíveis, feito decisivo para empresas líderes.

 
"A coisa mais importante para um negócio é a capacidade de competir, por isso oferecemos aos usuários, como um líder na indústria, experiência com a velocidade e disponibilidade constante das aplicações, para garantir a melhor produtividade possível," explica George Teixeira, presidente e CEO da DataCore Software. "Os clientes querem obter claros resultados das suas aplicações de nível 1 e das suas infra-estrutura. "Assim se eles usam SAP, Oracle,Microsoft SQL, SharePoint, Exchange ou VDI, irão perceber rapidamente que o SANsymphony-V maximiza o desempenho como nenhuma outra tecnologia, proporcionando-lhes uma vantagem clara para os negócios."

Algumas das vantagens do novo SANsymphony-V R9:
Desempenho mais rápido e mais previsível: 50% mais rápido, optimizado para flash
A falta de rendimento ou o excesso de oferta devido as demandas imprevisíveis, são os maiores problemas que aumentam o custo do hardware, devido que o problema não têm uma solução ideal ou sustentável. O SANsymphony-V maximiza os recursos existentes enquanto incorpora as últimas tecnologias como, flash ou disco de estado sólido (SSD) a um preço acessível. O Software adiciona uma série de novas funcionalidades ao seu algoritmo de virtualização de armazenamento, destinado as aplicações de missão crítica, produzindo aproximadamente um vinte por cento mais rápidos (IOPS) e melhorando o desempenho (Megabytes por segundo) que as versões anteriores. Estas melhorias, junto com múltiplos desenvolvimentos especiais de vários segmentos, aperfeiçoam o paralelismo dos processos I/Os com uma resposta cinqüenta por cento mais rápidas para cargas de trabalho transacionais. De igual importância, é o fato de que os pontos altos de desempenho são "suavizados" para que os tempos de resposta do aplicativo sejam mais previsíveis, como resultado, os usuários se beneficiam de uma curva crescente de desempenho linear com a adição de memória flash ou o SSD mais recente.

Uso do desempenho e armazenamento - novas opções de Tuning e TroubleShotting
DataCore oferece um extenso conjunto de ferramentas de gestão, incluindo os "heat maps" para otimizar o desempenho e garantir um custo rentável da hierarquia do conjunto dos níveis de armazenamento. O novo SANsymphony-V inclui a opção de executar analises das tendências ao vivo, com uma ferramenta de gravação que colecta e mostra um diagrama com as medidas do ambiente. As cargas de trabalho ou gargalos potenciais podem ser redirecionadas facilmente. O histórico pode ser exportado em formato CSV para uma completa análise posterior ou para executar o planejamento com Microsoft Excel ou outras ferramentas.
 
Empresa e Escalabilidade Cloud X 8
Como os dados aumentam a capacidade de escalar facilmente o desempenho e também a capacidade; uma necessidade crítica é medir variáveis desconhecidas durante o início do projeto. DataCore ™ proporciona a liberdade de escolher e definir nodos de baixo custo, e com as melhorias do SANsymphony-V, o número máximo de nodos de virtualização de armazenamento em um grupo de gerenciamento dobrou de quatro a oito. Isto permite aos data centers de longa escala e provedores de serviços de cloud expandir de forma ininterrupta para nodos adicionais, aumentando capacidade, desempenho e conectividade. A maioria dos clientes que gerenciam os recursos na faixa de petabyte configuram DataCore software no nível 1 de redundância para obter disponibilidade contínua, reduzindo os custos de redundância.


Perfromance Recording

Controle personalizado para um melhor uso dos recursos e o ambiente de armazenamento de Tiering
Cada ambiente é diferente, é por isso que um melhor controle permite uma optimização adicional, aumentando custos e desempenho. Os perfis de armazenamento de discos virtuais podem ser personalizados para controlar como as políticas dinâmicas (prioritárias), as funcionalidades de auto-organização em níveis de capacidade de auto-tiering, a replicação remota e recuperação do espelho síncrono. Estes perfis personalizados complementam as políticas de padrão integradas no software. Os discos virtuais podem ser configurados dependendo do seu nível de importância: crítica, elevada, normal, baixa ou arquivos que devem ser controlados pelo seu volume e prioridade quando competem entre eles pelos recursos compartilhados. Isso garante vantagens importantes para às aplicações de cara ao uso dos recursos mais valiosos tais como memória, flash e SSDs. Com menos exigências, menor custo e maior densidade de armazenamento.

Rápido "desfazer", proteção continuada e simples dos dados, restauração rápida das aplicações críticas
As aplicações críticas de negócios precisam ser instaladas e executadas imediatamente. Desde já, o SANsymphony-V oferece um excelente nível de proteção de dados contínua (CDP) e uma restauração instantânea. Além disso, as cópias de back-up convencionais noturnas, já não existem ou são difíceis de programar, portanto, a capacidade de fazer backups sem interrupções e torná-los quando o tempo é um benefício importante do negócios. O tempo de recuperação e funcionamento do registro de proteção contínua de dados aumentou de horas a duas semanas. Os administradores de sistema também podem retroceder a uma imagem do disco virtual, em qualquer ponto dentro de uma janela de 14 dias. Como resultado, a imagem inversa pode ser montada para recuperar determinados arquivos apagados acidentalmente, e/ ou o disco atual pode ser substituído com a imagem reversa completamente e desfazer as alterações que ocorreram após a infecção viral ou no início dos erros lógicos.

Nova plataforma Windows Server 2012
O SANsymphony-V apartir de agora é compatível com o sistema de operações Server 2012, além do sistema de servidor Windows 2008 R2. O hipervisor de armazenamento pode ser executado em servidores Windows físicos, dedicados a virtualização de vários hosts via SAN. Inclusive pode co-existir com os aplicativos virtuais hospedados no Microsoft Hyper-V 3.0 ou VMware vSphere 5. x. Em qualquer caso, DataCore maximiza o desempenho, disponibilidade e o uso do armazenamento interno em conexões directas (DAS), bem como gabinetes de discos externos.

Baixo custo para unificar o armazenamento e clusters de alta disponibilidade NAS/SAN
DataCore optimiza os novos recursos da plataforma Windows Server 2012, para obter uma rede mais poderosa e unificada, que esteja ao mesmo tempo conecta com redes de armazenamento (SAN/NAS) e suas funcionalidades. Completamente redundante, configurações de alta disponibilidade escaláveis para mais nodos, troca rápida dos sistemas de arquivos da rede (NFS) e Common Internet file System (CIFS) de clientes SMB, apesar das interrupções de hardware e instalações. Os clientes encontrarão soluções de armazenamento ainda mais atraentes desde que a Microsoft permitiu que a comutação por erro estivesse disponível na sua edição Standard de menor custo, possibilitando aos arquivos duplicados economizar espaço no disco.

Preço e disponibilidade
A ultima versão do R9 SANsymphony-V estará disponível a partir de fevereiro de 2013. O preço inicial será inferior aos $10.000 dólares, para duas licenças que permitem o uso de configurações de alta disponibilidade, incluindo suporte técnico anual 24x7 e com direito a novas versões. Os Clientes DataCore que empregam o SANsymphony-V, com uma contratação anual, poderão atualizar sua versão sem custo adicional.

quarta-feira, 20 de fevereiro de 2013

DataCore Software anuncia novas funcionalidades e um desempenho 50% mais rápido para o os aplicativos de nível 1 com o hipervisor de armazenamento SANsymphony-V R9

Expansão do ambiente de negócios TI, virtualização de aplicações e vantagens para a nuvem híbrida, optimizando e economizando custos nas opções configuráveis.

DataCore Software, líder em virtualização de armazenamento, anuncia melhorias importantes no armazenamento do hipervisor SANsymphony ™ - V. O novos recursos chegam em um momento crítico em que as reacções dos CIOs, ante uma extraordinária inundação de dados, juntamente com a necessidade de fazer com que o tempo de resposta das aplicações críticas do negócios devem ser rápidas e continuamente disponíveis, feito decisivo para empresas líderes.

"A coisa mais importante para um negócio é a capacidade de competir, por isso oferecemos aos usuários, como um líder na indústria, experiência com a velocidade e disponibilidade constante das aplicações, para garantir a melhor produtividade possível," explica George Teixeira, presidente e CEO da DataCore Software. "Os clientes querem obter claros resultados das suas aplicações de nível 1 e das suas infra-estrutura. "Assim se eles usam SAP, Oracle,Microsoft SQL, SharePoint, Exchange ou VDI, irão perceber rapidamente que o SANsymphony-V maximiza o desempenho como nenhuma outra tecnologia, proporcionando-lhes uma vantagem clara para os negócios."

Algumas das vantagens do novo SANsymphony-V R9:

 
Empresa e Escalabilidade Cloud X 8
Como os dados aumentam a capacidade de escalar facilmente o desempenho e também a capacidade; uma necessidade crítica é medir variáveis desconhecidas durante o início do projeto. DataCore ™ proporciona a liberdade de escolher e definir nodos de baixo custo, e com as melhorias do SANsymphony-V, o número máximo de nodos de virtualização de armazenamento em um grupo de gerenciamento dobrou de quatro a oito. Isto permite aos data centers de longa escala e provedores de serviços de cloud expandir de forma ininterrupta para nodos adicionais, aumentando capacidade, desempenho e conectividade. A maioria dos clientes que gerenciam os recursos na faixa de petabyte configuram DataCore software no nível 1 de redundância para obter disponibilidade contínua, reduzindo os custos de redundância.

Desempenho mais rápido e mais previsível: 50% mais rápido, optimizado para flash
A falta de rendimento ou o excesso de oferta devido as demandas imprevisíveis, são os maiores problemas que aumentam o custo do hardware, devido que o problema não têm uma solução ideal ou sustentável. O SANsymphony-V maximiza os recursos existentes enquanto incorpora as últimas tecnologias como, flash ou disco de estado sólido (SSD) a um preço acessível. O Software adiciona uma série de novas funcionalidades ao seu algoritmo de virtualização de armazenamento, destinado as aplicações de missão crítica, produzindo aproximadamente um vinte por cento mais rápidos (IOPS) e melhorando o desempenho (Megabytes por segundo) que as versões anteriores. Estas melhorias, junto com múltiplos desenvolvimentos especiais de vários segmentos, aperfeiçoam o paralelismo dos processos I/Os com uma resposta cinqüenta por cento mais rápidas para cargas de trabalho transacionais. De igual importância, é o fato de que os pontos altos de desempenho são "suavizados" para que os tempos de resposta do aplicativo sejam mais previsíveis, como resultado, os usuários se beneficiam de uma curva crescente de desempenho linear com a adição de memória flash ou o SSD mais recente.
Uso do desempenho e armazenamento - novas opções de Tuning e TroubleShotting
DataCore oferece um extenso conjunto de ferramentas de gestão, incluindo os "heat maps" para otimizar o desempenho e garantir um custo rentável da hierarquia do conjunto dos níveis de armazenamento. O novo SANsymphony-V inclui a opção de executar analises das tendências ao vivo, com uma ferramenta de gravação que colecta e mostra um diagrama com as medidas do ambiente. As cargas de trabalho ou gargalos potenciais podem ser redirecionadas facilmente. O histórico pode ser exportado em formato CSV para uma completa análise posterior ou para executar o planejamento com Microsoft Excel ou outras ferramentas.

Perfromance Recording

Controle personalizado para um melhor uso dos recursos e o ambiente de armazenamento de Tiering
Cada ambiente é diferente, é por isso que um melhor controle permite uma optimização adicional, aumentando custos e desempenho. Os perfis de armazenamento de discos virtuais podem ser personalizados para controlar como as políticas dinâmicas (prioritárias), as funcionalidades de auto-organização em níveis de capacidade de auto-tiering, a replicação remota e recuperação do espelho síncrono. Estes perfis personalizados complementam as políticas de padrão integradas no software. Os discos virtuais podem ser configurados dependendo do seu nível de importância: crítica, elevada, normal, baixa ou arquivos que devem ser controlados pelo seu volume e prioridade quando competem entre eles pelos recursos compartilhados. Isso garante vantagens importantes para às aplicações de cara ao uso dos recursos mais valiosos tais como memória, flash e SSDs. Com menos exigências, menor custo e maior densidade de armazenamento.

Rápido "desfazer", proteção continuada e simples dos dados, restauração rápida das aplicações críticas
As aplicações críticas de negócios precisam ser instaladas e executadas imediatamente. Desde já, o SANsymphony-V oferece um excelente nível de proteção de dados contínua (CDP) e uma restauração instantânea. Além disso, as cópias de back-up convencionais noturnas, já não existem ou são difíceis de programar, portanto, a capacidade de fazer backups sem interrupções e torná-los quando o tempo é um benefício importante do negócios. O tempo de recuperação e funcionamento do registro de proteção contínua de dados aumentou de horas a duas semanas. Os administradores de sistema também podem retroceder a uma imagem do disco virtual, em qualquer ponto dentro de uma janela de 14 dias. Como resultado, a imagem inversa pode ser montada para recuperar determinados arquivos apagados acidentalmente, e/ ou o disco atual pode ser substituído com a imagem reversa completamente e desfazer as alterações que ocorreram após a infecção viral ou no início dos erros lógicos.

Nova plataforma Windows Server 2012
O SANsymphony-V apartir de agora é compatível com o sistema de operações Server 2012, além do sistema de servidor Windows 2008 R2. O hipervisor de armazenamento pode ser executado em servidores Windows físicos, dedicados a virtualização de vários hosts via SAN. Inclusive pode co-existir com os aplicativos virtuais hospedados no Microsoft Hyper-V 3.0 ou VMware vSphere 5. x. Em qualquer caso, DataCore maximiza o desempenho, disponibilidade e o uso do armazenamento interno em conexões directas (DAS), bem como gabinetes de discos externos.

Baixo custo para unificar o armazenamento e clusters de alta disponibilidade NAS/SAN
DataCore optimiza os novos recursos da plataforma Windows Server 2012, para obter uma rede mais poderosa e unificada, que esteja ao mesmo tempo conecta com redes de armazenamento (SAN/NAS) e suas funcionalidades. Completamente redundante, configurações de alta disponibilidade escaláveis para mais nodos, troca rápida dos sistemas de arquivos da rede (NFS) e Common Internet file System (CIFS) de clientes SMB, apesar das interrupções de hardware e instalações. Os clientes encontrarão soluções de armazenamento ainda mais atraentes desde que a Microsoft permitiu que a comutação por erro estivesse disponível na sua edição Standard de menor custo, possibilitando aos arquivos duplicados economizar espaço no disco.

Preço e disponibilidade
A ultima versão do R9 SANsymphony-V estará disponível a partir de fevereiro de 2013. O preço inicial será inferior aos $10.000 dólares, para duas licenças que permitem o uso de configurações de alta disponibilidade, incluindo suporte técnico anual 24x7 e com direito a novas versões. Os Clientes DataCore que empregam o SANsymphony-V, com uma contratação anual, poderão atualizar sua versão sem custo adicional.


segunda-feira, 11 de fevereiro de 2013

2013: O ano que a armazenagem baseada em Software mudará os Centros de Processo de Datos


As tecnologias Flash e a virtualização das aplicações de nível um estão agitando o mundo corporativo.
Por George Teixeira, Presidente e CEO da DataCore Software

Durante o 2012, vimos os primeiros passos em uma tentativa de definir as arquitecturas do software de armazenagem. Isso provocou uma serie de tendências cruciais que estão remodelando e que tem um importante impacto no mundo da armazenagem empresarial, preparando o cenário do ano 2013 para que converta-se no ano em que a armazenagem baseada em software mudará os Datacenters.

A mudança do hardware para um modelo baseado em um software de virtualização,  apoia as missões cruciais das aplicações do negócio que mudou a criação da  arquitectura dos computadores, redes e dos níveis de armazenagem, passando de ser “estáticas” a “dinâmicas”. O Software define as bases da agilidade, interacção dos usuários e a construção de uma infra-estrutura virtual a longo prazo, que se adapta as mudanças. O objectivo final é aumentar a produtividade do usuário e melhorar a experiencia da aplicação.

Tendência #1: As aplicações nivel 1 virtualizão-se e o rendimento é crucial

Os esforços para virtualizar ainda mais o data center continuam, e vemos um aumento ainda maior da mobilização das aplicações de nível 1 (ERP, databases, sistemas de e-mail, OLTP etc.) em direção às plataformas de virtualização. Os factores chaves que impulsarão esta mudança são os económicos, assim como a obtenção de uma melhor produtividade. 

Sin embargo, os principais obstáculos para a virtualização das aplicações de nível 1 estão em grande medida relacionadas com a  armazenagem.

Transferir o armazenamento intensivo das cargas de trabalho para máquinas virtuais (VMs) pode ser de grande impacto para o rendimento e a disponibilidade. Por tanto, o armazenamento deve ser sobre-abastecido e de grande tamanho. Além do que, a medida que o negocio se consolida nas plataformas virtuais, devem gastar mais para alcançar os altos níveis de redundância e continuidade do negocio; sem contar com as preocupações relacionadas com o rendimento e os engarrafamentos. 

Os altos custos e a complexidade da sobre dimensão eliminam os benefícios e põe o armazenamento em um túnel sem saída.  Com estos pontos em mente, as empresas e  os departamentos IT buscam um enfoque mais inteligente, com uns custos mais rentáveis, ao dar-se conta de que acrescentar “mais hardware ao problema” não é a  solução mais prática. 

Tendência #2: As tecnologias SSD flash serão utilizadas em qualquer lugar, o armazenamento não é somente para os dispositivos de disco 

Outra grande tendência relacionada com a virtualização das aplicações de nível 1 é a proliferação das tecnologias baseadas em SSD flash. A razão é simples, os discos de armazenamento são dispositivos mecânicos de rotação e não tão agis como aqueles baseados em memorias electrónicas de alta velocidade. 

As memorias flash estiveram ao nosso arredor durante anos, ao princípio eram uma solução excessivamente cara para a sua adopção. Mesmo assim, são mais custosas que a rotação dos dispositivos hardware, seu uso massivo em tablets e celulares estão conduzindo a abaixar o seu precio. Inclusive assim, a tecnologia flash desgasta-se, e um  uso continuado devido a que as aplicações que se reescrevem continuamente podem impactar na sua vida útil.

Se os dispositivos flash são uma parte inevitável do nosso futuro e necessitam ser incorporados na nossa visão da arquitectura futura, a economia nos conduz a um mundo que precisa de diferentes níveis de armazenagem, baseados em memorias  menos caras e direccionada a discos menos lentos. Isto, porém, aumenta a demanda das empresas em quanto a utilização de um software de auto-tiering, capaz de optimizar o rendimento a um  preço atractivo através da mudança de datos com uma solução do nível mais rentável, que proporcione  ao mesmo tempo um rendimento aceitável.

Tendência #3: Mais armazenagem requer mais automatização 

Existe uma demanda constante e insaciável que requer mais capacidade de armazenagem de datos, esta demanda segue crescendo mais de 50 por cento ao ano. Porém, a necessidade não se concentra unicamente em mais discos hardware para satisfazer a capacidade  neta. Em seu lugar, os usuários querem automatização, gestão automática de armazenagem, escalabilidade, provisões rápidas, grande rendimento, e mais altos níveis de continuidade do negocio.
Uma vez mais, necessita-se um “software inteligente” para simplificar e automatizar a gestão da armazenagem.

Tendência #4: A definição da arquitectura do software de armazenagem importará mais que o hardware

Essas tendências – e melhoras TI para os usuários, fazem com  que a armazenagem hardware seja intercambiáveis com infra-estruturas virtuais – teremos um profundo impacto  sobre como pensamos, compramos e utilizamos o armazenamento. Em 2013 em diante, as tecnologias TI necessitarão incorporar o software de armazenagem definitivamente como um elemento essencial dos data centers.   

Devido a que os usuários TI das companhias actuais estão acostumadas a rápida e dinâmica sociedade actual, não podem ver-se presos em arquitecturas rígidas de hardware por cabo. A infra-estrutura se constrói sobre três pilares: computação, redes e armazenamento – e em cada uma de elas, as decisões relacionadas com o hardware serão secundarias e virão ditadas pelo software e impulsodas pelas aplicações.
É evidente que o grande sucesso de VMware y Microsoft Híper demonstram que a virtualização dos servidores oferecem um valor convincente. Da mesma forma que a armazenagem hipervisor e a virtualização a nível de armazenamento, são fundamentais para desbloquear as cadeias do hardware que foram uma âncora para a armazenagem da próxima geração dos centros de datos.

Tendência #5: A definição da arquitectura do software de armazenagem  cria a necessidade de um hipervisor de armazenagem

O mesmo pensamento que mudou nossos pontos de vista sobre o provedor, é necessário para redireccionar a armazenagem; e o software inteligente é o catalisador. Em resumem, o papel principal do hipervisor de armazenagem é virtualizar os recursos de armazenagem para conseguir os mesmos benefícios - agilidade, eficiência e flexibilidade – características que proporcionam a tecnologia do híper visor aos processadores e memorias.

Este ano, o software pegará seu correcto lugar na mesa e começarão a transformar nossa visão sobre a armazenagem. 

O objectivo final: Uma melhor experiencia através da aplicação definida pelo software de armazenagem.
A virtualização mudou a informática e as aplicações que dependemos para administrar os nossos negócios. Ainda assim, o armazenamento empresarial e a nuvem estão dominados pela mentalidade física, e definidos pelo hardware. Temos que mudar nossa forma de pensar e considerar como a armazenagem afecta a experiência da aplicação e ver como a armazenagem definida pelo software, com serviços de armazenagem e características disponíveis para toda empresa e não só incrustado em um dispositivo de hardware central.

Porquê comprar um hardware específico somente para obter a função de um software? Porquê limitar uma função a uma única plataforma frente ao seu uso em toda empresa? Esse é um pensamento antigo, anterior a virtualização, assim é como a industria de servidores funcionava. Hoje em dia, com VMware o Hyper-V, pensamos em como desdobrar as máquinas virtuais versus "se estão executando em um sistema Dell, HP, Intel o IBM?"

A armazenagem está passando por uma transformação similar, no próximo ano, será o software inteligente a qual liderará a industria hacia sua evolução, que estará definida mundialmente pelo software.

George Teixeira é CEO e presidente de DataCore Software. A companhia de software que actua como plataforma de infra-estrutura para solucionar o grande problema do estancamento da armazenagem, mediante a eliminação das iniciativas da armazenagem relacionadas com as barreiras que fazem da virtualização um processo difícil e caro.

quinta-feira, 3 de janeiro de 2013

B.Y.O.S. [Bring Your Own Storage - Traga o seu próprio armazenamento]; Considerações sobre vinho e virtualização

Recentemente numa viagem a Paris, reuni-me com um grupo de amigos para falar sobre vinho e virtualização (um par natural, se é que se pode copiar assim literalmente esta expressão do inglês). Adoro ir a um restaurante onde posso levar o meu próprio vinho, se eu assim o entender, mas esta não é uma prática na maioria dos restaurantes e com certeza não era o caso naquela noite em particular. Em vez disso, fiquei limitado à lista de vinhos do restaurante e só pude escolher o que eles tinham, com margens de lucro inflacionadas.

Mas o que é que isto tem a ver com a virtualização? Tudo, quando estamos a falar da virtualização do limite de armazenamento.

Todos gostam de flexibilidade e de escolher sem se limitarem aos requisitos específicos do hardware. Actualmente, esta escolha existe nos limites dos servidor e ambientes de trabalho, graças à adopção generalizada do software de virtualização. Mas quando se trata de limites de armazenamento, os fabricantes de hardware agem como os restaurantes - querem limitá-lo à sua lista de produtos e vender as variedades mais exóticas com enormes margens de lucro. Acreditamos na libertação dos clientes deste vínculo do fornecedor de hardware através da dissociação da infra-estrutura virtual a partir dos discos subjacentes. Isto é o que eu denomino de B.Y.O.S. (Bring Your Own Storage – Traga o seu próprio armazenamento).

No blog InformationWeek de George Crump foi levantada a questão “What If Storage Hardware Mattered? (E se a questão do hardware de armazenamento fosse importante?) e, em parte, foi abordado este problema.

Não nos podemos esquecer de que a virtualização já não é só uma questão de consolidação. Trata-se de criar uma infra-estrutura ágil e duradoura com soluções de software que evoluem e se adaptam ao longo do tempo. É permitir escolher o hardware que se adapta a si, prolongar a vida útil desse hardware e aumentar radicalmente o ROI (retorno sobre o investimento) da sua infra-estrutura de TI em relação aos níveis actuais.

Restam poucas dúvidas de que a procura reprimida deixa os fornecedores de hardware de armazenamento optimistas. De acordo com os relatórios da indústria, o mercado do armazenamento de dados ressurgiu em 2010. A procura dos que adiam os upgrades ou evitam um ciclo de actualização é real. No entanto, não significa uma tendência de voltar às infra-estruturas dominadas pelo hardware. Pelo contrário, continua a haver um grande apetite pelas nuvens, desktops virtuais e virtualização de armazenamento, o que sublinha a crescente relutância dos compradores em dependerem estritamente de infra-estruturas físicas.

Os clientes estão mais cautelosos, e com razão, do que estavam antes da recessão, e, francamente, estão mais esclarecidos quanto às suas opções. Estão ansiosos por uma protecção contra a rápida obsolescência dos dispositivos de hardware. Quando as coisas ficaram difíceis e os orçamentos apertados, a abordagem tradicional de "resolver o problema com hardware" para o planeamento da capacidade e do desempenho já não era uma opção e não havia maneira de evoluir as suas infra-estruturas para suportar uma continuidade e agilidade de negócio melhor. Não poderiam redireccionar o hardware existente, ou simplesmente chamar novos fornecedores. Posto isto, não estavam presos aos fornecedores, estavam presos ao fracasso.

Acredito que vamos olhar para esta época como o ponto de viragem do hardware de armazenamento e o fim da mentalidade "resolver o problema com hardware". As empresas já não querem escolher o seu armazenamento a partir de uma lista de preços inflacionados. Querem B.Y.O.S. Querem utilizar mais o que têm e ter uma escolha ilimitada quando se trata de comprar um novo hardware. Este é o poder da vantagem do armazenamento de software de virtualização - quebra o vínculo com o fornecedor e permite que as empresas, finalmente, possam começar a perceber os benefícios do negócio que os levou a explorar a virtualização.