segunda-feira, 24 de junho de 2013

DataCore Software continua a liderar o armazenamento Software-Defined e de virtualização de armazenamento

DataCore Software continua a liderar o armazenamento Software-Defined incorporando melhorias na sua plataforma consolidada de virtualização de armazenamento SANsymphony-V

"O armazenamento está experimentando uma mudança radical e os fabricantes de hardware tradicionais estão sofrendo devido ao estado actual de "estar ao dia" para cumprir com a nova ordem de 'armazenamento software-defined", onde à automação, as tecnologias flash rápidas e a intercambialidade do hardware são estandartes", disse George Teixeira, co-fundador, presidente e CEO da DataCore Software. "Ouvimos os nossos clientes e nos mantivemos fiéis à nossa visão. Com a última versão do SANsymphony-V, estamos bem posicionados para ajudar às organizações a gerenciar o crescimento e aproveitar os investimentos existentes, enquanto tornamos mais fácil para incorporar as inovações características presentes e futuras. As características do nosso software e flexibilidade para capacitar os CIOs e gerentes de TI, atendem os desafios que as empresas de armazenamento devem enfrentar em um mundo virtual dinâmico ".

Supera os desafios da gestão de armazenamento garantindo experiência de gestão comprovada em empresas de médio e grande porte

Entre todas opiniões e as promessas sobre o futuro do software- defined empreendida pelos fabricantes de hardware de armazenamento, DataCore™ Software fornece soluções do mundo real para milhares de clientes em todo o mundo. DataCore contínua a avançar e evoluir o seu software de virtualização de hardware e gerenciamento de armazenamento independente, mantém um foco para capacitar aos usuários de TI para retomar o controlo da sua infra-estrutura de armazenamento. Para este fim, a empresa anunciou grandes melhorias para as suas capacidades de gestão abrangente dentro da versão R9 da sua plataforma de virtualização de armazenamento SANsymphony ™-V.

As novidades do SANsymphony-V incluem:
• Assistentes para fornecer vários discos virtuais a partir de modelos
• Comandos para gerenciar o grupo de armazenamento de vários hosts de aplicativos
• Perfis de armazenamento para maior controlo e auto-hierarquização entre vários níveis de flash (SSD) e tecnologia de disco rígido de estado sólidos
• Uma nova opção de banco de dados para armazenar os registos e análises de desempenho histórico e tendências
• Aumento da capacidade e das opções de configuração para a incorporação de tecnologia flash de alta performance "dentro do servidor" e equipamento de menor custo NAS para servir arquivos
• Snapshot pools preferentes para simplificar e separar e não penalizar o desempenho da produção instantânea

• Melhoria da replicação e optimização da comunicação para um desempenho mais rápido e mais eficiente
• Suporte ao protocolo Fiber Channel 16 Gbit para mais velocidade


 Armazenamento Software-Defined para o mundo real: melhorias impulsadas pelos clientes para superar os desafios

A DataCore Software é o resultado de 15 anos de feedback com os seus clientes, sendo uma multinacional que dispõe de experiência comprovada nos cenários de armazenamento de grande porte em todo o mundo. As melhorias na versão mais recente do SANsymphony-V, permitem assumir os grandes desafios que enfrentam os datacenters de médio a grande porte, assim como uma diversa escala de datacenters.

Além de enfrentar-se a uma explosão de armazenamento (granjas de disco multi-petabyte), as organizações estão experimentando a expansão massiva de máquinas virtuais (VM), em relação ao provisionamento, divisórias de protecção e espaço em disco, que dizem respeito ao orçamento final. Os problemas são agravados ainda mais através da inclusão das tecnologias Flash e SSD, usadas para acelerar as cargas latentes sensíveis. Isso agrava o fato de que as organizações se esforçam para atender às necessidades de desempenho das aplicações com orçamentos limitados, bem como a complexidade e o tempo necessário para gerenciar as demandas de uma crescente diversidade de modelos de armazenamento diferentes, os dispositivos e tecnologias de disco, mesmo quando padronizados em um único fabricante.

Como ponto de partida, as empresas têm de gestionar muitas incertezas em termos de armazenamento. Com os sistemas tradicionais de armazenamento, a prática comum tem sido o excesso de armazenamento e esperar para que fosse adequado às demandas imprevisíveis, mas estes muitas vezes aumentam os custos. Como resultado, as empresas tornaram-se mais inteligente e já perceberam que não é possível ou prudente simplesmente acrescentar hardware caro, especialmente mais equipes para o problema. Portanto, as empresas estão exigindo um novo nível de software flexível que suporta e agrega valor através de várias gerações e tipos de dispositivos de hardware. O que é necessário é uma abordagem estratégica para a gestão de armazenamento.

Progresso notável com a versão actualizada do SANsymphony-V 9.0.3

O SANsymphony-V é uma solução de produtividade estratégica que opera em toda a infra-estrutura através das diversas marcas e modelos de hardware de armazenamento. O seu cachê auto-tiering maximiza o uso da CPU disponível, assim como a memória e os recursos do disco para aumentar drasticamente o desempenho de armazenamento em geral, resultando em aplicativos mais rápidos e sensíveis. Usando o investimento em discos de armazenamento existentes de forma mais eficientes, as organizações podem agora adicionar de forma rentável e de beneficiar-se plenamente das mais recentes tecnologias de alta velocidade, tais como memória flash e discos SSDs.

Os programas da DataCore fazem que seja ainda mais fácil de incorporar e optimizar as poderosas tecnologias flash "server-side". O SANsymphony-V pode trabalhar com qualquer flash e com os dispositivos de disco conectados directamente aos aplicativos do servidor. Também podem ser usados em todas as redes de armazenagem (SAN). A nova opção de configuração flexível também inclui a última versão do SANsymphony-V para simplificar a integração flash e maximizar o seu uso e desempenho.

A DataCore oferece um conjunto abrangente de ferramentas de gestão, incluindo os "mapas de zonas quentes" para otimizar o desempenho e os níveis eficazes do armazenamento. A função dos níveis auto-tiering prioriza e aplica o armazenamento adequado para a aplicação mais apropriada, dependendo das necessidades da carga de trabalho. Os perfis de armazenagem proporcionam um maior controlo e devido a que o ambiente varia, incluie mais otimização para melhorar o desempenho e custo. Os perfis para os discos virtuais podem ser personalizados para ajustar as políticas como a dinâmica de gestão dos níveis de auto prioridade (auto-tiering), replicação remota síncrona e recuperação espelho, complementando as políticas padrão incorporadas no software. A importância do disco virtual pode ser configurado como: crítico, alto, normal, baixo ou arquivo, controlando os volumes que têm prioridade para os recursos compartilhados. Isso garante que as aplicações importantes se beneficiam dos recursos mais valioso: a memória flash e os discos SSDs, bem como as tarefas menos exigentes que têm um menor custo e uma maior densidade de armazenamento.

Uma melhor auto-regulação do uso dos recursos mais importantes que impede que sejam utilizados para as demandas de baixa prioridade, como muitas vezes acontece com os backups instantâneos e com outras réplicas da linha de dados dos negócios. Em vez disso, as cópias point-in-time são encaminhadas para os níveis de armazenamento mais adequadas para os seus papéis, enquanto que o SQL Server, Oracle, SAP, Exchange, SharePoint e outras aplicações críticas são dirigidas aos recursos de alta velocidade.

Os clientes da DataCore podem agora desfrutar de sistemas de gravação de última geração, análise  dos relatórios para uma maior capacidade de resposta e continuidade dos serviços de TI. O SANsymphony-V inclui a capacidade de gravar o histórico de desempenho para análise de tendências. Ao mostrar as métricas colectadas ao longo do tempo, o pico de carga de trabalho e as dificuldades potenciais podem ser resolvidos facilmente. Além disso, tem uma ênfase especial a automatização dos aspectos de abastecimento e serviços avançados de armazenamento. A dificuldade, neste caso, não é tanto em tamanho, mas o volume a ser coordenada e previsível, respeitando as tendências. Os administradores podem agora lançar e gerenciar essas tarefas de forma global. O provisionamento de grande escala é simplificado usando modelos que podem criar discos virtuais através de cópias com as mesmas características (tamanho, perfil, disponibilidade, etc.).

Para a continuidade de negócios, recuperação de desastres e protecção de dados offsite, a nova versão oferece uma replicação remota assíncrona mais rápida para atender o estrito tempo de recuperação e os objectivos de ponto de recuperação. O software também permite uma melhor utilização das vantagens com a velocidade/baixa custo das redes de área. A protecção contra as catástrofes regionais aumentou a urgência de soluções de replicação remota rentáveis​​, mesmo para as empresas mais pequenas.

O SANsymphony-V optimiza ainda mais a plataforma Windows Server 2012 e as mais recentes funcionalidades do agrupamento de Microsoft para obter mais velocidade aos arquivos NAS unificados e serviços de disco SAN. Isso permite configurações totalmente redundantes e de alta disponibilidade para a realização da escalabilidade em vários nós e permite uma rápida conversão do sistema de arquivos de rede e clientes SMB File System de Internet comum, apesar das interrupções e instalações de hardware. Esta poderosa combinação faz com que o SANsymphony-V seja uma plataforma de armazenamento unificado NAS/SAN que é a escolha ideal e económica para apoiar os grupos mais exigentes da Microsoft assim como os ambientes  de servidores de arquivos da Microsoft.

Em relação ao alto desempenho e as baixas necessidades, o SANsymphony-V suporta 16 Gbps e adaptadores Gbps de fibra, assim como os novos canais bus de host (HBA) da Qlogic.

Estes podem ser misturados e combinados com HBAs da geração anterior e placas de rede com iSCSI empregados em áreas menos exigentes de infra-estrutura. O canal de fibra é muitas vezes a interface preferida entre bancos de dados, aplicações de alta velocidade e piscinas de híbridos, e todas as matrizes de flash virtualizadas pela DataCore.

Para desfrutar das melhorias da plataforma de virtualização SANsymphony, consulte o seu distribuidor DataCore autorizado.

quarta-feira, 19 de junho de 2013

Armazenamento, o maior inimigo da virtualização

Quatro em cada dez profissionais de TI afirmam que problemas de desempenho e o alto custo de armazenamento são as principais barreiras para a virtualização de aplicações críticas.
armazenamentoA virtualização está cada vez mais presente na maioria das empresas, de diversas formas diferentes. No entanto, se falamos de virtualizar aplicações críticas de negócios, a tendência muda drasticamente.

E são muitas as organizações que continuam a ver barreiras grandes e, muitas vezes intransponíveis, para separar sistema operacional e aplicações dos componentes físicos, segundo estudo recente da DataCore Software com 477 gestores internacionais de TI.

Segundo o estudo, 44% dos pesquisados dizem que os custos desproporcionais associados com o armazenamento são um "grande obstáculo" para virtualizar as cargas de trabalho. Além disso, 42% dos entrevistados dizem o mesmo sobre a diminuição no desempenho ou falhas em atender às expectativas de desempenho.

Assim, o armazenamento atrasa a maioria dos projetos de virtualização, incluindo iniciativas relacionadas com o servidor e o desktop. Pouco mais de metade (52%) dos inquiridos diz que as contas de armazenamento comprometem mais de 25% do orçamento de virtualização.

O número de informações aumenta exponencialmente: se antes falávamos em megabytes de informação, hoje as empresas de tecnologia apontam para quantidades inimagináveis, algo que os especialistas identificam como big data, que implica em volume (bancos de dados de grandes volumes) e velocidade (manuseio e tratamento analítico, que devem ser feitos rapidamente, em alguns casos até mesmo em tempo real).
 Esta necessidade por maior agilidade e facilidade no acesso tem feito com que as empresas invistam muito dinheiro e recursos técnicos em dispositivos de alta performance, visto que o armazenamento tradicional em discos rígidos, bancos de dados limitados, aliados com sistemas legados de baixa capacidade, levam as empresas a comprometer o desempenho de seus negócios.

A maioria destes problemas poderia ser resolvido pelo conjunto entre melhoras na conexão e a tecnologia de Cloud Computing, ou “Nuvem”, que consiste na utilização de computadores e servidores interligados pela Internet (portanto não presentes fisicamente - estando “na Nuvem”). No entanto, 8 em cada 10 empresas afirmam não utilizar qualquer armazenamento em nuvem pública.

Além disso, os orçamentos de armazenamento de TI estão proporcionalmente menores se compararmos 2013 com 2012. Mais de metade (51%) dos entrevistados diz que seu orçamento de armazenamento manteve-se estável, mas 20% dizem que seu orçamento foi reduzido, contra 14% em 2012. Enquanto 38% afirmaram que seu orçamento de armazenamento aumentou, em 2012, apenas 30% disseram o mesmo este ano.

segunda-feira, 10 de junho de 2013

Novo DataCore VDS 2.0 - The Server Desktop Virtual - VDI ideal para entornos de entre 25-200 desktops virtuais

DataCore Software anuncia o lançamento do DataCore software VDS™ 2.0, para converter à implantação dos desktops virtuais completos e persistente em uma tarefa simples e de baixo custo. A DataCore acrescentou um novo nível de entrada 25 que oferece preços capazes de atender à demanda da pequena escala VDI (Virtual Desktop Infrastructure) e também fez melhorias significativas na sua plataforma de software para o desktop do servidor. Isto inclui a optimização do desempenho para um tempo de resposta mais rápido, uma nova opção de protecção para o servidor chamada Hot Standby VDI, apoio para acessos unificados Single Sign-On (SSO) e Active Directory (AD), além de um assistente, modelos e ferramentas para obter um elevado grau de integração com as plataformas Microsoft VDI e Windows Server 2012 e desktops remotos e serviços de entrega. O novo software DataCore VDS 2.0 está disponível para os clientes por meio dos provedores de soluções autorizados, que estão treinados e qualificados para oferecer uma solução de VDI fácil de uso, com um alto desempenho e de baixo custo, projectado para atender às necessidades dos pequenos e médios negócios.

"O DataCore VDS supera os problemas de adopção durante o processo de virtualização dos desktops em pequenas e médias empresas, onde as maiores necessidades do mercado precisam de soluções de virtualização do desktop com pequenos orçamentos. A crise europeia tem impactado todas as decisões de TI. Isso permite que nossos parceiros oferecer soluções VDI com uma relação custo-benefício, altamente produtiva e ajustada a um total de 25-200 desktops virtuais. Ao contrário das soluções de VDI altamente complexas que são caras e desenhadas para grandes projectos de 1.000 desktops ou mais, O software DataCore VDS 2.0 elimina muitos dos obstáculos para as aplicações mais difíceis e reduz significativamente o custo para cada seção do escritoróo virtual ", afirma Christian Hagen, vice-presidente EMEA, DataCore. "A DataCore finalmente tornou prático para as pequenas e médias empresas operar com uma infra-estrutura desktop virtual para melhorar a sua produtividade e os custos."

O DataCore VDS centra-se no paradoxo VDI, desenhado e com preços adaptados para ele

O paradoxo é simples, as pequenas e médias empresas querem adoptar a virtualização dos desktops, pelas mesmas razões que as grandes empresas fazem - para reduzir os custos de gerenciamento do desktop, melhorar a produtividade e aumentar a agilidade dos negócios, mas não podem permitir soluções de classe empresarial, devido à que custam uma fortuna e são excessivos para entornos menores.
Os softwares VDI fornecem soluções para "grandes empresas" do mercado que são complexas e exigem mais de 1000 desktops para justificar os altos custos envolvidos, no entanto o DataCore VDS reduz drasticamente a complexidade e os custos para a adopção de entornos VDI. A solução se adapta economicamente à pequenas e médias empresas, bem como aos usuários departamentais. O DataCore VDS aborda este mercado carente com relação soluções rentáveis  fáceis de usar, desenhadas especificamente para atender os orçamentos associados com uma exposição de entre 25-200 desktops virtuais. O fato mais importante, é que o DataCore VDS torna economicamente possível, sem sacrificar o desempenho, mantendo uma experiência de usuário "real".

DataCore VDS – Virtual Server Desktop

O DataCore VDS é uma solução de VDI construída sobre a arquitectura e as vantagens de economia de armazenamento da DataCore, para torná-lo economicamente viável na implementação e operar em entornos de desktops virtuais completos e persistentes, com menor custo e maior desempenho do que as outras alternativas. O software DataCore VDS garante desktops virtuais completos e persistentes, que oferecem uma experiência ao usuário similar a quando o cliente está directamente na área de trabalho físico ou laptop PC. Os desktops virtuais completos fazem que o usuário final possa atribuir uma máquina virtual a sua própria navegação, baixar e executar suas aplicações pessoais. Si se desliga o desktop virtual e se ascende, ele mantém o "estado" do que ele estava fazendo, bem como quando fechamos o abrimos um laptop, que funciona como o seu própria escritório, a menos que seja virtual.

O DataCore VDS fornece poderosos desktops virtuais por menos do que o custo de um upgrade de PC

O DataCore VDS é uma solução de desktop virtual fácil e acessível, desenhado para as PME. Ele é implantado em um único servidor e inclui as ferramentas para gestão de Windows® necessárias para entregar escritórios virtuais gerenciado centralmente por qualquer usuário, por um preço menor aos novos equipamentos.

O VDS tem uma arquictetura DataCore altamente eficiente e elimina até o 75 por cento dos custos de VDI, sem comprometer o desempenho e o mais importante: a experiência do usuário.

DataCore VDS é:
Fácil e rápido de instalar, gerenciar e utilizar
- Executa-se em servidores fora da plataforma, com qualquer armazenamento
- Intuitivo e fácil de usar para os administradores
Armazenamento acessível e altamente eficiente
- Utiliza uma fracção da armazenagem em comparação com outras arquitecturas VDI
Alta performance e arquitetura otimizada
- Ofertas 'Best in Class "em termos do comportamento dos preços
- Gerencia o tráfego de forma optimizada e as cachês I/O para atingir um alto desempenho
Uma solução de computação poderosa para o desktop virtual completa
- É verdade, a computação desktop. O que os usuários esperam!

Disponibilidade do produto
A solução DataCore VDS 2.0 está pronto para o envio e disponível exclusivamente na Europa por meio da sua rede de partners EMEA treinados e autorizados pela DataCore.
Os preços para as licenças do software DataCore VDS começa por debaixo dos 3000 dólares, permitindo que os sistemas de gerenciamento centralizados completos VDI sejam implantados por um preço inferior a compra de novos equipamentos.
Para mais informação sobre DataCore VDS visite: http://www.datacore.com/VDS.aspx

sábado, 1 de junho de 2013

As tecnologias Flash e a virtualização das aplicações de nível um estão agitando o mundo corporativo

-Por George Teixeira, Presidente e CEO da DataCore Software

Durante o 2012, vimos os primeiros passos em uma tentativa de definir as arquitecturas do software de armazenagem. Isso provocou uma serie de tendências cruciais que estão remodelando e que tem um importante impacto no mundo da armazenagem empresarial, preparando o cenário do ano 2013 para que converta-se no ano em que a armazenagem baseada em software mudará os Datacenters.

 
A mudança do hardware para um modelo baseado em um software de virtualização,  apoia as missões cruciais das aplicações do negócio que mudou a criação da  arquitectura dos computadores, redes e dos níveis de armazenagem, passando de ser “estáticas” a “dinâmicas”. O Software define as bases da agilidade, interacção dos usuários e a construção de uma infra-estrutura virtual a longo prazo, que se adapta as mudanças. O objectivo final é aumentar a produtividade do usuário e melhorar a experiencia da aplicação.

 
Tendência #1: As aplicações nivel 1 virtualizão-se e o rendimento é crucial
Os esforços para virtualizar ainda mais o data center continuam, e vemos um aumento ainda maior da mobilização das aplicações de nível 1 (ERP, databases, sistemas de e-mail, OLTP etc.) em direção às plataformas de virtualização. Os factores chaves que impulsarão esta mudança são os económicos, assim como a obtenção de uma melhor produtividade. 

Sin embargo, os principais obstáculos para a virtualização das aplicações de nível 1 estão em grande medida relacionadas com a  armazenagem.

Transferir o armazenamento intensivo das cargas de trabalho para máquinas virtuais (VMs) pode ser de grande impacto para o rendimento e a disponibilidade. Por tanto, o armazenamento deve ser sobre-abastecido e de grande tamanho. Além do que, a medida que o negocio se consolida nas plataformas virtuais, devem gastar mais para alcançar os altos níveis de redundância e continuidade do negocio; sem contar com as preocupações relacionadas com o rendimento e os engarrafamentos. 

Os altos custos e a complexidade da sobre dimensão eliminam os benefícios e põe o armazenamento em um túnel sem saída.  Com estos pontos em mente, as empresas e  os departamentos IT buscam um enfoque mais inteligente, com uns custos mais rentáveis, ao dar-se conta de que acrescentar “mais hardware ao problema” não é a  solução mais prática. 

Tendência #2: As tecnologias SSD flash serão utilizadas em qualquer lugar, o armazenamento não é somente para os dispositivos de disco 

Outra grande tendência relacionada com a virtualização das aplicações de nível 1 é a proliferação das tecnologias baseadas em SSD flash. A razão é simples, os discos de armazenamento são dispositivos mecânicos de rotação e não tão agis como aqueles baseados em memorias electrónicas de alta velocidade. 

As memorias flash estiveram ao nosso arredor durante anos, ao princípio eram uma solução excessivamente cara para a sua adopção. Mesmo assim, são mais custosas que a rotação dos dispositivos hardware, seu uso massivo em tablets e celulares estão conduzindo a abaixar o seu precio. Inclusive assim, a tecnologia flash desgasta-se, e um  uso continuado devido a que as aplicações que se reescrevem continuamente podem impactar na sua vida útil.

Se os dispositivos flash são uma parte inevitável do nosso futuro e necessitam ser incorporados na nossa visão da arquitectura futura, a economia nos conduz a um mundo que precisa de diferentes níveis de armazenagem, baseados em memorias  menos caras e direccionada a discos menos lentos. Isto, porém, aumenta a demanda das empresas em quanto a utilização de um software de auto-tiering, capaz de optimizar o rendimento a um  preço atractivo através da mudança de datos com uma solução do nível mais rentável, que proporcione  ao mesmo tempo um rendimento aceitável.

Tendência #3: Mais armazenagem requer mais automatização 

Existe uma demanda constante e insaciável que requer mais capacidade de armazenagem de datos, esta demanda segue crescendo mais de 50 por cento ao ano. Porém, a necessidade não se concentra unicamente em mais discos hardware para satisfazer a capacidade  neta. Em seu lugar, os usuários querem automatização, gestão automática de armazenagem, escalabilidade, provisões rápidas, grande rendimento, e mais altos níveis de continuidade do negocio.
Uma vez mais, necessita-se um “software inteligente” para simplificar e automatizar a gestão da armazenagem.

Tendência #4: A definição da arquitectura do software de armazenagem importará mais que o hardware

Essas tendências – e melhoras TI para os usuários, fazem com  que a armazenagem hardware seja intercambiáveis com infra-estruturas virtuais – teremos um profundo impacto  sobre como pensamos, compramos e utilizamos o armazenamento. Em 2013 em diante, as tecnologias TI necessitarão incorporar o software de armazenagem definitivamente como um elemento essencial dos data centers.   

Devido a que os usuários TI das companhias actuais estão acostumadas a rápida e dinâmica sociedade actual, não podem ver-se presos em arquitecturas rígidas de hardware por cabo. A infra-estrutura se constrói sobre três pilares: computação, redes e armazenamento – e em cada uma de elas, as decisões relacionadas com o hardware serão secundarias e virão ditadas pelo software e impulsodas pelas aplicações.
É evidente que o grande sucesso de VMware y Microsoft Híper demonstram que a virtualização dos servidores oferecem um valor convincente. Da mesma forma que a armazenagem hipervisor e a virtualização a nível de armazenamento, são fundamentais para desbloquear as cadeias do hardware que foram uma âncora para a armazenagem da próxima geração dos centros de datos.

Tendência #5: A definição da arquitectura do software de armazenagem  cria a necessidade de um hipervisor de armazenagem

O mesmo pensamento que mudou nossos pontos de vista sobre o provedor, é necessário para redireccionar a armazenagem; e o software inteligente é o catalisador. Em resumem, o papel principal do hipervisor de armazenagem é virtualizar os recursos de armazenagem para conseguir os mesmos benefícios - agilidade, eficiência e flexibilidade – características que proporcionam a tecnologia do híper visor aos processadores e memorias.

Este ano, o software pegará seu correcto lugar na mesa e começarão a transformar nossa visão sobre a armazenagem. 

O objectivo final: Uma melhor experiencia através da aplicação definida pelo software de armazenagem.
A virtualização mudou a informática e as aplicações que dependemos para administrar os nossos negócios. Ainda assim, o armazenamento empresarial e a nuvem estão dominados pela mentalidade física, e definidos pelo hardware. Temos que mudar nossa forma de pensar e considerar como a armazenagem afecta a experiência da aplicação e ver como a armazenagem definida pelo software, com serviços de armazenagem e características disponíveis para toda empresa e não só incrustado em um dispositivo de hardware central.

Porquê comprar um hardware específico somente para obter a função de um software? Porquê limitar uma função a uma única plataforma frente ao seu uso em toda empresa? Esse é um pensamento antigo, anterior a virtualização, assim é como a industria de servidores funcionava. Hoje em dia, com VMware o Hyper-V, pensamos em como desdobrar as máquinas virtuais versus "se estão executando em um sistema Dell, HP, Intel o IBM?"

A armazenagem está passando por uma transformação similar, no próximo ano, será o software inteligente a qual liderará a industria hacia sua evolução, que estará definida mundialmente pelo software.

George Teixeira é CEO e presidente de DataCore Software. A companhia de software que actua como plataforma de infra-estrutura para solucionar o grande problema do estancamento da armazenagem, mediante a eliminação das iniciativas da armazenagem relacionadas com as barreiras que fazem da virtualização um processo difícil e caro.

terça-feira, 28 de maio de 2013

Dez erros típicos em projetos de virtualização de armazenamento

É na hora de implementar que as gordurinhas extras impedem que o projeto decole.

Sem um planejamento detalhado até os projetos de virtualização de armazenamento podem dar errado.

Em termos práticos, vale a pena considerar os seguintes pontos, também considerados erros clássicos em projetos de virtualização:
1. Na hora da contratação
É aconselhável uma sabatina completa do fornecedor sobre as atribuições e suas expectativas  de funcionalidade do sistema. É normal que ocorram erros de comunicação quando o assunto é a possibilidade de modificar os caminhos de acesso ao servidor de armazenamento por parte do servidor de aplicativos. O que a empresa contratante esquece ou deixa de observar nesse caso, é que determinados produtos têm tempos de resposta distintos quando recebem a mensagem da alteração no caminho de acessos.
2. Dimensionamento errôneo dos componentes de armazenamento
Outro erro absolutamente corriqueiro é não perguntar ao cliente sobre suas necessidades de tráfego de dados de entrada e saída. Tais informações são cruciais para definir a dimensão dos servidores de storage. A correta configuração desses servidores será composta por escolha de interfaces de rede, memória RAM etc. Por motivos de economia, algumas companhias optam por configurar os servidores com o mínimo aceitável de recursos. Um planejamento cauteloso prevê a configuração de um servidor de backup, capaz de reagir à requisição e responder em casos de desastres sem perturbar a dinâmica da rede.
3. Acertar o cronograma para migração das bases de dados
O pouco tempo dedicado ao diálogo com o fornacedor sobre esse processo de transferência de dados de um servidor para o outro pode ocasionar atrasos no funcionamento da plataforma virtualizada.
4. Backup, Backup e mais Backup
Deixar de conversar detalhadamente sobre as rotinas de backup e ensaios para eventuais recuperações de desastres é o quarto – e um dos mais comuns – erros nas tratativas com o fornecedor de soluções para virtualização de storage.
5. Conhece o teu hardware como a ti mesmo
Saber de cor e salteado todas as informações de compatibilidade entre o hardware em uso na estrutura é crucial.
6. invista em planejamento
Não raramente, o planejamento é dispensado por influenciar demais no preço da solução. Assim, informações importantes acerca da arquitetura, de funções e a descrição completa da dinâmica acabam faltando. Também são descritos em um plano minucioso o volume total de dados a ser transferido, um diagrama da rede, uma lista com os arquivos de sistema e um cronograma.
7. Zoneamento
É uma tática que pode custar um pouco mais. Ainda assim é a melhor maneira de garantir que servidores de aplicativo não interfiram um no desempenho do outro. É recomendado que os switches sejam distribuídos com vistas a atender o zoneamento de 1:1.
8. Testes, ensaios & Cia
Não existe testar demais. Da mesma forma, documentação nunca é dispensável. Tanto os ensaios quanto as informações que guarnecem soluções diferentes, devem ser absorvidos pela companhia e atualizados constantemente. Essas informações são importantes na hora de eventual reconstrução de ambientes ou de integração de novos componentes.
9. Manutenção
Parece esquecida junto com o monitoramento. Paradoxal, se entendermos que a função desses sistemas é crítica. As rotinas de verificação das funções e o estado do sistema devem ser examinadas constantemente e não devem ser relegados a segundo plano em função de falta de tempo ou da interrupção dos sistemas de alta disponibilidade.
10. Capacitação
Não se iluda. O fato da falta de capacitação estar no final dessa lista serve para lembrá-lo que todos os fatores anteriores são evitáveis se os profissionais forem apropriadamente capacitados para dar conta da administração do sistema virtualizado.

segunda-feira, 13 de maio de 2013

CIO: Armazenamento para a virtualização de aplicações críticas, a maior das dores de cabeça na hora de virtualizar


Quatro em cada dez profissionais de TI ressaltam que problemas de desempenho e o alto custo de armazenamento são as principais barreiras para a virtualização de aplicações críticas


A virtualização é uma tecnologia que já está presente de alguma forma na maioria das empresas. No entanto, se falamos de virtualizar aplicações críticas de negócios, a tendência muda drasticamente.
E são muitas as organizações que continuam a ver barreiras grandes e, muitas vezes  intransponíveis, para tomar este passo, segundo estudo recente da  DataCore Software , com 477 gestores internacionais de TI.
Segundo o estudo, 44% dos inquiridos dizem que os custos desproporcionais associados com o armazenamento são um "grande obstáculo" para virtualizar as cargas de trabalho.
Além disso, 42% dos entrevistados dizem o mesmo sobre a diminuição no desempenho ou falhas em atender às expectativas de desempenho.
Assim, o armazenamento atrasa a maioria dos projetos de virtualização. Isso inclui iniciativas relacionadas com o servidor e o desktop. Pouco mais de metade (52%) dos inquiridos diz que as contas de armazenamento comprometem  mais de 25% do orçamento de virtualização.
As organizações também não estão usando armazenamento em nuvem para atender suas necessidades de armazenamento. Oito em cada 10 dizem que não usam qualquer armazenamento em nuvem pública.
Por outro lado, e apesar da incrível atenção que a indústria está dando a discos de estado sólido, um em cada dois entrevistados diz ter em mente o uso de Flash/SSD para seus projetos de virtualização. Mas, ao responderem sobre que tipo de armazenamento está sendo utilizado hoje em seu ambiente, disse já estar empregando  Flash/SSD.
Além disso, os orçamentos de armazenamento de TI estão proporcionalmente menores se compararmos 2013 com 2012. Mais de metade (51%) dos entrevistados diz que seu orçamento de armazenamento manteve-se estável, mas 20% dizem que seu orçamento foi reduzido, contra 14% em 2012. Enquanto 38% afirmaram que seu orçamento de armazenamento aumentou, em 2012, apenas 30% disseram o mesmo este ano.

quinta-feira, 2 de maio de 2013

Relatório de Pesquisa: a adoção da virtualização é desacelerado pelos altos custos de armazenamento e problemas de desempenho

DataCore Software divulgou os resultados de sua terceira pesquisa anual do estado de virtualização

Os resultados completos (em Inglês) estão disponíveis em: Terceira Pesquisa Anual do Estado de virtualização de DataCore Software

DataCore Software Study: Virtualization Hindered by High Storage Costs, Performance

segunda-feira, 29 de abril de 2013

Livro Branco: A virtualização de armazenamento e auto-tiering

Armazenamento Automático em Camadas 
Automated Storage Tiering
DataCore implementa auto-tiering software fora dos sistemas de armazenamento, em vez de a confinar a qualquer um deles. Não requer nenhum hardware especial. A mais recente tecnologia SSD pode estar lado a lado com seus antigos discos rígidos. SANsymphony-V assume o controlo dos mesmos com igual facilidade.


Whitepaper: A virtualização de armazenamento e Auto-tiering 


segunda-feira, 15 de abril de 2013

A virtualização de armazenamento está passando por uma gran transformação


Para saber mais de um hipervisor de armazenamento:

DataCore Software anuncia novas funcionalidades e um desempenho 50% mais rápido para o os aplicativos de nível 1 com o hipervisor de armazenamento SANsymphony-V R9


A virtualização de armazenamento está passando por uma gran transformação

É evidente que o grande sucesso de VMware y Microsoft Híper demonstram que a virtualização dos servidores oferecem um valor convincente. Da mesma forma que a armazenagem hipervisor e a virtualização a nível de armazenamento, são fundamentais para desbloquear as cadeias do hardware que foram uma âncora para a armazenagem da próxima geração dos centros de datos.

A definição da arquitectura do software de armazenagem  cria a necessidade de um hipervisor de armazenagem

O mesmo pensamento que mudou nossos pontos de vista sobre o provedor, é necessário para redireccionar a armazenagem; e o software inteligente é o catalisador. Em resumem, o papel principal do hipervisor de armazenagem é virtualizar os recursos de armazenagem para conseguir os mesmos benefícios - agilidade, eficiência e flexibilidade – características que proporcionam a tecnologia do híper visor aos processadores e memorias.

Agora, o software pegará seu correcto lugar na mesa e começarão a transformar nossa visão sobre a armazenagem. 

O objectivo final: Uma melhor experiencia através da aplicação definida pelo software de armazenagem.

A virtualização mudou a informática e as aplicações que dependemos para administrar os nossos negócios. Ainda assim, o armazenamento empresarial e a nuvem estão dominados pela mentalidade física, e definidos pelo hardware. Temos que mudar nossa forma de pensar e considerar como a armazenagem afecta a experiência da aplicação e ver como a armazenagem definida pelo software, com serviços de armazenagem e características disponíveis para toda empresa e não só incrustado em um dispositivo de hardware central.

Porquê comprar um hardware específico somente para obter a função de um software? Porquê limitar uma função a uma única plataforma frente ao seu uso em toda empresa? Esse é um pensamento antigo, anterior a virtualização, assim é como a industria de servidores funcionava. Hoje em dia, com VMware o Hyper-V, pensamos em como desdobrar as máquinas virtuais versus "se estão executando em um sistema Dell, HP, Intel o IBM?"

A armazenagem está passando por uma transformação similar, no próximo ano, será o software inteligente a qual liderará a industria hacia sua evolução, que estará definida mundialmente pelo software.

George Teixeira é CEO e presidente de DataCore Software. A companhia de software que actua como plataforma de infra-estrutura para solucionar o grande problema do estancamento da armazenagem, mediante a eliminação das iniciativas da armazenagem relacionadas com as barreiras que fazem da virtualização um processo difícil e caro.

sexta-feira, 5 de abril de 2013

DataCore Software: Dez razões e motivos para que uma empresa adopte a Virtualização de Armazenamento


1. Redução de custos
A Virtualização de Armazenamento é a tecnologia chave para fazer um uso mais eficaz dos recursos disponíveis que permitem guardar informação. A funcionalidade Thin Provisioning faz da pré-localização da capacidade de guardar informação, uma coisa do passado. A Uhlmann, por exemplo, teve uma taxa de retorno imediata logo na primeira fase de implementação desta tecnologia, ao permitir uma libertação da capacidade de armazenar informação, superior a 60%.
A Virtualização de Armazenamento permite fazer um uso mais eficaz do hardware existente, ao proteger o valor dos investimentos em equipamentos. A Schiesser, descobriu que era possível re-utilizar o hardware existente, o que significa uma poupança de 50% no capital investido. Já a Oertlinghaus, pode continuar a trabalhar com os seus storage arrays existentes, permitindo a implementação de uma solução genuína de alta disponibilidade baseada em VMware (dual path, dual storage) a um custo inferior ao orçamentado.
A Virtualização de Armazenamento é a única opção com eficácia para estabelecer uma verdadeira infraestrutura multi-plataforma. Por exemplo, o SANSymphony permitiu à AXA Seguros, criar uma infraestrutura com várias camadas (multi-tier), ligando HDS high-end storage systems com HDS mid-range systems. A AXA Seguros, recuperou o investimento no SANSymphony num curto espaço de tempo, economizando €1.5 milhões anualmente, em despesas de manutenção.

2. Simplicidade
O uso de software de Virtualização como interface central para a infraestrutura base de armazenamento pode reduzir drásticamente os custos de gestão e administração. Contudo, recorde que a consolidação dos recursos de armazenamento numa plataforma virtualizada só será eficaz com uma implementação a todos os níveis não dependente de hardware.
É de notar uma redução de pessoal técnico, até por empresas com volumes superiores a 100TB, onde só é necessário um administrador e um helpdesk. A tecnologia de Virtualização de Armazenamento abre caminho para uma verdadeira abordagem integral da gestão de armazenamento. Assim que o sistema esteja estabelecido, a tecnologia assegura a uniformidade de todas as operações de armazenamento e uma administração standardizada. Esta realidade faz com que não seja necessário a contratação de especialistas qualificados e formação especial para todas as novas plataformas.

3. Aumento de Flexibilidade
Assim que o software de virtualização é instalado em qualquer servidor – processo simples de rotina – pode utilizar uma mistura de vários protocolos de armazenamento - FC, SCSI, SAS e SATA. Desta forma, deixa de ficar “amarrado” a qualquer marca ou tecnologia em particular, permitindo-lhe ainda configurar ambientes de teste e produção em poucos minutos.
Também beneficia de uma ampla escolha de possibilidades quando se trata de substituição de componentes e actualizações.
Todos os sistemas têm a mesma aparência. Para a PAPSTAR, passou a ser possível agrupar os requisitos de armazenamento de software de engenharia em poucos minutos.

4. Monitorização e Análise transparentes
As soluções avançadas de Virtualização de Armazenamento estão localizadas no data path (inband), permitindo a monitorização e análise de todas as operações de escrita/leitura. O sistema inclui ferramentas de relatórios e análise para a documentação de toda a insfraestrutura de armazenamento, administração e facturação interna e externa. Isto permite a localização simples e imediata dos possíveis estrangulamentos de desempenho e a identificação das áreas onde se está a produzir um aumento considerável de dados. A análise do histórico dos dados, fornece uma base sólida para a tomada de decisões e como classificar os problemas.

5. Testes mais fáceis
A experiência ganha através de vários testes e instalações de ensaio, dão-nos orientações valiosas para situações de emergência. Testes em ambientes de produção podem ser configurados em ambientes virtuais num ápice. A Virtualização de Servidores no Schwabing Hospital em Munique, por exemplo, permitiu a criação de um servidor de testes, incluindo armazenamento, em menos de 30 minutos. Esse mesmo sistema pode depois passar a produção com especificações pré-definidas e subsequentemente deslocadas para as plataformas de hardware necessárias.

6. Optimização dos processos de negócio
A correcta implementação de um sistema de armazenamento, favorece todos os processos das TI e o seu negócio, através da alta disponibilidade, segurança e aplicações focadas para o desempenho, sempre que o software de virtualização seja executado nos servidores de domínio do armazenamento e utilize as funcionalidades da cache. Nesta situação, a Virtualização de armazenamento e de servidores complementam-se de uma forma extremamente eficaz, sem um acréscimo significativo em termos de custos de staff. A empresa municipal Augsburg Stadtwerke conseguiu triplicar a sua capcidade de desempenho através de uma configuração simples de controladores paralelos.

7. Armazenamento em camadas (Tiers)
Por razões de segurança e desempenho, o armazenamento necessita de uma rede independente. As soluções de hoje em dia permitem o uso das tecnologias em modo hibrído, de acordo com as suas necessidades. As plataformas de Virtualização oferecem conectividade universal, fornecimento global, soluções à prova de falha de todas as operações de negócio, desde o nível de aplicações até ao armazenamento, independentemente dos protocolos (FC, iSCSI, ambientes mistos) e níveis de serviço.

8. Funções escaláveis de armazenamento
Com o mirroring síncrono ou asíncrono a Virtualização permite à arquitectura de dados uma total redundância. O mirroring pode ser executado através de diferentes redes (iSCSI, FC, ou hibrída). Uma plataforma de armazenamento consolidada, fornece muitas opções de implementação. Quando a Virtualização é utilizada de uma forma centralizada, o thin provisioning e outras funções automatizadas, fornecem as bases essenciais para as funções de armazenamento, backup de dados e replicação, backup de datacenters e procedimentos de testes.

9. Migração de dados bem sucedida
Esta tecnologia inclui poderosas ferramentas para uma completa e ininterrupta migração de dados de ou para a plataforma de Virtualização, eliminando as necessidades de consumo de tempo e custos associados à migração dos dados.
A infraestrutura virtualizada significa que qualquer migração (qualquer OS para qualquer meio de armazenamento) pode ser concluída rápida e eficientemente, mesmo através de grandes distâncias.
A Degussa AG, utilizou esta função com um enorme sucesso, ao trocar toda a sua infraestrutura de hardware, sem downtime.

10. Capacidade CDP
Os serviços adicionais de Virtualização para CDP (Continuous Data Protection) também estão incluídos. Este serviço, elimina praticamente todos os problemas mais frequentes de operações de recuperação de dados, desde que a tecnologia permita ter qualquer volume de dados imediatamente disponível. A protecção de conteúdos também podem ser fornecidos juntamente a protecção física de dados. Isto faz com que os processos de backup de dados e recuperação sejam muito mais rápidos em ambientes de armazenamento consolidado.

domingo, 31 de março de 2013

El almacenamiento basado en software cambiará los Data Centers y la arquitectura del software de almacenamiento crea la necesidad de un hipervisor de almacenamiento

El almacenamiento basado en software cambiará los Data Centers.Las tecnologías Flash y la virtualización de aplicaciones de nivel uno están agitando el mundo corporativo.

Las tecnologías Flash y la virtualización de aplicaciones de nivel uno están agitando el mundo corporativo. Por George Teixeira, Presidente y CEO de DataCore Software.
Ya hemos visto los primeros pasos en un intento de definir las arquitecturas del software de almacenamiento. Esto ha provocado una serie de tendencias cruciales que están remodelando y que tienen un impacto importante en el mundo de almacenamiento empresarial, preparando el escenario del año 2013 para que se convierta en el año en el cual el almacenamiento basado en software cambiara los Datacenters.
El cambio de hardware hacia un modelo basado en un software de virtualización, apoya las misiones cruciales de las aplicaciones del negocio que han cambiado la creación de la arquitectura de los ordenadores, redes y de los niveles de almacenamiento, pasando de ser “estáticas” a “dinámicas”. El Software define las bases de agilidad, interacción de los usuarios y la construcción de una infraestructura virtual a largo término, que se adapta a los cambios. El objetivo final es incrementar la productividad del usuario y mejorar la experiencia de la aplicación.
 
Tendencia #1: Las aplicaciones nivel 1 se virtualizán y el rendimiento es crucial
Los esfuerzos para virtualizar aún más el data center continúan y veremos un aumento aún mayor de la movilización de las aplicaciones de nivel 1 (ERP, databases, sistemas de e-mail, OLTP etc.) hacia las plataformas de virtualización. Los factores claves que impulsarán este cambio son los económicos, así como la obtención de una mejor productividad.
Sin embargo, los obstáculos principales para la virtualización de aplicaciones de nivel 1 están en gran medida relacionados con el almacenamiento.
Trasladar el almacenamiento intensivo de las cargas de trabajo a máquinas virtuales (VMs) puede ser de gran impacto para el rendimiento y la disponibilidad. Por lo tanto, el almacenamiento debe ser sobre-abastecido y de gran tamaño. Además, a medida que el negocio se consolida en las plataformas virtuales, deben gastar más para alcanzar los altos niveles de redundancia y continuidad del negocio; sin contar las preocupaciones relacionadas con el rendimiento y los cuellos de botella.
Los altos costes y la complejidad de sobredimensión eliminan los beneficios y ponen el almacenamiento en un bucle sin salida. Con estos puntos en mente, las empresas y los departamentos IT buscan un enfoque más inteligente, con unos costes más rentables, al darse cuenta de que añadir “más hardware al problema” no es la solución más práctica.
Tendencia #2: Las tecnologías SSD flash serán utilizadas en cualquier parte, el almacenamiento no es solo los dispositivos de disco
Otra gran tendencia relacionada con la virtualización de aplicaciones de nivel 1 es la proliferación de tecnologías basadas en SSD flash. La razón es simple, los discos de almacenamiento son dispositivos mecánicos de rotación y no tan agiles como aquellos basados en memorias electrónicas de alta velocidad.
Las memorias flash han estado a nuestro alrededor durante años, al principio eran una solución demasiado cara para su adopción. Aunque son más costosas que la rotación de los dispositivos hardware, su uso masivo en tabletas y teléfonos móviles están conduciendo su precio a la baja. Incluso así, la tecnología flash se desgasta, y un uso continuado de aplicaciones que se reescriben continuamente pueden impactar en su vida útil.
Sí, los dispositivos flash son una parte inevitable de nuestro futuro y necesitan ser incorporados en nuestra visión de arquitectura futura. La economía nos conduce a un mundo que requiere diferentes niveles de almacenamiento, basados en memorias menos caras y hacia discos menos lentos. Esto, a su vez, aumenta la demanda de las empresas en cuanto a la utilización de un software de auto-tiering, capaz de optimizar el rendimiento a un precio atractivo a través del traslado de los datos con una solución de nivel más rentable, que proporcione a la vez un rendimiento aceptable.
Tendencia #3: Más almacenamiento requiere más automatización
Hay una demanda constante e insaciable que requiere más capacidad de almacenamiento de datos, esta demanda sigue creciendo más del 50 por ciento anual. Sin embargo, la necesidad no se centra únicamente en más disco hardware para satisfacer la capacidad bruta. En su lugar, los usuarios quieren automatización, gestión automática del almacenamiento, escalabilidad, rápido aprovisionamiento, gran rendimiento, y los más altos niveles de continuidad del negocio.
Una vez más, se necesita un “software inteligente” para simplificar y automatizar la gestión del almacenamiento.
Tendencia #4: La definición de la arquitectura del software de almacenamiento importará más que el hardware
Estas tendencias – y mejoras TI para los usuarios, hacen que el almacenamiento hardware sea intercambiable con infraestructuras virtuales – tendremos un impacto profundo acerca de cómo pensamos, compramos y utilizamos el almacenamiento. En el 2013 y adelante, las tecnologías TI necesitarán incorporar el software de almacenamiento definitivamente como un elemento esencial de los data centers.
Debido a que los usuarios TI de las compañías actuales están acostumbrados a la rapidez y dinamismo de la sociedad actual, no pueden verse atrapados en arquitecturas rígidas de hardware por cable. La infraestructura se construye sobre tres pilares: computación, redes y almacenamiento – y en cada una de ellas, las decisiones relacionadas con el hardware serán secundarias y vendrán dictadas por el software e impulsadas por las aplicaciones.
Es evidente que el gran éxito de VMware y Microsoft Hyper-V demuestra que la virtualización de servidores ofrece uno valor convincente. Del mismo modo que el almacenamiento hipervisor y la virtualización a nivel de almacenamiento, son fundamentales para desbloquear las cadenas del hardware que han sido un ancla para el almacenamiento de la próxima generación de centros de datos.
Tendencia #5: La definición de la arquitectura del software de almacenamiento crea la necesidad de un hipervisor de almacenamiento
El mismo pensamiento que cambió nuestros puntos de vista sobre el servidor, es necesario para reedireccionar el almacenamiento; y el software inteligente es el catalizador. En resumen, el papel principal del hipervisor de almacenamiento es virtualizar los recursos de almacenamiento para lograr los mismos beneficios - agilidad, eficiencia y flexibilidad – características que ha proporcionado la tecnología del hipervisor a los procesadores y memorias.
Este año, el software cogerá su asiento correcto en la mesa y empezará a transformar nuestra visión sobre el almacenamiento.
El objetivo final: Una mejor experiencia a través de la aplicación definida por el software de almacenamiento
La virtualización ha cambiado la informática y las aplicaciones que dependemos para administrar a nuestros negocios. Aún así, el almacenamiento empresarial y la nube están dominados por la mentalidad física, y definida por el hardware. Tenemos que cambiar nuestra forma de pensar y considerar cómo el almacenamiento afecta a la experiencia de la aplicación y ver cómo el almacenamiento definido por el software, con servicios de almacenamiento y características disponibles para toda la empresa y no sólo incrustado en un dispositivo de hardware central.
¿Por qué comprar un hardware específico sólo para obtener la función de un software? ¿Por qué limitar una función a una única plataforma frente a su uso en toda la empresa? Este es el pensamiento antiguo, anterior a la virtualización, así es como la industria de servidores funcionado. Hoy en día, con VMware o Hyper-V, pensamos en cómo desplegar máquinas virtuales versus "se están ejecutando en un sistema Dell, HP, Intel o IBM?"
El almacenamiento está pasando por una transformación similar, y en el próximo año, será el software inteligente el que liderará la industria hacia su evolución, que estará definida mundialmente por el software.
George Teixeira es CEO y presidente de DataCore Software. La compañía de software que actúa como plataforma de infraestructura para solucionar el gran problema del estancamiento del almacenamiento, mediante la eliminación de las iniciativas de almacenamiento relacionadas con las barreras que hacen de la virtualización un proceso difícil y caro.