Protección de Datos completa con Omnistack

In septiembre 1, 2016

Resumen:  Tomar copias en uno o más centros de datos en el transcurso de un día, proporciona una «póliza de seguro» en caso de que se pierda o dañe la copia primaria de los datos. Una estrategia eficaz de protección de datos incluye copias locales de seguridad para recuperación operacional y copias de respaldo remoto en otro centro de datos alejado, para recuperación de desastres.

Uno de los principales problemas que afecta la protección de datos en los últimos años ha sido el crecimiento de datos.  Con más datos para respaldar y recuperar, es difícil de completar los procesos de copia dentro de las ventanas de copia de seguridad prescritos.  También es difícil de almacenar y transferir más datos a través de la LAN, SAN o WAN .  Estos desafíos de protección de datos son resueltos de una manera sencilla y eficiente con SimpliVity Omnistack.


Protección de Datos es cualquier proceso o tecnología que hace una copia secundaria de los datos. Tomando copias en uno o más puntos en el transcurso de un día proporciona una «póliza de seguro» se le pierde o daña la copia primaria de los datos. Una estrategia eficaz de protección de datos incluye copias locales de copia de seguridad para recuperación operacional, y copias de respaldo remoto de recuperación de desastres en un lugar fuera del sitio.

Suena simple, ¿verdad? No exactamente. Lotes pueden ir mal con las estrategias de protección de datos. Hay un montón de factores a considerar: ¿cómo se hace la copia, donde se almacena, el tiempo que se mantiene, con qué frecuencia se hacen copias, ¿cuánto tiene que ser copiado, ¿cuánto tiempo se tarda en hacer la copia, y más . Y, justo cuando piensas que has perfeccionado la protección de datos en su entorno, algo cambia y altera un proceso de protección de datos, programación, o componente establecido.

El ciclo de perfeccionamiento de la protección de datos y luego tener algún catalizador evento «break» es bastante común. Es frustrante y puede ser costoso: en el tiempo, el riesgo para su negocio, y con su presupuesto de protección de datos.

Uno de los principales problemas que afectan la protección de datos en los últimos años ha sido el crecimiento de datos. Con más datos para respaldar y recuperar, es difícil de completar los procesos de copia dentro de las ventanas de copia de seguridad prescritos. También es difícil de almacenar y transferir más datos a través de la LAN, SAN o WAN . Estos desafíos de protección de datos probablemente han causado a adaptarse continuamente – y probablemente hacer importantes inversiones en hardware y / o software de protección de datos.

Protección de datos – centros de datos virtualizados

La virtualización de su centro de datos es uno de esos eventos catalíticos que de protección «rompe» los datos. Pre-virtualización, es probable que aprovechó el software tradicional de copia de seguridad y realiza copias de seguridad a nivel de archivo y recuperación de disco y / o cinta. Post- virtualización , que probablemente estaban adaptando su protección de datos para aprovechar las API de hipervisor para facilitar la copia de seguridad de imagen fuera de la LAN de las máquinas virtuales. El interruptor ayudó a eliminar la ineficiencia y la contención de recursos, pero requiere más componentes de protección de datos – y los costos.

En un ambiente de pre-virtualización, un enfoque de protección de datos aprovechando las instantáneas basadas en arreglos y replicación tenía sentido. Hubo un mapeo uno a uno de una aplicación en un servidor físico a un LUN asignado (almacenamiento en bloque) o una acción (almacenamiento de archivos). Políticas a nivel de LUN para la protección de datos eran sencillo y simple.

La misma estrategia de protección de datos para cargas de trabajo virtuales introduce eficiencia y gestión de retos. Después de virtualización, existe una relación de muchos a uno entre las aplicaciones y el almacenamiento. Un único almacén de datos en un LUN contiene los datos de múltiples máquinas virtuales. Las políticas aplicadas a un LUN se aplican a todas las máquinas virtuales que comparten el almacén de datos. Realizar una instantánea de máquinas virtuales a nivel de almacén de datos elimina el impacto de la protección de datos en los recursos del servidor. Sin embargo, ahora la instantánea incluye una mezcla de cargas de trabajo y es más difícil de capturar backups consistentes con las aplicaciones. Políticas para la frecuencia, tiempo de retención, y la copia de seguridad la ubicación no puede ser refinado para una máquina virtual individual. Cuando la política de protección de datos exige una copia fuera de las instalaciones, la instantánea replicado transferido al sitio de recuperación de desastres remota contiene todas las máquinas virtuales asociados con el LUN. No hay manera de ser selectivo.

Software de copia de seguridad, copia de seguridad de hardware, funciones de deduplicación o productos independientes y optimización WAN aumentan el costo y la complejidad de la protección de datos de la máquina virtual.

Protección de datos – Oficinas remoto / Branch

Hay pros y los contras de la centralización de la protección de datos, y hay pros y contras para el mantenimiento de la infraestructura remota para la protección de datos local. Una estrategia de centralización requiere la transferencia de los datos de copia de seguridad a través de una WAN, lo que podría extender el tiempo que tarda en completar su copia de seguridad , y ser más costoso debido a los requisitos de ancho de banda. Una estrategia distribuida le permite mantener la protección de datos en la oficina remota / rama . Sin embargo, usted puede tener retos gestión remota y solucionar problemas de protección de datos, si la oficina remota no está abierta.

Lo ideal sería que su estrategia de protección de datos de oficinas remotas debe permitir ambas copias locales y fuera de sitio, la transferencia de datos de alta eficiencia, y la gestión centralizada. Protección de datos nativa de SimpliVity acomoda de tal estrategia.

Protección de datos era una previsión – no una idea de último momento – en el diseño de la SimpliVity OmniStack infraestructura hyperconverged. Protección de datos moderno es una característica del sistema. OmniStack automatiza la protección de datos a través de las políticas de copia de seguridad de frecuencia, la retención, y el destino, y la coherencia de la aplicación. Copia de seguridad a nivel de máquina virtual en uno o más puntos en el día permite en las instalaciones de recuperación operativa para cumplir con los objetivos de recuperación más agresivos. Transferencia de ancho de banda y las copias de seguridad de almacenamiento optimizado entre OmniStack hyperconverged instancias de infraestructura en los lugares centrales y remotas permite la recuperación de desastres rentable.

Protección de Datos – Recuperación de Desastres

Su estrategia de protección de datos es incompleta sin la recuperación de desastres. Recuperación operacional pasa todos los días. Un disco o servidor falla, una tabla de base de datos se corrompe, o si tiene un defecto de software. Tener un local de copia de seguridad que se utilizará para la recuperación asegura un tiempo mínimo. La recuperación de desastres es menos común. Una falla sistémica, o un desastre natural o hecho por el hombre crea una situación en la que se requiere el acceso a los recursos físicos y copias de datos alojados en una ubicación remota.

A pesar de virtualización creado retos en la protección de datos, sino que también permitió grandes mejoras en la recuperación de desastres, incluyendo:

• El encapsulado de una máquina virtual en un solo archivo para permitir la movilidad.
• La eliminación de la necesidad de reflejar el sistema físico para la recuperación de desastres.
• La entrega de flexibilidad con las pruebas de recuperación de desastres.

La virtualización está facilitando la recuperación de desastres para las organizaciones que pensaban implementando ya era demasiado complejo o costoso. Según Gartner, «Para el 2017, el 50% de las grandes empresas utilizará los servicios de TI de conmutación por error entre varios sitios del centro de datos como su estrategia de recuperación ante desastres primaria.»

Costo ha sido siempre una consideración clave para implementar y mantener la recuperación de desastres. Además de la virtualización permite de físico a virtual y virtual a-virtuales escenarios de recuperación de desastres para reducir los gastos, infraestructura hyperconverged está afectando la economía de la recuperación de desastres.

La implementación de la infraestructura hiperconvergente OmniStack en cada uno de dos sitios, es el objetivo de recuperación de desastres para el otro, facilitando la recuperación de desastres. SimpliVity captura copias de seguridad en el sitio primario y optimiza su traslado y almacenamiento al sitio de recuperación ante desastres. SimpliVity almacena los datos en un estado deduplicado, comprimido y optimizado en el inicio ya lo largo de su ciclo de vida – incluyendo copias de protección de datos.

Protección de datos – Eficiencia con deduplicación

La deduplicación reduce las necesidades de ancho de banda y capacidad de almacenamiento al eliminar los datos redundantes y retener sólo una instancia única de los datos en medios de almacenamiento. Sustitución de datos redundantes con un puntero a los datos únicos toma significativamente menor capacidad de almacenamiento. Teniendo en cuenta las múltiples copias realizadas para la protección de datos, la introducción de la eficiencia con la deduplicación en los procesos de protección de datos es la clave.

Hay un montón de técnicas para determinar la redundancia, y, al final del día, tres pies al gato más índices de deduplicación no es lo importante. La eficiencia es clave, pero tendrá que entender los riesgos y las compensaciones de los diferentes enfoques de deduplicación. Un aspecto clave para descifrar es «inline» frente a la deduplicación «post-proceso».

Realización de deduplicación «en línea» es eficiente. Antes de los datos se escriben en el disco, la deduplicación se produce. «Proceso Publicar» puede ser menos eficiente. Eso es porque los datos se escriben en el disco en su estado normal, y luego, en un momento posterior, un proceso comienza a leer los datos y deduplicar ella. La escritura de datos en el disco, la lectura de datos desde el disco, la deduplicación de datos, y la escritura de datos en el disco retoma recursos innecesariamente. Cualquier contención de recursos ralentiza el rendimiento de la aplicación.

SimpliVity tiene deduplicación en línea. De SimpliVity plataforma de virtualización de datos es un software que abstrae los datos de su hardware subyacente y el hipervisor. Logra eficiencia de los datos mediante la deduplicación, compresión y optimización de todos los datos en la creación en tiempo real, de una vez y para siempre – y sin una penalización en el rendimiento. Una manera en que SimpliVity ofrece cero por encima en su proceso de deduplicación es a través de su tarjeta aceleradora OmniStack a los recursos «boost» para este proceso.

Una cosa que es importante tener en cuenta es que los datos se mantiene en su estado deduplicado lo largo de su ciclo de vida. Si se toma una copia de copia de seguridad , la copia se realiza en este estado optimizado. No hay proceso de datos «rehidratantes» para hacer copias de seguridad y volver a la deduplicación del después.

La deduplicación aborda otro (aún mayor) tema en el moderno centro de datos actual. Requisitos de IOPS se han incrementado en 10 veces en entornos post-virtualización. IOPS unidad de disco duro están estancados y no pueden seguir el ritmo de las necesidades actuales. El uso de más de almacenamiento flash es una forma de abordar este problema. Sin embargo, el flash es caro y es sólo apto para porciones del ciclo de vida de los datos. Preocuparse de tener la capacidad adecuada para mantener el ritmo de crecimiento de los datos ya no es lo que mantiene a los profesionales de TI en la noche. Asegurar un rendimiento adecuado / IOPS para alimentar los requisitos de aplicación es el desafío – y lograr que de la manera más eficiente.

Ahí es donde entra en juego SimpliVity deduplicación, compresión y optimización de los datos se realiza en el momento de su creación, de una vez y para siempre -. Ahorro de IOPS y mejorar el rendimiento – en todos los ciclos de vida de los datos, niveles, centros de datos, y para la nube.

Protección de datos – Almacenamiento Public Cloud

Cuando te falta un segundo sitio, se crea un agujero en su estrategia de protección de datos. ¿Dónde se almacena fuera de locales copias para la recuperación de desastres?

Por eso almacenamiento en la nube pública es cada vez más popular en las estrategias de protección de datos. Transferencia de copias, el almacenamiento de copias en un repositorio de nube pública es una medida de autoprotección si usted no mantiene un segundo sitio.

Dado que se requiere sólo la última copia completa para la recuperación de desastres y la nube pública de servicios de almacenamiento se consumen en una base por-uso – en este caso, sobre la base de la capacidad – almacenamiento en la nube pública es rentable. Es aún más convincente cuando la copia de seguridad es la capacidad y ancho de banda optimizado.

SimpliVity integra con Amazon Web Services (AWS) de almacenamiento de nube pública. Ejecución de una instancia de software OmniStack en AWS permite una integración perfecta con la infraestructura hiperconvergente de OmniStack. Esta configuración permite una política de protección a moverse con seguridad los datos hacia y desde almacenamiento en la nube pública – de la misma manera que usted mover las copias de seguridad entre los centros de datos.

Si el sistema de producción primaria y las copias locales no están disponibles debido a un desastre, puede reconstituir el ambiente físico y recuperar la copia de la computación en nube pública para reanudar las operaciones.

Fuente: Simplivity

Leave A Comment

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.