Hogar Tendencias ¿Cómo pueden escalarse mejor los entornos de almacenamiento de datos existentes para satisfacer las necesidades de análisis de big data?

¿Cómo pueden escalarse mejor los entornos de almacenamiento de datos existentes para satisfacer las necesidades de análisis de big data?

Anonim

Q:

¿Cómo pueden escalarse mejor los entornos de almacenamiento de datos existentes para satisfacer las necesidades de análisis de big data?

UN:

Los proyectos de almacenamiento de datos individuales deben evaluarse caso por caso. En general, al tratar de estirar un diseño de almacén de datos existente para manejar mejor el análisis de big data, hay un proceso central para descubrir qué debe hacerse. Los profesionales de TI pueden llamar a esto "ampliación" o "ampliación".

Seminario web: Big Iron, Meet Big Data: liberación de datos de mainframe con Hadoop y Spark

Registrarse aquí

La ampliación de escala generalmente implica buscar una potencia de procesamiento suficiente, obtener una cantidad suficiente de memoria y acomodar actividades de servidor más potentes para manejar todos los conjuntos de datos más grandes que procesará la empresa. Por el contrario, el escalado horizontal puede significar reunir grupos de hardware de servidor y conectarlos en red para acorralar grandes datos.

Algunos expertos en TI han sugerido que el método más común con Apache Hadoop y otras herramientas y plataformas populares de big data es escalar y agrupar hardware para lograr los efectos deseados. Sin embargo, otros señalan que con la tecnología actual, un almacén de datos puede ampliarse utilizando una estrategia de adquisición que agrega recursos a un servidor, como obtener un mayor número de núcleos de procesamiento junto con una mayor cantidad de RAM.

Ya sea que escalen o escalen, los almacenes de datos necesitan activos de hardware físico adicionales para poder manejar las cargas de trabajo de datos más grandes. También necesitan una administración humana adicional, lo que significa más capacitación para los equipos internos. Se necesita mucha planificación en el proyecto para determinar qué tipo de estrés y presión tendrán las cargas de trabajo de datos más grandes en un sistema heredado existente para equiparlo para un nuevo ecosistema de big data. Un gran problema son los cuellos de botella de almacenamiento, que requieren actualizaciones a los centros de almacenamiento, y otros tipos de cuellos de botella de rendimiento que pueden obstaculizar un sistema naciente si no se abordan.

¿Cómo pueden escalarse mejor los entornos de almacenamiento de datos existentes para satisfacer las necesidades de análisis de big data?