Hogar En las noticias 10 Big Data que hacer y que no hacer

10 Big Data que hacer y que no hacer

Tabla de contenido:

Anonim

Big data es muy prometedor para todo tipo de industrias. Si estos grandes datos se aprovechan de manera efectiva y eficiente, pueden tener un impacto significativo en la toma de decisiones y el análisis. Pero el beneficio del big data solo se puede lograr si se gestiona de forma estructurada. Las mejores prácticas de big data se están estableciendo gradualmente, pero ya hay algunas cosas claras sobre qué hacer y qué no hacer en lo que respecta a la implementación.


La siguiente guía se basa en la experiencia práctica y el conocimiento obtenido de proyectos de la vida real. Aquí están mis principales cosas que hacer y qué no hacer.

Involucre a todas las secciones de negocios en una iniciativa de Big Data

Una iniciativa de Big Data no es una actividad aislada e independiente, y la participación de todas las unidades de negocio es imprescindible para obtener un valor y una visión reales. Big Data puede ayudar a las organizaciones a aprovechar grandes volúmenes de datos y obtener información sobre el comportamiento del cliente, eventos, tendencias, predicciones, etc. Esto no es posible con una instantánea de datos, que solo captura una parte del volumen total de datos procesados ​​en Big Data. Como resultado, las empresas se están concentrando cada vez más en todo tipo de datos provenientes de todas las posibles avenidas / unidades de negocios para comprender el patrón correcto.

Evalúe todos los modelos de infraestructura para la implementación de big data

El volumen de datos y su gestión es una preocupación importante para cualquier iniciativa de big data. Debido a que Big Data trata con petabytes de datos, la única solución para administrarlo es mediante el uso de centros de datos. Al mismo tiempo, el componente del costo debe considerarse antes de seleccionar y finalizar cualquier instalación de almacenamiento. Los servicios en la nube son a menudo la mejor opción, pero los servicios de diferentes entornos en la nube deben evaluarse para determinar cuál es el adecuado. Como el almacenamiento es uno de los componentes más importantes en cualquier implementación de Big Data, es un factor que debe evaluarse con mucho cuidado en cualquier iniciativa de Big Data. (Obtenga otra perspectiva en el desafío Big Data Challenge de hoy deriva de la variedad, no del volumen o la velocidad).

Considere las fuentes de datos tradicionales en la planificación de big data

Existen varias fuentes de big data y la cantidad de fuentes también aumenta día a día. Este gran volumen de datos se utiliza como entrada para el procesamiento de big data. Como resultado, algunas compañías piensan que las fuentes de datos tradicionales son inútiles. Esto no es cierto, ya que estos datos tradicionales son un componente crítico para el éxito de cualquier historia de big data. Los datos tradicionales contienen información valiosa, por lo que deben usarse junto con otras fuentes de datos grandes. El valor real de los grandes datos solo se puede derivar si se tienen en cuenta todas las fuentes de datos (tradicionales y no tradicionales). (¡Obtenga más información en Take That, Big Data! Por qué los datos pequeños pueden tener un mayor impacto).

Considere un conjunto consistente de datos

En un entorno de big data, los datos provienen de varias fuentes. El formato, la estructura y los tipos de datos varían de una fuente a otra. La parte más importante es que los datos no se limpian cuando se trata de su entorno de big data. Por lo tanto, antes de confiar en los datos entrantes, debe verificar la consistencia mediante observación y análisis repetitivos. Una vez que se confirma la consistencia de los datos, se puede tratar como un conjunto consistente de metadatos. Encontrar un conjunto consistente de metadatos mediante la observación cuidadosa del patrón es un ejercicio esencial en cualquier planificación de big data.

Distribuir los datos.

El volumen de datos es una preocupación importante cuando consideramos un entorno de procesamiento. Debido al gran volumen de datos que maneja el Big Data, el procesamiento en un solo servidor no es posible. La solución es un entorno Hadoop, que es un entorno informático distribuido que se ejecuta en hardware básico. Da el poder de un procesamiento más rápido en múltiples nodos. (Obtenga más información en 7 cosas que debe saber sobre Hadoop).

Nunca confíes en un único enfoque de análisis de big data

Existen varias tecnologías disponibles en el mercado para procesar big data. La base de todas las tecnologías de big data es Apache Hadoop y MapReduce. Por lo tanto, es importante evaluar la tecnología correcta para el propósito correcto. Algunos de los enfoques analíticos importantes son el análisis predictivo, el análisis prescriptivo, el análisis de texto, el análisis de flujo de datos, etc. La selección del método / enfoque apropiado es importante para lograr el objetivo deseado. Es mejor evitar depender de un solo enfoque, pero investigar varios enfoques y seleccionar la combinación perfecta para su solución.

No comience una iniciativa de big data grande antes de estar listo

Siempre se recomienda comenzar con pequeños pasos para cualquier iniciativa de big data. Por lo tanto, comience con proyectos piloto para obtener experiencia y luego realice la implementación real. El potencial de los grandes datos es muy impresionante, pero el valor real solo se puede lograr una vez que reduzcamos nuestros errores y ganemos más experiencia.

No use datos de forma aislada

Las grandes fuentes de datos están dispersas a nuestro alrededor y están aumentando día a día. Es importante integrar todos estos datos para obtener resultados analíticos correctos. Existen diferentes herramientas disponibles en el mercado para la integración de datos, pero deben evaluarse adecuadamente antes de su uso. La integración de big data es una tarea compleja ya que los datos de diferentes fuentes tienen un formato diferente, pero es muy necesario para obtener buenos resultados analíticos.

No ignore la seguridad de los datos.

La seguridad de los datos es una consideración importante en la planificación de big data. Inicialmente, (antes de realizar cualquier procesamiento), los datos están en petabytes, por lo que la seguridad no se implementa estrictamente. Pero después de un cierto procesamiento, obtendrá un subconjunto de datos que proporciona alguna información. En este punto, la seguridad de los datos se vuelve esencial. Cuanto más se procesan y ajustan los datos, más valioso se vuelve a menudo para una organización. Estos datos de salida ajustados son propiedad intelectual y deben protegerse. La seguridad de los datos debe implementarse como parte del ciclo de vida de Big Data.

No ignore la parte de rendimiento del análisis de big data

El resultado del análisis de big data solo es útil cuando proporciona un buen rendimiento. Big data ofrece más información basada en el procesamiento de una gran cantidad de datos a una velocidad más rápida. Por lo tanto, es esencial gestionarlo de manera efectiva y eficiente. Si el rendimiento de Big Data no se gestiona con cuidado, causará problemas y hará que todo el esfuerzo carezca de sentido.


En nuestra discusión, nos hemos centrado en lo que se debe y no se debe hacer en las iniciativas de big data. El big data es un área emergente y, cuando se trata de implementación, muchas empresas aún están en la fase de planificación. Es esencial comprender las mejores prácticas de big data para minimizar el riesgo y los errores. Los puntos de discusión se han derivado de experiencias de proyectos en vivo, por lo que proporcionará algunas pautas para que una estrategia de big data sea exitosa.

10 Big Data que hacer y que no hacer