Tabla de contenido:
- Definición: ¿Qué significa Open-Source Big Data Analytics?
- Techopedia explica el análisis de Big Data de código abierto
Definición: ¿Qué significa Open-Source Big Data Analytics?
El análisis de Big Data de código abierto se refiere al uso de software y herramientas de código abierto para analizar grandes cantidades de datos con el fin de recopilar información relevante y procesable que una organización puede usar para promover sus objetivos comerciales. El jugador más importante en el análisis de big data de código abierto es Hadoop de Apache: es la biblioteca de software más utilizada para procesar enormes conjuntos de datos en un grupo de computadoras que utilizan un proceso distribuido para el paralelismo.
Techopedia explica el análisis de Big Data de código abierto
El análisis de big data de código abierto utiliza herramientas y software de código abierto para ejecutar análisis de big data mediante el uso de una plataforma de software completa o varias herramientas de código abierto para diferentes tareas en el proceso de análisis de datos. Apache Hadoop es el sistema más conocido para el análisis de big data, pero se requieren otros componentes antes de poder armar un sistema de análisis real.
Hadoop es la implementación de código abierto del algoritmo MapReduce, creado por primera vez por Google y Yahoo, por lo que es la base de la mayoría de los sistemas de análisis actuales. Muchas herramientas de análisis de big data hacen uso de código abierto, incluidos sistemas de bases de datos robustos como MongoDB de código abierto, una base de datos NoSQL sofisticada y escalable muy adecuada para aplicaciones de big data, así como otros.
Los servicios de análisis de big data de código abierto abarcan:
- Sistema de recogida de datos
- Centro de control para administrar y monitorear clusters
- Biblioteca de aprendizaje automático y minería de datos
- Servicio de coordinación de aplicaciones
- Calcular el motor
- Marco de ejecución