Tabla de contenido:
Definición - ¿Qué significa Hadoop Common?
Hadoop Common se refiere a la colección de utilidades y bibliotecas comunes que admiten otros módulos de Hadoop. Es una parte o módulo esencial de Apache Hadoop Framework, junto con Hadoop Distributed File System (HDFS), Hadoop YARN y Hadoop MapReduce. Al igual que todos los demás módulos, Hadoop Common supone que las fallas de hardware son comunes y que Hadoop Framework debe manejarlas automáticamente en el software.
Hadoop Common también se conoce como Hadoop Core.
Techopedia explica Hadoop Common
El paquete Hadoop Common se considera la base / núcleo del marco ya que proporciona servicios esenciales y procesos básicos como la abstracción del sistema operativo subyacente y su sistema de archivos. Hadoop Common también contiene los archivos y scripts de Java Archive (JAR) necesarios para iniciar Hadoop. El paquete Hadoop Common también proporciona código fuente y documentación, así como una sección de contribución que incluye diferentes proyectos de la Comunidad Hadoop.