Tabla de contenido:
Definición - ¿Qué significa Hadoop Common?
Hadoop Common se refiere a la colección de utilidades y bibliotecas comunes que admiten otros módulos de Hadoop. Es una parte o módulo esencial de Apache Hadoop Framework, junto con Hadoop Distributed File System (HDFS), Hadoop YARN y Hadoop MapReduce. Al igual que todos los demás módulos, Hadoop Common supone que las fallas de hardware son comunes y que Hadoop Framework debe manejarlas automáticamente en el software.
Hadoop Common también se conoce como Hadoop Core.