Tabla de contenido:
- Definición: ¿Qué significa el Sistema de archivos distribuidos de Hadoop (HDFS)?
- Techopedia explica el Sistema de archivos distribuidos de Hadoop (HDFS)
Definición: ¿Qué significa el Sistema de archivos distribuidos de Hadoop (HDFS)?
El Sistema de archivos distribuidos de Hadoop (HDFS) es un sistema de archivos distribuido que se ejecuta en hardware estándar o de gama baja. Desarrollado por Apache Hadoop, HDFS funciona como un sistema de archivos distribuido estándar, pero proporciona un mejor rendimiento y acceso a los datos a través del algoritmo MapReduce, alta tolerancia a fallas y soporte nativo de grandes conjuntos de datos.
Techopedia explica el Sistema de archivos distribuidos de Hadoop (HDFS)
El HDFS almacena una gran cantidad de datos colocados en varias máquinas, generalmente en cientos y miles de nodos conectados simultáneamente, y proporciona confiabilidad de datos al replicar cada instancia de datos como tres copias diferentes: dos en un grupo y una en otra. Estas copias pueden ser reemplazadas en caso de falla.
La arquitectura HDFS consta de clústeres, a cada uno de los cuales se accede a través de una única herramienta de software NameNode instalada en una máquina separada para monitorear y administrar el sistema de archivos de ese clúster y el mecanismo de acceso del usuario. Las otras máquinas instalan una instancia de DataNode para administrar el almacenamiento en clúster.
Debido a que HDFS está escrito en Java, tiene soporte nativo para las interfaces de programación de aplicaciones (API) de Java para la integración y accesibilidad de aplicaciones. También se puede acceder a través de navegadores web estándar.