Tabla de contenido:
Definición - ¿Qué significa decimal?
En el contexto de la computación, decimal se refiere al sistema de numeración de base 10. Es la forma en que los humanos leen los números. En general, decimal puede ser cualquier cosa que se base en el número 10. Comprender cómo se relaciona el decimal con binario, octal y hexadecimal es esencial para quienes trabajan en la industria de TI.
Otros términos para decimal son base-10 y denary.
Techopedia explica Decimal
En matemáticas, decimal puede referirse al sistema de numeración decimal, notación decimal o cualquier número escrito en notación decimal. Los números decimales se escriben de acuerdo con su valor posicional. El entero se escribe a la izquierda del punto decimal y cualquier número fraccionario se escribe a la derecha (por ejemplo, 1.023).
El uso del decimal es tan antiguo como la historia humana. El uso común del decimal puede deberse a los diez dedos de los humanos (que también podría llamarse bi-quinary, ya que hay cinco dedos en cada mano). El decimal se usaba en calculadoras antiguas como el cálculo de la vara china y el ábaco. El matemático griego Arquímedes usó poderes de 10 8 (10, 000 × 10, 000, o "una miríada de miríadas") para estimar el tamaño del universo.
Base-10 usa los números 0-1-2-3-4-5-6-7-8-9, en oposición al 0-1 usado en binario. Las computadoras modernas cuentan en binario, pero también ha habido computadoras decimales. El motor analítico de Charles Babbage fue diseñado usando decimal. Otras computadoras tempranas como ENIAC e IBM 650 usaban base-10 internamente.
