Tabla de contenido:
Definición - ¿Qué significa Gigabit (Gb)?
Gigabit (Gb) es una unidad de medición de datos aplicada a velocidades de transferencia de datos digitales (DTR) y velocidades de descarga. Un Gb equivale a mil millones (1, 000, 000, 000 o 10 9 ) bits.
El Sistema Internacional de Unidades (SI) define el prefijo giga como un multiplicador 10 9 para el almacenamiento de datos, o mil millones (1, 000, 000, 000) de bits. El prefijo binario giga representa 1, 073, 741, 824 (1024 3 o 2 30 ) bits. El SI y el diferencial binario es aproximadamente 4.86 por ciento.
Techopedia explica Gigabit (Gb)
Las unidades centrales de procesamiento (CPU) están construidas con instrucciones de control de datos para bits, la unidad de medida de datos más pequeña. Los bits son dígitos binarios polarizados y magnetizados que representan datos digitales almacenados en la memoria de acceso aleatorio (RAM) o en la memoria de solo lectura (ROM). Un bit se mide en segundos y se caracteriza por valores de alto voltaje 0 (encendido) o 1 (apagado).
La mayoría de las redes aplican la versión SI de Gb cuando miden velocidades de módem, FireWire o Universal Serial Bus (USB), mientras que la versión binaria de Gb rara vez se refiere a la velocidad DTR y mide RAM y cable de fibra óptica. Los grupos de software y los sistemas de archivo a menudo combinan unidades binarias y SI Gb de acuerdo con los requisitos.
En 2000, el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) incorporó la aprobación formal de la Comisión Electrotécnica Internacional (IEC) de prefijos métricos SI (por ejemplo, MB como un millón de bytes y KB como mil bytes). Los términos métricos recién agregados incluyen:
- Kibibyte (KiB) es igual a 1, 024 bytes.
- Mebibyte (MiB) es igual a 1, 048, 576 bytes.
- Gibibyte (GiB) equivale a 1, 073, 741, 824 bytes.
