Unidades de medida empleadas en informatica
La unidad básica en Informática es el bit.
Un bit: es un dígito en sistema binario (0 o 1) con el que se forma toda la información.
Evidentemente estaunidad es demasiado pequeña para poder contener una información diferente a una dualidad (abierto/cerrado, si/no), por lo que se emplea un conjunto de bits (en español el plural de bit NO es bites,sino bits).
Para poder almacenar una información más detallado se emplea como unidad básica el byte, que es un conjunto de 8 bits. Con esto podemos representar hasta un total de 256 combinacionesdiferentes por cada byte.
Veamos los más utilizados:
byte.- Formado normalmente por 8 bits.
Kilobyte : un KB (Kilobyte) son 1.024 bytes.
Megabyte (MB).- son 1.024 KB, por lo que un MB son 1.048.576bytes.
Gigabyte (GB).- Un GB son 1.024 MB por lo tanto 1.048.576 KB. Llegados a este punto en el que las diferencias si que son grandes, hay que tener muy en cuenta (sobre todo en las capacidades de losdiscos duros) que es lo que realmente estamos comprando.
Terabyte (TB).- Aunque es aun una medida poco utilizada, pronto nos tendremos que acostumbrar a ella, ya que por poner un ejemplo lacapacidad de los discos duros ya se está aproximando a esta medida. Un Terabyte son 1.024 GB. Aunque poco utilizada aun, al igual que en los casos anteriores se está empezando a utilizar la acepción TebibyteExisten unas medidas superiores, como el Petabyte, Exabyte, Zettabyte , que podemos calcular multiplicando por 1.024 la medida anterior. Estas medidas muy probablemente no lleguen a utilizarse conestos nombre, sino por los nuevos designados por el IEC.
PROCESAMIENTO FRECUENCIA DE TRANSMISION: La velocidad de procesamiento de un procesador se mide en megahercios. Un megahercio es igual a unmillón de hercios.
Un hercio (o herzio o herz) es una unidad de frecuencia que equivale a un ciclo o repetición de un evento por segundo. Esto, en palabras simples, significa que un procesador que...
Regístrate para leer el documento completo.