unidades basicas de la informacion
Sistema de numeración que se representa utilizando 2
cifras (0,1). Es uno de los sistema que se utilizan en la
PC, ya que trabajan internamente con 2 niveles de
voltaje, siendo el sistema binario su sistema de
numeración natural.
Que es un Bit?
Es una señal electrónica que puede
estar encendida (1) o apagada (0). Es
la unidad mas pequeña de información
que utiliza un ordenador,es necesario
8 bits para crear un byte.
Byte
Es la unidad de información de base
utilizada
en
computación
y
en
telecomunicaciones,
y
que
resulta
equivalente a un conjunto ordenado
de bits (generalmente 8 bits)
Prefijos Binarios
kB, MB, GB, TB, PB, EX, ZB, YB.
Terabyte: un disco duro de 1 solo terabyte permite almacenar 200.000 fotografías o
canciones mp3.
Peta byte: equivaldría a 16 bloquesde almacenamiento de los utilizados por Backblaze,
alojados en dos cabinas de su centro de datos.
Exabyte: necesitaríamos 2.000 cabinas. O lo que es lo mismo: un centro de datos de 4
pisos.
Zettabit: serían necesarios 1.000 centros de datos, lo que equivaldría a un 20% del
tamaño de Manhattan, Nueva York.
Yottabyte: llenaríamos los estados de Delaware y Rhode Island, con 1 millón de centros
dedatos en total.
Un disco duro de 1 terabyte cuesta hoy en día unos 100 dólares. El coste equivalente de
un yottabyte a día de hoy sería de 100 billones de dólares. En comparación, el producto
interior bruto de Estados Unidos es de sólo 14 billones, el de Europa, 18 y el del mundo
entero, 61 billones.
Medios o Dispositivos de Almacenamiento comunes
•Diskette 1,44MB – 240MB
1971
•CD
700 MB
1980•DVD
3,9 – 17 GB
1995
•Blue Ray 50 Gb – 70 GB
•HDD
500 GB
2002
1956 IBM
•USB- pen drive 4, 16, 32….Gb IBM 1996 no volátil
(almacena inf sin energía elect), programable, borrada elect.
•Memorias SD (portátil) 256MB – 64GB 1999, sandisk,
Toshiba, Panasonic.
•SSD 1995 MSystem (unidad de estado solido),
Partes(controlador, cache, condensador) Fujio masuoka creo
memoria flash en 1984.
CAPACIDADDEL CANAL:
LEY DE HARTLEYSHANNON
la capacidad de un canal de comunicación es la cantidad máxima
de información que puede transportar dicho canal de forma fiable, es decir,
con una probabilidad de error tan pequeña como se quiera. Normalmente
se expresa en bits/s (bps). Depende de su ancho de banda y de la relación
S/N (Relación señal/ruido)
Claude Shannon demostró en 1949 que la capacidad teóricamáxima de un
canal de comunicaciones limitado en banda con ruido
blanco aditivo
gaussiano responde a la ecuación:
C = B log2 (1+SNR) bps
B: es el ancho de banda del canal medido en Hertz
C: capacidad del canal (tasa de bits de información) bps
S: potencia de la señal útil, que puede estar expresada en vatios,
milivatios, etc.
N: potencia de ruido presente en el canal (mW, µW) que trata deenmascar
a la señal útil).
La relación señal/ruido se define como la proporción existente entre la potencia
de la señal que se transmite y la potencia del ruido que la corrompe. Este
margen es medido en decibelios.
ENTROPÍA DE LA
INFORMACIÓN
• La entropía,
en la teoría de la información, es
una magnitud que mide la información provista por
una fuente de datos, es decir, lo que nos aporta
sobre undato o hecho concreto.
• La medida de la entropía puede aplicarse a fuentes
de información de cualquier naturaleza, y nos
permite codificarla adecuadamente, indicándonos
los
elementos
de
código
necesarios
para
transmitirla, eliminando toda redundancia.
• La entropía nos indica el límite teórico para
la comprensión de datos.
Su cálculo se realiza mediante la
siguiente fórmula:
• donde
H es laentropía, las p son las probabilidades de que
aparezcan los diferentes códigos y m el número total de códigos.
Si nos referimos a un sistema, las p se refieren a las
probabilidades de que se encuentre en un determinado estado y m
el número total de posibles estados
• Se
•A
utiliza el logaritmo, y entonces la entropía se mide en bits.
partir de esta
entropías.
definición básica se pueden...
Regístrate para leer el documento completo.