Sistema Binario: Historia
El antiguo matemático Indio Pingala presentó la primera descripción que se conoce de un sistema de numeración binario en el siglo tercero antes de Cristo, lo cual coincidió con su descubrimiento del concepto del número cero.
El sistema binario moderno fue documentado en su totalidad por Leibniz en el siglo XVII en su artículo "Explication de l'Arithmétique Binaire". Leibniz usó el 0 y el 1, al igual que el sistema de numeración binario actual.
En 1854, el matemático británico George Boole, publicó un artículo que marcó un antes y un después, detallando un sistema de lógica que terminaría denominándose Álgebra de Boole. Dicho sistema jugaría un papel fundamental en el desarrollo del sistema binario actual, particularmente en el desarrollo de circuitos electrónicos.
En 1937, Claude Shannon realizó su tesis doctoral en el MIT, en la cual implementaba el Álgebra de Boole y aritmética binaria utilizando relés y conmutadores por primera vez en la historia. Titulada Un Análisis Simbólico de Circuitos Conmutadores y Relés, la tesis de Shannon básicamente fundó el diseño práctico de circuitos digitales.
En noviembre de 1937, George Stibitz, trabajando por aquel entonces en los Laboratorios Bell, construyó un ordenador basado en relés - al cual apodó "Modelo K" (porque lo construyó en una cocina, en inglés "kitchen")- que utilizaba la suma binaria para realizar los cálculos. Los Laboratorios Bell autorizaron un completo programa de investigación a finales de 1938, con Stibitz al mando. El 8 de enero de 1940 terminaron el diseño de una Calculadora de Números Complejos, la cual era capaz de realizar cálculos con números complejos. En una demostración en la conferencia de la Sociedad Americana de Matemáticas, el 11 de septiembre de 1940, Stibitz logró enviar comandos de manera remota a la Calculadora de Números Complejos a través de la línea telefónica mediante un teletipo. Fue la primera máquina computadora utilizada de manera remota a través de la línea de teléfono. Algunos participantes de la conferencia que presenciaron la demostración fueron John Von Neumann, John Mauchly y Norbert Wiener, el cual escribió acerca de dicho suceso en sus diferentes tipos de memorias en la cual alcanzo diferentes logros.
Archivo Binario
Un Archivo binario es un archivo informático que contiene información de cualquier tipo, codificada en forma binaria para el propósito de almacenamiento y procesamiento en ordenadores. Por ejemplo los archivos informáticos que almacenan texto formateado o fotografías.
Muchos formatos binarios contienen partes que pueden ser interpretados como texto. Un archivo binario que sólo contiene información de tipo textual sin información sobre el formato del mismo se dice que es un archivo de texto plano. Habitualmente se contraponen los términos 'archivo binario' y 'archivo de texto' de forma que los primeros no contienen solamente texto.
Habitualmente se piensa en los archivos binarios como una secuencia de bytes lo que implica que los dígitos binarios (bits) se agrupan de ocho en ocho. Los archivos binarios contienen bytes que suelen ser interpretados como alguna otra cosa que no sean caracteres de texto. Un ejemplo típico son los programas de ordenador compilados; de hecho, las aplicaciones o programas compilados son conocidos como binarios, especialmente entre los programadores. Pero un archivo binario puede almacenar imágenes, sonido, versión comprimida de otros archivos, etc. En pocas palabras, cualquier tipo de información.
Algunos archivos binarios tienen una cabecera. Esta cabecera es un bloque de metadatos que un programa informático usará para interpretar correctamente la información contenida. Por ejemplo, un archivo GIF puede consistir en múltiples imágenes y la cabecera se usa para identificar y describir cada bloque de datos de cada imagen. Si el archivo binario no tiene cabecera se dice que es un archivo binario plano.
Bit, lo más pequeño del lenguaje
Bit es el acrónimo de Binary digit. (dígito binario). Un bit es un dígito del sistema de numeración binario. La Real Academia Española (RAE) ha aceptado la palabra bit con el plural bits.
Mientras que en nuestro sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó 1.
Podemos imaginarnos un bit como una bombilla que puede estar en uno de los siguientes dos estados:
El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cualquiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, amarillo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).
Origen del termino Bit
Claude E. Shannon primero usó la palabra bit en un trabajo académico de 1948. Él atribuyó su origen a John W. Tukey, que había escrito una nota en los laboratorios Bell el 9 de enero de 1947 en la cual contrajo las palabras "binary digit" (dígito binario) a simplemente "bit", formando una palabra combinada. Curiosamente, Vannevar Bush había escrito en 1936 sobre los "bits de información" que podían ser almacenados en las tarjetas perforadas usadas en las computadoras mecánicas de ese tiempo.
Combinación de Bit
Con un bit podemos representar solamente dos valores. Para representar o codificar más información en un dispositivo digital, necesitamos una mayor cantidad de bits. Si usamos dos bits, tendremos cuatro combinaciones posibles:
· 0 0 - los dos están "apagados"
· 0 1 - el primero (de derecha a izquierda) está "encendido" y el segundo "apagado"
· 1 0 - el primero (de derecha a izquierda) está "apagado" y el segundo "encendido"
· 1 1 - los dos están "encendidos"
Hay 4 combinaciones posibles con dos bits | |
Bit 1 | Bit 0 |
Con estas cuatro combinaciones podemos representar hasta cuatro valores diferentes, como por ejemplo, los colores rojo, verde, azul y negro.
A través de secuencias de bits, se puede codificar cualquier valor discreto como números, palabras, e imágenes. Cuatro bits forman un nibble, y pueden representar hasta 24 = 16 valores diferentes; ocho bits forman un octeto, y se pueden representar hasta 28 = 256 valores diferentes. En general, con n número de bits pueden representarse hasta 2n valores diferentes.
Un byte y un octeto no son la misma cosa. Mientras que un octeto siempre tiene 8 bits, un byte contiene un número fijo de bits, que no necesariamente son 8. En los computadores antiguos, el byte podría estar conformado por 6, 7, 8 ó 9 bits. Hoy en día, en la inmensa mayoría de las computadoras, y en la mayoría de los campos, un byte tiene 8 bits, siendo equivalente al octeto, pero hay excepciones.
Octeto o Byte
Voz inglesa, se pronuncia báit, que si bien la Real Academia Española ha aceptado como equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido. Se usa comúnmente como unidad básica de almacenamiento de información en combinación con los prefijos de cantidad.
Los prefijos kilo, mega, giga, etc. se consideran múltiplos de 1024 en lugar de múltiplos de 1000. Esto es así porque 1024 es la potencia de 2 (210) más cercana a 1000. Se utiliza una potencia de dos porque la computadora trabaja en un sistema binario.
Sin embargo, para el SI, los prefijos mantienen su significado usual de potencias de mil.
Así:
Nombre | Abrev. | Factor | Tamaño en SI |
Kilo | K | 1024 | 1000 |
Mega | M | 1.048.576 | 1.000.000 |
Giga | G | 1.073.741.824 | 1.000.000.000 |
Tera | T | 1.099.511.627.776 | 1.000.000.000.000 |
Peta | P | 1.125.899.906.842.624 | 1.000.000.000.000.000 |
Exa | E | 1.152.921.504.606.846.976 | 1.000.000.000.000.000.000 |
No hay comentarios:
Publicar un comentario