Latest Posts:

22 de enero de 2013

La invención del bit: la partícula fundamental de la información

Quién diría que una idea tan simple supondría una revolución de implicaciones aún en constante desarrollo. Quién diría que un planteamiento tan maniqueo como sí o no, blanco o negro, verdad o mentira acabaría siendo el fundamento de la comunicación del futuro. Así es el átomo de la información. El bit.


En 1948, Bell Laboratories anunció la creación del bit, una unidad para medir la información. Su inventor tenía 32 años y se llamaba Claude Shannon, un tipo de biografía fascinante que algún día espero explicaros en profundidad. La idea de Shannon era contrauitiva y revolucionaria: según él, los mensajes no siempre tienen sentido, y que lo tengan o no son “aspectos semánticos de la comunicación… irrelevantes para el problema de ingeniería”.

Gracias a Shannon, pues, el bit (acrónimo que significa “dígito binario“) es la unidad más pequeña posible de información en la informática digital. En informática la menor unidad indivisible posible es un simple pulso eléctrico, que puede representar un 1 o un 0. Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos. Todos los datos que se almacenan en un ordenador está compuesta de números binarios. El origen del término “dígito binario” se atribuye a John Tukey, un científico que trabajaba en los Laboratorios Bell, y los usó por primera vez en 1947.


El bit es una partícula fundamental de una especie diversa: no sólo es diminuto, sino también abstracto: un dígito binario. Tendiendo puentes entre la física del siglo XX y la del siglo XXI, John Archibald Wheeler, el último colaborador que quedaba de Einstein y Bohr (falleció en 2008), dijo “It from Bit”, es decir, que de los bits, de la información, “sale cada “eso”, cada partícula, cada campo de fuerza” que pueda existir en el mundo.

A fin de cuentas, la información (y en consecuencia el conocimiento) sólo consiste en una selección entre varias alternativas posibles. Tal y como explicaba George Miller:
Un bit de información es la cantidad de información que necesitamos para tomar una decisión entre dos alternativas con el mismo grado de probabilidad. Si tenemos que decidir si un hombre mide menos de un ochenta o más de uno ochenta y si sabemos que las probabilidades son 50-50, necesitamos un bit de información (…) Dos bits de información nos permiten decidir entre cuatro alternativas con el mismo grado de probabilidad. Tres bits de información nos permiten decidir entre ocho alternativas con el mismo grado de probabilidad. (…) si hay 32 alternativas con el mismo grado de probabilidad, debemos tomar 5 decisiones binarias sucesivas, cada una de ellas de un bit, antes de saber qué alternativa es la correcta.
En otras palabras: cada vez que el número de alternativas se incrementa en un factor dos, se añade un bit de información. El número 255 en binario, por ejemplo, es 11111111.

En la película Tron, un bit está representado por una forma poliédrica de color blanco que es un compuesto de dodecaedro e icosaedro. Solo puede decir “sí” (Encendido) y “no” (apagado).

No debemos confundir bits con bytes. Si los bits son la menor unidad “física” de información, los bytes son la menor unidad “lógica” de información, equivalente a un carácter (letra o símbolo). Un bit no tiene un significado práctico mientras que un byte, sí, ya que se trata de un carácter, letra o símbolo. Un byte está formado por 8 bits o pulsos eléctricos. Por lo tanto, en informática se toma como unidad de medida de capacidad de almacenamiento de dispositivos como el disco duro o memoria, la cantidad de caracteres de texto que se pueden almacenar en los mismos. Así un disco duro con capacidad de almacenamiento de 500 gigabytes puede almacenar hasta 500.000.000.000 (500.000 millones) de caracteres o bytes.

Pero por qué un bit son ocho bytes. La decisión fue arbitraria, pero hay una serie de motivos que empujaron a la misma, tal y como exponen Yobioit:
* La razón principal es que a partir de la década de los años 1970s los 8-bits se convirtieron en el menor común denominador de la informática; donde los microprocesadores eran de 8-bits; esto significa que podían procesar 8 bits simultáneamente en un instante particular. Con el tiempo comenzaron a aparecer microprocesadores que podían procesar 16 bits simultáneamente, luego 32 bits, 64 bits y eventualmente 128; todos múltiplos de 8. También existieron microprocesadores de 18 y 36 bits, pero dejaron de fabricarse, popularizándose los múltiplos de 8.
* Los primeros microprocesadores comerciales de los años 1970s eran de 4-bits, o sea que podían procesar 4 bits simultáneamente, en un instante particular; pero hacia la segunda mitad de dicha década comenzaron a popularizarse los de 8-bits cuando empresas como IBM y Apple comenzaron a comercializar computadoras personales.
  • En los años 1970s las placas de circuitos y periféricos eran aún caros; por lo tanto se siguió utilzando tecnología de 8-bits; en la que se podían transportar de un dispositivo a otro (por ejemplo del microprocesador a la memoria o de la memoria a la placa de video) 8 bits simultáneamente. Incluso cuando se desarrollaron los primeros microprocesadores comerciales de 16 bits (que podían procesar 16 bits simultáneamente), cuando dichos bits o pulsos eléctricos viajaban por las líneas de datos hacia la memoria lo hacían de a 8 simultáneamente; para reducir costos de material de circuitería.
* En los años 1960s el juego de caracteres ASCII de 7-bits (128 caracteres) era un nuevo estándar; pero para cuando fue internacionalmente aceptado ya habían muchas variantes. En los años 1960s IBM introdujo el juego de caracteres de 8-bits EBCDIC. Hacia finales de los años 1970s, se pensaba que UNIX iba a convertirse en el sistema operativo dominante; el lenguaje de programación de UNIX, para desarrollar las distintas aplicaciones para dicho sistema operativo, era C, el cual requería un juego de caracteres de 8-bits. Sin embargo el sistema operativo que terminó siendo más popular fue el PCDOS o MS-DOS, el cual también utilizaba un juego de caracteres de 8-bits, una versión extendida de 256 caracteres del estándar ASCII. Luego con la llegada de Windows, que utilizaba la misma estructura de DOS, se siguió utilizando el juego de caracteres y por ende el byte de 8 bits.
* En telecomunicaciones, con el desarrollo de la telefonía digital a principios de la década de los años 1960s, se estandarizó el sistema de 8-bits, en el que los datos que se transmitían eran de 8-bits o pulsos eléctricos. Este sistema fue, décadas después, adoptado y desarrollado por las modernas redes de comunicación incluyendo Internet.
Más información | Yobioit


Tomado de:

Xakata Ciencia
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0