lunes, 30 de abril de 2007

Origen de la noción información

El origen de la noción moderna de información puede buscarse en tres direcciones. En primer lugar, en el movimiento de ideas para distinguir entre la forma y el sentido; en segundo lugar, en las técnicas surgidas de las necesidades del transporte de mensajes; en tercer lugar, en una tradición de búsqueda de las condiciones de verdad de los enunciados.

Todas las investigaciones relacionadas con la noción de información desean poder separar entre el sentido y la forma, por ejemplo de un mensaje. La distinción entre forma y sentido supone una ruptura mental en la percepción que el hombre tiene de lo que le rodea. La palabra "información" tiene un origen relacionado con la idea de forma. Informatio quiere decir en latín "acción de formar", "dar forma", y procede de forma, ae que sirve para designar la forma exterior de un objeto. Informar, en latín, es también educar, formar. La palabra tiene varios sentidos, pero todos se dirigen a la idea de construcción, elaboración.

El término información sirve para designar la información en el sentido periodístico y también en el sentido técnico. Esto provoca una confusión, ya que la información que nos proporciona la prensa está cargada de sentido mientras que la tratada por las técnicas está privada de sentido.

En el siglo XX se hace una segunda distinción en la que la forma de un mensaje se podrá descomponer en símbolos y señales. Según Joseph Fourier, una variación cualquiera de un elemento puede representarse por una suma de funciones matemáticas, expresables en términos de señales eléctricas.

La comunicación a distancia aparece muy tarde en la historia humana, es en 1794 cuando se crea el telégrafo aéreo. Junto al desarrollo del transporte de mensajes aparece la preocupación por la codificación de los mismos, con lo que se inventó la notación binaria. Las investigaciones sobre las condiciones físicas del transporte de mensajes condujeron a perfeccionar la noción de señal, mientras que las investigaciones sobre la codificación de mensajes condujeron a la noción de símbolo. Samuel Morse inventó en 1832 el telégrafo eléctrico, en el que la codificación de las señales se hacía mediante puntos y rallas. Alexander Graham Bell inventó en 1875 el teléfono, en el que las señales se transmitían gracias a corrientes eléctricas. La unión entre señal y símbolo se hizo en la teoría de la información, la cual aparecía con el estudio de las señales eléctricas.

La teoría de la información proporciona una medida de la cantidad de la información, cuya unidad es el "bit" ("Binary digIT", introducido por Claude Shannon). R. V. L. Hartley fue el primero en proponer una medida precisa de la información asociada a la emisión de símbolos y también fue el primero en utilizar el término información en sentido matemático. Una de las misiones principales de la teoría de la información es la codificación de símbolos con el fin de permitir a las señales luchar contra el ruido. El campo de la información está constituido por símbolos, señales y ruido.

La teoría de la información ha progresado gracias al desarrollo de las técnicas de codificación binaria y por la invención de un álgebra lógica por parte de George Boole, que utilizaba solo tres operadores (y, o, no).

El inventor del código binario fue Francis Bacon, que deseaba transmitir el pensamiento a distancia por cualquier medio simple que no presentara más de dos estados diferentes. La codificación se basaba en dos operaciones: transformar cada letra del alfabeto en una combinación de dos símbolos y hacer corresponder a cada símbolo de un texto una tipografía diferente. Uno de los primeros usos del código binario fue en el telar de Jacquard, el cual influyó sobre Charles Babbage, que construyó una "devanadera de cifras". Ambos inventos estaban basados en el principio de programación binaria y de cartones perforados.

El tratamiento de los símbolos mediante el álgebra de Boole encontrará un complemento en la máquina de Turing, que era una máquina lógica para resolver problemas lógicos y matemáticos, formulados en términos de algoritmos. Ésta consistía en una banda de papel infinita y un listero que podía leer, escribir o borrar un símbolo, desplazar la banda hacia la derecha o hacia la izquierda y marcar una de las casillas del papel o detenerse. El objetivo de Turing no era inventar una máquina así, sino reflexionar sobre los fundamentos y límites de la lógica.

Fuente: "Historia y crítica de la informática", Philippe Breton.

3 comentarios:

Benjamin Leiza dijo...

Muchas gracias por el prolijo ordenamieto. Buscaba la etimología de Informa. Muy interesantes elementos, para en algo disminuir nuestro natural estado de ignorar.

Rafael Augusto paez Sequeda dijo...

muchas gracias

Rafael Augusto paez Sequeda dijo...

muchas gracias

Publicar un comentario

 

RSS RSS