jueves, 12 de diciembre de 2013

¿Qué es esa cosa llamada Información?

La palabra Informática, esa disciplina que tanto nos gusta, proviene de la contracción de las palabras “Información” y “Automática”. Por tanto, se trata de un término que sugiere que a lo que nos dedicamos los informáticos es a automatizar el procesamiento de la información. Informática es un término que no me gusta excesivamente (¿acaso no es más correcto decir que nos dedicamos a procesar símbolos?), pero aun así, es mucho mejor que el término anglosajón “computer science”, o “ciencia de los ordenadores”. Como en su día dijo el maestro Dijkstra (http://es.wikipedia.org/wiki/Edsger_Dijkstra) , llamar “ciencia de los ordenadores” a la informática es como llamar “ciencia de los cuchillos” a la cirugía. Pero a todo esto, ¿sabemos qué es esa cosa llamada información? La verdad es que tampoco tenemos una idea muy clara al respecto. Según con qué disciplina tratemos, información se define de una manera u otra, como vamos a ver en esta entrada de blog.
La estadística, una de las disciplinas que primero abordó la cuestión, considera que la cantidad de información contenida en un mensaje es máxima si este es capaz de describir las principales características de una población. La información, por tanto, se estudia en relación a una población de individuos. La estadística lo que busca son los valores medios, la desviación sobre dichos valores, etc. que, a su entender, es lo que más información nos aporta. Así, la frase “En Córdoba hace mucho calor” es una frase que contiene gran cantidad de información, ya que es capaz de resumir en unas pocas palabras cual es el tiempo que generalmente hace en Córdoba.
Por otro lado, la teoría de la información de Shannon, considera justo lo contrario, que los valores medios no nos aportan ninguna información. Así al mensaje “En Agosto de 2013 hizo mucho calor en Córdoba” le asignaría un cantidad de información muy baja, ya que es lo normal, lo esperado, lo que tiene una gran probabilidad de que suceda. Sin embargo el mensaje “En Agosto de 2013 nevó en Córdoba” es un mensaje que contiene gran cantidad de información, ya que es un hecho altamente improbable, y por tanto, nos está aportando mucho. La teoría de la información de Shannon se desarrolló en el contexto de la transmisión de mensajes (por líneas de teléfono), y por tanto, trata de dar una respuesta a un problema de naturaleza muy diferente al que aborda la estadística. Sin embargo, son muchos los investigadores que se olvidan de este detalle, y tratan a la teoría de la información como la “definición canónica” de información, algo que está muy lejos de ser así.
Pero es que aun hay más definiciones. También tenemos a la Complejidad Kolmogoroviana, que se olvida por completo del contexto en el que se encuentra un mensaje y se limita a estudiarlo en términos de sí mismo para asignarle un valor de “información”. Así, a la complejidad Kolmogoroviana le da igual la población que estemos describiendo, o la probabilidad de que suceda cierto hecho. A la complejidad Kolmogoroviana lo que le interesa es saber es “la aletoriedad” del contenido de un mensaje, y define aletoriedad como la longitud mínima con la que puede ser descrito dicho mensaje sin ambigüedad. Por ejemplo, podríamos definir la cantidad de información contenida en un mensaje como la longitud de un programa de ordenador que pueda mostrarnos en pantalla el mensaje. Así, si lanzamos 1000 veces una moneda al aire, dicho programa lo único que podría hacer es escribir tal cual el resultado de los lanzamientos; se trata de un mensaje básicamente aleatorio, y por tanto, contiene gran cantidad de información. Pero si nuestro mensaje son 1.000 unos consecutivos, el programa que los imprime puede ser mucho más corto que el mensaje original, y por tanto, el mensaje contiene poca cantidad de información.
Y seguimos con más visiones de la información, porque también tenemos a la información cuántica, una descripción de la información desde el punto de vista de la mecánica cuántica. En este caso, nos dicen que la información no es un concepto abstracto que resida en nuestra mente, sino que la información es una magnitud física y real, como lo es la energía. Y por tanto, la información ni se crea ni se destruye, tan sólo se transforma. Cuando le das a borrar un documento en el procesador de textos, ¿piensas que realmente ha desaparecido, que lo has borrado? No, sólo se ha transformado, probablemente en un conjunto de celdas de memoria sin sentido. Pero lo más divertido es que dado que a partir de las celdas de memoria vacías no podemos recuperar el texto original, se ha producido una pérdida de información, y esto no es posible. ¿Qué sucede entonces? Pues que dicha información se transformado en calor que ha sido enviado al entorno.
En definitiva, muchas definiciones, algunas de ellas incompatibles, para tratar de entender qué es esto de la información. Y un concepto clave que hay que trabajar, porque al fin y al cabo, la vida, el universo y todo lo demás, se reducen a eso, a procesar información.

No hay comentarios:

Publicar un comentario