Ir al contenido

PGD | §1.1 – El concepto de información

< Prefacio

 

Introducción

En nuestras actividades cotidianas es común que manejemos conceptos que de alguna forma aprendemos a partir de la experiencia; es decir, son nociones que se forman como producto de la educación, el trabajo, la comunicación, etc., pero que nos presentarían dificultades si se nos exigiera definirlos o explicarlos en palabras a otra persona. Ejemplos típicos de esta afirmación son el espacio o el tiempo. El concepto de información es perfectamente otro caso. También lo es el término digital, que envuelve toda la tecnología actual, tecnología que en esencia trata con la información. Introduciremos ambos conceptos de manera simple, sin perder de vista el empleo que haremos de ellos en las aplicaciones gráficas.

Conceptos básicos sobre información

Ante el desafío de definir el término información, la mayoría de nosotros apelaríamos a descripciones del tipo “es la comunicación de una novedad o noticia”, “son datos que puedo utilizar para algo”, etc. Es natural pensar que las palabras “comunicación” y “datos” tienen mucho que ver con este término, pero estaríamos en dificultades si quisiéramos a su vez precisar lo que es “comunicación” o “datos” sin definirlos circularmente a través de “información”. Nosotros vamos a precisar esta noción de una manera relativamente sencilla, con vistas al uso que haremos de ella.

Nos basaremos en un hecho simple. Por lo común aceptaremos que hemos recibido información cuando nos enteramos de algo que ignorábamos hasta entonces; es decir, el conjunto de cosas que no sabemos ha disminuido a partir de ese momento. Con esta idea estableceremos una primera definición:

Información es aquello que reduce nuestro nivel de ignorancia.

Pongamos un ejemplo para probar nuestra definición. Si alguien me comunicara

“Mañana el Sol saldrá por el Este”,

podemos intuir que no hemos recibido información, puesto que es algo que ya sabía, o al menos no tenía motivos para esperar que no suceda. Desde un punto de vista práctico, podemos decir que recibir esta comunicación no produce en mí ningún cambio sensible; mis planes para mañana, por ejemplo, no se verán afectados. Sin embargo, si el mensaje hubiera sido

“Mañana la Luna chocará con la Tierra”,

y suponiendo que no se duda de la autoridad de la persona que emite este juicio, es evidente que causará en mí un efecto sensible, que podrá variar desde la curiosidad física por las razones de este espectacular evento hasta la preocupación por mi alma ante el advenimiento del fin del mundo. Decimos así que en este caso el mensaje contiene información.

En principio, hacer depender la existencia de información en el estado de mayor o menor ignorancia de la persona que la recibe, parece volver relativo este concepto: es posible que una comunicación resulte informativa para una persona y no lo sea para otra. Si alguien me comenta la trama de una película, la comunicación será más informativa si aún no vi la película que si la hubiera visto recientemente y por tanto estuviera “fresca” en mi memoria. En un análisis más profundo, esta formulación del concepto suele recibir el nombre de información mutua, ya que depende tanto de la fuente de la misma como de su receptor. Para mantener las cosas simples, pensemos en principio que los potenciales receptores de este mensaje están todos en un nivel de “ignorancia” inicial muy similar, de manera que el contenido de información del mismo dependerá esencialmente de su origen.

Aceptada esta primera definición, surge la idea de hallar una forma de medir la información de una forma más o menos objetiva, y mediante comparaciones establecer cuándo se recibe mayor o menor cantidad de información. Dado que en la práctica la información se comunica mayoritariamente utilizando el lenguaje hablado o escrito, podría pensarse que la cantidad de palabras empleadas nos daría un indicio; puesto que más información podría perfectamente requerir mayor cantidad de palabras, parece razonable pensar que el número de éstas (o el número de letras, o caracteres, o cualquier otra cantidad análoga) nos dará esa medida.

Titulares opuestos
¿Cuál de estos encabezados venderá más ejemplares? ¿Cuál sorprenderá a más personas? En ambos casos, los títulos utilizan las mismas palabras…

Sin embargo esto es falso. Si los titulares de los diarios de hoy dicen

“Estados Unidos invadió Irán”,

nos parece que, si bien no lo sabíamos hasta leerlo y en ese sentido representa información, el estado político mundial hacía lucir esta circunstancia como posible[2]; ahora bien, si los titulares hubieran sido

“Irán invadió Estados Unidos”,

estaremos de acuerdo que hemos recibido mayor cantidad de información, puesto que este suceso era mucho menos previsible que el anterior. Vemos así que no es la longitud del mensaje lo que puede servirnos para medir la cantidad de información —de hecho en ambos casos hemos usado exactamente las mismas palabras— sino algo relacionado a la expectativa o probabilidad de ocurrencia del evento informado.

La moderna teoría de la información relaciona de una manera matemática muy precisa la medida de la información con la medida de la probabilidad. No obstante, nosotros utilizaremos un modelo simplificado para evitar la necesidad de evaluar probabilidades, aunque en realidad no contradice dicha teoría, sino más bien es una simplificación basada en la aplicación que haremos del mismo. Nos referiremos a éste como modelo de mensajes.

El modelo de mensajes y la medida de la información

Supongamos dos países en guerra a los que llamaremos A y B. Supondremos también que en el transcurso de la guerra ambos países toman prisioneros, y que los tratados vigentes sobre cuestiones humanitarias —que se respetan estrictamente— permiten a los prisioneros enviar a sus respectivos gobiernos mensajes dirigidos a las familias sobre sus estados de salud, dejando librado a cada ejército vigilar que el contenido de dichos mensajes no incluyan información estratégica.

Para simplificar, imaginemos que cada país presenta a sus prisioneros un “menú” de mensajes permitidos entre los cuales cada uno elegirá el que quiera enviar. A continuación se muestran los mensajes que el gobierno de cada país permite.

País A País B 
Mensaje A-1Estoy bienMensaje B-1Estoy bien
Mensaje A-2Estoy un poco enfermo
Mensaje A-3Estoy muy enfermo

Agregamos además que cada prisionero puede optar por no enviar mensaje alguno. Considerando esta última posibilidad, completaremos el cuadro de opciones anterior de la manera siguiente.

País A País B 
Mensaje A-1Estoy bienMensaje B-1Estoy bien
Mensaje A-2Estoy un poco enfermoMensaje B-2(No enviar mensaje)
Mensaje A-3Estoy muy enfermo
Mensaje A-4(No enviar mensaje)

Por último, asumimos que los mismos tratados humanitarios exigen que cada país conozca las opciones que el otro dará a sus prisioneros, de modo que un familiar de un soldado que cae prisionero del país A, por ejemplo, sabe que éste le presentará las cuatro opciones antes mostradas.

En estas condiciones, supongamos que un familiar de un prisionero de A recibe el mensaje A-1 (Estoy bien), mientras que un familiar de un prisionero de B recibe el mensaje B-1 (Estoy bien). Ambos han recibido textualmente el mismo mensaje. ¿Podemos decir que han recibido la misma información?

El mensaje 1 de A no sólo nos dice que el prisionero está bien, sino que ha descartado las otras opciones (estar poco o muy enfermo), mientras que esta precisión no existe en el mensaje 1 de B (a los efectos prácticos, este último mensaje significa apenas “estoy vivo”). Es decir, el mensaje A-1 contiene más información que el mensaje B-1, a pesar de ser textualmente iguales. Este pequeño análisis nos sugiere que, dado que la razón de la presencia de mayor información en el primer caso está asociada a la mayor cantidad de opciones presentes, una medida de esta información podría ser justamente el número de opciones disponibles que se tenían al momento de elegir el mensaje.

Sin embargo, para aceptar esta definición preliminar es necesario hacer algunas precisiones adicionales. Imaginemos por un lado a los dos mejores tenistas del mundo, Juan y Pedro, jugando la final de un torneo. Si por diversas razones no pudimos ver el partido y desconocemos el resultado, sabemos de todas formas que hay dos posibilidades:

Mensaje 1: Ganó Juan;

Mensaje 2: Ganó Pedro.

Muchos otros resultados también pueden expresarse mediante dos posibilidades, por ejemplo:

Mensaje 1: Hoy Irán invadió Estados Unidos;

Mensaje 2: Hoy Irán NO invadió Estados Unidos.

En ambos ejemplos el número de posibilidades es el mismo (es decir dos), pero intuitivamente sospechamos que los mensajes 1 y 2 del primer ejemplo no transportan la misma cantidad de información relativa que los mensajes 1 y 2 del segundo. La razón es simple: en el primer caso, es prácticamente tan probable recibir uno como otro mensaje, mientras que en el segundo caso eso no es cierto.

Para que nuestra definición sea aceptable, debemos exigir que cada una de las opciones entre las que se eligen los mensajes tengan la misma probabilidad de ocurrencia. Esta restricción sería muy severa si la aplicáramos en la vida diaria, donde son muy pocas las situaciones en las que se presentan opciones equiprobables; sin embargo, en el contexto de nuestras aplicaciones será de hecho la situación más común[2].

Aceptada esta condición, estableceremos la siguiente definición:

Llamaremos variedad a la cantidad de opciones disponibles
al momento de elegir nuestro mensaje, siempre que dichas opciones tengan las mismas probabilidades de ser elegidas.

Entonces, en estas condiciones, un mensaje cualquiera tendrá como cantidad de información la variedad del conjunto de sus posibles opciones.

En un caso extremo, el número de opciones podrá reducirse a uno; en ese caso el mensaje elegido es el único posible, y ya que no descarta ninguna otra posibilidad, decimos que un mensaje de variedad 1 no transporta información; para ello, el mensaje debe poseer variedad 2 o mayor.

Hasta aquí hemos hablado de una única fuente de información, o bien comparado dos fuentes de información diferentes. En el apartado siguiente intentaremos generalizar un poco este simple modelo.

Actividades para el capítulo §1.1

  1. En un juego de ruleta, el resultado de arrojar una bola tiene variedad 37, porque 1) los posibles resultados son 0, 1, 2, …, 36, por lo tanto son en total 37, y 2) cualquiera de ellos tiene la misma probabilidad de ocurrir. Utilizando este ejemplo como guía, busque ejemplos de otras situaciones donde aparezcan conjuntos de resultados para los cuales pueda calcularse su variedad.
  2. En ese mismo juego de ruleta, podemos separar los resultados en grupos, por ejemplo 1) el número ganador es par o impar; 2) el número ganador es 17 o no lo es. Explique por qué en el primer caso podemos decir que la variedad es dos, pero no podemos decir lo mismo en el segundo.
§1.2 – Información compuesta >

1 Para referencia de las futuras generaciones, esto se escribió originalmente en el año 2008 DC.
2 Si las opciones no tienen igual probabilidad, todavía es posible asignar una medida a la información, pero ello exige conocer dichas probabilidades y utilizar la teoría de la información antes mencionada. Resulta así una cantidad que varía en forma inversa a la probabilidad, de forma que cuando el suceso comunicado por el mensaje es de ocurrencia segura (probabilidad 1) su información asociada es nula.