Menú

En memoria de Claude Shannon

Hoy es el centenario del nacimiento de Claude Shannon. Muchos de Vds. no sabrán quién es, pero se trata de uno de los personajes más importantes del siglo XX. Matemático e ingeniero estadounidense, Claude Shannon fue el creador de las teorías en las que se basa la electrónica digital moderna. Sin entrar en demasiados detalles, Claude Shannon es una especie de alter ego del filósofo Ludwig Wittgenstein: si éste llevó el álgebra de Boole (es decir, el álgebra binaria) al campo de la Filosofía, sistematizando el análisis de proposiciones lógicas, Claude Shannon llevó el álgebra de Boole al campo de la ingeniería y de las comunicaciones, creando la base teórica para el análisis de circuitos lógicos. Si podemos hablar hoy por teléfono móvil, comunicarnos por Internet, lanzar sondas a Marte o ver televisión de pago, es gracias, en buena medida, a Claude Shannon.

Como Einstein, Shannon es uno de esos hombres de ciencia que no se limitó a ampliar los conocimientos existentes, sino que creó de la nada un nuevo campo científico: la teoría matemática de la información, madre de las comunicaciones modernas. Era, por tanto, un pionero y un visionario.

Entre otras muchas cosas, a él le debemos el concepto de "entropía" de una fuente de información, que mide la cantidad de información que una fuente determinada proporciona. Shannon fue capaz de formalizar matemáticamente un concepto que resulta intuitivo, pero que hasta el momento no se había podido definir de forma rigurosa, ni tratar de manera cuantitativa.

Para entender qué es eso de la entropía de una fuente de información, imaginen que yo les doy las siguientes noticias:

- "Rajoy ha incumplido otro punto de su programa electoral"

- "Pedro Sánchez ha rechazado reunirse con Rajoy"

- "Pablo Iglesias se ha negado a condenar la dictadura venezolana"

¿Qué tienen en común esas tres noticias? Pues que no son noticia. Aportan muy poca información, porque se trata de sucesos bastante previsibles. Lo que sería noticia sería lo contrario: que Rajoy cumpliera algún punto de su programa electoral, que Pedro Sánchez aceptara reunirse con Rajoy o que Pablo Iglesias condenara la dictadura venezolana. Pero la probabilidad de que eso suceda es tan baja, que no merece la pena estar efectuando todos los días la comprobación. Matemáticamente, Shannon diría que estamos ante un caso de fuentes con muy baja entropía. Y la contribución de Shannon fue desarrollar un marco teórico para cuantificar matemáticamente esa información y esa entropía de una fuente, en función de la probabilidad de los distintos sucesos.

Puede que alguno de ustedes piense: "Vaya tontería. Eso de que no es noticia que un perro muerda a un hombre, sino lo contrario, lo entendemos todos sin necesidad de ninguna teoría matemática". Y es cierto: el concepto es intuitivo. El genio de Shannon consistió en desarrollar una manera de poder medir ese concepto. Sin esa formulación matemática, no existirían los sistemas de comunicaciones modernos.

Así que vaya desde aquí un homenaje a uno de los más grandes hombres del siglo pasado. Dentro de 1000 o 2000 años, no sabemos si quedará recuerdo de las teorías filosóficas y políticas actuales, pero podemos estar seguros de que los sistemas que utilicen nuestros descendientes serán herederos, en mayor o menor medida, de los trabajos que Shannon desarrolló.

Herramientas

0
comentarios