"Claude Shannon"
Padre de la Teoría de la Información
"Hoy se cumplen cien años del nacimiento de este matemático estadounidense que desarrolló teorías que sentaron las bases de la informática y los medios de comunicación"
Google parece decidido a seguir homenajeando a aquellos hombres y mujeres que cambiaron el rumbo de la ciencia y, por ende, nuestro mundo con sus descrubrimientos. Si hace dos días era Hertha Marks Ayrton, inventora del arco eléctrico, la que protagonizaba uno de sus doodles, ahora le toca el turno a Claude Shannon, un matemático estadounidense que nacía hace cien años un día como hoy. Sus teorías sobre la información se desarrollaron en el ámbito académico, pero sin ellas es probable que hoy no existiera el teléfono o los ordenadores. Puede que tampoco internet. Por lo que su trascendencia es incuestionable y le debemos mucho. Todo.
Claude Shannon pasó los primeros años de su vida en Gaylord, donde se graduó. Demostró desde bien joven un interés especial por las cosas mecánicas y resaltaba por encima de sus compañeros en las asignaturas de ciencias, lo que le llevó a desarrollar su carrera en ese ámbito. Tenía a Edison como referente y trató de acercarse lo máximo que pudo a sus investigaciones.
“¡Naturalmente! ¡Usted y yo somos máquinas y vaya si pensamos!”. Esto es lo que le contestó a una periodista cuando le preguntó si las máquinas podían pensar. Shannon tuvo una clara vocación hacia las cosas mecánicas desde pequeño, tanto que su héroe era Edison, que, causalidades de la vida, resultó ser su pariente. Esto le llevó a ingresar en 1932 en la Universidad de su Michigan natal, donde se graduó como Ingeniero Electricista y Matemático, dos de sus pasiones.
Durante los estudios, comenzó a trabajar como asistente de investigación en el departamento de ingeniería eléctrica en el Instituto Tecnológico de Massachusetts (MIT). Allí tuvo contacto con el ordenador analógico más avanzado del momento, el Differential Analyzer de Vannevar Bush. Su ingreso le permitió seguir investigando y su tesis fue clave a la hora de diseñar los circuitos digitales de los futuros ordenadores, tal y como reconoció un cuarto de siglo después H. H. Goldstine en su libro Las computadoras desde Pascal hasta Von Neumann.
Fue en ese periodo cuando surgió el interés de Claude Shannon por los circuitos de reveladores complejos. Al trabajar con las centralitas telefónicas de relés, se dio cuenta de que podían utilizarse para hacer cálculos y desarrolló esa idea usando la lógica y el álgebra booleana durante su estancia en los laboratorios Bell de Nueva York.
En esa época, tocó muchas áreas, aunque la más notable fue la teoría de la información, materia sobre la que publicó sus estudios en 1948 con el nombre de «Una teoría matemática de la comunicación». Ahí demostraba que todas las fuentes de la información existentes pueden medirse y que los canales de comunicación que usan tienen una unidad de medida similar, determinando la velocidad máxima de transferencia o capacidad de canal.
Demostró también que la información se puede transmitir sobre un canal, pero solo si la magnitud de la fuente no excede la capacidad de transmisión del canal. Sentó las bases, además, para la corrección de errores, supresión de ruidos y redundancia.
Pero ahí no termina el legado de este visionaro que ha dado nombre a un premio que desde 1972 reconoce las contribuciones realizadas en la teoría de la información. En 1950 coqueteó con la inteligencia artifical publicando un artículo donde describe cómo una computadora puede jugar al ajedrez de una forma razonable. Sentó la base de los ordenadores tal y como los conocemos hoy.
Los métodos de información hoy serían diferentes sin Claude Shannon. El ingeniero electrónico y matemático estadounidense desarrolló un método para expresar la información de forma cualitativa, a base de mejorar las formas de transmisión de la información, tanto mediante el flujo a través de hilos o cables como el aéreo, por medio de corrientes eléctricas fluctuantes.
No hay comentarios:
Publicar un comentario