Publicado 30/04/2016 08:41

Google recuerda a Claude Shannon, padre de la teoría de la información

Centenario del nacimiento de Claude Shannon
WIKIPEDIA

MADRID, 30 Abr. (OTR/PRESS) -

Google dedica este sábado, 30 de abril, uno de sus famosos doodles a recordar la figura de Claude Shannon, padre de la teoría de la información, una rama de la teoría matemática y de las ciencias de la computación que estudia la información y todo lo relacionado con ella: canales, compresión de datos y criptografía, entre otros.

En un simpático doodle interactivo, el gigante de internet conmemora el centenario del nacimiento de este ingeniero eléctrico y matemático estadounidense que en 1948 publicó un trabajo titulado 'Una teoría matemática de la comunicación', en el que demostró que todas las fuentes de información (telégrafo eléctrico, teléfono, radio, la gente que habla, las cámaras de televisión, etcétera) pueden medirse, y que los canales de comunicación tienen una unidad de medida similar, determinando la velocidad máxima de transferencia o capacidad de canal.

Demostró también que la información se puede transmitir sobre un canal solamente si la magnitud de la fuente no excede la capacidad de transmisión del canal que la conduce, y sentó las bases para la corrección de errores, supresión de ruidos y redundancia.

Claude Elwood Shannon (Míchigan, 30 de abril de 1916-24 de febrero de 2001) demostró siempre una inclinación hacia las cosas mecánicas y resaltó respecto a sus compañeros en las asignaturas de ciencias. Su héroe de la niñez era Edison, con quien luego descubrió que tenía un parentesco y a cuyas investigaciones se aproximó bastante.

En 1932 ingresó en la Universidad de Míchigan y en 1936 obtuvo los títulos de ingeniero electricista y matemático. Ese mismo año aceptó el puesto de asistente de investigación en el departamento de ingeniería eléctrica en el Instituto Tecnológico de Massachusetts (MIT). Su situación le permitió continuar estudiando mientras trabajaba por horas para el departamento, donde trabajó en el computador analógico más avanzado de esa era, el 'Differential Analyzer de Vannevar Bush'.

En su tesis de maestría en el MIT, demostró cómo el álgebra booleana se podía utilizar en el análisis y la síntesis de la conmutación y de los circuitos digitales. La tesis despertó un interés considerable cuando apareció en 1938 en las publicaciones especializadas. En 1940 le fue concedido el Premio para ingenieros norteamericanos del Instituto Norteamericano Alfred Noble de los Estados Unidos, otorgado cada año a una persona de no más de treinta años.

Durante su estancia en el MIT empezó a trabajar sobre el problema de la eficacia de los diferentes métodos existentes de transmisión de la información, tanto mediante el flujo a través de hilos o cables como el aéreo, por medio de corrientes eléctricas fluctuantes o bien moduladas por la radiación electromagnética.

Shannon también pasó quince años en los laboratorios Bell, una asociación muy fructífera con muchos matemáticos y científicos de primera línea. Durante este período orientó sus esfuerzos hacia la comprensión fundamental del problema y en 1948 desarrolló un método para expresar la información de forma cualitativa, plasmado en el trabajo denominado 'Una teoría matemática de la comunicación'.

En este trabajo Shannon expuso los elementos básicos de la comunicación: Una fuente de información que produce un mensaje; un

transmisor que opera en el mensaje para crear una señal que puede ser enviado a través de un canal; un canal que es el medio para llevar la información; un receptor que transforma la señal; y un destino, que puede ser una persona o una máquina.

La rama de las matemáticas inaugurada por Shannon se denominó teoría de la información y resultó ser extremadamente útil, no sólo en el diseño de circuitos de computadoras y la tecnología de comunicaciones, sino que también ha hallado aplicaciones fecundas en campos tan diversos como la biología, psicología, fonética e incluso semántica y literatura.