Podemos decir que información es cualquier cosa que cambie nuestra mente y nuestro estado de pensamiento. La información la percibimos como algo virtual que se puede transmitir por diferentes medios, tales como el habla, la imagen, la escritura o las conexiones de las neuronas en nuestro cerebro. Aparentemente no tiene la materialidad de otras entidades, como la materia o la energía, que son las que trata la Física; sin embargo, se ha podido demostrar que la información es una entidad física.

 

La realidad más profunda

El camino hacia la comprensión del Universo está todavía por recorrer. Pitágoras consideraba que las propiedades de los números gobernaban la naturaleza y Platón encontraba en la Geometría las formas, o ideales, que existen más allá del mundo sensorial. “No entre nadie ignorante en Geometría”, tal era la inscripción que figuraba en la entrada de su academia. Para él, las formas geométricas no son creaciones humanas, sino realidades fundamentales. En su forma más pura, tienen una existencia tan real, si no más, que el mundo en el que nos desenvolvemos.

Dos mil años después, Kepler, continuando con ese pensamiento, trató de encajar las órbitas de los seis planetas conocidos en los cinco sólidos platónicos: octaedro, icosaedro, dodecaedro, tetraedro y cubo.

En tiempos actuales, tiene una gran aceptación la corriente filosófica del realismo matemático. Ésta defiende que el conjunto de teoremas, patrones y estructuras matemáticas constituyen el reflejo de un orden superior, es decir, manifestaciones de una estructura subyacente que impregna el universo y considera que el mundo tangible en el que habitamos es un derivado de estas estructuras.

En el contexto de esta permanente búsqueda de la esencia de la Naturaleza, está ganando adeptos una visión en la que la información se considera la entidad primaria a partir de la cual se construye la realidad física. Es una idea que comparten muchos científicos que trabajan en los fundamentos de la computación y, en particular, en la computación cuántica.

La información es física

En términos generales, podemos decir que información es cualquier cosa que cambie nuestra mente y nuestro estado de pensamiento. La información la percibimos como algo virtual que se puede transmitir por diferentes medios, tales como el habla, la imagen, la escritura o las conexiones de las neuronas en nuestro cerebro. Aparentemente no tiene la materialidad de otras entidades, como la materia o la energía, que son las que trata la Física; sin embargo, se ha podido demostrar que la información es una entidad física.

Esta demostración ha supuesto un largo proceso que tiene su comienzo en 1871, con un experimento mental[1] que propuso el físico escocés James Clerk Maxwell. Éste imaginó dividir una habitación llena de gas en dos compartimentos, levantando una pared con una pequeña puerta. El gas está formado por partículas individuales que están en movimiento. Unas van más rápidas (más calientes) y se mezclan con las más lentas (más frías) para dar una temperatura media. Maxwell sentó a un diminuto demonio en la puerta, asignándole una tarea muy específica: cada vez que veía una partícula que se movía rápidamente por el lado izquierdo, abría la puerta y la dejaba entrar en el compartimiento de la derecha; y cada vez que una partícula de movimiento lento se acercaba desde la derecha, el demonio la dejaba entrar en el compartimento de la izquierda. Después de un tiempo, el compartimento de la izquierda estaría lleno de partículas lentas y frías, y el compartimento de la derecha se calentaría. Esto entra en contradicción con lo enunciado por el segundo principio de la termodinámica[2]. Maxwell había creado un sistema que parecía desafiar el aumento de la entropía y, por lo tanto, las leyes del universo.  En el camino hacia la resolución de esta paradoja, el físico húngaro Leo Szilard, en 1929, avanzó la idea de tratar la inteligencia del demonio como información, vinculando ésta a la física. Y Claude Shannon, en un brillante trabajo publicado en 1948, estableció la relación entre la naturaleza etérea de la información y su carácter físico, interpretando la noción de entropía de la termodinámica en el contexto de la teoría de la información. En el escenario de cómo transmitir información de la manera más eficiente, la define como una medida puramente cuantitativa de los intercambios de comunicación, tomando el dígito binario (0,1) como la unidad de información; así, cualquier tipo de mensaje se puede codificar utilizando dígitos binarios, llamados bits. Y reinterpretó la entropía física como una medida de la reducción de la incertidumbre en el conocimiento del receptor. Se puede entender el proceso de ganar información como equivalente al proceso de perder incertidumbre. Verificó que la entropía física y la entropía de la información comparten la misma expresión matemática, manifestando claramente el carácter físico de la información.

Pero la respuesta más precisa, la verdadera razón por la que el Demonio de Maxwell no puede violar la segunda ley, llegó a partir de 1961, en el curso de una investigación sobre los requisitos energéticos de los ordenadores. Rolf Landauer, en el seno de IBM, introdujo el principio de «irreversibilidad lógica», demostrando que, cualquier manipulación de información lógicamente irreversible[3], como el borrado de información de una memoria,  da como resultado una cantidad mínima de trabajo convertida en calor, que se vierte al medio ambiente. Y su compañero en IBM, Charles H. Bennett, partiendo de este principio, argumentó en 1982 que la explicación por la que el Demonio de Maxwell no podía violar la segunda ley era que, para observar una molécula, primero debía olvidar los resultados de la observación anterior, disipando energía[4].

El ascenso de la información a concepto fundamental: “It from bit”

A partir de estos hallazgos, hemos asistido a un creciente interés en el nexo entre física e información, impulsada por la era de la información en la que vivimos y por los avances en teoría cuántica de la información y ciencias de la computación.

John Archibald Wheeler ha sido un prestigioso científico que contribuyó al desarrollo de la relatividad general y que acuñó las expresiones “agujero negro” y “agujero de gusano” con las que denominamos dos importantes fenómenos cosmológicos. En 1990 publicó un relevante artículo[5] en el que aportaba ideas poco convencionales sobre el análisis de la información como fundamento de la realidad, y donde reflejaba su pensamiento en un breve aforismo, «It from bit», que también ha dejado huella. «It» se refiere a todas las cosas del universo y «bit» a la información. Por tanto «It from bit» simboliza la idea de que cada elemento del mundo físico tiene en el fondo una explicación inmaterial, que todo lo físico tiene un origen teórico de la información. El universo sería fundamentalmente un sistema de procesamiento de información del que surge la apariencia de materia en un nivel superior de la realidad.

Así se expresa el físico Paul Davies, director del Centro de conceptos Fundamentales en Ciencia de la Universidad Estatal de Arizona, sobre esta nueva corriente de pensamiento: «Históricamente, la materia ha estado en el fondo de la cadena explicativa, y la información ha sido una especie de derivado secundario de ella», mientras que ahora, «hay un interés creciente, al menos entre un pequeño grupo de físicos, por darle la vuelta a la situación y decir que, tal vez en el fondo, el universo trata de información y procesamiento de la información, y es la materia la que surge como concepto secundario»[6].

La irrazonable efectividad de la teoría de la información 

La teoría de la información da pie a un análisis profundo de la realidad, al tiempo que da explicación a una serie de fenómenos físicos y favorece el desarrollo de numerosas aplicaciones prácticas. De hecho, los trabajos de Claude Shannon[7] que han conducido a esta teoría están enmarcados en las telecomunicaciones, abordando el problema de cómo transmitir información de la manera más eficiente a través de un canal determinado. La teoría de la información es objetivamente una rama de las matemáticas y la informática que estudia la cuantificación, el almacenamiento y la comunicación de la información. Ha permitido diseñar sistemas de comunicación, compresión de datos y criptografía, así como el desarrollo de la computación cuántica. Y se está utilizando con profusión en el estudio de la mecánica cuántica, la termodinámica y la comprensión del comportamiento de los agujeros negros. La información es intrínsecamente fundamental en biología, los sistemas vivos existen en la interfaz dinámica de la información y la termodinámica, por lo que el estudio del almacenamiento, procesamiento y comunicación de la información está íntimamente ligado a la biología. En las últimas décadas se han producido notables avances tecnológicos en este sentido, que han permitido comprender mejor las bases informacionales de la vida, proporcionando marcos conceptuales para definir la dinámica subyacente.

La lista de aplicaciones más concretas puede continuar haciendo referencia a la exploración de datos, la teoría de la búsqueda, el aprendizaje automático, la IA, la optimización, la robótica, la teoría del control, la teoría de juegos, la toma de decisiones o la ingeniería industrial.

Esta diversidad de aplicaciones ha llevado a Ben-Gal y Kagan, científicos de la Universidad de Tel-Aviv, a parafrasear a Wigner[8]: “Los conceptos utilizados en la teoría de la información son las probabilidades y los bits; las primeras son medidas continuas de incertidumbre, mientras que los segundos son niveles discretos de verdad. Hoy en día, parece significativo seguir el pensamiento de Wigner y discutir la inmensa eficacia de los conceptos de la teoría de la información en el razonamiento humano y en el funcionamiento y análisis de sistemas complejos.”[9]

“En el principio era el Verbo”

Como resumen de lo anterior cabe decir que las leyes de la física que conocemos nos han ayudado a conocer el comportamiento de la materia inanimada en el universo, pero no tanto la complejidad de los patrones emergentes de forma y función que vemos en la naturaleza. Y en ese campo se están dando avances con el concurso de las leyes de la información. Se avanza en el conocimiento de cosas tangibles como la comprensión de los sistemas biológicos, así como de los sistemas complejos en general, mientras se mantiene el debate sobre la esencia de la realidad.

La visión del premio Nobel Anton Zeilinger[10], que ha dedicado su vida a la información cuántica está dentro de ese debate: “A menudo digo que la teoría cuántica es teoría de la información, y que la separación entre realidad e información es artificial. No se puede pensar en la realidad sin admitir que lo que se maneja es información. Así que necesitamos un nuevo concepto que englobe las dos cosas. Aún no lo hemos conseguido.”[11]

Para celebrar el 90 cumpleaños de John Wheeler se celebró un simposio organizado por el Instituto Metanexus con la participación de científicos de primera línea. Zeillinger finalizó su contribución con estas palabras: “En conclusión, podría decirse que la información es el núcleo irreductible del que fluye todo lo demás”. A lo que añadió:  “El concepto de que la información es fundamental es un conocimiento muy antiguo de la humanidad, testigo de ello es, por ejemplo, el comienzo del Evangelio según San Juan: «En el principio era el Verbo».[12]

 

Manuel Ribes

Instituto Ciencias de la Vida

Observatorio de Bioética

Universidad Católica de Valencia

 

[1] M. Ribes El Demonio  de  Maxwell  cumple 150  años…  en  plena forma – Observatorio Bioética UCV septiembre 2021  

[2] La segunda ley de la termodinámica puede expresarse así: No es posible que el calor fluya desde un cuerpo frío hacia un cuerpo más caliente, sin necesidad de producir ningún trabajo que genere este flujo.

[3] Una operación lógicamente irreversible es aquella de la que no se puede conocer la entrada al mirar la salida.

[4] Para analizar correctamente el proceso se debe considerar cada acción del Demonio como un ciclo completo, es decir, el estado físico al final del proceso debe ser exactamente el mismo que al principio. Bennett argumentó que después de un ciclo completo de recopilación de información y producción de energía, la memoria del Demonio debe restablecerse a su estado inicial para permitir una nueva iteración. Según el principio de Landauer, el proceso de borrado siempre disipará más energía de la que produce el Demonio durante un ciclo, de acuerdo con la segunda ley de la termodinámica.

[5] Wheeler, J.A. (1990) Information, Physics, Quantum: The Search for Links. In: Zurek, W.H., Ed., Complexity, Entropy, and the Physics of Information, Addison-Wesley, Redwood City, 354-368.

[6] Robert Lawrence Kuhn Forget Space-Time: Information May Create the Cosmos Space News May 23, 2015

[7] C. E. Shannon A mathematical theory of communication The Bell System Technical Journal (Volume: 27, Issue: 3, July 1948)   DOI: 10.1002/j.1538-7305.1948.tb01338.x

[8] M. Ribes  El misterio de las matemáticas Observatorio Bioética UCV Septiembre 2020      

[9] Ben-Gal,I.; Kagan,E. InformationTheory: Deep Ideas, Wide Perspectives, and Various Applications. Entropy 2021, 23, 232. https://doi.org/10.3390/e23020232

[10] M.Ribes El Nobel de Física para “la acción espeluznante a distancia”  Observatorio Bioética UCV Octubre 2022   

[11] Eric Powell Discover Interview: Anton Zeilinger Dangled From Windows, Teleported Photons, and Taught the Dalai Lama  Aug 29, 2011

[12] Edited by John D. Barrow et al. Science and Ultimate Reality   Cambridge University Press & Assessment 2004  (p.201-220) ISBN: 9780521831130

Comparte en tus redes sociales