Un estudio refuerza la segunda ley de la termodinámica

Vea También

 

Un estudio refuerza la segunda ley de la termodinámica

La segunda ley de la termodinámica establece el concepto de entropía. La ley sugiere que la entropía total de un proceso cerrado puede aumentar o permanecer igual, pero nunca disminuir.

Desde al menos el siglo XIX, los físicos investigan el papel de la entropía en la teoría de la información. Por ejemplo, estudian las transacciones energéticas de añadir o borrar bits de los ordenadores.

Para comprender mejor la conexión entre la termodinámica y el procesamiento de la información en la computación, el físico y miembro de la facultad residente del SFI David Wolpert, en colaboración con Artemy Kolchinsky, físico y antiguo becario postdoctoral del SFI, ha realizado un nuevo estudio en el que se analiza la aplicación de estas ideas a una amplia gama de áreas clásicas y cuánticas, incluida la termodinámica cuántica.

Según Wolpert, "los sistemas informáticos están diseñados específicamente para perder información sobre su pasado a medida que evolucionan".

La suma de 2 y 2 da como resultado un 4 en la calculadora. Al generar la salida, la máquina pierde información sobre la entrada, ya que la misma salida puede obtenerse con 3+1. Sólo a partir de la respuesta, la máquina no puede informar de qué par de números actuó como entrada.

En 1961, el físico de IBM Rolf Landauer descubrió que cuando se borra la información, como ocurre durante un cálculo de este tipo, la entropía de la calculadora disminuye (al perder información), lo que significa que la entropía del entorno debe aumentar.

Borrar un poco de información requiere generar un poco de calor.

Los científicos querían determinar el coste energético de borrar información para un sistema determinado.

Landauer derivó una ecuación para la cantidad mínima de energía que se produce durante el borrado. En este estudio, el dúo del SFI descubrió que la mayoría de los sistemas producen más.

Según Kolchinsky, "la única manera de conseguir la pérdida mínima de energía de Landauer es diseñar un ordenador con una tarea determinada. Si el ordenador realiza algún otro cálculo, entonces generará entropía adicional". Kolchinsky y Wolpert han demostrado que dos ordenadores pueden realizar el mismo cálculo, por ejemplo, pero diferir en la producción de entropía debido a sus expectativas de entrada. Los investigadores llaman a esto "coste de desajuste", o el coste de equivocarse".

"Es el coste entre aquello para lo que está construida la máquina y aquello para lo que se utiliza".

En estudios anteriores, los científicos demostraron que este coste de desajuste podía encontrarse en varios sistemas, no sólo en la teoría de la información. Descubrieron una relación fundamental entre la irreversibilidad termodinámica -el caso en el que la entropía aumenta- y la irreversibilidad lógica -el caso en la computación en el que se pierde el estado inicial-.

De este modo, pudieron reforzar la segunda ley de la termodinámica.

También descubrieron que esta relación fundamental se extiende incluso más ampliamente de lo que se creía.

Kolchinsky dijo: "Una mejor comprensión del coste de los desajustes podría llevar a una mejor comprensión de cómo predecir y corregir esos errores".

"Existe una profunda relación entre la física y la teoría de la información".

Fuentes, créditos y referencias:

 Artemy Kolchinsky and David H. Wolpert et al. Entropy production given constraints on the energy functions. DOI: 10.1103/PhysRevE.104.034129

Imagen: Figura 3 del artículo "Entropy production given constraints on the energy functions"

Artículo Anterior Artículo Siguiente

Anuncio publicitario

Reciba actualizaciones por Telegram

¡Únete a nuestro canal de WhatsApp para recibir actualizaciones!