Movimiento perpetuo
Algunas personas consideran que los motores térmicos son imperfectos porque nunca pueden ser 100 por ciento eficientes. Incluso los motores térmicos idealizados siempre deben desperdiciar algo de energía. ¿Por qué? El calor es energía desorganizada y se necesita energía para organizar las cosas.
Consideremos ahora los motores con eficiencia cero. No pueden hacer ningún trabajo útil. Podemos hacer que cualquier motor caiga a eficiencia cero cortando su suministro de combustible. Si no hay combustible el fuego se apaga y la fuente de calor se enfría hasta que su temperatura es igual a la temperatura del ambiente, temperatura a la que el motor descarga el calor residual. Eso hace que la temperatura más alta A sea igual a la temperatura más baja B. Cuando dos números son iguales, dividir uno por el otro da 1. La razón 1, restada del 1 que indica una eficiencia del 100 por ciento, da 0. Un motor sin combustible tiene eficiencia cero. No puede hacer un trabajo útil.
¿Qué pasa si un motor sigue en movimiento después de que se agota su combustible? La segunda ley no prohíbe el movimiento perpetuo. Si lo hiciera, estaría proscribiendo el movimiento estable del electrón en el átomo de hidrógeno. La segunda ley pone un límite al trabajo útil que podemos extraer de la energía térmica. Si no hay diferencia de temperatura entre la fuente de calor y el depósito donde el motor descarga la energía térmica usada, entonces ningún motor puede extraer trabajo. Eso no significa que las partes del motor no puedan dar vueltas y vueltas para siempre. Pueden hacer eso si no tienen fricción. Los planetas se aproximan a esta condición moviéndose año tras año alrededor del Sol en el vacío sin aire del espacio. Tampoco existe la fricción en motores del tamaño de átomos. La fricción es un fenómeno macroscópico. Macroscópico significa que las partes contienen muchos átomos o moléculas. En otras palabras, el hecho de que los objetos de tamaño ordinario no se muevan para siempre no significa que no haya un movimiento perpetuo de cosas muy grandes o muy pequeñas.
Orden
La entropía es proporcional a la información negativa. Por supuesto, la entropía es en sí misma un concepto negativo. Se refiere al desorden. Para hablar más claro, deberíamos decir que la entropía es el negativo de la información. Así evitamos una doble negativa.
Shannon tuvo que usar un factor multiplicador que difiere del que usó Boltzmann porque medimos la entropía y la información en diferentes unidades. La palabra "bit" que usamos como unidad de información solo casualmente significa "un pequeño fragmento". Originalmente, "bit" era una contracción de "binary digit [dígito binario]." Podemos medir la información en dígitos binarios (bits) o en unidades que los matemáticos encuentran "naturales", unidades llamadas nits. Un nit es un poco más de 1,442695 bits. Para obtener la entropía en vatios-segundo por kelvin, multiplique el número de nits de información por la constante de Boltzmann, 0,000.000.000.000.000.000.000.013.806.62 vatios-segundo por kelvin.
Probabilidad y entropía o información
La información es ahora una cantidad medible, gracias a la segunda ley de la termodinámica. Pero, ¿qué tiene que ver la información o la entropía con la probabilidad?
A los ingenieros que diseñan motores térmicos les gustaría que el movimiento de las moléculas de vapor estuviera completamente ordenado, porque entonces podrían diseñar motores térmicos que fueran 100 por ciento eficientes. Idealmente, todas las moléculas se moverían en la misma dirección, rebotarían en el pistón perpendicularmente, cederían toda su energía y luego caerían al fondo del cilindro. Si los ingenieros pudieran hacer que las moléculas de vapor hicieran eso, el motor sería 100 por ciento eficiente. Tomaría toda la energía del calor y la convertiría en trabajo útil.
Pero los ingenieros saben que es imposible que todas las moléculas se muevan de manera tan ordenada. Es probable que el estado de movimiento de las moléculas de vapor sea aleatorio y tenga entropía según la presión y la temperatura. Esta es la relación entre probabilidad y entropía o información.
Algunas personas consideran que los motores térmicos son imperfectos porque nunca pueden ser 100 por ciento eficientes. Incluso los motores térmicos idealizados siempre deben desperdiciar algo de energía. ¿Por qué? El calor es energía desorganizada y se necesita energía para organizar las cosas.
Consideremos ahora los motores con eficiencia cero. No pueden hacer ningún trabajo útil. Podemos hacer que cualquier motor caiga a eficiencia cero cortando su suministro de combustible. Si no hay combustible el fuego se apaga y la fuente de calor se enfría hasta que su temperatura es igual a la temperatura del ambiente, temperatura a la que el motor descarga el calor residual. Eso hace que la temperatura más alta A sea igual a la temperatura más baja B. Cuando dos números son iguales, dividir uno por el otro da 1. La razón 1, restada del 1 que indica una eficiencia del 100 por ciento, da 0. Un motor sin combustible tiene eficiencia cero. No puede hacer un trabajo útil.
¿Qué pasa si un motor sigue en movimiento después de que se agota su combustible? La segunda ley no prohíbe el movimiento perpetuo. Si lo hiciera, estaría proscribiendo el movimiento estable del electrón en el átomo de hidrógeno. La segunda ley pone un límite al trabajo útil que podemos extraer de la energía térmica. Si no hay diferencia de temperatura entre la fuente de calor y el depósito donde el motor descarga la energía térmica usada, entonces ningún motor puede extraer trabajo. Eso no significa que las partes del motor no puedan dar vueltas y vueltas para siempre. Pueden hacer eso si no tienen fricción. Los planetas se aproximan a esta condición moviéndose año tras año alrededor del Sol en el vacío sin aire del espacio. Tampoco existe la fricción en motores del tamaño de átomos. La fricción es un fenómeno macroscópico. Macroscópico significa que las partes contienen muchos átomos o moléculas. En otras palabras, el hecho de que los objetos de tamaño ordinario no se muevan para siempre no significa que no haya un movimiento perpetuo de cosas muy grandes o muy pequeñas.
Orden
La entropía es proporcional a la información negativa. Por supuesto, la entropía es en sí misma un concepto negativo. Se refiere al desorden. Para hablar más claro, deberíamos decir que la entropía es el negativo de la información. Así evitamos una doble negativa.
Shannon tuvo que usar un factor multiplicador que difiere del que usó Boltzmann porque medimos la entropía y la información en diferentes unidades. La palabra "bit" que usamos como unidad de información solo casualmente significa "un pequeño fragmento". Originalmente, "bit" era una contracción de "binary digit [dígito binario]." Podemos medir la información en dígitos binarios (bits) o en unidades que los matemáticos encuentran "naturales", unidades llamadas nits. Un nit es un poco más de 1,442695 bits. Para obtener la entropía en vatios-segundo por kelvin, multiplique el número de nits de información por la constante de Boltzmann, 0,000.000.000.000.000.000.000.013.806.62 vatios-segundo por kelvin.
Probabilidad y entropía o información
La información es ahora una cantidad medible, gracias a la segunda ley de la termodinámica. Pero, ¿qué tiene que ver la información o la entropía con la probabilidad?
A los ingenieros que diseñan motores térmicos les gustaría que el movimiento de las moléculas de vapor estuviera completamente ordenado, porque entonces podrían diseñar motores térmicos que fueran 100 por ciento eficientes. Idealmente, todas las moléculas se moverían en la misma dirección, rebotarían en el pistón perpendicularmente, cederían toda su energía y luego caerían al fondo del cilindro. Si los ingenieros pudieran hacer que las moléculas de vapor hicieran eso, el motor sería 100 por ciento eficiente. Tomaría toda la energía del calor y la convertiría en trabajo útil.
Pero los ingenieros saben que es imposible que todas las moléculas se muevan de manera tan ordenada. Es probable que el estado de movimiento de las moléculas de vapor sea aleatorio y tenga entropía según la presión y la temperatura. Esta es la relación entre probabilidad y entropía o información.