¿Cuál es la definición de temperatura, de una vez por todas? [duplicar]

Joshua Benabou 06/05/2017. 5 answers, 3.517 views
thermodynamics statistical-mechanics temperature definition

Esta pregunta ya tiene una respuesta aquí:

¿Puede alguien explicarme cuál es la definición formal de temperatura ?

Ni mi libro de texto, ni mi profesor, ni ninguna de las fuentes en línea que he revisado pueden darme una definición adecuada de temperatura. Incluso Feynman no define la temperatura. Honestamente, la cantidad de definiciones circulares y ambigüedades que he encontrado al tratar de entender las definiciones precisas de conceptos termodinámicos es asombrosa.

Lo mejor que obtuve fue que la temperatura de un sistema de partículas es una medida de su energía cinética promedio.

Al derivar la ley de los gases ideales para los gases monoatómicos, la derivación de la fórmula de energía interna $ U = 3 / 2PV $ es clara para mí. Sin embargo, luego se usa que la energía cinética promedio de un sistema se da en términos de su temperatura como $ 3 / 2kT $. Para un gas monoatómico, la energía total es simplemente el número de moléculas $ N $ multiplicado por la energía cinética promedio (ya que se supone que las moléculas no tienen energía de rotación), y por lo tanto $ U = 3 / 2NkT $, lo que da $ PV = NkT $ que es la ley de los gases ideales.

Entonces, ¿debo tomar la afirmación de que la energía cinética promedio de un sistema es igual a una constante multiplicada por su temperatura $ T $ como definición de temperatura? No lo creo, porque este es, de hecho, el teorema de la equipartición, lo que significa que la temperatura debe definirse independientemente en cualquier otro lugar.

Entonces, ¿cuál es la definición correcta de temperatura en termodinámica y teoría cinética, y además, por qué es que cuando colocamos un termómetro en un baño de agua podemos decir que la lectura que obtenemos es una medida de la energía cinética promedio de las moléculas en ¿el baño?

5 Answers


user154997 06/06/2017.

Como Fabian te dio una perspectiva termodinámica, trataré de darte el punto de vista de la física estadística. Realmente te acercaste mucho cuando mencionaste el teorema de la equipartición, ya que la imagen general es mucho más que eso.

Versión ultra terca: la temperatura es la inversa del multiplicador de Lagrange que garantiza la conservación de la energía en la maximización de la entropía estadística.

Me quedaré en un marco clásico para no tener que abrumarlo con la maquinaria mecánica cuántica del operador de densidad. Digamos que tenemos un sistema de $ N $ partículas. Nos damos una densidad de fase $ D (x_1, p_1, x_2, p_2, \ cdots, x_N, p_N) $: la probabilidad de que la partícula i-th tenga una posición entre $ x_i $ y $ x_i + \ delta x_i $, y un impulso entre $ p_i $ y $ p_i + \ delta p_i $ es proporcional a $ D (x_1, p_1, \ cdots, x_N, p_N) \ delta x_1 \ delta p_1 \ cdots \ delta x_N \ delta p_N $. Luego construimos la entropía estadística $ S (D) $. Esto es por lo tanto un funcional, es decir, una función de la función $ D $:

$$ S (D) = -k \ int dx_1dp_1 \ cdots dx_Ndp_N \ D \ log D $$

donde no escribí los argumentos de $ D $ para la legibilidad.

Ahora el juego es encontrar $ D $ que maximice $ S (D) $ bajo las restricciones que se conocen de algunas cantidades macroscópicas. El ejemplo más simple es el del conjunto canónico donde se conoce la energía macroscópica $ U $.

$$ U = \ int dx_1dp_1 \ cdots dx_Ndp_N \ D \ u $$

donde $ u (x_1, p_1, \ cdots, x_N, p_N) $ es la energía microscópica para el punto dado en el espacio de fase. Por ejemplo, para el gas perfecto, podemos tener en cuenta solo la energía cinética,

$$ u (x_1, p_1, \ cdots, x_N, p_N) = \ sum_ {i = 1} ^ N \ frac {p_i ^ 2} {2m}, $$

donde $ m $ sería la masa de cada molécula en el gas.

Esa maximización restringida se transforma luego de forma ilimitada al maximizar realmente

$$ S (D) + \ beta U + \ lambda_0 \ int dx_1dp_1 \ cdots dx_Ndp_N D $$

donde $ \ lambda_0 $ se introduce para imponer la restricción, siempre presente, que $ D $ tiene que normalizarse a 1 para que la definición probabilística anterior tenga sentido. $ \ beta $ y $ \ lambda_0 $ se llaman multiplicadores de Lagrange. El resultado es que

$$ D = \ frac {1} {Z} e ^ {- \ beta u} $$

donde la normalización $ Z $ se llama función de partición. Esta es la distribución Boltzmann-Gibs. Finalmente, podemos definir la temperatura $ T $ como

$$ \ beta = \ frac {1} {kT} $$


Diracology 06/06/2017.

Desde un punto de vista lógico y termodinámico, la definición de temperatura debe ser dada por la Ley Zeroth de Termodinámica.

Digamos que no sabemos qué temperatura es. Sin embargo, sabemos que si permitimos que dos cuerpos interactúen, pueden cambiar algunas propiedades termométricas (como el volumen, la presión, la resistencia eléctrica, ...) de cada uno. Cuando no hay ningún cambio en ninguna propiedad termométrica, decimos que los cuerpos han alcanzado el equilibrio térmico. La Ley Zeroth consiste en el hecho empírico de que si $ A $ está en equilibrio térmico con $ B $ y $ B $ está en equilibrio térmico con $ C $, entonces $ A $ está en equilibrio térmico con $ C $. Esta es una relación de equivalencia que clasifica un conjunto de cuerpos en subconjuntos llamados clases de equivalencia . Luego etiquetamos cada clase con un número $ T> 0 $ que llamaremos temperatura. La Ley Zeroth nos permite establecer el equilibrio térmico solo en términos de una nueva variable definida llamada temperatura.

La definición anterior no es absoluta sin embargo. El número que asociamos a cada subconjunto de cuerpos en equilibrio térmico es arbitrario. Para eliminar esta arbitrariedad (al menos parcialmente) usamos la Segunda Ley de la Termodinámica para definir la llamada temperatura absoluta o termodinámica . La segunda ley implica que cualquier motor térmico reversible que funcione entre dos fuentes tiene eficiencia dada por $$ \ eta_R = 1- \ frac {T_2} {T_1}, $$ donde $ T_1 $ y $ T_2 $ son las temperaturas de las fuentes. Dada la universalidad de este resultado, por ejemplo, puede definir arbitrariamente la temperatura de la fuente fría $ T_2 $, medir, mecánicamente, la eficiencia del motor y luego la temperatura $ T_1 $ está determinada por $$ T_1 = \ frac {T_2} {1- \ eta_R}. $$ Tenga en cuenta que ya no existe la arbitrariedad sobre el concepto de temperatura, excepto la elección de la temperatura de la fuente de frío. Por lo tanto, es apropiado usar como punto de referencia que sea altamente reproducible en cualquier lugar. Una opción estándar es el punto triple de agua que se define en $ 273.16 \, \ mathrm K $.


Fabian 06/06/2017.

Aquí está la definición de temperatura en termodinámica:

  • la primera ley define el heat $ Q $ como la energía "faltante" $$ \ delta Q = d U - dW \ tag {1} $$ donde $ U $ es la energía total (interna) y $ W $ es el trabajo .

Tenga en cuenta, sin embargo, que el calor no está definido para un estado del sistema, pero necesita conocer el proceso (camino) por el cual ha alcanzado el estado actual. Es decir, solo el cambio $ \ delta Q $ se define en (1) y no en $ Q $.

  • en la segunda ley, la temperatura (absoluta) $ T $ se define como el factor de integración que representa $ \ delta Q $ en un diferencial total $ dS $. En términos más físicos, es el factor que hace de $ \ delta Q $ una cantidad $ S $ que solo depende del estado del sistema $$ dS = \ frac {\ delta Q} {T}. \ tag {2} $$

Vía (2) la temperatura se define hasta una constante multiplicativa. Esta constante generalmente se define (a través de la constante de Boltzmann) de tal manera que hay 100 unidades entre la temperatura de congelación y la de ebullición del agua a presión ambiente.

Edit:

Gracias a Valter Moretti, he descubierto que debes agregar la condición a (2) que $ S $ tiene que ser extenso.


user121330 06/05/2017.

Matemático:

$$ T = \ frac {\ partial U} {\ partial S} _ {V, N} $$

La temperatura es el cambio en la energía interna con respecto a la entropía cuando se mantiene constante el volumen y el número.

Inglés simple: la temperatura es una medida de la energía libre en un objeto. Diferentes objetos tienen diferente capacidad para contener energía. Por ejemplo, a temperatura ambiente, el amoníaco puede contener aproximadamente 10 veces la energía que el argón gaseoso (por gramo). Para complicar aún más las cosas, la capacidad de un material para adaptarse a la energía libre cambia con la temperatura. En lugar de simplemente informar la energía libre en un objeto, la temperatura informa la energía libre normalizada a la capacidad que ese objeto tiene a esa temperatura. Todo esto nos lleva de vuelta a esa definición que se siente muy circular y realmente no explica mucho fuera de contexto:

Heurística: la temperatura es la calidad de la materia que es la misma cuando los objetos en contacto alcanzan el equilibrio térmico.

Revisión mecánica: has escuchado sobre el movimiento de las moléculas en un gas y el movimiento de los átomos en un sólido, y esa es una manera de entender las cosas, pero también hay fotones y fonones (matemáticos) que dan temperatura a las cosas. Resulta que conocemos la temperatura del sol no porque enviamos un termómetro, sino porque irradia fotones como todo lo demás, y la distribución de frecuencia de la luz saliente es consistente con la superficie del sol a unos 5800K. Incluso sabemos que la mayor parte del espacio tiene una temperatura constante de aproximadamente 3K debido a la misma propiedad.

Editorial: La energía va de un objeto a otro y escribe para escribir todo el tiempo. La energía es un concepto abstracto que relaciona todas las ciencias físicas (y describe cientos de formas de energía), por lo que no podemos esperar que su derivada con respecto a la entropía sea solo un fenómeno. Seguir explorando.


OrangeSherbet 03/06/2018.

¿Qué es la temperatura? Hay respuestas matemáticas muy formales a esta pregunta. Sin embargo, la mejor respuesta que he encontrado en mis seis años de educación física fue en mi curso de termodinámica original, en mi segundo año, en Schroeder's Thermal Physics , páginas 85-91. Sin embargo, mi comprensión ha evolucionado con la exposición a la probabilidad y la teoría de la información.

Cualquier comprensión de la temperatura que se desee obtener está fundamentalmente limitada por su comprensión de lo que es la entropía.

El estado de un sistema es todo lo que se puede conocer simultáneamente sobre un sistema (que está limitado por la mecánica cuántica). Una vez que sabes todo lo que hay que saber sobre un sistema , has determinado su estado.

La entropía es equivalente a la cantidad expected de preguntas de sí / no mínimamente requeridas para determinar el estado de un sistema . Tenga en cuenta la palabra "esperado" (que significa promedio), y la palabra "mínimamente" (lo que significa hacer las best preguntas que pueda).

Probablemente nunca hayas escuchado esta definición de entropía, pero esta definición es completamente correcta, excepto en física multiplicamos este número por $ k_b ln (2) $ (un número) simplemente por razones históricas. Entonces, cada vez que lea entropy , debe intentar pensar en la expected number of yes/no questions . No está mal, es muy intuitivo y es muy útil.

Existe una ley simple que dice que la cantidad esperada de preguntas de sí / no requeridas para determinar el estado de un sistema cerrado nunca puede disminuir . Esto se conoce como la segunda ley de la termodinámica. Es una buena ley. Y cuando la entropía se define como el número expected de preguntas, es una ley exacta que always cumple. Incluso vale para el Demon de Maxwell.

El número esperado de preguntas para determinar el estado de un sistema cerrado ciertamente puede increase . Y ciertamente lo hará, hasta que llegue a un límite. Un sistema que ha alcanzado este "límite de desconocibilidad" ocupa todos los estados posibles con igual probabilidad, y yo llamo a este sistema ergodic . Esto always ocurre si esperas lo suficiente, gracias a IMO a las matemáticas de las cadenas de markov (cada sistema cerrado es necesariamente una cadena de markov irreductible y ergódica que se aproxima a una distribución estacionaria). Esto se llama la ergodic hypothesis en física.

Considere dos sistemas ergódicos, uno de alta temperatura y uno de baja temperatura.

Cuando un sistema tiene una temperatura alta, significa que pequeños cambios en la energía del sistema causan grandes cambios en la entropía del sistema (de hecho, esta es la definición de temperatura). Pensando en la entropía como la cantidad esperada de preguntas de sí / no, esto significa que tendrá que hacer muchas más preguntas para determinar el estado del sistema si agrega un poco de energía.

Cuando un sistema tiene baja temperatura, significa que pequeños cambios en la energía del sistema no cambian mucho la entropía del sistema. No tendrá que hacer muchas más preguntas para determinar el estado del sistema si tiene un poco más de energía.

Ahora considere el sistema combinado, cerrado del resto del universo. La tercera ley impone una restricción sobre la cantidad esperada de preguntas de sí / no para determinar el estado del sistema combinado. Considera lo que sucede si los sistemas pueden intercambiar energía (¡y solo energía!).

Si la energía no se intercambia entre los sistemas de baja temperatura y alta temperatura, entonces el número esperado de preguntas requeridas para todo el sistema $ N_ {1 + 2} $ es solo la suma de la cantidad esperada de preguntas para cada subsistema: $ N_ { 1 + 2} = N_1 + N_2 $.

Sin embargo, ¿qué sucede si los dos subsistemas pueden intercambiar energía? La tercera ley dice que, pase lo que pase, la cantidad esperada de preguntas requeridas para determinar el estado del sistema combinado no puede decrease .

If sabe que fluye más energía del sistema de alta temperatura al sistema de baja temperatura (que ciertamente puede, la energía fluye al azar), por la definición de temperatura se sabe que el número de preguntas requeridas para determinar el estado del sistema combinado disminuido, en aparente violación de la 2da Ley: $ N_ {1 + 2} <N_1 + N_2 $. Sin embargo, este conocimiento sobre "flujo de energía hacia atrás" no se puede obtener sin hacer un número determinado de preguntas $ N_q $ del sistema: el número exacto requerido por la 2da Ley $ N_ {1 + 2} \ geq N_1 + N_2 + N_q $ .

Por otro lado, si todo lo que sabes es que se está produciendo un intercambio de energía en este sistema combinado, a partir de la hipótesis ergódica, la cantidad esperada de preguntas que tendrás que hacer solo aumentará, acercándose rápidamente al límite ergódico. Esto requires que la energía fluya en promedio (al azar) de lo caliente a lo frío. Y el límite ergódico es cuando lo caliente y lo frío tienen la misma temperatura.

Related questions

Hot questions

Language

Popular Tags