Definición matemática de entropía y la segunda ley de la termodinámica

Olivier 06/17/2017. 0 answers, 137 views
thermodynamics statistical-mechanics entropy definition

¿Cómo los físicos definen mathematically entropía (para la segunda ley de la termodinámica) y cómo se relaciona con las definiciones estadísticas de entropía?

A pesar de que hay muchas preguntas en este sitio sobre entropía (como esta ), ninguna que pude encontrar fue matemáticamente rigurosa o tuvo una respuesta completa y rigurosa.

Estoy buscando respuestas precisas que puedan ser entendidas por los matemáticos.


En las estadísticas matemáticas, tenemos muchas definiciones diferentes de la entropía de (o entre) distribuciones de probabilidad. Los notables son:

  • $ \ Alpha $ -entropy $ N (\ alpha) $ de una distribución $ \ rho $ en los enteros, que se define como $$ \ log \ sum_ {n \ in \ mathbb {N}} \ rho (n) ^ \ alpha. $$ Se puede extender a la entropía de una distribución definida en cualquier espacio métrico separable.
  • La divergencia de Kullback-Leibler (o entropía relativa) $$ D_ {KL} (P, Q) = \ int \ log \ frac {dP} {dQ} dP. $$

Tenga en cuenta que las transformaciones $ T $ del espacio muestral solo pueden aumentar la entropía relativa: $ D_ {KL} (PT ^ {- 1}, QT ^ {- 1}) \ geq D_ {KL} (P, Q) $, con igualdad iff $ T $ es una estadística suficiente para $ \ {P, Q \} $ y donde $ PT ^ {- 1} (A) = P (T ^ {- 1} (A)) $. Eso es todo lo que sé sobre el aumento de la entropía y la imposibilidad de crear información.

No Answers Yet

Related questions

Hot questions

Language

Popular Tags