Le but de la physique statistique est de définir les quantités macroscopiques pertinentes qui permettent de décrire un tel système composé d'un très grand nombre de particules, et les relations entre ces différentes quantités.
Dans la situation microcanonique, les grandeurs physiques comme la température, la pression, etc. sont des variables internes, qui sont normalement libres de fluctuer dans un certain intervalle déterminé par les contraintes extérieures imposées au système (énergie, volume et nombre de particules).
En théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou fournie par une source d'information.