Introducción

Ciertos métodos basados en el concepto de entropía máxima, extremadamente conocido en el ámbito de la inferencia estadística, se han propuesto recientemente en el ámbito de la la mecánica computacional.

La idea principal es que, para lograr la máxima flexibilidad en las funciones base, hay que abandonar la idea que éstas puedan tener una forma determinada prescrita. Por el contrario, deben ser evaluadas punto por punto según ciertos criterios. En general, estas funciones deben ser positivas:

$\displaystyle s_a(x)>0 \quad \forall x.
$

Además, un requisito básico es la consistencia de orden cero, que hace que una función constante se reproduzca exactamente:

$\displaystyle \sum_a s_a(x)>0 \quad \forall x.
$

Si ahora aislamos un punto $ x$ cualquiera, los valores de las funciones base son simplemente un conjunto de números $ \{s_a\}$ . Los anteriores requisitos son idénticos a los que se requieren de una serie de probabilidades asociadas a los posibles estados de un sistema. En este sentido, parece natural tomar ideas de la teoría de la probabilidad. En particular, la teoría de la información de Shannon introduce el concepto de entropía de un sistema, inspirado por la entropía física debida a L. Boltzmann:

$\displaystyle S=-\sum_a s_a \log s_a
$

(en lo sucesivo, omitimos la referencia al punto $ x$ donde se evalúan estas cantidades). Se supone que la función $ x\log x$ se extiende analíticamente de modo que $ 0\log 0 =0$ .

Esta entropía cumple algunas propiedades atractivas:

Todas estas propiedades son muy conocidas en el área de física estadística, sobre todo cuando los estados son discretos, como en mecánica estadística cuántica. En física se define en realidad

$\displaystyle S'=-k_B\sum_a s_a \log s_a,
$

donde la constante de Boltzmann $ k_B$ establece la correspondencia fundamental entre entropía y energía (además de proporcionar las dimensiones físicas adecuadas de [energía]/[temperatura]). Usamos en esta sección primas para distinguir las magnitudes físicas de las adimensionales

En general, se suele buscar el extremo de una función objetivo de este tipo:

$\displaystyle F= -S + L_0,
$

donde $ L_0$ es una ligadura que contiene un multiplicador de Langrange para satisfacer la condición de consistencia de orden cero:

$\displaystyle L_0=\alpha \left(\sum_a s_a -1 \right) .
$

El extremo se alcanza para $ s_a=1/N$ , que es el resultado trivial cuando no se aporta más información.

Para hacer que el método sea local e incorpore información sobre los nodos, en los métodos de máxima entropía se introduce, como es habitual en física estadística, una energía que debe minimizarse. La forma más típica de esta energía es

$\displaystyle E=\beta \sum_a s_a (x - x_a)^2 ,
$

donde $ \beta\ge 0$ es un parámetro de control: los nodos que estén más lejos de $ x$ están penalizados con respecto a los que estén más cerca, por contribuir más a la energía. La función que se minimiza ahora es

$\displaystyle F= -S +E + L_0.
$

De nuevo, la conexión con la mecánica estadística es clara; en ésta se minimiza la energía libre de Helmholtz

$\displaystyle F' = E' - T S' ,
$

donde $ T$ es la temperatura. O también

$\displaystyle \beta F' = \beta E' - S'/k_B ,
$

donde $ \beta = 1/(k_B T)$ (históricamente, la denominación $ \beta$ procede además de su condición de multiplicador de Lagrange [30].) Así que la función de $ F$ de los métodos de máxima entropía es la energía libre de Helmholtz adimensionalizada, y lo mismo se aplica a $ E$ y $ S$ .

Se puede por tanto considerar el límite $ \beta \rightarrow 0$ como el límite ``frío'', que es el dominado por la energía, y $ \beta
\rightarrow \infty$ como el ``caliente'', dominado por la entropía.

El extremo de la función se obtiene facilmente:

$\displaystyle s_a=\frac{1}{Z} e^{-\beta (x-x_a)^2} ,
$

donde $ Z$ es la denominada función de partición:

$\displaystyle Z=\sum_b e^{-\beta (x-x_b)^2} .
$

Queda patente que el resultado son funciones base gaussianas, de anchura $ \approx 1/\sqrt{\beta}$ : más finas en el límite frío y más anchas en el caliente.

Este resultado es, de hecho, idéntico al método SPH con funciones núcleo (``kernel'') gaussianas, corregidas a la manera de Shepard (a través del término $ Z$ ) para satisfacer consistencia de orden cero. Es trivial recuperar cualquier función nucleo SPH que se desee cambiando la definición de la energía.

Daniel Duque 2011-11-10