La idea principal es que, para lograr la máxima flexibilidad en las funciones base, hay que abandonar la idea que éstas puedan tener una forma determinada prescrita. Por el contrario, deben ser evaluadas punto por punto según ciertos criterios. En general, estas funciones deben ser positivas:
Además, un requisito básico es la consistencia de orden cero, que hace que una función constante se reproduzca exactamente:
Si ahora aislamos un punto cualquiera, los valores de las funciones base son simplemente un conjunto de números . Los anteriores requisitos son idénticos a los que se requieren de una serie de probabilidades asociadas a los posibles estados de un sistema. En este sentido, parece natural tomar ideas de la teoría de la probabilidad. En particular, la teoría de la información de Shannon introduce el concepto de entropía de un sistema, inspirado por la entropía física debida a L. Boltzmann:
(en lo sucesivo, omitimos la referencia al punto donde se evalúan estas cantidades). Se supone que la función se extiende analíticamente de modo que .
Esta entropía cumple algunas propiedades atractivas:
Todas estas propiedades son muy conocidas en el área de física estadística, sobre todo cuando los estados son discretos, como en mecánica estadística cuántica. En física se define en realidad
donde la constante de Boltzmann establece la correspondencia fundamental entre entropía y energía (además de proporcionar las dimensiones físicas adecuadas de [energía]/[temperatura]). Usamos en esta sección primas para distinguir las magnitudes físicas de las adimensionales
En general, se suele buscar el extremo de una función objetivo de este tipo:
donde es una ligadura que contiene un multiplicador de Langrange para satisfacer la condición de consistencia de orden cero:
El extremo se alcanza para , que es el resultado trivial cuando no se aporta más información.
Para hacer que el método sea local e incorpore información sobre los nodos, en los métodos de máxima entropía se introduce, como es habitual en física estadística, una energía que debe minimizarse. La forma más típica de esta energía es
donde es un parámetro de control: los nodos que estén más lejos de están penalizados con respecto a los que estén más cerca, por contribuir más a la energía. La función que se minimiza ahora es
De nuevo, la conexión con la mecánica estadística es clara; en ésta se minimiza la energía libre de Helmholtz
donde es la temperatura. O también
donde (históricamente, la denominación procede además de su condición de multiplicador de Lagrange [30].) Así que la función de de los métodos de máxima entropía es la energía libre de Helmholtz adimensionalizada, y lo mismo se aplica a y .
Se puede por tanto considerar el límite como el límite ``frío'', que es el dominado por la energía, y como el ``caliente'', dominado por la entropía.
El extremo de la función se obtiene facilmente:
donde es la denominada función de partición:
Queda patente que el resultado son funciones base gaussianas, de anchura : más finas en el límite frío y más anchas en el caliente.
Este resultado es, de hecho, idéntico al método SPH con funciones núcleo (``kernel'') gaussianas, corregidas a la manera de Shepard (a través del término ) para satisfacer consistencia de orden cero. Es trivial recuperar cualquier función nucleo SPH que se desee cambiando la definición de la energía.
Daniel Duque 2011-11-10