En algorithmique, le recuit simulé est une méthode empirique (métaheuristique) d'optimisation, inspirée d'un processus, le recuit, utilisé en métallurgie. On alterne dans cette dernière des cycles de refroidissement lent et de réchauffage (recuit) qui ont pour effet de minimiser l'énergie du matériau. Cette méthode est transposée en optimisation pour trouver les extrema d'une fonction.
Elle a été mise au point par trois chercheurs de la société IBM, S. Kirkpatrick, C.D. Gelatt et M.P. Vecchi en 1983[1], et indépendamment par V. Černy en 1985[2].
La méthode vient du constat que le refroidissement naturel de certains métaux ne permet pas aux atomes de se placer dans la configuration la plus solide. La configuration la plus stable est atteinte en maîtrisant le refroidissement et en le ralentissant par un apport de chaleur externe, ou bien par une isolation.
La description des phénomènes physiques et quantiques liés au processus de recuit s'appuie sur la statistique de Maxwell-Boltzmann.
Ci-dessus, on donne un exemple de recuit simulé ayant pour but de chercher un maximum. Il n'est pas suffisant d'utiliser un simple algorithme de hill climbing car il y a de nombreux maxima locaux. En refroidissant le matériau lentement, le maximum global peut être trouvé, avec une probabilité assez élevée.
Le recuit simulé s'appuie sur l'algorithme de Metropolis-Hastings, qui permet de décrire l'évolution d'un système thermodynamique. Par analogie avec le processus physique, la fonction à minimiser deviendra l'énergie du système. On introduit également un paramètre fictif, la température du système.
Partant d'un état donné du système, en le modifiant, on obtient un autre état. Soit celui-ci améliore le critère que l'on cherche à optimiser — on dit alors qu'on a fait baisser l'énergie du système — soit celui-ci le dégrade. Si on accepte un état améliorant le critère, on tend ainsi à chercher l'optimum dans le voisinage de l'état de départ. L'acceptation d'un « mauvais » état permet alors d'explorer une plus grande partie de l'espace des états et tend à éviter de s'enfermer trop vite dans la recherche d'un optimum local.
L'état initial peut être pris au hasard dans l'espace des états possibles. À cet état correspond une énergie initiale . Cette énergie est calculée en fonction du critère que l'on cherche à optimiser. Une température initiale élevée est également choisie de façon totalement arbitraire indépendamment de la loi de décroissance utilisée.
À chaque itération de l'algorithme une modification élémentaire de l'état est effectuée. Cette modification entraîne une variation de l'énergie du système (toujours calculée à partir du critère que l'on cherche à optimiser). Si cette variation est négative (c'est-à-dire qu'elle fait baisser l'énergie du système), elle est appliquée à l'état courant. Sinon, elle est acceptée avec une probabilité . Ce choix de l'exponentielle pour la probabilité s'appelle règle de Metropolis.
On itère ensuite selon ce procédé en gardant la température constante.
Deux approches sont possibles quant à la variation de la température :
Dans les deux cas, si la température a atteint un seuil assez bas fixé au préalable ou que le système devient figé, l'algorithme s'arrête.
La température joue un rôle important. À haute température, le système est libre de se déplacer dans l'espace des états ( proche de 1) en choisissant des états ne minimisant pas forcément l'énergie du système. À basse température, les modifications baissant l'énergie du système sont choisies, mais d'autres peuvent être acceptées, empêchant ainsi l'algorithme de tomber dans un minimum local.
Le pseudo-code suivant met en œuvre le recuit simulé tel que décrit plus haut, en commençant à l'état s0 et continuant jusqu'à un maximum de kmax étapes ou jusqu'à ce qu'un état ayant pour énergie emax ou moins soit trouvé. E est une fonction calculant l'énergie de l'état s. L'appel aléatoire() renvoie une valeur aléatoire dans l'intervalle [0, 1]. L'appel temp(r) renvoie la température à utiliser selon la fraction r du temps total déjà dépensé, et P est une fonction de probabilité dépendant de la variation d'énergie et de la température.
s := s0 e := E(s) k := 0 tant que k < kmax et e > emax s' := choisir aléatoirement un voisin de s uniformément e' := E(s') si e' < e ou aléatoire() < P(e' - e, temp(k/kmax)) alors s := s'; e := e' k := k + 1 retourne s
En pratique, dans le cas où le nombre d'itération est limité avec le kmax, on peut aussi considérer que s est un état optimal local et introduire une variable g pour mémoriser le meilleur état obtenu jusque là, m pour la meilleure énergie avec initialement g := s0. Ainsi en fin d'algorithme, on retrouve l'état d’énergie la plus basse plutôt qu'un état intermédiaire obtenu après un sursaut[3].
s := s0 g := s0 e := E(s) m := E(g) k := 0 tant que k < kmax et e > emax s' := choisir aléatoirement un voisin de s uniformément e' := E(sn) si e' < e ou aléatoire() < P(e' - e, temp(k/kmax)) alors s := sn; e := e' si e < m alors g := s; m := e; k := k + 1 retourne g
Dans l'image ci-dessous, la droite verticale bleue représente les valeurs successives de g, la droite rouge représente les valeurs de s et la droite noire les valeurs de sn.
Les principaux inconvénients du recuit simulé résident dans le choix des nombreux paramètres, tels que la température initiale, la loi de décroissance de la température, les critères d'arrêt ou la longueur des paliers de température. Ces paramètres sont souvent choisis de manière empirique.
Des études théoriques du recuit simulé ont pu montrer que sous certaines conditions, l'algorithme du recuit convergeait vers un optimum global[4]. Ce résultat est important car il nous assure, contrairement à d'autres métaheuristiques, que le recuit simulé peut trouver un état correspondant à la meilleure solution, si on le laisse chercher indéfiniment.
Les preuves de convergence reposent sur le principe de construction de l'algorithme du recuit simulé :
Par ailleurs, les mesures de Gibbs, très utilisées en physique statistique, sont une famille de mesures dépendant d'un paramètre température de telle sorte que lorsque la température tend vers 0, la mesure converge vers un Dirac en un point donné (état d'énergie minimale).
En composant les deux, on obtient une chaîne de Markov qui converge vers une mesure invariante qui évolue dans le même temps vers une mesure désignant l'optimum recherché (au sens de la fonction d'énergie associée à la mesure de Gibbs).
Une analyse fine des vitesses de convergence et des écarts asymptotiques permet alors d'aboutir à diverses conditions de convergence, dont celle de Hajek : si le schéma de température utilisé vérifie , alors l'algorithme converge en probabilité vers l'optimum global.
En pratique, ce schéma converge beaucoup trop lentement et l'on préfère des températures à décroissance linéaire ou quadratique, quitte à n'obtenir qu'un minimum local (qu'on espère proche du minimum global).
Comme pour toute métaheuristique, la méthode trouve son application dans de nombreux domaines dans lesquels on a à résoudre des problèmes d'optimisation difficile. On peut citer entre autres la conception des circuits électroniques (placement-routage) ou l'organisation de réseaux informatiques. Cet algorithme a été utilisé dès la fin des années 1980 pour déterminer l’architecture optimale de grands réseaux télématiques[6].
F[X_] := Abs[X[[1]]] + Abs[X[[2]]];
g[T_] := N[T^0.99];
Recuit[F_, g_, Xi_, Ti_, Tf_, Ampli_, MaxTconst_, itermax_] := Module[{T, Xopt, iter=1, DF, p, L, X, compteur},
X = Xi;
T = Ti;
L = {Xi};
Xopt = X;
While [T > Tf && iter < itermax,
compteur = 1;
While [compteur < MaxTconst,
Y = X + Table[Ampli * Random[Real, {-1, 1}], {i, 1, Length[X]}];
DF = F[Y] - F[X];
If [DF < 0,
X = Y;
AppendTo[L, X];
If [F[X] < F[Xopt], Xopt = X],
p = Random[];
If [p <= Exp[-DF/T],
X = Y;
AppendTo[L, X]
];
];
compteur = compteur + 1;
];
T = g[T];
iter = iter + 1;
];
Return[L]
];
resR = Recuit[F, g, {2, 3}, 10, 1, 0.5, 1.5, 1000];
ListPlot[resR, Joined -> True];