3. Les algorithmes à estimation de distribution -EDA
3.1 L’optimisation avec les EDA
3.1.1 Définitions
• Les algorithmes à
estimation de distribution forment une famille de méta-heuristiques inspirée
des algorithmes génétiques.
• À l'inverse des
algorithmes évolutionnaires "classiques", le cœur de la méthode
consiste à estimer les relations entre les différentes variables d'un problème
d'optimisation, grâce à l'estimation d'une distribution de probabilité,
associée à chaque point de l'échantillon.
• Le vocabulaire lié
aux algorithmes à estimation de distribution est emprunté à celui des
algorithmes évolutionnaires, on parlera donc de « population d'individus »
plutôt que d'« échantillon de points », ou de « fitness » plutôt que de «
fonction objectif », néanmoins, tous ces termes ont la même signification.
3.2 L’optimisation combinatoire avec les EDA
3.2.3 Exemple « one max »
Dans le problème du « one max », on
cherche à maximiser le nombre de 1 sur un nombre de dimensions donné.
Pour un problème à 3 dimensions, une
solution 𝑥1={1,1,0} aura donc une meilleure qualité qu'une
solution 𝑥2 = {0,1,0}
On cherche donc à maximiser une
fonction 𝑓(𝑥)= ∑3𝑖=1 𝑥i, où 𝑥𝑖peut prendre la valeur 0 ou 1.
Etape 1:
·
Tirer au hasard les individus, avec pour
chaque variable, une chance sur deux de tirer un 1 ou un 0.
·
Avec : 𝑃𝑜(𝑥)= Π3𝑖=1 P0(𝑥𝑖) et
P𝑜(𝑥𝑖) est la probabilité que chaque
élément soit égal à 1
·
Population D0 de
6 individus
·
la dernière ligne indique la probabilité (𝑥) pour chaque variable
i
|
X1 |
X2
|
X3
|
F(x) |
1 |
0 |
1 |
0 |
1 |
2 |
0 |
1 |
0 |
1 |
3 |
1 |
0 |
1 |
2 |
4 |
1 |
0 |
1 |
2 |
5 |
0 |
1 |
1 |
2 |
6 |
1 |
0 |
0 |
1 |
|
1/2 |
1/2 |
1/2 |
|
Etape 2:
- la sélection des meilleurs individus,
pour former 𝐷1𝑠, Dans notre exemple, il s'agit
simplement de ne garder que les 3 meilleurs individus.
- Population D0
de 6 individus
- la dernière ligne indique la probabilité
p(𝑥)
pour chaque variable
i
|
X1 |
X2 |
X3 |
F(x) |
1 |
0 |
1 |
0 |
1 |
2 |
0 |
1 |
0 |
1 |
3 |
1 |
0 |
1 |
2 |
4 |
1 |
0 |
1 |
2 |
5 |
0 |
1 |
1 |
2 |
6 |
1 |
0 |
0 |
1 |
|
1/2 |
1/2 |
1/2 |
|
Etape3:
·
la sélection des meilleurs individus, pour
former 𝐷1𝑠, Dans notre exemple, il s'agit
simplement de ne garder que les 3 meilleurs individus.
i
|
X1 |
X2 |
X3 |
F(x) |
3 |
1 |
0 |
1 |
2 |
4 |
1 |
0 |
1 |
2 |
5 |
0 |
1 |
1 |
2 |
|
2/3 |
1/3 |
1 |
|
·
Les trois paramètres ((𝑥)) caractérisant la distribution de
probabilité (𝐷1) ont
changé après la sélection.
·
En utilisant cette nouvelle distribution, on
peut tirer une nouvelle population.
i
|
X1 |
X2 |
X3 |
F(x) |
1 |
1 |
1 |
1 |
3 |
2 |
0 |
1 |
1 |
2 |
3 |
1 |
0 |
1 |
2 |
4 |
1 |
0 |
1 |
2 |
5 |
1 |
0 |
1 |
2 |
6 |
0 |
0 |
1 |
1 |
|
2/3 |
1/3 |
1 |
|
·
On obtient la nouvelle population :
·
Et ainsi de suite jusqu'à vérifier un critère
d'arrêt (par exemple quand tous les individus sont à l'optimum, comme
l'individu 1).
0 Commentaires