1 / 22

Optimisation Avance Thème: Recherche dispersée

Université des Sciences et de la Technologie d’Oran -Mohamed Boudiaf- Faculté des Sciences Département d’Informatique. Optimisation Avance Thème: Recherche dispersée. Année Universitaire 2012 / 2013. Plan de travail. Introduction Historique Définition Principe de la méthode

luther
Télécharger la présentation

Optimisation Avance Thème: Recherche dispersée

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Université des Sciences et de la Technologie d’Oran -Mohamed Boudiaf- Faculté des Sciences Département d’Informatique Optimisation Avance Thème: Recherche dispersée Année Universitaire 2012 / 2013 Optimisation avancée

  2. Plan de travail • Introduction • Historique • Définition • Principe de la méthode • Algorithme • Domaines d’application • Exemple d’application • Les Avantages et les inconvénients • Conclusion Optimisation avancée

  3. Introduction • Les métaheuristiques forment un ensemble de méthodes utilisées en recherche opérationnelle pour résoudre des problèmes d’optimisation réputés difficiles. On peut distinguer deux approches en méta heuristiques: • Les approches trajectoire (recherche locale): Ces algorithmes partent d’une solution initiale (obtenue de façon exacte, ou par tirage aléatoire) • les approches population( évolutionnaires): Elles consistent à travailler avec un ensemble de solutions simultanément, que l’on fait évoluer graduellement. L’utilisation de plusieurs solutions simultanément permet naturellement d’améliorer l’exploration de l’espace des configurations. Optimisation avancée

  4. Historique • La recherche dispersée ou « Scatter Search » en anglais, est une méthode d’évolution qui a été proposée par Glover en 1977. • Le concept fondamental et le principe général de cette méthode ont été proposés en premier lieu dans les années 70 comme une heuristique basée sur une formulation donnée dans les années 60 pour les règles de décision de combinaison et les contraintes de problème. Optimisation avancée

  5. Définition La recherche dispersée du point de vue classification des métaheuristiques est une méthode d’évolution qui est basée sur la population. Elle construit des solutions par la combinaison d’autres solutions en se basant sur des principes qui capturent l’information qui n’existe pas dans les solutions originales. Le rôle de cette méthodologie est de mettre en oeuvre des procédures permettant de dériver des nouvelles solutions à partir des éléments combinés, en vue d’obtenir une meilleure solution que des solutions basées seulement sur des ensembles originaux d’éléments. Optimisation avancée

  6. P Méthode d’amélioration Méthode de Combinaison de solutions Méthode d’amélioration Méthode de Génération de Sous-ensembles s s s RefSet Modelé de la recherche dispersée Méthode de generation de diversification Méthode de M-a-j de refSet TEST d’ARRET Optimisation avancée

  7. Principe de la méthode • Les caractéristiques avancées de la recherche dispersée sont liées à la manière de la mise en œuvre de ses éléments. Ces éléments sont dits "méthodes" pour la recherche dispersée, qui peuvent être présentés comme suit: • Méthode de génération de diversification : génère une collection de divers solutions de départ en utilisant une solution d’essai arbitraire • Méthode d’amélioration : transforme la solution d’essai générée par la méthode de diversification à un ou plusieurs solutions plus efficaces • Méthode de mise à jour de l’ensemble de référence: construit un ensemble de référence constitué des meilleures solutions trouvées pour donner l’accès par autres parts de la recherche • Méthode de génération des sous ensembles : génère des sous ensembles à partir de L’ensemble de référence. Chaque sous ensemble de solutions est utilisé pour créer des solutions combinées • Méthode de combinaison de solutions : génère un ou plusieurs solutions en combinant les solutions de chaque sous ensemble donné par la méthode précédente Optimisation avancée

  8. Algorithme • L’algorithme général de la recherche dispersée [GLO97] [GLO98] est constitué de deux phases: phase d’initialisation et phase d’évolution. • Phase d’initialisation : • génération des solutions de départ aléatoirement. • transformer les solution de départ en une ou plusieurs solution amélioré • Répéter l’exécution de l’étape 1 et 2 jusqu’ à l’obtention d’un nombre voulu de solutions qui constitueront la population initiale de l’ensemble de référence. Optimisation avancée

  9. Algorithme • Phase d'évolution: • 4. Générer des sous ensembles de la population de l’ensemble de référence à partir des quels seront construites les solutions • pour chaque sous ensemble X produit à l’étape 4 on applique une technique de combinaison des solutions pour produire l’ensemble C(X) qui consiste en une ou plusieurs solutions combinées • pour chaque solution produite à l’étape 5 appliquer la méthode d’amélioration pour avoir une (ou plusieurs) solution(s) de bonne qualitée • Si aucune solution n’est produite à l’étape 6, alors on réinitialise la population avec l'ensemble élit et on reprend à partir de l’étape 2. • 8. Répéter l’exécution des étapes de 5 à 7 jusqu’à la rencontre d’un critère d’arrêt qui est le plus souvent un nombre maximum d’itérations atteint Optimisation avancée

  10. Domaines d’Application • Du fait de sa redécouverte récente, les applications de la recherche dispersée sont peunombreuses. Dont on cite: • ·Les travaux de Campos, Laguna et Marti pour le problème d'ordonnancement linéaire. • Les travaux de Hamiez et Hao pour le problème de coloration de graphe. • Les travaux de Ghalouche, Crainc et Gendreau pour le problème de conception des réseaux à faible capacité. • Les travaux de Cung et al pour l'affectation quadratique. Optimisation avancée

  11. Exemple d'application Exemple du Sac à Dos(0-1) Maximiser 11x1+10x2+9x3+12x4+10x5+6x6+7x7+5x8+3x9+8x10 Objectif 33x1+27x2+16x3+14x4+29x5+30x6+31x7+33x8+14x9+18x10100 xi={0,1} pour i=1,…,10 x’i=1-xi La solution x est choisie comme solution initiale: x=(0,0,0,0,0,0,0,0,0,0) Optimisation avancée

  12. 1. Génération de diversification Optimisation avancée

  13. 1. Génération de diversification x1 = 0.333 x2 = 0.370 x3 = 0.563 x4 = 0.857 (0,1,1,0,1,1,0,1,1,0) x5 = 0.345 x6 = 0.200 Objective =43 x7 = 0.226 maximum= 149 x8 = 0.152 x9 = 0.214 x10 = 0.444 Optimisation avancée

  14. 2. Méthode d’amélioration Optimisation avancée

  15. 2. Solutions améliorées 1 (0,1,1,1,0,0,0,0,1,1) 2 (1,0,1,1,1,0,0,0,0,0) 8(0,1,1,1,1,0,0,0,1,0) Optimisation avancée

  16. 3. Mise à jour de L’ensemble de référence Distance: (Solution 1 et Solution 3) (0, 1, 1, 1, 0, 0, 0, 0, 1, 1) Solution 1 (1, 0, 0 ,1, 0, 0, 1, 0, 0, 1) Solution 3 (1+1+1+0+0+0+1+0+1+0) = 5 • Solution 1 : (0, 1, 1, 1, 0, 0, 0, 0, 1, 1) • Solution 2 : (1, 0, 1, 1, 1, 0, 0, 0, 0, 0) • Solution 8 : (0, 1, 1, 1, 1, 0, 0, 0, 1, 0) 3 (1,0,0,1,0,0,1,0,0,1) 7 (0,1,0,1,0,1,0,0,0,1) Optimisation avancée

  17. 4. Generation des sous-ensembles Type 3 Solutions (1,2,8,3) (1,7,8,2) (3,7,8,1) Type 4 Solutions (1,2,8,3,7) Type 1 Solutions (1,2) (1,8) (1,3) (1,7) (2,8) (2,3) (2,7) (8,3) (8,7) (3,7) Type 2 Solutions (1,2,8) (1,3,8) (1,7,8) (2,3,8) (2,7,8) (3,7,8) Optimisation avancée

  18. 5. Combinaison des Solutions if score (i) > 0.5 x’ = ( 0, 1, 0, 1, 0, 0, 0, 0, 0, 1 ) Optimisation avancée

  19. Les Avantages et les inconvénients Avantages et inconvénients Un des avantages de la recherche dispersée et des algorithmes génétiques est aussi qu’ils génèrent plusieurs solutions de bonne qualité. Cela peut être intéressant dans différents contextes lorsqu’il est demandé de fournir plusieurs solutions élites. Prend aussi l’avantage de quelques méthodes heuristiques pour sélectionner les éléments quivont être combinés pour générer une nouvelle solution. Couteuse en temps de calcule Optimisation avancée

  20. Conclusion Générale • La recherche dispersée est une métaheuristique qui est basée sur l’évolution de la population. Durant la recherche, elle capture l’information dans les sous ensembles pour construire de nouvelles solutions, et elle conserve les deux grandeurs (diversité, qualité) de l’ensemble de référence. La recherche dispersée est constituée essentiellement par des méthodes de base. Entre ces méthodes, les méthodes de combinaison et les méthodes d'amélioration, qui sont liées au problème à traiter. • La recherche dispersée est souvent comparée aux algorithmes génétiques, on trouve quelques différences : • Dans la recherche dispersée, toutes les solutions participent à la combinaison. • L’évolution de la population, est contrôlée par des règles déterministes, contrairement aux algorithmes génétiques, qui utilisent la randomisation. • La population n’est pas générée de manière aléatoire comme dans les algorithmes génétiques. Optimisation avancée

  21. Références • [Glo, 94] F. Glover, Tabu search for nonlinear and parametric optimization (with links to genetic algorithms). Discrete Applied Mathematics, 49 , 231–255.1994. • [Glo, 63] F. Glover, Parametric combinations of local job shop scheduling rules. Chapter IV, NR Research Memorandum No. 117, GSIA, Carnegie Mellon University, Pittsburgh, PA.1963. • [Glo, 98] F. Glover , A template for scatter search and path relinking. In: J.-K. Hao, E. Lutton, E. Ronald, M. Schoenauer and D. Snyers (eds.), Artificial Evolution, Lecture Notes in Computer Science 1363. Springer, pp. 3–51. 1998 • [Glo, 97] F. Glover , Tabu search and adaptive memory programming—advances, Applications and challenges. In. R. Barr, Helgason and Kennington (Co-eds.), Advances in Meta-heuristics, Optimization and Stochastic Modeling Techniques. Kluwer Academic Publishers, Boston, USA, pp. 1–175. 1997. • [LAP, 96] G. LAPORTE, I.H. OSMAN, Metaheuristics in combinatorial optimization, Annals of Operations Research 63, J.C. Baltzer Science Publishers, Basel, Switzerland, 1996. • [REE 93, AAR 97] C.R. REEVES (Ed.) Modern heuristic techniques for combinatorial problems, Blackwell Scientific Publications, Oxford, 1993. Optimisation avancée

  22. Merci pour votre attention Optimisation avancée

More Related