1 / 30

Optimisation statistique de stratifiés composites

Optimisation statistique de stratifiés composites. Laurent Grosset (Grosset@emse.fr) R. Le Riche R. Haftka. Plan. Présentation générale de l’optimisation statistique Modèle simple : cas linéaire Application à un problème d’optimisation de stratifiés composites

benard
Télécharger la présentation

Optimisation statistique de stratifiés composites

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Optimisation statistiquede stratifiés composites Laurent Grosset (Grosset@emse.fr)R. Le RicheR. Haftka

  2. Plan • Présentation générale de l’optimisation statistique • Modèle simple : cas linéaire • Application à un problème d’optimisation de stratifiés composites • Introduction de variables intermédiaires pour améliorer le modèle • Résumé, prochains développements de la recherche Groupe de travail Optimisation

  3. Introduction • Algorithmes génétiques : basés sur une simulation d’un phénomène naturel (sélection naturelle), mais pas de justification mathématique • Baluja, Mühlenbein : modèles statistiques des AGs. Proposent des algorithmes où les opérateurs standards (croisement, mutation…) sont remplacés par un modèle statistique Groupe de travail Optimisation

  4. Références • Baluja, S., 1994, « Population-based Incremental Learning » • Mühlenbein, H., 1996, Univariate Marginal Distribution Algorithm, Factorized Distribution Algorithm • Pelikan, M., 1999, Bayesian Optimization Algorithm Groupe de travail Optimisation

  5. Formulation classiquetrouver: Formulation statistiquetrouver: Passage d’une formulation classique à une formulation statistique Utiliser la fonction coût pour mettre à jour lesprobabilités revient à utiliser le gradient de laformulation statistique (cf. méthode de la plus forte pente) Groupe de travail Optimisation

  6. Principe de l’optimisation statistique • Un modèle probabiliste associe à chaque point notre croyance qu’il est l’optimum (compte tenu de l’état de connaissance) • Le modèle est utilisé pour guider la recherche en générant des points qui ont une forte probabilité d’être bons • Le modèle est affiné à chaque itération en fonction des nouvelles observations Générateur depoints : modèleP(X optimum|données) Mise à jour Population depoints X Groupe de travail Optimisation

  7. Au début de l’optimisation : pas d’information sur la localisation de l’optimum A chaque itération de nouveaux points sont visités A chaque itération un modèle probabiliste peut être construit/mis à jour Exemple : une variable Première génération de points Seconde génération de points Groupe de travail Optimisation

  8. Algorithme général • Choix algorithmiques: • Comment représenter la distribution de probabilité? • Comment sélectionner les bons individus? • Comment mettre à jour le modèle Initialisationde la distributionde probabilité Créationde lapopulation Mise à jourdumodèle Sélection Groupe de travail Optimisation

  9. Mise en œuvre dans le cas discret • N variables discrètes : X1, X2,…,XN qui peuvent prendre m valeurs discrètes : • mNcombinaisons possibles  mN – 1 nombres pour décrire toute la distribution! • On réduit le nombre de paramètres en supposant des relations d’indépendance entre les variables Groupe de travail Optimisation

  10. Exemple : 4 variables, 3 valeurs • Distribution complète • P(A,B,C): 81 combinaisons80 paramètres • Modèle chaîne • P(A,B,C)=P(A)P(B|A)P(C|B)P(D|C): 20 paramètres • Modèle indépendant • P(A,B,C)=P(A)P(B)P(C)P(D): • 8 paramètres A B C D A C D B A C D B Groupe de travail Optimisation

  11. Modèle probabiliste à variables indépendantes • Pour réduire le nombre de paramètres à identifier, on suppose les variables indépendantes :la probabilité d’une variable est indépendante de la valeur des autres variables • La probabilité d’un point x = (x1x2…xN) est obtenue par : • Comme la probabilité d’une variable ne dépend pas de la valeur des autres variables, chaque probabilité peut se calculer séparément Groupe de travail Optimisation

  12. Apprentissage des probabilités • Les probabilités sont obtenues en évaluant la fréquence de chaque valeur dans la population des bons individus • Sélection : • Troncature : garde les n meilleurs (ex. meilleur moitié) • Proportionnelle à la fonction coût : probabilité de sélection proportionnelle à f • Proportionnelle au rang dans la population : probabilité de sélection proportionnelle au rang • … Groupe de travail Optimisation

  13. Exemple de calcul de probabilités Probabilité 1. Meilleure moitié Population 1 1 3 3 1 2 2 1 2 3 2 2 3 2 2 1 2 2 2. Rang 4 2 2 1 3 2 5 2 3 3 2 1 6 2 2 3 3 2 Groupe de travail Optimisation

  14. Mise à jour du modèle • Pour calibrer le niveau de mémoire du modèle, on utilise la formule : • m élevé : grande inertie ; m faible : grande capacité d’adaptation mais sensibilité à de mauvaises générations • Dans notre cas meilleur résultat obtenu pour m = 0 Groupe de travail Optimisation

  15. Optimisation de stratifiés composites: variables • Les propriétés mécaniques d’un stratifié dépendent : • Des propriétés des matériaux • De l’épaisseur des couches (plis) • De l’orientation des fibres • Ces variables sont souvent discrètes, à cause de contraintes de fabrication x q y z Groupe de travail Optimisation

  16. Optimisation de stratifiés composites: fonction coût et contraintes • Critères d’optimisation : • Poids ou coût • Charge de flambement • Fréquences propres • Résistance • … • Les problèmes d’optimisation de stratifiés sont des problèmes combinatoires Groupe de travail Optimisation

  17. Problème test non couplé • Problème : maximiser la rigidité longitudinale A11 • Solution : toutes les fibres alignées selon x : [0°/0°/ 0°/0°/ 0°/0°/ 0°/0°/ 0°/0°] • Particularité : ce problème est découplé car on augmente A11 en diminuant n’importe quel angle indépendamment de la valeur des autres angles Groupe de travail Optimisation

  18. Résultats sur le problème test • Les algorithmes probabilistes sont plus efficaces que l’AG : • AG : 400 analyses pour 80% de fiabilité • « Half Rank » : 200 analyses pour 80% de fiabilité • La sélection basée sur le rang est plus efficace que la sélection basée sur la troncature Fiabilité de l’optimisation : probabilité d’atteindre l’optimum après un certain nombre d’analyses Groupe de travail Optimisation

  19. Problème couplé • Problème :maximiser rigidité longitudinale A11contraintes rigidité transversale A22A22min rigidité en cisaillement A66A66min • Optimum : [02/153/30/45/908]ou une de ses permutations • Particularité : ce problème comporte des interactions entre les variables car si une variable a pour valeur 02, la probabilité de 0 pour les autres variables sera nulle Groupe de travail Optimisation

  20. Avec couplage • Seule la méthode « Half Rank » reste plus performante que l’AG • À part « Bayesian updating », les méthodes statistiques restent compétitives par rapport à l’AG résultats encourageants qui montrent qu’il y a une marge de progression Groupe de travail Optimisation

  21. Commentaires • Modèle très simple, facile à mettre en œuvre • Problème : modèle basé sur l’hypothèse d’indépendance des variables pas vérifié en général • Prendre en compte le couplage : modèle probabiliste plus complexe, type réseau bayesien difficile à mettre en œuvre • Autre alternative : introduire des variables intermédiaires qui synthétisent les couplages Groupe de travail Optimisation

  22. Introduction de variables intermédiaires • V1 et V2 sont des fonctions de tous les Xi. • Chaque région dans l’espace des V prend en compte la contribution de chaque variable • Si on impose une distribution sur les V, on favorise des combinaisons de X … X1 X2 X3 XN V1 V2 F Groupe de travail Optimisation

  23. Effet du changement de variable sur les distributions • Principe : • On construit un probabilité de distribution des variables intermédiaires • On utilise cette probabilité pour présélectionner des points qui satisfont les conditions de couplage • Deux effets : • Effet de couplage des variables • Effet dû au changement de variable • Cas des composites : paramètres de stratification : Groupe de travail Optimisation

  24. Modification de l’algorithme • On crée plus de points que nécessaire • On sélectionne les points susceptible d’être bons à l’aide des variables intermédiaires Initialisationde la distributionde probabilité Créationde lapopulation Mise à jourdumodèle Sélection Présélection basée sur les variable intermédiaires Groupe de travail Optimisation

  25. À chaque itération on calcule la moyenne et matrice de covariance des bons individus À l’itération suivante, on construit une gaussienne à partir des ces valeurs Les points candidats générés par le modèle linéaire sont filtrés par la gaussienne Utilisation des paramètres de stratification Groupe de travail Optimisation

  26. Effet du changement de variable • Le changement de variable favorise des points situés près des extrémités –1 et 1 V1() p(V1) p()   V1 Distribution dansl’espace des  Changement de variable Distribution dansl’espace des V Groupe de travail Optimisation

  27. Nombre de cas où la présélection a un effet positif l’emporte sur le nombre de cas ou l’effet est négatif La fiabilité est améliorée par l’utilisation des paramètres de stratification Résultats : amélioration de l’efficacité Présélection bénéfique Présélection néfaste Groupe de travail Optimisation

  28. Problèmes rencontrés, questions • Algorithme trop conservateur : freine le progrès car les points qui s’éloignent trop du point courant sont exclus • Cela a-t-il du sens de fitter une gaussienne compte tenu de la taille des populations (<10)? • L’amélioration observée est-elle spécifique aux paramètres de stratification? Tout changement de variable donnerait-il le même résultat? Groupe de travail Optimisation

  29. Résumé • Modèles linéaires : • Facile à mettre en œuvre • Peu de paramètres à régler • Ne prennent pas en compte les couplages entre variables • Modèle à variable intermédiaire • Prend en compte des interactions entre variables • Apportent une amélioration Groupe de travail Optimisation

  30. Directions de recherche • Utiliser un modèle probabiliste plus complexe qui prend en compte le couplage entre les variables : • Modèle Chaîne • Réseau bayesien • Réfléchir à l’importance de la taille des populations, rôle de la mutation… • Au lieu de fournir UN point optimum, l’optimisation fournit une densité de probabilité. Comment les interpréter et les utiliser : • Fiabilité de l’optimum, sensibilité • Relation au problème physique Groupe de travail Optimisation

More Related