Gesellschaft für Informatik e.V.

Lecture Notes in Informatics


Ausgezeichnete Informatikdissertationen 2000 D-1, 31-41 (2000).

GI, Gesellschaft für Informatik, Bonn
2000


Editors

Dorothea Wagner (ed.)


Copyright © GI, Gesellschaft für Informatik, Bonn

Contents

Evolutionäre Optimierung dynamischer Probleme

Jürgen Branke

Abstract


und Ausblick Dynamische, d.h. sich im Zeitverlauf ändernde Optimierungsprobleme stellen evolutio- näre Algorithmen vor neue Herausforderungen. In der hier beschriebenen Arbeit [Bra00] wurden verschiedene Möglichkeiten untersucht, evolutionäre Algorithmen für die Anwendung auf dynamische Optimierungsprobleme anzupassen. Dabei wurden vier grundlegende Aspekte betrachtet: 1. Die kontinuierliche Anpassung einer Lösung an ein sich änderndes Problem. Hier geht es im wesentlichen darum, relevante Informationen über den Suchraum von einem Problemzustand zum nächsten zu übertragen, ohne jedoch die Suche zu stark einzuschränken. Dazu wurde der Self-Organizing-Scouts-Ansatz entwickelt, der auf jedem entdeckten lokalen Optimum eine kleine “Scout”-Population plaziert, die diesen Bereich weiter verfolgen kann, während sich die restliche Population auf die Su- che nach neuen Optima machen muss. Da die Scout-Populationen in gewissen Grenzen ihrem Optimum folgen können, hat der Algorithmus quasi ein selbst-adaptives Gedächtnis über bereits entdeckte vielversprechende Bereiche des Suchraums. 2. Entstehen bei der Anpassung einer Lösung Änderungskosten, dann ist es notwendig, diese Änderungskosten bei der Suche nach einem neuen Optimum zu berücksichtigen. Hier wurde vorgeschlagen, das Problem als multikriterielles Optimierungsproblem aufzufassen und nach einer Menge Pareto-optimaler Lösungen zu suchen. Da der Nutzer jedoch meist eine gewisse Vorstellung über “sinnvolle” Lösungsalternativen hat, wurde eine EA-Variante entwickelt, die diese Vorstellungen in die Suche mit einbezieht. Dadurch ist es möglich, die Suche zu beschleunigen und den interessanten Bereich des Suchraums besser abzudecken. 3. Ist es nicht möglich, die Lösung ständig anzupassen, dann sollte man nach Lösungen suchen, die trotz möglicher Problemänderungen eine gute erwartete Qualität aufweisen. Die erwartete Qualität lässt sich grundsätzlich dadurch abschätzen, dass man für jede Lösung verschiedene Szenarien betrachtet und die mittlere Lösungsqualität über die Szenarien als Schätzer verwendet. Leider ist dieses Verfahren aber auch sehr rechenaufwändig. Es wurden deshalb in [Bra00] verschiedene Methoden entwickelt, die notwendige Anzahl an Szenarien zu verringern. Außerdem wurden einige Untersuchungen begzüglich Parametereinstellung gemacht und gezeigt, dass typische Standard-Einstellungen für EAs auf statischen Problemen nicht ohne weiteres auf dynamische Probleme übertragen werden dürfen. 4. Schließlich wurde noch der Fall angesprochen, in dem die vom EA entwickelte Lö- sung die weitere Entwicklung des Problems beeinflusst. Dann ist es nämlich wichtig Lösungen zu suchen, die nicht nur gut sondern auch flexibel sind, also sich bei zukünftigen Problemänderungen gut anpassen lassen. Am Beispiel von Job Shop Scheduling wurde dabei demonstriert, dass frühe Maschinenleerzeiten ein geeignetes Maß für die Nicht-Flexibilität des Systems sind, und dass durch die Vermeidung früher Maschinenleerzeiten zusätzlich zum eigentlichen Zielkriterium das eigentliche Zielkriterium im dynamischen Fall deutlich verbessert werden kann. Insgesamt lässt sich festhalten, dass evolutionäre Algorithmen, entsprechend angepasst, in allen vier Bereichen hervorragende Ergebnisse liefern und damit eine vielversprechende Heuristik zur Lösung dynamischer Optimierungsprobleme darstellen. Während aus Gründen der Klarheit die vier verschiedenen Aspekte in der Arbeit getrennt behandelt wurden, wäre es aus praxisrelevanter Sicht nun sicherlich interessant, die vorgeschlagenen Algorithmus-Varianten zu einem Verfahren zusammenzuführen und das Zu- Jürgen Branke sammenspiel zu untersuchen. Desweiteren böte sich an, Vorhersage in das System mit einzubauen um die Reaktionsfähigkeit weiter zu erhöhen. Literaturverzeichnis [Bäc96] Bäck, T.: Evolutionary Algorithms in Theory and Practice. Oxford University Press, 1996. [BM00] Branke, J.; Mattfeld, D.: Anticipation in Dynamic Optimization: The Scheduling Case. In PPSN2000 (Schoenauer, M.; Deb, K.; Rudolph, G.; Yao, X.; Lutton, E.; Merelo, J. J.; Schwefel, H.-P., Hg.). Springer, 2000, Bd. 1917 von LNCS, S. 253-262. [Bra99] Branke, J.: Memory Enhanced Evolutionary Algorithms for Changing Optimization Problems. In Congress on Evolutionary Computation CEC99. IEEE, 1999, Bd. 3, S. 1875- 1882. [Bra00] Branke, J.: Evolutionary Optimization in Dynamic Environments. Dissertation, Institut AIFB, Universität Karlsruhe, 76128 Karlsruhe, 2000. Published by Kluwer, 2001. [Cob90] Cobb, H. G.: An Investigation into the Use of Hypermutation as an Adaptive Operator in Genetic Algorithms Having Continuouis, Time-Dependent Nonstationary Environments. Technical Report AIC-90-001, Naval Research Laboratory, Washington, USA, 1990. [Deb01] Deb, K.: Multi-Objective Optimization using Evolutionary Algorithms. Wiley, 2001. [Gol89] Goldberg, D. E.: Genetic Algorithms. Addison-Wesley, 1989. [Gre96] Greiner, H.: Robust Optical Coating Design with Evolutionary Strategies. In Applied Optics, Bd. 35 (28):$(1996)$, S. 5477-5483. [Gre99] Grefenstette, J. J.: Evolvability in Dynamic Fitness Landscapes: A Genetic Algorithm Approach. In Congress on Evolutionary Computation. IEEE, 1999, Bd. 3, S. 2031-2038. [GS87] Goldberg, D. E.; Smith, R. E.: Nonstationary Function Optimization using Genetic Al- gorithms with Dominance and Diploidy. In Second International Conference on Genetic Algorithms (Grefenstette, J. J., Hg.). Lawrence Erlbaum Associates, 1987, S. 59-68. [LHR98] Lewis, J.; Hart, E.; Ritchie, G.: A Comparison of Dominance Mechanisms and Simple Mutation on Non-stationary Problems. In Parallel Problem Solving from Nature (Ei- ben, A. E.; Bäck, T.; Schoenauer, M.; Schwefel, H.-P., Hg.). Springer, 1998, Nr. 1498 in LNCS, S. 139-148. [Mic96] Michalewicz, Z.: Genetic Algorithms + Data Structures = Evolution Programs. Springer Verlag, 3rd Aufl., 1996. [MKN96] Mori, N.; Kita, H.; Nishikawa, Y.: Adaptation to a Changing Environment by Means of the Thermodynamical Genetic Algorithm. In Voigt [Voi96], S. 513-522. [Ree92] Reeves, C. R.: A Genetic Algorithm Approach to Stochastic Flowshop Sequencing. In Proceedings of the IEE Colloquium on Genetic Algorithms for Control and Systems Engineering. IEE, London, 1992, Nr. 1992/106 in Digest, S. 13/1-13/4. [VFJ96] Vavak, F.; Fogarty, T. C.; Jukes, K.: A Genetic Algorithm with Variable Range of Local Search for Tracking Changing Environments. In Voigt [Voi96]. [Voi96] Voigt, H.-M., Hg.: Parallel Problem Solving from Nature, Nr. 1141 in LNCS. Springer Verlag Berlin, 1996. Jürgen Branke, geboren 1969, Abitur 1988, Studium des Wirtschaftsingenieurwe- sens an der Universität Karlsruhe (TH) und der University of California at Berkeley Extension, 1994 Diplom in Wirtschaftsingenieurwesen, anschließend tätig als wissenschaftlicher Angestellter am Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) der Universität Karlsruhe. 2000 Promotion zum Dr. rer. pol. Üeber 25 begutachtete Publikationen in internationalen Zeitschriften, Konferenzen und Workshops in den Bereichen Evolutionäre Algorithmen und Graph-Zeichnen. Im Programmkomittee mehrerer internationaler Konferenzen, Organisator zweier Workshops zum Thema “Evolutionary Algorithms for Dynamic Optimization Problems”.


Full Text: PDF

GI, Gesellschaft für Informatik, Bonn
ISBN 3-88579-405-5


Last changed 12.06.2012 13:40:05