Globale Konvergenz Optimierung < Numerik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) überfällig | Datum: | 16:40 Do 09.05.2013 | Autor: | Nu_ |
Guten Tag,
ich beschäftige mich zur Zeit mit dem projizierten Gradientenverfahren zur Lösung eines Minimierungsproblems einer auf einer abgeschlossenen und konvexen Menge (also mit speziellen Nebenbedingungen).
In der Literatur von Geiger und Kanzow "Theorie und Numerik restringierter Optimierungsaufgaben" wurde zur Qualität des Verfahrens (Kapitel 5.8) gesagt, dass jeder Häufungspunkt einer durch den Algorithmus erzeugten Folge bereits der notwendigen Optimalitätsbedingung genügt und dies damit eine "sehr zufriedenstellende globale Konvergenztheorie" besäße.
Nun ist meine Frage dazu: Warum ist sowas zufriedenstellend? Die Authoren sprechen von "globale Konvergenz", dabei wissen wir doch garnicht ob die Folge überhaupt konvergiert. Sie könnte auch zwischen mehreren Häufungspunkten hin und her springen, ohne dass wir qualitativ etwas erkennen können.
Ich würde mich um Hilfe freuen!
Ich habe diese Frage auch in folgenden Foren auf anderen Internetseiten gestellt: http://math.stackexchange.com/questions/385488/qualities-of-projected-gradient-methods
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 17:20 Fr 24.05.2013 | Autor: | matux |
$MATUXTEXT(ueberfaellige_frage)
|
|
|
|