Im Jahr 1836 löste Jacob Steiner auf elementare geometrische Weise das Problem der Dido. Er wies nach, dass eine Kurve fester Länge , die eine Fläche maximalen Inhalts umschließt, notwendig ein Kreis sein muss.
Dirichlet erkannte, dass Steiners Beweis den fundamentalen Fehler enthielt, dass die Existenz eines Optimums nicht geklärt wurde. Steiner hatte lediglich bewiesen: Wenn es ein Optimum gibt, dann muss es der Kreis sein.
Nachzuweisen, dass ein Optimierungsproblem in einem Funktionenraum tatsächlich eine Lösung besitzt, bezeichnet man als das Fundamentalproblem der Variationsrechnung. Die Namensgebung deutet darauf hin, dass es sich um kein einfaches Problem handelt. Schauen wir uns dazu ein Beispiel an.
Beispiel 5.1: Funktional im Raum der stückweise stetig differenzierbaren Funktionen
Es sei der Raum der stückweise stetig differenzierbaren Funktionen auf
. Dies soll bedeuten: Jedes
ist stetig auf
und es gibt Punkte
so, dass
auf jedem Intervall
stetig differenzierbar ist und die Ableitung stetig auf jedes Intervall
fortsetzbar ist.
Auf soll das Funktional
minimiert werden. Offenbar ist für alle zugelassenen Integranden. Wir konstruieren nun eine Folge
von Integranden, für die
. Dazu teilen wir
in
Teilintervalle gleicher Länge
und definieren
vergleiche die nachfolgende Skizze. Es lässt sich sofort nachrechnen, dass
.
Andererseits gibt es kein mit
. Ein solches
müsste nämlich wegen des ersten Terms unter dem Integral
erfüllen, dann wäre aber auch
und wir hätten
.
Damit ist klar: hat auf
ein Infimum 0, aber dieses Infimum wird von keinem
erreicht – die Optimierungsaufgabe besitzt keine Lösung.
Aus diesen Gründen befasst man sich in der Funktionalanalysis mit abstrakteren Räumen von Funktionen, auf denen sich die Existenz von Lösungen dann doch wieder zeigen lässt. Wir bleiben hier bei unseren “naiven” Räumen und sichern die Existenz von Lösungen durch die weitere Voraussetzung der Konvexität.
Definition 5.2: Konvexität
Es sei ein reeller Vektorraum und
. Die Menge
heißt konvex, wenn gilt:
Ein Funktional heißt konvex, wenn gilt:
Gilt sogar die strikte Ungleichung, dann heißt strikt konvex.
In der folgenden Skizze zeigen wir eine konvexe und eine nicht konvexe Teilmenge des .
Da konvexe Funktionen auf konvexen Mengen betrachtet werden, ist für alle der Funktionswert
definiert. Die Konvexität einer Funktion
bedeutet, dass sie für
längs der Strecke
nie oberhalb der Sekante
verläuft, siehe die nachfolgende Skizze.
Beispiel 5.3: Norm als konvexes Funktional
Wenn ein normierter Vektorraum ist, dann ist
ein konvexes Funktional auf . Dies folge aus der Dreiecksungleichung
und der Homogenität
für
und
, die für alle Normen gelten müssen.
Beispiel 5.4: Konvexität eines Integraloperators
Das auf dem Raum definierte Funktional
ist konvex. Zum Beweis benötigt man die Monotonie des Integrals, also dessen Eigenschaft
,
sowie die Konvexität der -Funktionen
und
.
Beispiel 5.5: Konvexität linearer Funktionale
Jedes konstante und jedes lineare Funktional ist konvex. Wenn konvexe Funktionale sind und
positive reelle Zahlen, dann ist
ein konvexes Funktional. Wenn
konvex ist,
und
sowie
konvex sind und
außerdem monoton wachsend ist, dann ist auch
eine konvexe Funktion.
Konvexität ist eine “starke” Eigenschaft, aus der fast schon die Existenz der Gâteaux-Ableitung folgt. Das formulieren wir im nächsten Satz, brauchen aber vorher noch die folgende Definition.
Definition 5.6: Einseitige Richtungsableitungen
Es sei ein Vektorraum,
eine Teilmenge und
ein Funktional. Es sei
und
. Dann heißt
rechtsseitig Gâteaux-differenzierbar in
in Richtung
, wenn für ein
ist und der Grenzwert
existiert. Dieser heißt dann rechtsseitige Richtungsableitung oder rechtsseitige Gâteaux-Variation von in
in Richtung
. Analog definiert man die linksseitige Richtungsableitung
,
wenn dieser Grenzwert existiert. Wenn
,
schreiben wir oder
. Wir wollen auch in diesen Grenzfällen von rechtsseitiger Richtungsableitung sprechen.
Wenn in Richtung
Gâteaux-differenzierbar ist, muss die Gâteaux-Ableitung offensichtlich mit den beidseitigen Richtungsableitungen übereinstimmen. Der folgende Satz stellt einen Zusammenhang zwischen Richtungsableitung und Konvexität her.
Satz 5.7: Subgradientenungleichung
Es sei ein Vektorraum,
eine konvexe Teilmenge und
ein konvexes Funktional. Es sei
und
so, dass ein
existiert mit
. Dann gelten die folgenden Aussagen:
- Der Differenzenquotient
ist monoton steigend auf
.
- Es ist stets
. Ist sogar
für ein
, dann ist
.
- Es gilt die Subgradientenungleichung
.
Beweis
Zu 1.
Wir definieren auf die Funktion
.
Diese Funktion ist nach Voraussetzung konvex und deswegen gilt für alle
,
also . Also ist die Funktion
monoton steigend.
Zu 2.
Da der Differenzenquotient nach 1. monoton wachsend ist, muss
gelten für ein jetzt fest gewähltes . Dieser Wert ist entweder endlich oder gleich
.
Jetzt benutzen wir die zusätzliche Voraussetzung, dass . Wegen der Konvexität von
ist für alle
und daraus bekommen wir
und das bedeutet
,
denn der Grenzwert monotoner, beschränkter, reeller Funktionen existiert.
Zu 3.
Wegen und der Konvexität von
ist
. Die Funktion
aus 1. ist also für
sicher auf
definiert und wegen der Monotonie des Differenzenquotienten haben wir
.
Das ist die Subgradientenungleichung. Eventuell muss man mit rechnen, wenn nur
, aber nicht
vorausgesetzt werden kann.
Satz 5.8: Charakterisierungssatz der konvexen Optimierung
Es sei ein Vektorraum und
konvex. Das Funktional
sei konvex.
nimmt genau dann in
sein Minimum an, wenn
Vor dem Beweis dieses Satzes drei Bemerkungen:
nach Satz 5.7 ohne weitere Voraussetzungen an
neben der Konvexität. Der Satz lässt sich damit auch in Situationen anwenden, wo keine Gâteaux-Differenzierbarkeit gegeben ist.
- Durch Verwendung der einseitigen Richtungsableitung können auch Minimalstellen behandelt werden, die am Rand der konvexen Menge
liegen.:
- Die anschauliche Bedeutung ist ziemlich klar. Nach der Subgradientenungleichung aus Satz 5.7 steigt eine konvexe Funktion
von jedem Punkt aus stets mindestens so stark an wie eine Gerade mit der Richtungsableitung als Steigung. Wenn in
alle Ableitungen in Richtung von Punkten aus
nicht negativ sind, bedeutet dies, dass
längs aller zulässigen Richtungen in
ansteigende Funktionswerte annimmt.
Beweis zu Satz 5.8
““:
Sei eine Minimallösung von
auf
. Für
und
ist wegen der Konvexität
und wegen der Minimalität
.
Mit Satz 5.7 existiert als Grenzwert einer monotonen, beschränkten Funktion für
und damit folgt (26).
““:
Mit der Subgradientenungleichung aus Satz 5.7 haben wir für alle
und folgern daraus die Minimalitätseigenschaft von .
Den Satz 5.8 bringen wir jetzt noch in eine Form, die wir später unmittelbar auf die Variationsaufgabe (A) anwenden können. Seien dazu ein Unterraum des Vektorraums
und
. Wir bezeichnen
als affinen Teilraum von .
Prototypen für Untervektorräume (auch lineare Teilräume genannt) sind die Geraden durch den Ursprung im . Affine Teilräume des
sind dann alle Geraden:
Wenn , dann ist offenbar
.
Korollar 5.9: Minimum des Funktionals
Es seien ein Vektorraum,
ein Untervektorraum und
. Es sei
ein auf dem affinen Teilraum
in jede Richtung
Gâteaux-differenzierbares und konvexes Funktional. Genau dann nimmt
in ein Minimum an, wenn
.
Beweis
““: Klar nach Satz 3.4, denn mit
ist
und deswegen zulässig für alle
und
.
““: Folgt aus Satz 5.8, da
konvex ist und mit
für alle
immer
gilt.
Nun soll der Satz 5.8 beziehungsweise Korollar 5.9 auf die Lösung von Variationsaufgaben angewendet werden. Dabei stellt sich heraus, dass das Funktional aus der Variationsaufgabe (A) konvex ist, wenn die Lagrange-Funktion in den Variablen
und
konvex ist.
Satz 5.10: Konvexität der Lagrange-Funktion
Das Funktional
aus Variationsaufgabe (A) ist konvex, wenn die Lagrange-Funktion in der zweiten und dritten Variablen konvex ist, wenn also für alle
die Funktion
konvex ist.
Beweis
Es seien ,
und
. Damit ist
Wegen der Monotonie und Linearität des Integrals folgt
also ist konvex.
Wir erhalten damit folgenden Satz.
Satz 5.11: Lösung der Variationsaufgabe
Es seien die Voraussetzungen des Satzes 3.7 erfüllt und außerdem sei die Lagrange-Funktion für alle
in den beiden letzten Variablen konvex.
Dann ist jede Extremale, also jede Lösung der Euler-Gleichung, eine Lösung der Variationsaufgabe (A) (und nicht nur ein Kandidat für die Lösung).
Beweis
Es ist ein Untervektorraum von
. Der Raum
aus Variationsaufgabe (A) ist ein affiner Teilraum
von
(für
kann man z.B. das Geradenstück von
nach
nehmen). Es sei
eine Extremale. Dann bekommen wir für die 1. Variation in Richtung
wie bei Satz 3.7:
.
Mit Satz 5.10 ist das Funktional konvex, so dass die Aussage aus dem Korollar 5.9 folgt.
Beispiel 5.12: Kürzeste Strecke
Im Beispiel 3.8 war die kürzeste Strecke zwischen zwei Punkten in der Ebene gesucht. Das “offensichtliche” Ergebnis, dass dies die gerade Strecke ist, können wir jetzt mit Korollar 5.9 und Satz 5.10 endgültig beweisen, da die Lagrange-Funktion
konvex in ist. Man rechnet hierfür
nach:
Bisher haben wir Variationsaufgaben stets auf affinen Teilräumen von Vektorräumen gelöst, etwa in Form der Variationsaufgabe (A). Daneben kommt aber in der Praxis ebenso der Fall vor, dass man zusätzliche Einschränkungen hat, wie etwa beim Problem der Brachistochrone aus Beispiel 3.9. Dort lautet die zur Konkurrenz zugelassene Menge
Diese Menge ist zwar noch konvex, aber kein affiner Teilraum mehr. Deswegen kommen wir an dieser Stelle mit dem Korollar 5.9 nicht weiter. Es lässt sich aber immer noch der Charakterisierungssatz der konvexen Optimierung (5.8) benutzen.
Satz 5.13: Optimalität für konvexe Funktionale
Es gelten die Bezeichnungen wie in Aufgabe (A) und es sei
eine konvexe Menge und eine offene Menge mit
.
Es sei stetig und für jedes feste
sei
stetig partiell differenzierbar und konvex. Ferner sei für
die Funktion
stetig differenzierbar. Genau dann nimmt
auf
sein Minimum in
an, wenn für alle
Beweis
Nach Satz 5.10 ist auf
konvex und nimmt nach Satz 5.8 sein Minimum genau dann in
an, wenn
für alle
. Für
ist
und
,
wobei bei der partiellen Integration die Voraussetzungen an benutzt wurde. Also ist die Bedingung
gerade äquivalent zu (28).
Bemerkungen
- Die Bedingung der stetigen Differenzierbarkeit von
ist erfüllt, wenn
und
in der dritten Variablen zweimal stetig differenzierbar sind. Sie ist außerdem nach Satz 3.7 erfüllt, wenn
die Euler-Gleichung erfüllt.
- Wegen Bedingung (28) ist das Erfüllen der Euler-Gleichung hinreichend für den Nachweis einer Extremstelle. Wird das Extremum am “Rand” von
angenommen, ist die Euler-Gleichung allerdings nicht mehr notwendig.
- Für die Anwendung auf das Brachistochrone-Problem reicht Satz 5.13 immer noch nicht, da die Funktion aus (27) für
nicht differenzierbar sein müssen. Es gibt aber eine Erweiterung von Satz 5.13 für den Fall, dass wir mit der Menge
wie in (27) statt mit
aus Satz 5.13 operieren wollen. Diese Erweiterung besagt, dass eine Lösung
, die die Euler-Gleichung (nur) für
löst, also eine Extremale auf
ist, das Brachistochrone-Problem löst, wenn man zu den Voraussetzungen des Satzes 5.13 noch zusätzlich fordert, dass
, dass
beschränkt auf
ist, sowie dass
für alle
Lebesgue-integrierbar ist.
Wir kommen jetzt noch einmal zurück auf das Beispiel 3.9.
Beispiel 5.14: Brachistochrone
Mit Satz 5.13 (und der nachfolgenden Bemerkung) könnten wir nachweisen, dass der berechnete Zykloiden-Bogen eine Optimallösung ist, wenn die Lagrange-Funktion
konvex wäre. Doch leider ist sie das nicht.
Dennoch kann eine Anwendung von Satz 5.13 erzwungen werden. Ausgangspunkt ist die Beobachtung, dass jede Funktion (mit
aus (27)) eindeutig als Quadrat einer Funktion
aus
geschrieben werden kann. Damit ist die Aufgabe
äquivalent zu der Aufgabe
,
(wir setzen für eine Lösung
der 2. Aufgabe und haben damit eine Lösung
der ersten Aufgabe) wobei die Lagrange-Funktion durch
gegeben ist: Ein Minimierer von
bedeutet einen Minimierer
von
. Man kann nun die Konvexität von
zeigen (Hinweis dazu:
ist die Euklidische Norm eines Vektors).
Mit Satz 5.13 folgt dann, dass jede Lösung der Euler-Gleichung für zu einer globalen Lösung des Problems der Brachistochrone führt. Auf diese Weise lässt sich nachweisen, dass die oben berechneten Zykloidenbögen tatsächlich Lösungen des Brachistochrone-Problems sind. Das führen wir jetzt aber nicht mehr aus, sondern verweisen auf [Ko].
GG
4 Dec 2011Uff, uff, da schwirrt einem ja der Kopf! Da halte ich’s mit Woody Allen und seinem Volkshochschulkurs an “bisher unlösbare Probleme der Mathematik wird mit Gewalt herangegangen” …