5 – Hinreichende Bedingung für Extrema

 

Im Jahr 1836 löste Jacob Steiner auf elementare geometrische Weise das Problem der Dido. Er wies nach, dass eine Kurve fester Länge l, die eine Fläche maximalen Inhalts umschließt, notwendig ein Kreis sein muss.

Dirichlet erkannte, dass Steiners Beweis den fundamentalen Fehler enthielt, dass die Existenz eines Optimums nicht geklärt wurde. Steiner hatte lediglich bewiesen: Wenn es ein Optimum gibt, dann muss es der Kreis sein.

Nachzuweisen, dass ein Optimierungsproblem in einem Funktionenraum tatsächlich eine Lösung besitzt, bezeichnet man als das Fundamentalproblem der Variationsrechnung. Die Namensgebung deutet darauf hin, dass es sich um kein einfaches Problem handelt. Schauen wir uns dazu ein Beispiel an.

Beispiel 5.1: Funktional im Raum der stückweise stetig differenzierbaren Funktionen

Es sei D: = C_s^1\left[ {0,1} \right] der Raum der stückweise stetig differenzierbaren Funktionen auf \left[ {0,1} \right]. Dies soll bedeuten: Jedes f \in D ist stetig auf \left[ {0,1} \right] und es gibt Punkte 0 < {t_1} < \ldots < {t_n} < b so, dass f auf jedem Intervall \left( {{t_i},{t_{i+1}}} \right) stetig differenzierbar ist und die Ableitung stetig auf jedes Intervall \left[ {{t_i},{t_{i+1}}} \right] fortsetzbar ist.

Auf D soll das Funktional

J\left( f \right) = \int\limits_0^1 {\left( {f{{\left( t \right)}^2}+{{\left[ {\dot f{{\left( t \right)}^2}-1} \right]}^2}} \right)dt}

minimiert werden. Offenbar ist J\left( f \right) \geq 0 für alle zugelassenen Integranden. Wir konstruieren nun eine Folge {\left( {{f_n}} \right)_{n = 0,1, \ldots }} von Integranden, für die J\left( {{f_n}} \right) \to 0. Dazu teilen wir \left[ {0,1} \right] in n Teilintervalle gleicher Länge 1/n und definieren

{f_n}\left( t \right) = \left\{ {\begin{array}{*{20}{c}}{t-\frac{k}{n}}&{f\ddot ur\quad t \in \left[ {\frac{k}{n},\frac{k}{n}+\frac{1}{{2n}}} \right]} \\ {-t+\frac{{k+1}}{n}}&{f\ddot ur\quad t \in \left[ {\frac{k}{n}+\frac{1}{{2n}},\frac{{k+1}}{n}} \right]} \end{array}} \right.\quad ,

vergleiche die nachfolgende Skizze. Es lässt sich sofort nachrechnen, dass

J\left( {{f_n}} \right) = \frac{1}{{12{n^2}}} \to 0\quad f\ddot ur\:n \to \infty.

Andererseits gibt es kein f \in D mit J\left( f \right) = 0. Ein solches f müsste nämlich wegen des ersten Terms unter dem Integral f \equiv 0 erfüllen, dann wäre aber auch \dot f \equiv 0 und wir hätten J\left( f \right) = 1.

Damit ist klar: J hat auf D ein Infimum 0, aber dieses Infimum wird von keinem f \in D erreicht – die Optimierungsaufgabe besitzt keine Lösung.

optimierungsaufgabe-keine-losung-infimum

Aus diesen Gründen befasst man sich in der Funktionalanalysis mit abstrakteren Räumen von Funktionen, auf denen sich die Existenz von Lösungen dann doch wieder zeigen lässt. Wir bleiben hier bei unseren “naiven” Räumen und sichern die Existenz von Lösungen durch die weitere Voraussetzung der Konvexität.

Definition 5.2: Konvexität

Es sei V ein reeller Vektorraum und K \subset V. Die Menge K heißt konvex, wenn gilt:

{y_1},{y_2} \in K

\left[ {{y_1},{y_2}} \right]: = \left\{ {\lambda {y_1}+\left( {1-\lambda } \right){y_2}} \right\} \subset K,\quad \lambda \in \left[ {0,1} \right]

Ein Funktional J:K \to \mathbb{R} heißt konvex, wenn gilt:

J\left( {\lambda {y_1}+\left( {1-\lambda } \right){y_2}} \right) \leq \lambda J\left( {{y_1}} \right)+\left( {1-\lambda } \right)J\left( {{y_2}} \right)\quad \forall 0 \leq \lambda \leq 1,\quad {y_1},{y_2} \in K

Gilt sogar die strikte Ungleichung, dann heißt J strikt konvex.

In der folgenden Skizze zeigen wir eine konvexe und eine nicht konvexe Teilmenge des {\mathbb{R}^2}.

konvexitat-veranschaulichung-strecke-innerhalb

Da konvexe Funktionen auf konvexen Mengen betrachtet werden, ist für alle {y_1},{y_2} \in K der Funktionswert J\left( {\lambda {y_1}+\left( {1-\lambda } \right){y_2}} \right) definiert. Die Konvexität einer Funktion J bedeutet, dass sie für {y_1},{y_2} \in K längs der Strecke \left[ {{y_1},{y_2}} \right] nie oberhalb der Sekante \left[ {\left( {{y_1},J\left( {{y_1}} \right)} \right)\left( {{y_2},J\left( {{y_2}} \right)} \right)} \right] verläuft, siehe die nachfolgende Skizze.

konvexitat-funktion-verbindung-oberhalb-kurve

Beispiel 5.3: Norm als konvexes Funktional

Wenn \left( {V,\left\| {\:\: \cdot \:\:} \right\|} \right) ein normierter Vektorraum ist, dann ist

J:V \to \mathbb{R},\quad x \mapsto \left\| x \right\|

ein konvexes Funktional auf V. Dies folge aus der Dreiecksungleichung \left\| {x+y} \right\| \leq \left\| x \right\|+\left\| y \right\| und der Homogenität \left\| {\lambda x} \right\| = \left| \lambda \right|\left\| x \right\| für x,y \in V und \lambda \in \mathbb{R}, die für alle Normen gelten müssen.

Beispiel 5.4: Konvexität eines Integraloperators

Das auf dem Raum C\left( {\left[ {0,1} \right]} \right) definierte Funktional

J\left( y \right) = \int\limits_0^2 {\left( {y{{\left( t \right)}^2}+\left| {y\left( t \right)} \right|} \right)dt}

ist konvex. Zum Beweis benötigt man die Monotonie des Integrals, also dessen Eigenschaft

f\left( x \right) \leq g\left( x \right)\forall x\quad \Rightarrow \quad \int\limits_a^b {f\left( x \right)dx} \leq \int\limits_a^b {g\left( x \right)dx},

sowie die Konvexität der \mathbb{R}-Funktionen x \mapsto \left| x \right| und x \mapsto {x^2}.

Beispiel 5.5: Konvexität linearer Funktionale

Jedes konstante und jedes lineare Funktional ist konvex. Wenn {J_1}, \ldots ,{J_n}:K \to \mathbb{R} konvexe Funktionale sind und {\alpha _1}, \ldots ,{\alpha _n} positive reelle Zahlen, dann ist {\alpha _1}{J_1}+ \ldots +{\alpha _n}{J_n} ein konvexes Funktional. Wenn f:K \to \mathbb{R} konvex ist, f\left( K \right) \subset C und C sowie g:C \to \mathbb{R} konvex sind und g außerdem monoton wachsend ist, dann ist auch g \circ f:K \to \mathbb{R},g \circ f:x \mapsto g\left( {f\left( x \right)} \right) eine konvexe Funktion.

Konvexität ist eine “starke” Eigenschaft, aus der fast schon die Existenz der Gâteaux-Ableitung folgt. Das formulieren wir im nächsten Satz, brauchen aber vorher noch die folgende Definition.

Definition 5.6: Einseitige Richtungsableitungen

Es sei V ein Vektorraum, D \subset V eine Teilmenge und J:D \to \mathbb{R} ein Funktional. Es sei y \in D und v \in V. Dann heißt J rechtsseitig Gâteaux-differenzierbar in y in Richtung v, wenn für ein \varepsilon > 0 \left[ {y,y+\varepsilon v} \right] \subset D ist und der Grenzwert

{\delta _+}J\left( {y,v} \right): = \mathop {\lim }\limits_{t \downarrow 0} \frac{{J\left( {y+tv} \right)-J\left( y \right)}}{t}

existiert. Dieser heißt dann rechtsseitige Richtungsableitung oder rechtsseitige Gâteaux-Variation von J in y in Richtung v. Analog definiert man die linksseitige Richtungsableitung

{\delta _-}J\left( {y,v} \right): = \mathop {\lim }\limits_{t \uparrow 0} \frac{{J\left( {y+tv} \right)-J\left( y \right)}}{t},

wenn dieser Grenzwert existiert. Wenn

\frac{{J\left( {y+tv} \right)-J\left( y \right)}}{t}\xrightarrow{{t \downarrow 0}} \pm \infty,

schreiben wir {\delta _+}J\left( {y,v} \right) = +\infty oder {\delta _+}J\left( {y,v} \right) = -\infty. Wir wollen auch in diesen Grenzfällen von rechtsseitiger Richtungsableitung sprechen.

Wenn J in Richtung v Gâteaux-differenzierbar ist, muss die Gâteaux-Ableitung offensichtlich mit den beidseitigen Richtungsableitungen übereinstimmen. Der folgende Satz stellt einen Zusammenhang zwischen Richtungsableitung und Konvexität her.

Satz 5.7: Subgradientenungleichung

Es sei V ein Vektorraum, K \subset V eine konvexe Teilmenge und J:K \to \mathbb{R} ein konvexes Funktional. Es sei y \in K und v \in V so, dass ein {\varepsilon _v} > 0 existiert mit \left[ {y,y+{\varepsilon _v}v} \right] \subset K. Dann gelten die folgenden Aussagen:

  1. Der Differenzenquotient

    \varphi \left( \lambda \right): = \frac{{J\left( {y+\lambda v} \right)-J\left( y \right)}}{\lambda }

    ist monoton steigend auf \left( {0,{\varepsilon _v}} \right).

  2. Es ist stets {\delta _+}J\left( {y,v} \right) < +\infty. Ist sogar \left[ {y-{\varepsilon _v}v,y+{\varepsilon _v}v} \right] \subset K für ein {\varepsilon _v} > 0, dann ist -\infty < {\delta _+}J\left( {y,v} \right) < +\infty.
  3. Es gilt die Subgradientenungleichung

    {\delta _+}J\left( {y,z-y} \right) \leq J\left( z \right)-J\left( y \right)\quad \forall z \in K.

Beweis

Zu 1.

Wir definieren auf \left[ {0,{\varepsilon _v}} \right) die Funktion

h:\left[ {0,{\varepsilon _v}} \right) \to \mathbb{R},\quad t \mapsto h\left( t \right): = J\left( {y+tv} \right)-J\left( y \right).

Diese Funktion ist nach Voraussetzung konvex und deswegen gilt für alle 0 < s \leq t < {\varepsilon _v}

h\left( s \right) = h\left( {\frac{s}{t}t+\frac{{t-s}}{t} \cdot 0} \right) \leq \frac{s}{t}h\left( t \right)+\frac{{t-s}}{t}h\left( 0 \right) = \frac{s}{t}h\left( t \right),

also \varphi \left( s \right) = \frac{{h\left( s \right)}}{s} \leq \frac{{h\left( t \right)}}{t} = \varphi \left( t \right). Also ist die Funktion \varphi monoton steigend.

Zu 2.

Da der Differenzenquotient nach 1. monoton wachsend ist, muss

{\delta _+}J\left( {y,v} \right) = \mathop {\lim }\limits_{\lambda \downarrow 0} \varphi \left( \lambda \right) \leq \frac{{J\left( {y+\varepsilon v} \right)-J\left( y \right)}}{\varepsilon } < \infty

gelten für ein jetzt fest gewähltes 0 < \varepsilon < {\varepsilon _v}. Dieser Wert ist entweder endlich oder gleich -\infty.

Jetzt benutzen wir die zusätzliche Voraussetzung, dass \left[ {y-{\varepsilon _v}v,y+{\varepsilon _v}v} \right] \subset K. Wegen der Konvexität von J ist für alle t \in \left( {0,1} \right]

J\left( y \right) = J\left( {\frac{1}{{1+t}}\left( {y+t\varepsilon v} \right)+\frac{t}{{1+t}}\left( {y-\varepsilon v} \right)} \right)

\leq \frac{1}{{1+t}}J\left( {y+t\varepsilon v} \right)+\frac{t}{{1+t}}\left( {y-\varepsilon v} \right)

und daraus bekommen wir

J\left( y \right)+tJ\left( y \right) = \left( {1+t} \right)J\left( y \right) \leq J\left( {y+t\varepsilon v} \right)+tJ\left( {y-\varepsilon v} \right)

\Rightarrow \quad tJ\left( y \right)-tJ\left( {y-\varepsilon v} \right) \leq J\left( {y+t\varepsilon v} \right)-J\left( y \right)

und das bedeutet

-\infty < \frac{{J\left( y \right)-J\left( {y-\varepsilon v} \right)}}{\varepsilon } \leq \frac{{J\left( {y+t\varepsilon v} \right)-J\left( y \right)}}{{t\varepsilon }}\quad \mathop \to \limits^{t \to 0} \quad {\delta _+}J\left( {y,v} \right),

denn der Grenzwert monotoner, beschränkter, reeller Funktionen existiert.

Zu 3.

Wegen z \in K und der Konvexität von K ist \left[ {y,z} \right] \subset K. Die Funktion \varphi aus 1. ist also für v = z-y sicher auf \left[ {0,1} \right] definiert und wegen der Monotonie des Differenzenquotienten haben wir

{\delta _+}J\left( {y,z-y} \right) \leq \varphi \left( 1 \right) = J\left( {y+\left( {z-y} \right)} \right)-J\left( y \right) = J\left( z \right)-J\left( y \right).

Das ist die Subgradientenungleichung. Eventuell muss man mit {\delta _+}J\left( {y,z-y} \right) = -\infty rechnen, wenn nur \left[ {y,y+{\varepsilon _v}v} \right] \subset K, aber nicht \left[ {y-{\varepsilon _v}v,y+{\varepsilon _v}v} \right] \subset K vorausgesetzt werden kann.

Satz 5.8: Charakterisierungssatz der konvexen Optimierung

Es sei V ein Vektorraum und K \subset V konvex. Das Funktional J:K \to \mathbb{R} sei konvex.

J nimmt genau dann in \hat y \in K sein Minimum an, wenn

{\delta _+}J\left( {\hat y,y-\hat y} \right) \geq 0\quad \forall y \in K\quad \quad \quad \quad \left( {26} \right)

Vor dem Beweis dieses Satzes drei Bemerkungen:

  1. {\delta _+}J\left( {\hat y,y-\hat y} \right) < \infty nach Satz 5.7 ohne weitere Voraussetzungen an J neben der Konvexität. Der Satz lässt sich damit auch in Situationen anwenden, wo keine Gâteaux-Differenzierbarkeit gegeben ist.
  2. Durch Verwendung der einseitigen Richtungsableitung können auch Minimalstellen behandelt werden, die am Rand der konvexen Menge K liegen.:

    konvexitat-optimierung-variationsrechnung

  3. Die anschauliche Bedeutung ist ziemlich klar. Nach der Subgradientenungleichung aus Satz 5.7 steigt eine konvexe Funktion J von jedem Punkt aus stets mindestens so stark an wie eine Gerade mit der Richtungsableitung als Steigung. Wenn in \hat y alle Ableitungen in Richtung von Punkten aus K nicht negativ sind, bedeutet dies, dass J längs aller zulässigen Richtungen in K ansteigende Funktionswerte annimmt.

    richtungsableitung-konvexe-optimierung

Beweis zu Satz 5.8

\Rightarrow“:

Sei \hat y \in K eine Minimallösung von J auf K. Für y \in K und \lambda \in \left( {0,1} \right] ist wegen der Konvexität \hat y+\lambda \left( {y-\hat y} \right) = \lambda y+\left( {1-\lambda } \right)\hat y \in K und wegen der Minimalität

\frac{{J\left( {\hat y+\lambda \left( {y-\hat y} \right)} \right)-J\left( {\hat y} \right)}}{\lambda } \geq 0.

Mit Satz 5.7 existiert {\delta _+}J\left( {\hat y,y-\hat y} \right) als Grenzwert einer monotonen, beschränkten Funktion für \lambda \downarrow 0 und damit folgt (26).

\Leftarrow“:

Mit der Subgradientenungleichung aus Satz 5.7 haben wir für alle y \in K

J\left( y \right)-J\left( {\hat y} \right) \geq {\delta _+}J\left( {\hat y,y-\hat y} \right) \geq 0

und folgern daraus die Minimalitätseigenschaft von \hat y.

Den Satz 5.8 bringen wir jetzt noch in eine Form, die wir später unmittelbar auf die Variationsaufgabe (A) anwenden können. Seien dazu U \subset V ein Unterraum des Vektorraums V und v \in V. Wir bezeichnen

v+U: = \left\{ {v+u:\quad u \in U} \right\}

als affinen Teilraum von V.

Prototypen für Untervektorräume (auch lineare Teilräume genannt) sind die Geraden durch den Ursprung im {\mathbb{R}^2}. Affine Teilräume des {\mathbb{R}^2} sind dann alle Geraden:

affin-linear-veranschaulichung-unterschied

Wenn {v_1},{v_2} \in v+U, dann ist offenbar {v_1}-{v_2} \in U.

Korollar 5.9: Minimum des Funktionals

Es seien V ein Vektorraum, U \subset V ein Untervektorraum und {v_0} \in V. Es sei J:{v_0}+U \to \mathbb{R} ein auf dem affinen Teilraum {v_0}+U in jede Richtung u \in U Gâteaux-differenzierbares und konvexes Funktional. Genau dann nimmt J in ein Minimum an, wenn

\delta J\left( {\hat y,u} \right) = 0\quad \forall u \in U.

Beweis

\Rightarrow“: Klar nach Satz 3.4, denn mit \hat y \in {v_0}+U ist \hat y+\varepsilon u \in {v_0}+U und deswegen zulässig für alle \varepsilon und u \in U.

\Leftarrow“: Folgt aus Satz 5.8, da {v_0}+U konvex ist und mit \hat y \in {v_0}+U für alle y \in {v_0}+U immer y-\hat y \in U gilt.

Nun soll der Satz 5.8 beziehungsweise Korollar 5.9 auf die Lösung von Variationsaufgaben angewendet werden. Dabei stellt sich heraus, dass das Funktional aus der Variationsaufgabe (A) konvex ist, wenn die Lagrange-Funktion L = L\left( {t,p,q} \right) in den Variablen p und q konvex ist.

Satz 5.10: Konvexität der Lagrange-Funktion

Das Funktional

J:{C^1}\left[ {{t_0},{t_1}} \right] \to \mathbb{R},\quad y \mapsto J\left( y \right) = \int_{{t_0}}^{{t_1}} {L\left( {t,y\left( t \right),\dot y\left( t \right)} \right)dt}

aus Variationsaufgabe (A) ist konvex, wenn die Lagrange-Funktion L in der zweiten und dritten Variablen konvex ist, wenn also für alle t \in \left[ {{t_0},{t_1}} \right] die Funktion

L\left( {t, \cdot , \cdot } \right):{\mathbb{R}^2} \to \mathbb{R}

konvex ist.

Beweis

Es seien t \in \left[ {{t_0},{t_1}} \right], \lambda \in \left[ {0,1} \right] und {y_1},{y_2} \in {C^1}\left[ {{t_0},{t_1}} \right]. Damit ist

L\left( {t,\lambda {y_1}\left( t \right)+\left( {1-\lambda } \right){y_2}\left( t \right),\lambda {{\dot y}_2}\left( t \right)} \right)

\leq \lambda L\left( {t,{y_1}\left( t \right),{{\dot y}_1}\left( t \right)} \right)+\left( {1-\lambda } \right)L\left( {t,{y_2}\left( t \right),{{\dot y}_2}\left( t \right)} \right)

Wegen der Monotonie und Linearität des Integrals folgt

J\left( {\lambda {y_1}+\left( {1-\lambda } \right){y_2}} \right)

= \int_{{t_0}}^{{t_1}} {L\left( {t,\lambda {y_1}+\left( {1-\lambda } \right){y_2},\lambda {{\dot y}_1}+\left( {1-\lambda } \right){{\dot y}_2}} \right)dt}

\leq \lambda \int_{{t_0}}^{{t_1}} {L\left( {t,{y_1},{{\dot y}_1}} \right)dt} +\left( {1-\lambda } \right)\int_{{t_0}}^{{t_1}} {L\left( {t,{y_2},{{\dot y}_2}} \right)dt}

= \lambda J\left( {{y_1}} \right)+\left( {1-\lambda } \right)J\left( {{y_2}} \right)

also ist J konvex.

Wir erhalten damit folgenden Satz.

Satz 5.11: Lösung der Variationsaufgabe

Es seien die Voraussetzungen des Satzes 3.7 erfüllt und außerdem sei die Lagrange-Funktion L\left( {t, \cdot , \cdot } \right) für alle t \in \left[ {{t_0},{t_1}} \right] in den beiden letzten Variablen konvex.

Dann ist jede Extremale, also jede Lösung der Euler-Gleichung, eine Lösung der Variationsaufgabe (A) (und nicht nur ein Kandidat für die Lösung).

Beweis

Es ist U: = \left\{ {y \in {C^1}\left[ {{t_0},{t_1}} \right]:y\left( {{t_0}} \right) = 0 = y\left( {{t_1}} \right)} \right\} ein Untervektorraum von {C^1}\left[ {{t_0},{t_1}} \right]. Der Raum D aus Variationsaufgabe (A) ist ein affiner Teilraum D = {v_0}+U von {C^1}\left[ {{t_0},{t_1}} \right] (für {v_0} kann man z.B. das Geradenstück von \left( {{t_0},{y_0}} \right) nach \left( {{t_1},{y_1}} \right) nehmen). Es sei \hat y \in D eine Extremale. Dann bekommen wir für die 1. Variation in Richtung u \in U wie bei Satz 3.7:

\delta J\left( {\hat y,u} \right) = \int_{{t_0}}^{{t_1}} {\left( {{L_y}u+{L_{\dot y}}\dot u} \right)dt} = \int_{{t_0}}^{{t_1}} {\left( {{L_y}-\frac{d}{{dt}}{L_{\dot y}}} \right)u\:dt} = 0.

Mit Satz 5.10 ist das Funktional J konvex, so dass die Aussage aus dem Korollar 5.9 folgt.

Beispiel 5.12: Kürzeste Strecke

Im Beispiel 3.8 war die kürzeste Strecke zwischen zwei Punkten in der Ebene gesucht. Das “offensichtliche” Ergebnis, dass dies die gerade Strecke ist, können wir jetzt mit Korollar 5.9 und Satz 5.10 endgültig beweisen, da die Lagrange-Funktion

L\left( {t,p,q} \right) = \sqrt {1+{q^2}} = :f\left( q \right)

konvex in q ist. Man rechnet hierfür {f^{\prime \prime }}\left( q \right) > 0\quad \forall q \in \mathbb{R} nach:

{f^\prime }\left( q \right) = \frac{q}{{\sqrt {1+{q^2}} }}

{f^{\prime \prime }}\left( q \right) = \frac{{1\sqrt {1+{q^2}} -q\frac{q}{{\sqrt {1+{q^2}} }}}}{{1+{q^2}}} = \frac{1}{{{{\left( {1+{q^2}} \right)}^{\frac{3}{2}}}}} > 0

Bisher haben wir Variationsaufgaben stets auf affinen Teilräumen von Vektorräumen gelöst, etwa in Form der Variationsaufgabe (A). Daneben kommt aber in der Praxis ebenso der Fall vor, dass man zusätzliche Einschränkungen hat, wie etwa beim Problem der Brachistochrone aus Beispiel 3.9. Dort lautet die zur Konkurrenz zugelassene Menge

S: = \left\{ {y \in C\left[ {0,a} \right] \cap {C^1}\left( {0,a} \right]:y\left( 0 \right) = 0,y\left( a \right) = b,\:{{\left. y \right|}_{\left( {0,a} \right]}}\:positiv} \right\}\quad \quad \quad \quad \left( {27} \right)

Diese Menge ist zwar noch konvex, aber kein affiner Teilraum mehr. Deswegen kommen wir an dieser Stelle mit dem Korollar 5.9 nicht weiter. Es lässt sich aber immer noch der Charakterisierungssatz der konvexen Optimierung (5.8) benutzen.

Satz 5.13: Optimalität für konvexe Funktionale

Es gelten die Bezeichnungen wie in Aufgabe (A) und es sei

K \subset D = \left\{ {y \in {C^1}\left[ {{t_0},{t_1}} \right]:y\left( {{t_0}} \right) = {y_0},\:y\left( {{t_1}} \right) = {y_1}} \right\}

eine konvexe Menge und \Omega \subset {\mathbb{R}^2} eine offene Menge mit

\left\{ {\left( {t,y\left( t \right),\dot y\left( t \right)} \right):t \in \left[ {{t_0},{t_1}} \right],y \in K} \right\} \subset \Omega.

Es sei L:\Omega \to \mathbb{R} stetig und für jedes feste t \in \left[ {{t_0},{t_1}} \right] sei L\left( {t, \cdot , \cdot } \right) stetig partiell differenzierbar und konvex. Ferner sei für \hat y \in K die Funktion t \mapsto {L_{\dot y}}\left( {t,\hat y\left( t \right),\dot \hat y\left( t \right)} \right) stetig differenzierbar. Genau dann nimmt J auf K sein Minimum in \hat y an, wenn für alle y \in K

\int\limits_{{t_0}}^{{t_1}} {\left[ {{L_y}\left( {t,\hat y\left( t \right),\dot \hat y\left( t \right)} \right)-\frac{d}{{dt}}{L_{\dot \hat y}}\left( {t,\hat y\left( t \right),\dot \hat y\left( t \right)} \right)} \right]\left( {y\left( t \right)-\hat y\left( t \right)} \right)dt} \geq 0.\quad \quad \left( {28} \right)

Beweis

Nach Satz 5.10 ist J auf K konvex und nimmt nach Satz 5.8 sein Minimum genau dann in \hat y an, wenn {\delta _+}J\left( {\hat y,y-\hat y} \right) \geq 0 für alle y \in K. Für v: = y-\hat y ist v\left( {{t_0}} \right) = 0 = v\left( {{t_1}} \right) und

{\delta _+}J\left( {\hat y,v} \right) = \int\limits_{{t_0}}^{{t_1}} {\left( {{L_y}v+{L_{\dot y}}\dot v} \right)dt} = \int\limits_{{t_0}}^{{t_1}} {\left( {{L_y}-\frac{d}{{dt}}{L_{\dot y}}} \right)vdt},

wobei bei der partiellen Integration die Voraussetzungen an t \mapsto {L_{\dot \hat y}}\left( {t,\hat y\left( t \right),\dot \hat y\left( t \right)} \right) benutzt wurde. Also ist die Bedingung {\delta _+}J\left( {\hat y,v} \right) \geq 0 gerade äquivalent zu (28).

Bemerkungen

  1. Die Bedingung der stetigen Differenzierbarkeit von t \mapsto {L_{\dot y}}\left( {t,\hat y\left( t \right),\dot \hat y\left( t \right)} \right) ist erfüllt, wenn \hat y und L in der dritten Variablen zweimal stetig differenzierbar sind. Sie ist außerdem nach Satz 3.7 erfüllt, wenn \hat y die Euler-Gleichung erfüllt.
  2. Wegen Bedingung (28) ist das Erfüllen der Euler-Gleichung hinreichend für den Nachweis einer Extremstelle. Wird das Extremum am “Rand” von K angenommen, ist die Euler-Gleichung allerdings nicht mehr notwendig.
  3. Für die Anwendung auf das Brachistochrone-Problem reicht Satz 5.13 immer noch nicht, da die Funktion aus (27) für t = 0 nicht differenzierbar sein müssen. Es gibt aber eine Erweiterung von Satz 5.13 für den Fall, dass wir mit der Menge S wie in (27) statt mit K aus Satz 5.13 operieren wollen. Diese Erweiterung besagt, dass eine Lösung \hat y \in S, die die Euler-Gleichung (nur) für 0 < t \leq a löst, also eine Extremale auf \left( {0,a} \right] ist, das Brachistochrone-Problem löst, wenn man zu den Voraussetzungen des Satzes 5.13 noch zusätzlich fordert, dass \hat y \in {C^2}\left( {0,a} \right], dass t \mapsto {L_{\dot y}}\left( {t,\hat y\left( t \right),\dot \hat y\left( t \right)} \right) beschränkt auf \left( {0,a} \right] ist, sowie dass t \mapsto L\left( {t,y\left( t \right),\dot y\left( t \right)} \right) für alle y \in K Lebesgue-integrierbar ist.

Wir kommen jetzt noch einmal zurück auf das Beispiel 3.9.

Beispiel 5.14: Brachistochrone

Mit Satz 5.13 (und der nachfolgenden Bemerkung) könnten wir nachweisen, dass der berechnete Zykloiden-Bogen eine Optimallösung ist, wenn die Lagrange-Funktion

L\left( {t,p,q} \right) = \sqrt {\frac{{1+{q^2}}}{p}} = :F\left( {p,q} \right)

konvex wäre. Doch leider ist sie das nicht.

Dennoch kann eine Anwendung von Satz 5.13 erzwungen werden. Ausgangspunkt ist die Beobachtung, dass jede Funktion y \in S (mit S aus (27)) eindeutig als Quadrat einer Funktion z aus

\bar S: = \left\{ {y \in C\left[ {0,a} \right] \cap {C^1}\left( {0,a} \right]:\:\:y\left( 0 \right) = 0,\:y\left( a \right) = \sqrt b ,\:\:\left( y \right]\:\:positiv} \right\}

geschrieben werden kann. Damit ist die Aufgabe

J\left( y \right) = \int\limits_0^a {L\left( {t,y\left( t \right),\dot y\left( t \right)} \right)dt} \mathop = \limits^! \operatorname{Extr} ,\quad y \in S

äquivalent zu der Aufgabe

\bar J\left( z \right): = \int\limits_0^a {\bar L\left( {t,z\left( t \right),\dot z\left( t \right)} \right)dt} \mathop = \limits^! \operatorname{Extr} ,\quad z \in \bar S,

(wir setzen \hat y = {\hat z^2} für eine Lösung \hat z der 2. Aufgabe und haben damit eine Lösung \hat y der ersten Aufgabe) wobei die Lagrange-Funktion durch

\bar L:\left[ {0,a} \right] \times {\mathbb{R}_+} \times \mathbb{R} \to \mathbb{R},\quad \left( {p,q} \right) \mapsto \sqrt {\frac{1}{{{p^2}}}+4{q^2}}

gegeben ist: Ein Minimierer \hat z \in \bar S von \bar J bedeutet einen Minimierer \hat y = {\hat z^2} von J. Man kann nun die Konvexität von \bar L zeigen (Hinweis dazu: \bar L ist die Euklidische Norm eines Vektors).

Mit Satz 5.13 folgt dann, dass jede Lösung der Euler-Gleichung für \bar L zu einer globalen Lösung des Problems der Brachistochrone führt. Auf diese Weise lässt sich nachweisen, dass die oben berechneten Zykloidenbögen tatsächlich Lösungen des Brachistochrone-Problems sind. Das führen wir jetzt aber nicht mehr aus, sondern verweisen auf [Ko].

Ähnliche Artikel

1 Kommentar zu “5 – Hinreichende Bedingung für Extrema”

Uff, uff, da schwirrt einem ja der Kopf! Da halte ich’s mit Woody Allen und seinem Volkshochschulkurs an “bisher unlösbare Probleme der Mathematik wird mit Gewalt herangegangen” …

Kommentar verfassen