4 – Erweiterungen des Grundproblems

 

Nicht alle Probleme der Praxis lassen sich direkt mit Satz 3.7 behandeln. In diesem Abschnitt behandeln wir eine Reihe von mehr oder weniger abweichenden Problemstellungen. Ziel ist es, die prinzipielle Vorgehensweise der Variationsrechnung anhand einiger in der Praxis auftretender Aufgabenstellungen und anhand konkreter Beispiele vorzuführen. Dabei wird nicht größte Allgemeinheit angestrebt, sondern immer von Voraussetzungen ausgegangen, die die durchgeführten Rechnungen ohne Weiteres rechtfertigen. Im Wesentlichen betrifft das die Annahme der {C^2}-Stetigkeit von Lagrange-Funktion L und optimaler Lösung \hat y des jeweiligen Problems.

4.1 Natürliche Randbedingungen

Wir greifen wieder das Variationsproblem mit festen Endpunkten auf, allerdings mit einer Abweichung: An der Stelle {t_1} wird für die Lösung y kein Wert {y_1} vorgegeben. Das heißt: Jeder Wert y\left( {{t_1}} \right) ist erlaubt.

Zur Lösung gehen wir grundsätzlich genauso vor wie in Abschnitt 3, nehmen also an, wir hätten bereits eine Extremstelle \hat y gefunden und bilden an dieser die Gâteaux-Ableitung \delta J\left( {\hat y,v} \right) in Richtung eines zulässigen v. Im Unterschied zu Abschnitt 3 sind jetzt aber auch {C^2}-Funktionen zur Variation \delta J\left( {\hat y,v} \right) zulässig, die nur noch v\left( {{t_0}} \right) = 0 erfüllen, aber beliebige Werte v\left( {{t_1}} \right) annehmen. Für solche v verschwindet der Ausdruck \left[ {v{L_{\dot y}}} \right]_{{t_0}}^{{t_1}} in (6) nicht mehr. Wir müssen die Variation also neu bestimmen.

Die Variation {y_\varepsilon }: = \hat y+\varepsilon v sei zulässig, v\left( {{t_0}} \right) = 0.

\delta J\left( {\hat y,v} \right) = {\left. {\frac{d}{{d\varepsilon }}J\left( {\hat y+\varepsilon v} \right)} \right|_{\varepsilon = 0}}

= \int_{{t_0}}^{{t_1}} {{{\left. {\frac{d}{{d\varepsilon }}L\left( {t,\hat y+\varepsilon v,\dot \hat y+\varepsilon \dot v} \right)} \right|}_{\varepsilon = 0}}dt}

= \int_{{t_0}}^{{t_1}} {\left( {{L_y}v+{L_{\dot y}}\dot v} \right)dt}

= \left[ {{L_{\dot y}}v} \right]_{t = {t_0}}^{t = {t_1}}+\int_{{t_0}}^{{t_1}} {\left( {{L_y}-\frac{d}{{dt}}{L_{\dot y}}} \right)vdt}

= {L_{\dot y}}\left( {{t_1},\hat y\left( {{t_1}} \right),\dot \hat y\left( {{t_1}} \right)} \right)v\left( {{t_1}} \right)+\int_{{t_0}}^{{t_1}} {\left( {{L_y}\left( {t,\hat y,\dot \hat y} \right)-\frac{d}{{dt}}{L_{\dot y}}\left( {t,\hat y,\dot \hat y} \right)} \right)v\left( t \right)dt} = 0

für alle zulässigen v.

Fall 1: Rechter Rand ist 0. In diesem Fall verschwindet der erste Term und das Integral muss für sich genommen gleich null sein. Wie in Abschnitt 3 folgern wir daraus die Euler-Gleichung als notwendige Bedingung, die in einem Optimum erfüllt sein muss:

v\left( {{t_1}} \right) = 0\quad \Rightarrow \quad \int_{{t_0}}^{{t_1}} {\left( {{L_y}-\frac{d}{{dt}}{L_{\dot y}}} \right)vdt} = 0\quad \Rightarrow \quad {L_y} = \frac{d}{{dt}}{L_{\dot y}}


Fall 2: Rechter Rand ist ungleich 0
. Da wir vom Integral bereits wissen, dass es verschwinden muss, muss auch der erste Term separat gleich null sein. Wenn wir also in Richtung von v mit v\left( {{t_1}} \right) \ne 0 variieren, bekommen wir die zusätzliche natürliche Randbedingung für den freien Rand:

v\left( {{t_1}} \right) \ne 0\quad \Rightarrow \quad {L_{\dot y}}\left( {{t_1},\hat y\left( {{t_1}} \right),\dot \hat y\left( {{t_1}} \right)} \right) = 0\quad \quad \quad \quad \left( {14} \right)


Beispiel 4.1:
Rotations-Minimalfläche

Es seien {t_0} < {t_1} und {y_0} > 0 vorgegeben. Gesucht ist eine Funktion y \in {C^2}\left[ {{t_0},{t_1}} \right] mit y\left( t \right) > 0 für {t_0} \leq t \leq {t_1}, die bei Rotation um die t-Achse die Mantelfläche mit kleinstmöglichem Inhalt erzeugt, siehe die folgende Skizze:

rotationsminimalflache-optimierung-variationsrechnung

Der Radius des Rotationskörpers und damit der Mantelfläche in Abhängigkeit von t ist y\left( t \right). Der Umfang ist also 2\pi y\left( t \right). Dies muss nun noch mit der Bogenlänge multipliziert werden. Die Formel hierfür haben wir bereits mehrfach verwendet, sie lautet

s = \int_{{t_0}}^{{t_1}} {\sqrt {1+\dot y{{\left( t \right)}^2}} dt}.

Damit bekommen wir:

J\left( y \right) = 2\pi \int_{{t_0}}^{{t_1}} {y\left( t \right)\sqrt {1+\dot y{{\left( t \right)}^2}} dt}

für das auf

D: = \left\{ {y \in {C^2}\left[ {{t_0},{t_1}} \right]:y\left( {{t_0}} \right) = {y_0},\:\:y > 0} \right\}

zu minimierende Funktional.

Die Lagrange-Funktion lautet

L\left( {t,y,\dot y} \right) = y\sqrt {1+{{\dot y}^2}}.

Sie hängt nicht explizit von der Zeit ab, so dass wir genau wie im Beispiel der Brachistochrone aus der Euler-Gleichung für \dot y \ne 0 die Gleichungen

{L_y}-{L_{\dot yy}}\dot y-{L_{\dot y\dot y}}\ddot y = 0

\Rightarrow \quad \dot y\left( {{L_y}-{L_{\dot yy}}\dot y-{L_{\dot y\dot y}}\ddot y} \right) = \frac{d}{{dt}}\left( {L-\dot y{L_{\dot y}}} \right) = 0

\Rightarrow \quad L-\dot y{L_{\dot y}} = c

erhalten. Mit unserer konkreten Lagrange-Funktion schreibt sich die letzte Gleichung jetzt als

{L_y} = \sqrt {1+{{\dot y}^2}} ,\quad {L_{\dot y}} = \frac{{y\dot y}}{{\sqrt {1+{{\dot y}^2}} }}\quad \Rightarrow \quad L-\dot y{L_{\dot y}} = y\sqrt {1+{{\dot y}^2}} -\frac{{y{{\dot y}^2}}}{{\sqrt {1+{{\dot y}^2}} }}

= \frac{{y\left( {1+{{\dot y}^2}} \right)-y{{\dot y}^2}}}{{\sqrt {1+{{\dot y}^2}} }} = \frac{y}{{\sqrt {1+{{\dot y}^2}} }} = c\quad \quad \quad \quad \left( {15} \right)

mit einer Konstanten c \in \mathbb{R}. Wir lösen diese DGL hier nicht, geben dafür aber die natürliche Randbedingung an. Diese lautet für eine Optimallösung \hat ygemäß (14):

{L_{\dot y}}\left( {{t_1},\hat y\left( {{t_1}} \right),\dot \hat y\left( {{t_1}} \right)} \right) = 0\quad \Rightarrow \quad \frac{{\dot \hat y\left( {{t_1}} \right)\hat y\left( {{t_1}} \right)}}{{\sqrt {1+{{\dot \hat y}^2}\left( {{t_1}} \right)} }} = 0\quad \mathop \Rightarrow \limits^{y\left( {{t_1}} \right) > 0} \quad \dot \hat y\left( {{t_1}} \right) = 0.

Da wir \hat y\left( {{t_1}} \right) > 0 fordern, ergibt sich die Bedingung \dot \hat y\left( {{t_1}} \right) = 0, das heißt die optimale Kurve muss senkrecht auf die Gerade t = {t_1} treffen.

4.2 Transversalitätsbedingung

Ausgangspunkt ist wieder das Variationsproblem (A), aber jetzt darf der rechte Randpunkt auch noch in t-Richtung variieren. Wir geben eine stetig differenzierbare Funktion f vor und fordern lediglich, dass eine Lösung y von (5) auf der Kurve \left( {t,f\left( t \right)} \right) liegen soll, dass also y\left( b \right) = f\left( b \right) gelten soll, wobei {t_1} = b noch unbekannt ist. Die Aufgabenstellung lautet damit

J\left( y \right) = \int_{{t_0}}^b {L\left( {t,y\left( t \right),\dot y\left( t \right)} \right)dt} \mathop = \limits^! \operatorname{Extr} ,

y\left( {{t_0}} \right) = {y_0},\quad y\left( b \right) = f\left( b \right),\quad \quad \quad \quad \left( {16} \right)

wobei wir von y zur Vereinfachung wieder unterstellen, es handle sich um eine {C^2}-Funktion. Die obere Grenze b des Integrals hängt von y ab.

Die Situation ist in der folgenden Skizze erläutert:

transversalitatsbedingung-variationsrechnung

Wir gehen wieder genauso vor, wie wir es beim Grundproblem in Abschnitt 3 gemacht haben, das heißt wir nehmen an, wir hätten eine optimale Lösung \hat y und den dazugehörigen Wert \hat b bereits gefunden. Wir variieren die Lösung, vergleichen also mit anderen Kandidaten

{y_\varepsilon }\left( t \right) = \hat y\left( t \right)+\varepsilon v\left( t \right),\quad v\left( {{t_0}} \right) = 0,\quad {y_\varepsilon }\left( {b\left( \varepsilon \right)} \right) = f\left( {b\left( \varepsilon \right)} \right).

Die Bedingung v\left( {{t_0}} \right) = 0 brauchen wir, damit v zulässig ist ({y_\varepsilon } muss durch den Punkt \left( {{t_0},{y_0}} \right) gehen), während v\left( {{t_1}} \right) einen beliebigen Wert annehmen darf. Die Vergleichsfunktion {y_\varepsilon } treffe nun in t = b\left( \varepsilon \right) auf die Kurve \left( {t,f\left( t \right)} \right), was durch {y_\varepsilon }\left( {b\left( \varepsilon \right)} \right) = f\left( {b\left( \varepsilon \right)} \right) ausgedrückt wird. Es ist b\left( 0 \right) = \hat b.

So bekommen wir für die Vergleichsfunktion den Wert des Funktionals J

h\left( \varepsilon \right): = J\left( {{y_\varepsilon }} \right) = \int_{{t_0}}^{b\left( \varepsilon \right)} {L\left( {t,{y_\varepsilon }\left( t \right),{{\dot y}_\varepsilon }\left( t \right)} \right)dt}

und wissen, dass die Funktion h für \varepsilon = 0 ein Minimum annimmt. Notwendig muss also {h^\prime }\left( 0 \right) = 0 gelten, wobei {h^\prime } die Ableitung von h nach \varepsilon bezeichne. Ob h tatsächlich differenzierbar ist, müsste eigentlich erst geklärt werden, wir unterstellen das hier einfach.

Es ist also

{h^\prime }\left( \varepsilon \right) = \frac{d}{{d\varepsilon }}J\left( {{y_\varepsilon }} \right) = {\left. {\frac{d}{{d\varepsilon }}\int_{{t_0}}^{b\left( \varepsilon \right)} {L\left( {t,\hat y+\varepsilon v,\dot \hat y+\varepsilon \dot v} \right)dt} } \right|_{\varepsilon = 0}}

Um {h^\prime } auszurechnen, brauchen wir die sogenannte Leibniz-Regel.

Satz: Leibniz-Regel

\frac{d}{{dx}}\int_{p\left( x \right)}^{q\left( x \right)} {f\left( {x,y} \right)dy} = \int_{p\left( x \right)}^{q\left( x \right)} {{f_x}\left( {x,y} \right)dy} +f\left( {x,q\left( x \right)} \right){q^\prime }\left( x \right)-f\left( {x,p\left( x \right)} \right){p^\prime }\left( x \right),\quad \quad \quad \left( {17} \right)

gilt für {C^1}-Funktionen p und q sowie für ein stetiges f, das partiell nach x differenzierbar ist.

Herleitung:

\frac{d}{{dx}}\int_{p\left( x \right)}^{q\left( x \right)} {f\left( {x,y} \right)dy}

F\left( {t,u,v} \right) = \int_u^v {f\left( {t,y} \right)dy} :\quad F:{\mathbb{R}^3} \to \mathbb{R}

\gamma \left( x \right) = \left( {\begin{array}{*{20}{c}} x \\ {p\left( x \right)} \\ {q\left( x \right)} \end{array}} \right):\mathbb{R} \to {\mathbb{R}^3}

F\left( {\gamma \left( x \right)} \right) = \int_{p\left( x \right)}^{q\left( x \right)} {f\left( {x,y} \right)dy}

\frac{d}{{dx}}F\left( {\gamma \left( x \right)} \right) = \nabla F \cdot \dot \gamma \left( x \right) = \left( {\begin{array}{*{20}{c}}{{F_t}} \\ {{F_u}} \\ {{F_v}} \end{array}} \right) \cdot \left( {\begin{array}{*{20}{c}} 1 \\ {{p^\prime }\left( x \right)} \\ {{q^\prime }\left( x \right)} \end{array}} \right)

= \int_{p\left( x \right)}^{q\left( x \right)} {{f_x}\left( {x,y} \right)dy} \cdot 1-f\left( {x,p\left( x \right)} \right) \cdot {p^\prime }\left( x \right)+f\left( {x,q\left( x \right)} \right) \cdot {q^\prime }\left( x \right)

Wir bekommen für unser Problem:

0 = {h^\prime }\left( 0 \right) = \int_{{t_0}}^{\hat b} {\left( {{L_y}\left( {t,\hat y,\dot \hat y} \right)v+{L_{\dot y}}\left( {t,\hat y,\dot \hat y} \right)\dot v} \right)dt} +L\left( {\hat b,\hat y\left( {\hat b} \right),\dot \hat y\left( {\hat b} \right)} \right){b^\prime }\left( 0 \right).

Differenzierbarkeit von b wird unterstellt. Zusätzlich wird die Identität in \varepsilon

f\left( {b\left( \varepsilon \right)} \right) = {y_\varepsilon }\left( {b\left( \varepsilon \right)} \right) = \hat y\left( {b\left( \varepsilon \right)} \right)+\varepsilon v\left( {b\left( \varepsilon \right)} \right)

in \varepsilon = 0 differenziert und das liefert

\hat y\left( {b\left( \varepsilon \right)} \right)+\varepsilon v\left( {b\left( \varepsilon \right)} \right) = f\left( {b\left( \varepsilon \right)} \right)\quad |\frac{d}{{d\varepsilon }}

\Rightarrow \quad {b^\prime }\left( 0 \right) = \frac{{v\left( {\hat b} \right)}}{{\dot f\left( {\hat b} \right)-\dot \hat y\left( {\hat b} \right)}}

Diese Beziehung setzt man in den obigen Ausdruck für {h^\prime }\left( 0 \right) ein und integriert dort den zweiten Term im Integral partiell (so wie in Abschnitt 3).

Wir erhalten auf diese Weise die Beziehung

{\left. {\frac{d}{{d\varepsilon }}\int_{{t_0}}^{b\left( \varepsilon \right)} {L\left( {t,\hat y+\varepsilon v,\dot \hat y+\varepsilon \dot v} \right)dt} } \right|_{\varepsilon = 0}}

= \int_{{t_0}}^{\hat b} {\left( {{L_y}+\frac{d}{{dt}}{L_{\dot y}}} \right)vdt} +\left[ {{L_{\dot y}}\left( {\hat b,\hat y\left( {\hat b} \right),\dot \hat y\left( {\hat b} \right)} \right)+\frac{{L\left( {\hat b,\hat y\left( {\hat b} \right),\dot \hat y\left( {\hat b} \right)} \right)}}{{\dot f\left( {\hat b} \right)-\dot \hat y\left( {\hat b} \right)}}} \right]v\left( {\hat b} \right) = 0

{\left. {\quad \Rightarrow \quad \int_{{t_0}}^{\hat b} {\left( {{L_y}-\frac{d}{{dt}}{L_{\dot y}}} \right)vdt} +\left[ {{L_{\dot y}}+\frac{L}{{\dot f-\dot \hat y}}} \right]v} \right|_{t = \hat b}} = 0

für das optimale \hat y und das zugehörige optimale \hat b = b\left( 0 \right). Wieder machen wir es wie oben und lassen erst einmal nur solche v zur Variation zu, für die v\left( {\hat b} \right) = 0. Daraus folgt, dass bereits der erste Term (das Integral) verschwinden muss, so dass wir wie üblich die Euler-Gleichung erhalten:

{L_y} = \frac{d}{{dt}}{L_{\dot y}}

Zweite Bedingung ist die Transversalitätsbedingung:

{L_{\dot y}}+\frac{L}{{\dot f-\dot \hat y}} = 0 mit t = \hat b\quad \quad \quad \quad \left( {18} \right)

Dazu kommt als drittes die linke Randbedingung:

y\left( {{t_0}} \right) = {y_0}

Vierte Bedingung ist:

y\left( b \right) = f\left( b \right)

Alle diese Bedingungen müssen durch die optimale Lösung erfüllt werden.

Beispiel 4.2: Kürzester Abstand von einer Kurve

Gegeben sei ein Punkt \left( {{t_0},{y_0}} \right) \in {\mathbb{R}^2} und eine Funktion f = f\left( t \right), die auf einem Intervall \left[ {\alpha ,\beta } \right] definiert sei mit {t_0} \in \left[ {\alpha ,\beta } \right]. Man bestimme den kürzesten Abstand des Punktes vom Graphen von der Funktion f.

Wir vereinfachen die Aufgabe und nehmen an, die kürzeste Verbindung sei Graph einer Funktion y, so wie in obiger Skizze. Der Abstand längs dieser Verbindungslinie ist dann durch die Bogenlänge gegeben und definiert das Funktional

J\left( y \right) = \int_{{t_0}}^b {\sqrt {1+\dot y{{\left( t \right)}^2}} dt}

für ein noch unbekanntes b. J ist zu minimieren unter den Nebenbedingungen

y\left( {{t_0}} \right) = {y_0},\quad b\left( b \right) = f\left( b \right)

Dasselbe Funktional hatten wir schon im Beispiel mit der kürzesten Strecke zwischen zwei Punkten verwendet, so dass wir schon wissen, dass alle Extremalen, die zusätzlich die Bedingung y\left( {{t_0}} \right) = {y_0} erfüllen, Geraden der Form

y\left( t \right) = a\left( {t-{t_0}} \right)+{y_0},\quad a \in \mathbb{R}

sind. Die Transversalitätsbedingung hat für die Lagrange-Funktion L dieses Beispiels das Aussehen

\frac{{\dot y}}{{\sqrt {1+{{\dot y}^2}} }}+\frac{{\sqrt {1+{{\dot y}^2}} }}{{\dot f-\dot y}} = 0\quad in\:\:t = b

und das bedeutet: \dot y\left( b \right) \cdot \dot f\left( b \right) = -1. Wir bekommen als Kandidaten für optimale Lösungen also Geradenstücke, die senkrecht auf den Graphen von f treffen: a = -\frac{1}{{f\left( b \right)}}.

Konkretes Beispiel für eine Funktion:

f\left( t \right) = {t^2},\quad \quad \left( {{t_0},{y_0}} \right) = \left( {0,1} \right)

Bekannt:

y\left( t \right) = a \cdot t+1

Transversalitätsbedingung:

\dot y\left( b \right) \cdot \dot f\left( b \right) = 1,\quad \quad \dot f\left( t \right) = 2t,\quad \dot y\left( t \right) = a

a \cdot 2b = -1\quad \Rightarrow \quad a = -\frac{1}{{2b}}

\Rightarrow \quad y\left( t \right) = -\frac{t}{{2b}}+1

Nun müssen wir die Funktion f durch Wahl von b treffen:

y\left( b \right) = f\left( b \right)\quad \Rightarrow \quad -\frac{b}{{2b}}+1 = {b^2}\quad \Rightarrow \quad b = \pm \frac{1}{{\sqrt 2 }}

Wir können nun noch den tatsächlichen kürzesten Abstand bestimmen. Die Weglänge d beträgt

d = \sqrt {{b^2}+{{\left( {1-{b^2}} \right)}^2}} = d\left( b \right).

4.3 Bolza-Variationsaufgabe

Bisher lautete das zu minimierende Funktional

J\left( y \right) = \int_{{t_0}}^{{t_1}} {L\left( {t,y\left( t \right),\dot y\left( t \right)} \right)dt} \mathop = \limits^! \operatorname{Extr} ,\quad y \in D.

Dieses ändern wir nun ab und betrachten stattdessen

J\left( y \right): = G\left( {y\left( a \right)} \right)-H\left( {y\left( b \right)} \right)+\int_a^b {L\left( {t,y\left( t \right),\dot y\left( t \right)} \right)dt} \mathop = \limits^! \operatorname{Extr} \quad \quad \quad \quad \left( {19} \right)

Hier sind G,H:\mathbb{R} \to \mathbb{R} {C^1}-Funktionen, so dass die Funktionale g:y \mapsto G\left( {y\left( a \right)} \right) und h:y \mapsto H\left( {y\left( b \right)} \right) für y,v \in {C^2}\left[ {a,b} \right] Gâteaux-Ableitungen besitzen:

\delta g\left( {y,v} \right) = \mathop {\lim }\limits_{\tau \to 0} \frac{{g\left( {y+\tau v} \right)-g\left( y \right)}}{\tau } = \mathop {\lim }\limits_{\tau \to 0} \frac{{G\left( {y\left( a \right)+\tau v\left( a \right)} \right)-G\left( {y\left( a \right)} \right)}}{\tau } = {G^\prime }\left( {y\left( a \right)} \right)v\left( a \right)

und analog

\delta h\left( {y,v} \right) = {H^\prime }\left( {y\left( b \right)} \right)v\left( b \right).

(19) mit freien Randbedingungen y\left( a \right) und y\left( b \right) heißt Bolza-Aufgabe. Im Sonderfall L \equiv 0 spricht man auch von Mayer-Aufgabe.

Um die Bolza-Aufgabe zu lösen, gehen wir nach dem bekannten Schema vor: Wir setzen in einem angenommenen Optimum \hat y die Gâteaux-Ableitung gleich 0 und integrieren dann partiell:

0 = \delta J\left( {\hat y,v} \right) = \int_a^b {\left( {{L_y}v+{L_{\dot y}}\dot v} \right)dt} +{G^\prime }\left( {\hat y\left( a \right)} \right)v\left( a \right)-{H^\prime }\left( {\hat y\left( b \right)} \right)v\left( b \right)

= \int_a^b {\left( {{L_y}-\frac{d}{{dt}}{L_{\dot y}}} \right)vdt} +\left[ {{L_{\dot y}}v} \right]_a^b+{G^\prime }\left( {\hat y\left( a \right)} \right)v\left( a \right)-{H^\prime }\left( {\hat y\left( b \right)} \right)v\left( b \right)

Wenn wir zunächst wieder nur in Richtung von Funktionen v mit v\left( a \right) = 0 = v\left( b \right) variieren, bekommen wir wie gehabt die Euler-Gleichung. Variieren wir anschließend auch noch in Richtung von Funktionen mit v\left( a \right) = 0 und v\left( b \right) \ne 0 bzw. mit v\left( a \right) \ne 0 und v\left( b \right) = 0, so erhalten wir die natürlichen Randbedingungen

{L_{\dot y}}\left( {a,y\left( a \right),\dot y\left( a \right)} \right) = {G^\prime }\left( {y\left( a \right)} \right)

{L_{\dot y}}\left( {b,y\left( b \right),\dot y\left( b \right)} \right) = {H^\prime }\left( {y\left( b \right)} \right)\quad \quad \quad \quad \left( {20} \right)

4.4 Integranden mit höheren Ableitungen

Gegenüber dem Grundproblem

J\left( y \right) = \int_{{t_0}}^{{t_1}} {L\left( {t,y\left( t \right),\dot y\left( t \right)} \right)dt} \mathop = \limits^! \operatorname{Extr} ,\quad y \in D

fassen wir nun eine Erweiterung ins Auge, bei der auch höhere Ableitungen der gesuchten Funktion y auftreten dürfen:

J\left( y \right): = \int_a^b {L\left( {t,y\left( t \right),\dot y\left( t \right), \ldots ,{y^{\left( n \right)}}\left( t \right)} \right)dt} \mathop = \limits^! \operatorname{Extr} \quad \quad \quad \quad \left( {21} \right)

Dabei lassen wir uns vorerst noch offen, ob die Werte {y^{\left( k \right)}}\left( a \right) und {y^{\left( k \right)}}\left( b \right) für k = 0,1, \ldots ,n-1 frei oder vorgegeben sein sollen.

Um Schreibarbeit zu sparen, beschränken wir uns auf den Fall n = 2 (zweite Ableitung tritt auf, aber keine höheren), bei dem die Vorgehensweise völlig klar wird. Erneut nehmen wir an, wir hätten ein optimales \hat y schon gefunden und variieren in Richtung von Funktionen v. So erhalten wir Kandidaten {y_\varepsilon }\left( t \right) = \hat y\left( t \right)+\varepsilon v\left( t \right) und bekommen für diese die Bedingung

{\left. {\frac{d}{{d\varepsilon }}\int_a^b {L\left( {t,\hat y+\varepsilon v\left( t \right),\dot \hat y+\varepsilon \dot v\left( t \right),\ddot{\hat{y}}+\varepsilon \ddot v\left( t \right)} \right)dt} } \right|_{\varepsilon = 0}} = 0

Differentiation unter dem Integralzeichen und (zweimalige) partielle Integration liefern

0 = \delta J\left( {\hat y,v} \right) = \int_a^b {\left( {{L_y}v+{L_{\dot y}}\dot v+{L_{\ddot y}}\ddot v} \right)dt}

= \int_a^b {\left( {{L_y}-\frac{d}{{dt}}{L_{\dot y}}+\frac{{{d^2}}}{{d{t^2}}}{L_{\ddot y}}} \right)vdt} +\left[ {v{L_{\dot y}}+\dot v{L_{\ddot y}}-v\frac{d}{{dt}}{L_{\ddot y}}} \right]_a^b

Die Rechnung ist sicher gerechtfertigt, wenn man von L und \hat y {C^3}-Stetigkeit annimmt.

Variiert man nun über alle {C^2}-Funktionen mit v\left( a \right) = \dot v\left( a \right) = 0 und v\left( b \right) = \dot v\left( b \right) = 0, so folgt die Eulergleichung

{L_y}-\frac{d}{{dt}}{L_{\dot y}}+\frac{{{d^2}}}{{d{t^2}}}{L_{\ddot y}} = 0\quad \quad \quad \quad \left( {22} \right)

Sie entspricht Gleichung (8) in Satz 3.6 für das Problem (21) mit festen Randwerten

y\left( a \right),\:\:\dot y\left( a \right),\:\:y\left( b \right),\:\:\dot y\left( b \right).

Lässt man Randwerte frei, kommen aus dem zweiten Term von \delta J\left( {\hat y,v} \right) noch zusätzliche Bedingungen hinzu. Zur Illustration folgt ein Beispiel.

Beispiel 4.3: Balkenbiegung

balkenbiegung-variationsrechnung

Ein zwischen x = 0 und x = 1 eingespannter Balken wird für 0 < x < 1 durch eine Last q\left( x \right) um einen Wert y\left( x \right) ausgelenkt (y ist die Biegelinie). Die Biegesteifigkeit betrage EI\left( x \right). Durch die feste Einspannung ergeben sich feste Randbedingungen

y\left( 0 \right) = {y^\prime }\left( 0 \right) = y\left( 1 \right) = {y^\prime }\left( 1 \right) = 0.

Hier benutzen wir x statt t, um die unabhängige Variable zu bezeichnen, die eine Ortsvariable ist. Entsprechend bezeichnen wir Ableitungen der gesuchten Funktion y mit {y^\prime } statt mit \dot y.

Nähert man die Krümmung des Balkens durch {y^{\prime \prime }}\left( x \right) an, so ergibt sich für die Formänderungsarbeit

W\left( y \right) = \int\limits_0^1 {\left( {\frac{1}{2}EI\left( x \right){y^{\prime \prime }}{{\left( x \right)}^2}+y\left( x \right)q\left( x \right)} \right)dx}.

Aus dem physikalischen Prinzip der minimalen Formänderungsarbeit schließen wir, dass im Gleichgewicht W\left( y \right) minimal sein muss. Gemäß (22) lautet die zugehörige Euler-Gleichung

{\left( {EI\left( x \right){y^{\prime \prime }}\left( x \right)} \right)^{\prime \prime }}+q\left( x \right) = 0.

Diese ist bekannt als Differentialgleichung der Balkenbiegung.

4.5 Extremalkurven im Rn

Die Variationsaufgabe (A) lässt sich ohne Weiteres auf Kurven im {\mathbb{R}^n} übertragen. Sei dazu

\vec x:\left[ {a,b} \right] \to {\mathbb{R}^n},\quad \vec x\left( t \right) = \left( {{x_1}\left( t \right), \ldots ,{x_n}\left( t \right)} \right)

eine Kurve im {\mathbb{R}^n} mit Ableitung

\dot \vec x\left( t \right) = \left( {{{\dot x}_1}\left( t \right), \ldots ,{{\dot x}_n}\left( t \right)} \right).

Entsprechend betrachten wir folgendes Problem.

Aufgabe (B): Variationsaufgabe im {\mathbb{R}^n}

Es seien \left( {a,{{\vec y}^0}} \right),\left( {b,{{\vec y}^1}} \right) \in \mathbb{R} \times {\mathbb{R}^n} mit a < b und

D: = \left\{ {\vec x:\left[ {a,b} \right] \to {\mathbb{R}^n}:\quad \vec x \in {C^1},\:\:\vec x\left( a \right) = {{\vec y}^0},\:\:\vec x\left( b \right) = {{\vec y}^1}} \right\}.

Die Funktion L = L\left( {t,\vec p,\vec q} \right):\left[ {a,b} \right] \times {\mathbb{R}^n} \times {\mathbb{R}^n} \to \mathbb{R} sei stetig und bezüglich der letzten beiden Komponenten stetig partiell differenzierbar. Dann ist das folgende Problem zu lösen:

J\left( {\vec x} \right): = \int\limits_a^b {L\left( {t,\vec x\left( t \right),\dot \vec x\left( t \right)} \right)dt} \mathop = \limits^! \operatorname{Extr} .\quad \vec x \in D.\quad \quad \quad \quad \left( {23} \right)

Die Herangehensweise bleibt gleich der bei Variationsaufgabe (A). Wir nehmen an, wir hätten bereits eine Lösung \hat \vec x bestimmt und betrachten nun Variationen

{\vec x^i}\left( t \right) = \left( {{{\hat x}_1}\left( t \right), \ldots ,{{\hat x}_n}\left( t \right)} \right)+\varepsilon \left( {0, \ldots ,0,{v_i}\left( t \right),0, \ldots ,0} \right),\quad i = 1, \ldots n,

wobei {v_i} “zulässig” sein muss. Zulässig bedeutet im Fall der Aufgabe (B): {C^1}-Funktionen mit {v_i}\left( a \right) = 0 = {v_i}\left( b \right). Betrachtet man in Erweiterung von (B) freie Randwerte, dürfen auch die entsprechenden {v_i} dort beliebige Werte annehmen. Da f in \hat \vec x ein Minimum annimmt, muss die Gâteaux-Ableitung von f im Punkt \hat \vec x in Richtung aller obigen \left( {0, \ldots ,0,{v_i},0, \ldots ,0} \right),\quad i = 1, \ldots ,n verschwinden. Das führt auf

\int\limits_a^b {\left( {{L_{{x_i}}}{v_i}+{L_{{{\dot x}_i}}}{{\dot v}_i}} \right)dt} = 0,\quad i = 1, \ldots ,n.

Wenn man pauschal sogar {C^2}-Differenzierbarkeit voraussetzt, darf man partiell integrieren und erhält die Euler-Gleichungen

\frac{d}{{dt}}{L_{{{\dot x}_i}}} = {L_{{x_i}}},\quad i = 1, \ldots ,n.\quad \quad \quad \quad \left( {24} \right)

Ohne die Voraussetzung der {C^2}-Stetigkeit ist der Beweis von (24) etwas technischer und beruht auf dem Lemma von Dubois-Reymond.

Das System gewöhnlicher Differentialgleichungen (24) spielt eine bedeutende Rolle in der analytischen Mechanik beim sogenannten Hamiltonschen Prinzip. Man betrachtet dabei ein mechanisches System mit n Freiheitsgraden, dessen Zustand \vec q\left( t \right) = \left( {{q_1}\left( t \right), \ldots ,{q_n}\left( t \right)} \right) durch n “generalisierte Koordinaten” {q_i}\left( t \right) beschrieben wird. Diese Koordinaten sind nicht unbedingt Ortsvariablen. Es sei T\left( {t,\vec q,\dot \vec q} \right) die kinetische Energie und U\left( {t,\vec q} \right) die potentielle Energie des Systems.

Man bezeichnet die Differenz der beiden

L\left( {t,\vec q,\dot \vec q} \right): = T\left( {t,\vec q,\dot \vec q} \right)-U\left( {t,\vec q} \right)

als Lagrange-Funktion des Systems und

W\left( {\vec q} \right): = \int\limits_a^b {L\left( {t,\vec q\left( t \right),\dot \vec q\left( t \right)} \right)dt}

als Wirkung im Zeitintervall a \leq t \leq b. Das Hamilton‘sche Prinzip besagt nun, dass in konservativen Systemen (das sind solche, bei denen die Gesamtenergie erhalten bleibt) die Zustandsfunktion \vec q eine Extremale des Wirkungsintegrals W\left( {\vec q} \right) ist. Demnach genügt \vec q = \vec q\left( t \right) dem System (24) gewöhnlicher Differentialgleichungen, die in diesem Fall Lagrange‘sche Bewegungsgleichungen heißen.

Beispiel 4.4: kinetische und potentielle Energie in Matrixform

Es seien die kinetische und die potentielle Energie gegeben in der Form

T\left( {t,\vec q,\dot \vec q} \right) = \frac{1}{2}{\dot \vec q^T}A\dot \vec q,\quad U\left( {t,\vec q} \right) = {U_0}\left( {\vec q} \right),

mit t \in \left[ {a,b} \right] und einer symmetrischen Matrix A \in {\mathbb{R}^{n \times n}}. Dann lauten die Euler-Gleichungen

\frac{d}{{dt}}{L_{{{\dot q}_x}}} = {L_{{q_x}}}, oder in vektorieller Form geschrieben:

{L_{\vec q}} = \frac{d}{{dt}}{L_{\dot \vec q}}\quad \Leftrightarrow \quad -\operatorname{grad} {U_0}\left( {\vec q} \right) = \frac{d}{{dt}}A\dot \vec q = A\ddot \vec q.\quad \quad \quad \quad \left( {25} \right)

Dies nennt man auch die Lagrange’schen Bewegungsgleichungen. Erfüllt \vec q die Gleichungen (25), dann bleibt “längs” \vec q die gesamte Energie des Systems konstant:

T+U = \operatorname{const} \quad \Leftrightarrow \quad \frac{d}{{dt}}\left( {T+U} \right) = 0.

Um dies zu sehen, rechnet man nach

\frac{d}{{dt}}U = \left\langle {\operatorname{grad} {U_0}\left( {\vec q} \right),\dot \vec q} \right\rangle ,\quad \frac{d}{{dt}}T = \left\langle {A\dot \vec q,\ddot \vec q} \right\rangle = \left\langle {A\ddot \vec q,\dot \vec q} \right\rangle,

letzteres wegen der Symmetrie von A.

Beispiel 4.5: Konkretes Beispiel mit Feder-Masse-Schwinger

Wir betrachten ein Feder-Masse-System mit zwei gleichen Massen und drei gleichen Federn wie in der folgenden Skizze.

feder-masse-system-schwingung-auslenkung-energie

Gesucht werden die Auslenkungen x\left( t \right) und y\left( t \right) aus der Ruhelage. Die kinetische Energie des Systems zur Zeit t beträgt

T\left( {\dot \vec q} \right) = \frac{1}{2}m\left( {{{\dot x}^2}+{{\dot y}^2}} \right) = \frac{1}{2}\left( {\dot x,\dot y} \right)\underbrace {\left( {\begin{array}{*{20}{c}} m&0 \\ 0&m \end{array}} \right)}_A\underbrace {\left( {\begin{array}{*{20}{c}}{\dot x} \\ {\dot y} \end{array}} \right)}_{\dot \vec q}

und die potentielle Energie beträgt

U\left( {\vec q} \right) = \frac{1}{2}kx{\left( t \right)^2}+\frac{1}{2}k{\left( {y\left( t \right)-x\left( t \right)} \right)^2}+\frac{1}{2}ky{\left( t \right)^2}\quad \Rightarrow \quad \operatorname{grad} U = k \cdot \left( {\begin{array}{*{20}{c}}{2x-y} \\ {2y-x} \end{array}} \right).

Demnach genügen die Funktionen x und y dem DGL-System

m\ddot x+2kx-ky = 0

m\ddot y+2ky-kx = 0

Bei bekanntem Anfangszustand \vec q\left( {{t_0}} \right) des Systems lässt sich der Zustand zu einem Zeitpunkt t \geq {t_0} berechnen.

4.6 Bemerkung zum Hamilton-Prinzip

Die gesamte Energie eines Systems als Summe von kinetischer und potentieller Energie hat eine anschauliche Bedeutung, aber es ist nicht ohne weiteres klar, welche Bedeutung die Wirkung haben soll, die über die Differenz aus kinetischer und potentieller Energie definiert ist. Tatsächlich gibt es in der Physik unterschiedliche Definitionen der Wirkung und verschiedene “Prinzipien der minimalen Wirkung”. Eines der ersten hat Maupertuis in seinem Aufsatz “Accord de différentes lois de la nature qui avaient jusqu’ici paru incompatibles” gegeben. Dasselbe Prinzip hat auch Euler formuliert. Euler untersucht die Flugbahn S eines Projektils der Masse m von \vec a nach \vec b wie in der folgenden Skizze.

hamilton-prinzip-kurve-bogenlange-minimale-wirkung

Die Position zur Zeit t ist \vec x\left( t \right) und der Geschwindigkeitsvektor ist \vec v\left( t \right) = \dot \vec x\left( t \right). Euler betrachtet den Impuls (Schwung, Wucht) des Projektils, der als m\vec v\left( t \right) definiert ist und postuliert, dass es sich auf jener Bahn bewegen wird, längs der die als Kurvenintegral definierte Wirkung

W = \int\limits_S {m\vec vds} : = \int\limits_{{t_0}}^{{t_1}} {m\vec v\left( t \right)\dot \vec x\left( t \right)dt} = \int\limits_{{t_0}}^{{t_1}} {m\left\| {\vec v\left( t \right)} \right\|_2^2dt}

minimiert wird. Hier haben wir die Definition des Kurvenintegrals herangezogen (die Kurve wird durch \vec x parametrisiert) und unterstellt, dass \vec x\left( {{t_0}} \right) = \vec a und \vec x\left( {{t_1}} \right) = \vec b. Mit der Vorstellung eines Integrals als Grenzfall einer Summe ist hier die Wirkung als “aufsummierter Impuls” längs des Wegs definiert und die Aussage, dass diese Wirkung minimal sein soll, hat durchaus anschauliche Bedeutung. Der Integrand ist gerade 2T, die doppelte kinetische Energie und in dieser Form hat Maupertuis sein Prinzip postuliert.

Wenn man nun voraussetzt, dass die Gesamtenergie eines Systems als Summe von potentieller und kinetischer Energie erhalten bleibt, also E = T+U = \operatorname{const}, dann muss die Minimierung von

\int\limits_{{t_0}}^{{t_1}} {2T\left( t \right)dt}

und

\int\limits_{{t_0}}^{{t_1}} {2T\left( t \right)-E\left( t \right)dt}

auf das Gleiche hinauslaufen. Es ist aber

2T-E = 2T-\left( {T+U} \right) = T-U = L

gerade die Lagrange-Funktion. Über die Lagrange-Funktion angegeben behält das Hamilton-Prinzip auch außerhalb der Newtonschen Mechanik seine Gültigkeit.