7 – Ausblick auf die Theorie der optimalen Steuerung

 

“Das ist nicht nur mathematische Selbstbefriedigung!”

In diesem Abschnitt folgen wir den Ausführungen in [Ko], Abschnitt 5.3.

Wir betrachten ein System, dessen Zustand \vec x\left( t \right) \in {\mathbb{R}^n} in der Zeit veränderlich ist. Die Änderung sei mathematisch beschreibbar durch ein System von Differentialgleichungen

\dot \vec x\left( t \right) = \varphi \left( {\vec x\left( t \right),\vec u\left( t \right),t} \right),\quad \varphi :{\mathbb{R}^n} \times {\mathbb{R}^m} \times \left[ {a,b} \right] \to {\mathbb{R}^n} stetig. \left( {35} \right)

Das Besondere an (35) im Gegensatz zur üblichen Betrachtung von gewöhnlichen Differentialgleichungen ist das Auftreten einer Funktion \vec u\left( t \right) als Argument der rechten Seite. Die Funktion \vec u\left( t \right) heißt Steuerung (control function) und es wird darauf ankommen, sie in einer zu spezifizierenden Weise “günstig” so zu wählen, dass das System einen bestimmten Zustand erreicht.

Steuerungen werden zumeist als stückweise stetige Funktionen angesetzt, können also Sprünge enthalten. Das ist sinnvoll: Zum Beispiel kann eine Steuerung modellieren, welche Kraft in einem System aufzuwenden ist – das plötzliche Einsetzen einer Kraft entspricht dann einem Sprung in \vec u. Gleichzeitig können Steuerungen beschränkt sein durch Forderungen der Form

\vec u\left( t \right) \in U\left( t \right) \leq {\mathbb{R}^m}\forall t \in \left[ {a,b} \right].

Wir verlangen formal

\vec u \in Q: = \left\{ {\vec v \in {C_{rs}}{{\left[ {a,b} \right]}^m}:\vec v\left( t \right) \in U\left( t \right),\:\:t \in \left[ {a,b} \right]} \right\},\quad \quad \quad \quad \left( {36} \right)

wobei {C_{rs}}{\left[ {a,b} \right]^m} die stückweise stetigen Kurven \vec v:\left[ {a,b} \right] \to {\mathbb{R}^m} bezeichne, die rechtsseitig stetig sind. Das bedeutet, dass es eine sogenannte Zerlegung \left\{ {a = :{t_0} < {t_1} < \ldots < {t_n}: = b} \right\} so gibt, dass {\left. {\vec v} \right|_{\left[ {{t_i},{t_{i+1}}} \right)}} stetig ist für i = 0, \ldots ,n-1 und außerdem auf \left[ {{t_i},{t_{i+1}}} \right] stetig fortsetzbar ist. Im Punkt b muss linksseitige Stetigkeit gegeben sein. Die folgende Skizze zeigt eine Funktion dieser Klasse:

zustandsfunktion-stetig-fortsetzbar-optimal-variation

Betreffend die Zustandsfunktion \vec x in (35) fordert man in der Regel

\vec x \in C_{rs}^1{\left[ {a,b} \right]^n}.

Das sind Kurven \vec x:\left[ {a,b} \right] \to {\mathbb{R}^n}, die stetig und stückweise stetig differenzierbar sind. Es soll wieder eine Zerlegung der obigen Art geben, so dass die Ableitung auf jedem Intervall \left[ {{t_i},{t_{i+1}}} \right) stetig und auf \left[ {{t_i},{t_{i+1}}} \right] stetig fortsetzbar ist. Zustandsfunktionen können damit Knicke aufweisen – die DGL (35) ist dann in solchen Punkten im Sinn der rechtsseitigen (im Punkt b: linksseitigen) Ableitung zu verstehen. Weiter gehende Einschränkungen für \vec x fassen wir zunächst ganz abstrakt in der Form

\vec x \in K \subset C_{rs}^1{\left[ {a,b} \right]^n}\quad \quad \quad \quad \left( {37} \right)

wobei K zum Beispiel wie folgt aussehen könnte:

K = \left\{ {\vec x \in C_{rs}^1{{\left[ {a,b} \right]}^n}:\vec x\left( a \right) = \vec a,\vec x\left( b \right) = \vec b} \right\}.

In diesem Beispiel wären alle Kurven \vec x von Interesse, die einen vorgegebenen Anfangs- und Endzustand haben.

Zuletzt geben wir uns noch eine stetige Funktion

l:{\mathbb{R}^n} \times {\mathbb{R}^m} \times \left[ {a,b} \right] \to \mathbb{R}

vor und definieren das “Kosten-Funktional”

f:K \times Q \to \mathbb{R},\quad \left( {x,u} \right) \mapsto f\left( {\vec x,\vec u} \right): = \int_a^b {l\left( {\vec x\left( t \right),\vec u\left( t \right),t} \right)dt} .\quad \quad \quad \quad \left( {38} \right)

Definition: Optimalsteuerung

Das Problem der Optimalsteuerung lautet nun

f\left( {\vec x,\vec u} \right)\mathop = \limits^! \min ,\quad \left( {\vec x,\vec u} \right) \in K \times Q,\quad \dot \vec x = \varphi \left( {\vec x,\vec u,t} \right).\quad \quad \quad \quad \left( {39} \right)

Durch die Minimierung kommt zum Ausdruck, dass wir eine besonders günstige Steuerung und Zustandsfunktion suchen, die allen Nebenbedingungen der Form \vec u \in Q und \vec x \in K gerecht werden.

Beispiel 7.1: Eindimensionale Raketensteuerung

Ein Schienenfahrzeug bewegt sich im Zeitintervall \left[ {0,\tau } \right] gemäß dem zweiten Newtonschen Gesetz

\ddot z\left( t \right) = u\left( t \right),\quad t \in \left[ {0,\tau } \right].

Dabei ist z\left( t \right) die bis zum Zeitpunkt t zurückgelegte Strecke und u\left( t \right) die zum Zeitpunkt t aufgewendete Kraft. Die obige Gleichung ist natürlich eine Vereinfachung: Weglassen von Konstanten und fehlende Berücksichtigung von Reibung, Widerstand und anderen Feinheiten.

Ziel ist es, das Schienenfahrzeug zur Zeit t = \tau im Punkt z\left( \tau \right) = \beta zum Stehen zu bringen und dabei so wenig Kraft wie möglich aufzuwenden. Im Endpunkt soll ebenso wie im Zeitpunkt t = 0 die Geschwindigkeit null sein: \dot z\left( 0 \right) = 0 = \dot z\left( \tau \right)

Es ist zu berücksichtigen, dass keine beliebig großen Kräfte eingesetzt werden können, vielmehr haben wir eine Beschränkung der Form \left| {u\left( t \right)} \right| \leq 1.

Jetzt bringen wir dieses Problem in die Form der Gleichungen (35)-(39). Zunächst wird die DGL 2. Ordnung in ein System 1. Ordnung verwandelt: Dazu setzen wir \vec x = \left( {{x_1},{x_2}} \right) = \left( {z,\dot z} \right) mit

{\dot x_1} = {x_2},\quad {\dot x_2} = u.

Die Menge der zugelassenen Steuerungen ist

Q: = \left\{ {u \in {C_{rs}}\left[ {0,\tau } \right]:-1 \leq u\left( t \right) \leq 1\quad \forall t \in \left[ {0,\tau } \right]} \right\},

die Menge der erlaubten Zustände ist

K: = \left\{ {\vec x \in C_{rs}^1{{\left[ {0,\tau } \right]}^2},\vec x\left( 0 \right) = \left( {0,0} \right),\vec x\left( \tau \right) = \left( {\beta ,0} \right)} \right\}

und das zu minimierende Funktional lautet

f\left( {\vec x,u} \right) = \int_0^\tau {\left| {u\left( t \right)} \right|dt}.

Beispiel 7.2: Variationsaufgabe als Problem der Optimalsteuerung

Die Variationsaufgabe (A) etwas verallgemeinert bestand darin, das Funktional

\int_a^b {L\left( {t,y\left( t \right),\dot y\left( t \right)} \right)dt}

auf

S: = \left\{ {y \in C_{rs}^1\left[ {a,b} \right]:y\left( a \right) = \alpha ,\:\:y\left( b \right) = \beta } \right\}

zu minimieren. Mit der Umbenennung

u\left( t \right): = \dot y\left( t \right)

wird daraus das Problem der Optimalsteuerung,

\int_a^b {L\left( {t,y\left( t \right),u\left( t \right)} \right)dt}

zu minimieren unter den Nebenbedingungen

\dot y\left( t \right) = u\left( t \right),\quad y\left( a \right) = \alpha ,\quad y\left( b \right) = \beta ,\quad y \in C_{rs}^1\left[ {a,b} \right],\quad u \in {C_{rs}}\left[ {a,b} \right].

In obigem Beispiel 7.2 haben wir das “Standard-Variationsproblem” als Problem der Optimalsteuerung interpretiert. Umgekehrt lässt sich das in (35)-(39) formulierte Problem der Optimalsteuerung auch unter dem Blickwinkel der Variationsrechnung betrachten: Dazu fassen wir gedanklich \vec x und \vec u zu einer gesuchten Kurve t \mapsto \left( {\vec x\left( t \right),\vec u\left( t \right)} \right) zusammen, für die das Funktional (38) zu minimieren ist. Die Differentialgleichung (35) stellt eine Nebenbedingung für \left( {\vec x,\vec u} \right) im Sinn von Variationsaufgabe (D) aus Abschnitt 6 dar.

So wie wir es schon bei Variationsaufgabe (D) getan haben, können wir das allgemeine Lagrange-Lemma 6.4 heranziehen, um einen Ansatz für eine Lösung zu machen. Konkret tun wir dies durch einen Ansatz mit variablen Lagrange-Multiplikatoren wie in Beispiel 6.6:

Wir setzen eine Kurve \lambda \in {C_{rs}}{\left[ {a,b} \right]^n}, also \lambda :\left[ {a,b} \right] \to {\mathbb{R}^n}, als Multiplikatorfunktion an und definieren damit eine Ergänzungsfunktion \Lambda :K \times Q \to \mathbb{R} durch

\begin{array}{*{20}{c}}{\Lambda \left( {\vec x,\vec u} \right): = \int_a^b {\lambda {{\left( t \right)}^T}\left( {\dot \vec x\left( t \right)-\varphi \left( {\vec x\left( t \right),\vec u\left( t \right),t} \right)} \right)dt} } \\ { = \sum\limits_{i = 1}^n {\int_a^b {{\lambda _i}\left( t \right)\left( {{{\dot x}_i}\left( t \right)-{\varphi _i}\left( {\vec x\left( t \right),\vec u\left( t \right),t} \right)} \right)dt} } } \end{array}\quad \quad \quad \quad \left( {40} \right)

Ersichtlich hat \Lambda die Eigenschaft \Lambda \left( {\vec x,\vec u} \right) = 0 für alle \left( {\vec x,\vec u} \right), die das DGL-System (35) erfüllen. Gemäß Lemma 6.4 kommt es jetzt darauf an, \lambda so zu wählen, dass ein globaler Minimierer \left( {\hat \vec x,\hat \vec u} \right) von

\begin{array}{*{20}{c}}{{f_\lambda }\left( {\vec x,\vec u} \right): = f\left( {\vec x,\vec u} \right)+\Lambda \left( {\vec x,\vec u} \right)} \\ { = \int_a^b {l\left( {\vec x\left( t \right),\vec u\left( t \right),t} \right)+\lambda {{\left( t \right)}^T}\left( {\dot \vec x\left( t \right)-\varphi \left( {\vec x\left( t \right),\vec u\left( t \right),t} \right)} \right)dt} } \end{array}\quad \quad \quad \quad \left( {41} \right)

in K \times Q liegt – dann ist er auch die gesuchte Lösung von (39), die alle Nebenbedingungen (35)-(37) erfüllt.

Wir stellen nun drei notwendige Bedingungen auf, die ein Minimierer \left( {\hat \vec x,\hat \vec u} \right) erfüllen muss. Dazu ist es günstig, für den Integranden von (41) einen Bezeichner einzuführen. Wir definieren dazu die Funktion L:{\mathbb{R}^n} \times {\mathbb{R}^n} \times {\mathbb{R}^m} \times {\mathbb{R}^n} \times \left[ {a,b} \right] \to \mathbb{R} durch

L\left( {\vec x,\dot \vec x,\vec u,\lambda ,t} \right): = l\left( {\vec x,\vec u,t} \right)+{\lambda ^T}\left( {\dot \vec x-\varphi \left( {\vec x,\vec u,t} \right)} \right),\quad \quad \quad \quad \left( {42} \right)

wobei wir das Argument t von \vec x, \dot \vec x, \vec u und \lambda weggelassen haben.

Angenommen nun, \left( {\hat \vec x,\hat \vec u} \right) sei ein Minimierer von (41) in K \times Q. Die notwendige 1. Bedingung, die er erfüllen muss, ist (35), also

\dot \vec x\left( t \right) = \varphi \left( {\vec x\left( t \right),\vec u\left( t \right),t} \right),\quad t \in \left[ {a,b} \right].

Die 2. Bedingung betrifft die Wahl von \vec u. Es gilt der folgende Satz.

Satz 7.3: Minimum der Lagrange-Funktion

Sei \lambda \in {C_{rs}}{\left[ {a,b} \right]^n} und \vec x \in K fest und \hat \vec u \in Q ein Minimierer von {f_\lambda }\left( {\vec x, \cdot } \right).

Dann gilt in allen Punkten t \in \left[ {a,b} \right]:

L\left( {\vec x\left( t \right),\dot \vec x\left( t \right),\hat \vec u\left( t \right),\lambda \left( t \right),t} \right) = \mathop {\min }\limits_{\vec u \in Q} L\left( {\vec x\left( t \right),\dot \vec x\left( t \right),\vec u\left( t \right),\lambda \left( t \right),t} \right).\quad  \left( {43} \right)

Der Satz besagt, dass die optimale Steuerung punktweise den Integranden (42) des Kostenfunktionals (41) minimieren muss. Diese Aussage beweisen wir hier nicht, können sie uns aber folgendermaßen plausibel machen: Gäbe es ein \hat t, wo (43) verletzt wäre, dann müsste es aufgrund der rechtsseitigen Stetigkeit ein \varepsilon > 0 und ein \hat \vec u geben mit

L\left( {\vec x\left( t \right),\dot \vec x\left( t \right),\tilde \vec u\left( t \right),\lambda \left( t \right),t} \right) < L\left( {\vec x\left( t \right),\dot \vec x\left( t \right),\hat \vec u\left( t \right),\lambda \left( t \right),t} \right),\quad t \in \left[ {\tilde t,\tilde t+\varepsilon } \right).

(Ausnahme: \tilde t = b. In diesem Fall wäre \left( {b-\varepsilon ,b} \right] zu betrachten und die linksseitige Stetigkeit auszunutzen). Es ließe sich dann eine neue, stückweise stetige Steuerung konstruieren:

\bar \vec u\left( t \right) = \left\{ {\begin{array}{*{20}{c}}{\tilde \vec u\left( t \right)\quad t \in \left[ {\tilde t,\tilde t+\varepsilon } \right)} \\ {\hat \vec u\left( t \right)\quad t \in \left[ {a,b} \right]\backslash \left[ {\tilde t,\tilde t+\varepsilon } \right)} \end{array}} \right.

Durch diese lokal geänderte Steuerung ließen sich die Gesamtkosten senken, was der Minimaliätsannahme von \hat \vec u widerspräche.


Bemerkung
: Eine ähnliche Aussage wie Satz 7.3 ist das Optimalitätsprinzip: Eine optimale Steuerung auf \left[ {a,b} \right] muss auch für jedes Teilintervall \left[ {c,d} \right] \subset \left[ {a,b} \right] optimal sein.

Die Lagrange-Funktion L in (42) lässt sich auch in der Form

L\left( {\vec x,\dot \vec x,\lambda ,t} \right) = {\lambda ^T}\dot \vec x-H\left( {\vec x,\vec u,\lambda ,t} \right)

schreiben mit der sogenannten Hamiltonschen Funktion (manchmal auch Pontrjaginschen Funktion genannt)

H\left( {\vec x,\vec u,\lambda ,t} \right): = {\lambda ^T}\varphi \left( {\vec x,\vec u,t} \right)-l\left( {\vec x,\vec u,t} \right).\quad \quad \quad \quad \left( {44} \right)

Da die Minimierung in (43) bezüglich \vec u stattfindet und somit unabhängig ist vom Term {\lambda ^T}\dot \vec x, kann man in Satz 7.3 (43) gleichwertig ersetzen durch

H\left( {x\left( t \right),\hat \vec u\left( t \right),\lambda \left( t \right),t} \right) = \mathop {\max }\limits_{\vec u \in Q} H\left( {\vec x\left( t \right),\vec u\left( t \right),\lambda \left( t \right),t} \right)

In dieser Form spricht man von der Bestimmung von \hat \vec u nach dem Pontrjaginschen Maximumsprinzip.

Die 3. Bedingung betrifft \vec x. Der dabei einfachste Fall ist der, dass für \vec x Anfangs- und Endzustände vorgeschrieben sind, also

K = \left\{ {\vec x \in C_{rs}^1{{\left[ {a,b} \right]}^n}:\vec x\left( a \right) = \vec a,\vec x\left( b \right) = \vec b} \right\}.\quad \quad \quad \quad \left( {46} \right)

Wir haben dann folgenden Satz.

Satz 7.4: Euler-Gleichung

Sei \vec u \in {C_{rs}}{\left[ {a,b} \right]^m} und \lambda \in {C_{rs}}{\left[ {a,b} \right]^n}. Sei außerdem L stückweise stetig differenzierbar und \hat \vec x \in K mit K aus (46) ein Minimierer von {f_\lambda }\left( { \cdot ,\vec u} \right). Dann gilt für alle t \in \left[ {a,b} \right] die Euler-Gleichung

\frac{d}{{dt}}{L_{\dot \vec x}}\left( {\hat \vec x\left( t \right),\hat \dot \vec x\left( t \right),\vec u\left( t \right),\lambda \left( t \right),t} \right) = {L_{\vec x}}\left( {\hat \vec x\left( t \right),\hat \dot \vec x\left( t \right),\vec u\left( t \right),\lambda \left( t \right),t} \right),\quad  \left( {47} \right)

die an den Stellen ohne Differenzierbarkeit im Sinn der rechtsseitigen Ableitung zu verstehen ist.

Die Aussage dieses Satzes sind gerade wieder die Euler-Gleichungen, die wir schon bei Variationsaufgabe (A) bekommen haben, dort allerdings unter stärkeren Glattheitsforderungen an L und \vec x. Der Satz ergibt sich daraus, dass in seinem Kontext \vec u und \lambda nur die Rolle von fest gewählten Parametern spielen. Damit haben wir bezüglich \vec x gerade den Aufgabentyp (A) (bzw. (B)) vorliegen und wissen bereits, dass das Erfüllen der Euler-Gleichung notwendig ist. Für einen formalen Beweis siehe [Ko].

Bevor wir auf andere einschränkende Bedingungen für \vec x (d.h. andere Ausprägungen von K) zu sprechen kommen, illustrieren wir jetzt den praktischen Gebrauch, den man von obigen drei Bedingungen machen kann durch folgendes Beispiel.

Beispiel 7.5: Eindimensionale Raketensteuerung

Wir greifen das Beispiel 7.1 wieder auf. Zu minimieren war

f\left( {\vec x,u} \right) = \int_0^\tau {\left| {u\left( t \right)} \right|dt}

unter den Nebenbedingungen

{\dot x_1}\left( t \right) = {x_2}\left( t \right),\quad {\dot x_2}\left( t \right) = u\left( t \right),\quad \quad -1 \leq u\left( t \right) \leq 1,\quad t \in \left[ {0,\tau } \right]

sowie

\vec x\left( 0 \right) = \left( {0,0} \right),\quad \vec x\left( \tau \right) = \left( {\beta ,0} \right).

Wir versuchen, variable Lagrange-Multiplikatoren \lambda = \left( {{\lambda _1},{\lambda _2}} \right) zu finden, so dass die Lagrange-Funktion

L\left( {\vec x,\dot \vec x,u,\lambda ,t} \right) = \left| u \right|+{\lambda _1}{\dot x_1}-{\lambda _1}{x_2}+{\lambda _2}{\dot x_2}+{\lambda _2}u\quad \quad \quad \quad \left( {48} \right)

die Bedingungen (35), (43) und (47) erfüllt. Mit

{L_{\dot \vec x}} = \left( {\begin{array}{*{20}{c}}{{\lambda _1}} \\ {{\lambda _2}} \end{array}} \right) und {L_{\vec x}} = \left( {\begin{array}{*{20}{c}} 0 \\ {-{\lambda _1}} \end{array}} \right)

bekommen wir aus (47)

{\dot \lambda _1} = 0 und {\dot \lambda _2} = -{\lambda _1}.

Also ist mit zwei Konstanten C,D \in \mathbb{R}

{\lambda _1}\left( t \right) = C,\quad {\lambda _2}\left( t \right) = -Ct+D,\quad t \in \left[ {0,\tau } \right].\quad \quad \quad \quad \left( {49} \right)

Als nächstes nützen wir (43) aus: Die optimale Steuerung soll

u \mapsto \left| u \right|-{\lambda _2}\left( t \right)u,\quad -1 \leq u \leq 1

minimieren (wir haben alle Terme weggelassen, die nicht von u abhängen und deswegen bei der Minimierung keine Rolle spielen). Die optimale Steuerung \hat u hängt von {\lambda _2}\left( t \right) ab. Genauer erhalten wir

\hat u\left( t \right) = \left\{ {\begin{array}{*{20}{c}} 1&{falls}&{{\lambda _2}\left( t \right) > 1} \\ 0&{falls}&{\left| {{\lambda _2}\left( t \right)} \right| \leq 1} \\ {-1}&{falls}&{{\lambda _2}\left( t \right) < -1} \end{array}\quad \quad \quad \quad \left( {50} \right)} \right.

Da wir im Startpunkt erst einmal vorwärts kommen wollen, nehmen wir “vernünftigerweise” an, dass \hat u\left( 0 \right) > 0, was nach (50) nur möglich ist, wenn D > 1 ist. Da man nach einer positiven Beschleunigung irgendwann bremsen (negativ beschleunigen) muss, um wieder zum Stillstand zu kommen, sollte C > 0 sein, die Funktion {\lambda _2}\left( t \right) aus (49) ist deswegen eine affine, monoton fallende Funktion, die an der Stelle t = 0 einen Wert größer 1 und an der Stelle t = \tau einen Wert kleiner -1 haben sollte. Nach (50) sieht dann die optimale Steuerung \hat u\left( t \right) qualitativ so aus: Von t = 0 bis zu einem Zeitpunkt t = {t_1} wird die volle Anschubkraft eingesetzt. Dann wird bis zu einem Zeitpunkt t = {t_2} \geq {t_1} keine Kraft eingesetzt und ab t = {t_2} bis t = \tau mit voller Kraft gebremst.

Es bleiben wie Werte {t_1} und {t_2} zu bestimmen – sofern sie überhaupt existieren (andernfalls würden unsere Restriktionen eine Lösung des Steuerungsproblems ausschließen, was prinzipiell durchaus möglich ist). Zur Bestimmung von {t_1} und {t_2} gehen wir mit (50) in die Differentialgleichung (35).

  1. Für t \in \left[ {0,{t_1}} \right) ist \hat u\left( t \right) = 1, also {\dot x_2}\left( t \right) = 1. Mit der Anfangsgeschwindigkeit {x_2}\left( 0 \right) = 0 bekommt man {x_2}\left( t \right) = t und wegen der geforderten Stetigkeit auch {x_2}\left( {{t_1}} \right) = {t_1}. Aus {\dot x_1}\left( t \right) = {x_2}\left( t \right) und {x_1}\left( 0 \right) = 0 bekommt man {x_1}\left( t \right) = \frac{{{t^2}}}{2} und {x_1}\left( {{t_1}} \right) = \frac{{t_1^2}}{2}.
  2. Für t \in \left[ {{t_1},{t_2}} \right) ist {\dot x_2}\left( t \right) = 0, also {x_2}\left( t \right) = {t_1}. Mit {\dot x_1}\left( t \right) = {t_1} und dem Anfangswert {x_1}\left( {{t_1}} \right) = \frac{{t_1^2}}{2} erhält man {x_1}\left( t \right) = {t_1}t-\frac{{t_1^2}}{2}. Die Werte werden jeweils auch in t = {t_2} angenommen (Stetigkeit).
  3. Für t \in \left[ {{t_2},\tau } \right] ist {\dot x_2}\left( t \right) = -1 mit Anfangswert {x_2}\left( {{t_2}} \right) = {t_1}, also {x_2}\left( t \right) = -1+{t_1}+{t_2}. Mit {\dot x_1}\left( t \right) = {x_2}\left( t \right) und dem Anfangswert {x_1}\left( {{t_2}} \right) = {t_1}{t_2}-\frac{{t_1^2}}{2} folgt {x_1}\left( t \right) = -\frac{{{t^2}}}{2}+\left( {{t_1}+{t_2}} \right)t-\frac{{t_1^2+t_2^2}}{2}.

Diese Zustandsfunktion erfüllt die Forderung \vec x\left( 0 \right) = \left( {0,0} \right). Zusätzlich wird im Endpunkt gefordert \vec x\left( \tau \right) = \left( {\beta ,0} \right). Das führt uns einerseits auf die Gleichung {x_2}\left( \tau \right) = 0 oder

\tau = {t_1}+{t_2}\quad \quad \quad \quad \left( {51} \right)

und andererseits auf {x_1}\left( \tau \right) = \beta oder

\beta = -\frac{{{\tau ^2}}}{2}+\left( {{t_1}+{t_2}} \right)\tau -\frac{{t_1^2+t_2^2}}{2} = -\frac{{{\tau ^2}}}{2}+\left( {{t_1}+{t_2}} \right)t-\frac{{{{\left( {{t_1}+{t_2}} \right)}^2}}}{2}+{t_1}{t_2}.

Wenn wir hier (51) einsetzen, bekommen wir

\beta = {t_1}{t_2}.\quad \quad \quad \quad \left( {52} \right)

(51) und (52) sind ein nichtlineares Gleichungssystem zur Bestimmung von {t_1} und {t_2}. Dieses muss nicht unbedingt eine Lösung haben: Setzt man {t_2} = \tau -{t_1} in (52) ein, erhält man die quadratische Gleichung t_1^2-\tau {t_1}+\beta = 0. Eine (reelle) Lösung existiert also nur, wenn {\tau ^2}-4\beta \geq 0. In diesem Fall bekommt man mit \omega : = \sqrt {{\tau ^2}-4\beta }:

{t_1} = \frac{{\tau -\omega }}{2},\quad {t_2} = \frac{{\tau +\omega }}{2}.

Der Satz 7.4 war zugeschnitten auf die spezielle Form (46) von K-entsprechend Variationsaufgabe (A). Nun haben wir in Abschnitt 4 andere Formen von Randbedingungen studiert, die auch im Rahmen der Steuerungstheorie bedeutsam sind. Zum Beispiel hatten wir die Situation angesehen, dass für \vec x nur ein Wert am linken Rand vorgeschrieben ist: \vec x\left( a \right) = \vec a. Am rechten Rand darf \vec x einen beliebigen Wert annehmen. Dafür hatten wir in Abschnitt 4 neben der Euler-Gleichung die zusätzlich notwendige Bedingung (14) hergeleitet:

{L_{\dot \vec x}}\left( {\hat \vec x\left( b \right),\dot \hat \vec x\left( t \right),\vec u\left( b \right),\lambda \left( b \right),b} \right) = 0.

Mit der speziellen Struktur unserer Lagrange-Funktion (42) wird daraus

\lambda \left( b \right) = 0.

Ein anderes, oft auftretendes Problem der Steuerungstheorie ist es, dass ein bestimmter Zustand erreicht werden soll, wobei jedoch der Zeitpunkt, wann dieser Zustand erreicht wird, offen bleiben kann. Wir haben es demnach mit folgender Restriktionsmenge für die Zustandsfunktion zu tun:

K = \left\{ {\vec x \in C_{rs}^1{{\left[ {a,b} \right]}^n},\vec x\left( a \right) = \vec a,\vec x\left( T \right) = \vec b,\,\:T \in \left( {a,b} \right]} \right\}.

Auch diese Aufgabe haben wir unter dem Stichwort Transversalitätsbedingung in Abschnitt 4 schon betrachtet: Es handelt sich um (16) mit einer Zielkurve f \equiv \vec b (konstante Funktion). Eine Optimallösung \hat \vec x muss in diesem Fall neben der Euler-Gleichung noch die Transversalitätsbedingung (18) erfüllen – für unser vektorwertiges \hat \vec x statt des skalaren \hat y aus Abschnitt 4 und unter Berücksichtigung dessen, dass die Funktion f jetzt konstant ist, lautet sie

L_{\dot \hat \vec x}^T\dot \hat \vec x-L = 0.

Nun kommt noch die spezielle Bauart von L = {\lambda ^T}\dot \vec x-H\left( {\vec x,\vec u,\lambda ,t} \right) mit der Hamiltonschen / Pontrjaginschen Funktion ins Spiel. So bekommen wir die spezielle Transversalitätsbedingung

H\left( {\hat \vec x\left( T \right),\vec u\left( T \right),\lambda \left( T \right),T} \right) = 0\quad \quad \quad \quad \left( {53} \right)

mit der Funktion H aus (44).

Beispiel 7.6: Re-Entry-Problem

Wir entnehmen dieses Beispiel, das aus der Raumfahrt stammt, dem Buch Numerische Mathematik II von J. Stoer und R. Bulirsch (Springer-Verlag).

Der Zustand eines Apollo-Raumschiffs beim Flug durch die Erdatmosphäre wird durch das folgende System von Differentialgleichungen beschrieben:

\begin{array}{*{20}{c}}{\dot v = V\left( {v,\gamma ,\xi ,u} \right) = -\frac{{S\rho {v^2}}}{{2m}}{C_W}\left( u \right)-\frac{{g\sin \gamma }}{{{{\left( {1+\xi } \right)}^2}}}} \\ {\dot \gamma = \Gamma \left( {v,\gamma ,\xi ,u} \right) = \frac{{S\rho v}}{{2m}}{C_A}\left( u \right)+\frac{{v\cos \gamma }}{{R\left( {1+\xi } \right)}}-\frac{{g\cos \gamma }}{{v{{\left( {1+\xi } \right)}^2}}}} \\ {\dot \xi = \Xi \left( {v,\gamma ,\xi ,u} \right) = \frac{{v\sin \gamma }}{R}} \\ {\dot \zeta = {\rm Z}\left( {v,\gamma ,\xi ,u} \right) = \frac{v}{{1+\xi }}\cos \gamma } \end{array}\quad \quad \quad \quad \left( {54} \right)

Die Bedeutung der einzelnen hier auftretenden Konstanten ergibt sich mit der folgenden Skizze:

reentry-problem-variationsrechnung

v: Tangentialgeschwindigkeit
\gamma: Bahnneigungswinkel
h: Höhe über der Erdoberfläche
R: Erdradius
\xi = h/R: normalisierte Höhe
\zeta: Distanz auf der Erdoberfläche
\rho = {\rho _0}{e^{-\beta R\xi }}: Luftdichte
u: Steuerungsfunktion
{C_W}\left( u \right) = 1.174-0.9\cos u: aerodynamischer Widerstandskoeffizient
{C_A}\left( u \right) = 0.6\sin u: aerodynamischer Auftriebskoeffizient
g: Erdbeschleunigung
S/m: Quotient aus Frontfläche und Fahrzeugmasse

Die Zahlenwerte sind wie folgt:

R = 209 \cdot {10^5}ft, {\rho _0} = 2.704 \cdot {10^{-3}}, g = 3.2172 \cdot {10^{-4}} und S/m = 53200.

Da die vierte DGL von den ersten drei entkoppelt und nicht durch u beeinflussbar ist, lassen wir sie im Folgenden weg. In der Notation von (35) haben wir also \vec x = \left( {v,\gamma ,\xi } \right) als 3-dimsionale Zustandskoordinaten, \vec u = u als eindimensionale Steuergröße und \varphi = \left( {V,\Gamma ,\Xi } \right) als rechte Seite der DGL. Die zu betrachtenden Zustände werden eingeschränkt durch Anfangsbedingungen

\begin{array}{*{20}{c}}{v\left( 0 \right) = 0.36\quad \quad \left( { = 36000\frac{{ft}}{s}} \right)} \\ {\gamma \left( 0 \right) = -\frac{{8.1}}{{180}}\pi } \\ {\xi \left( 0 \right) = \frac{4}{R}\quad \quad \left( {h\left( 0 \right) = 400000ft} \right)} \end{array}\quad \quad \quad \quad \left( {55} \right)

(ab einer Höhe von 400000 Fuß ist der Einfluss der Erdatmosphäre spürbar.)

und die Endbedingungen

\begin{array}{*{20}{c}}{v\left( T \right) = 0.27\quad \quad \left( { = 27000\frac{{ft}}{s}} \right)} \\ {\gamma \left( T \right) = 0} \\ {\xi \left( T \right) = \frac{{2.5}}{R}\quad \quad \left( {h\left( T \right) = 250000ft} \right)} \end{array}\quad \quad \quad \quad \left( {56} \right)

wobei der Zeitpunkt T noch offen ist: Es kommt also nur darauf an, einen bestimmten Zustand zu erreichen, aber nicht darauf, ihn zu einem bestimmten Zeitpunkt zu erreichen.

Problematisch ist die Erhitzung des Raumschiffs beim Eintritt in die Erdatmosphäre. Die gesamte Erwärmung lässt sich ausdrücken durch die Kostenfunktion

\int_0^T {l\left( {\vec x\left( t \right)} \right)dt} ,\quad l\left( {\vec x\left( t \right)} \right) = 10{v^3}\sqrt \rho ,\quad \quad \quad \quad \left( {57} \right)

die nicht explizit von u abhängt. Zur Lösung des Problems benutzen wir wieder die Methode der variablen Lagrange-Multiplikatoren und schreiben \lambda \left( t \right) = \left( {{\lambda _v}\left( t \right),{\lambda _\gamma }\left( t \right),{\lambda _\xi }\left( t \right)} \right) in der Lagrange-Funktion

L\left( {\vec x,\dot \vec x,u,\lambda ,t} \right) = {\lambda ^T}\dot \vec x-H\left( {\vec x,u,\lambda ,t} \right)

mit der Hamilton-Funktion

H\left( {\vec x,u,\lambda ,t} \right) = {\lambda ^T}\varphi \left( {\vec x,u,t} \right)-l\left( {\vec x} \right).

Eine Lösung \left( {\hat \vec x,\hat u} \right) unseres Problems muss nun wieder die drei Bedingungen (35), (43) und (47) erfüllen. Im Einzelnen ist (35) in der Form der ersten drei Gleichungen von (54) gegeben, dazu gibt es die Randbedingungen (55) und (56). Die Euler-Gleichung (47) nimmt wegen {L_{\dot \vec x}} = \lambda und wegen {L_{\vec x}} = -{H_{\vec x}} die Form des Systems

\begin{array}{*{20}{c}}{{{\dot \lambda }_v} = -\frac{{\partial H}}{{\partial v}}} \\ {{{\dot \lambda }_\gamma } = -\frac{{\partial H}}{{\partial \gamma }}} \\ {{{\dot \lambda }_\xi } = -\frac{{\partial H}}{{\partial \xi }}} \end{array}\quad \quad \quad \quad \left( {58} \right)

an. Es bleibt als letzte Bedingung (43) oder gleichwertig (45). “Innerhalb” von H hängt nur der Teilausdruck

\psi \left( u \right) = 0.9{\lambda _v}\frac{{S\rho {v^2}}}{{2m}}\cos u+0.6{\lambda _\gamma }\frac{{S\rho v}}{{2m}}\sin u

explizit von u ab. Um diesen Ausdruck zu maximieren, dividieren wir zunächst durch \frac{{S\rho v}}{{2m}} und leiten dann nach u ab:

{\psi ^\prime }\left( u \right) = 0.6{\lambda _\gamma }\cos u-0.9{\lambda _v}v\sin u\mathop = \limits^! 0.

Dividiert man diese Gleichung durch \alpha : = \sqrt {{{\left( {0.6{\lambda _\gamma }} \right)}^2}+{{\left( {0.9v{\lambda _v}} \right)}^2}}, so erhält man die beiden Lösungen

\sin u = \pm \frac{{0.6{\lambda _\gamma }}}{\alpha },\quad \quad \cos u = \pm \frac{{0.9v{\lambda _v}}}{\alpha }.\quad \quad \quad \quad \left( {59} \right)

Der positive Zweig leistet hier die gewünschte Maximierung, wie man anhang der zweiten Ableitung leicht verifizieren kann.

Fazit: Unser Re-Entry-Steuerungsproblem läuft auf ein System von 6 Differentialgleichungen (54) und (58) mit 7 Randbedingungen (55), (56) und (53) hinaus. Dieses kann mit einem numerischen Verfahren gelöst werden – siehe das erwähnte Buch von Stoer und Bulirsch.