9 – Direkte Methoden

 

Bei der numerischen Behandlung von Variationsproblemen ist es nicht unbedingt nötig und auch nicht immer günstig, den Weg über die Euler-Gleichung zu gehen. Stattdessen kann man auch direkt das Variationsproblem angehen und mit einem geeigneten Ansatz näherungsweise zu lösen versuchen. Dies nennt man dann eine “direkte Methode”. Wir besprechen diesbezüglich die Methoden von Ritz und Galerkin und orientieren uns dabei sehr an der Darstellung in [MV].

9.1 Methode von Ritz

Das Grundproblem der Variationsrechnung ist es, ein Funktional zu minimieren:

J\left( y \right)\mathop = \limits^! \min ,\quad y \in D \subset V,\quad \quad \quad \quad \left( {66} \right)

wobei V ein Vektorraum ist und D eine durch Randbedingungen definierte Teilmenge von V, zum Beispiel

J\left( y \right) = \int\limits_a^b {L\left( {t,y,\dot y} \right)dt}

mit

D = \left\{ {y \in V = {C^2}\left[ {a,b} \right]:\:\:y\left( a \right) = {y_0},\:\:y\left( b \right) = {y_1}} \right\}.

Die Idee der Methode von Ritz ist es, eine Näherungslösung von (66) auf die folgende Art zu finden. Zunächst wird ein {u_0} \in D gewählt, das die Randbedingungen erfüllt:

{u_0}\left( a \right) = {y_0},\quad {u_0}\left( b \right) = {y_1}.

Sodann definiert man den Vektorraum

{D_0}: = \left\{ {y \in V:\:\:y\left( a \right) = 0,\quad y\left( b \right) = 0} \right\}

und gibt eine Menge linear unabhängiger Funktionen

{u_1}, \ldots ,{u_n} \in {D_0}

an. Die besagte Näherungslösung wird in der Form

\tilde y = {u_0}+\sum\limits_{i = 1}^n {{\alpha _i}{u_i}}

mit noch unbekannten Koeffizienten {\alpha _i} angesetzt. Für jede beliebige Wahl der \alpha li ist \tilde y \in D (ist \tilde y zulässig). Die {\alpha _i} werden so bestimmt, dass

J\left( {\tilde y} \right) = J\left( {{u_0}+\sum\limits_{i = 1}^n {{\alpha _i}{u_i}} } \right) = :f\left( {{\alpha _1}, \ldots ,{\alpha _n}} \right)

minimal wird. Statt eines Minimierungsproblems in einem Funktionenraum haben wir also ein Minimierungsproblem im {\mathbb{R}^n}, nämlich für die Funktion f, zu lösen.

Beispiel 9.1: Anwendungsbeispiel für das Ritz-Verfahren

Das zu minimierende Funktional lautet

J\left( y \right) = \int\limits_{-1}^1 {\left( {\frac{1}{2}\dot y{{\left( t \right)}^2}+3y\left( t \right)\sin \left( {\pi t} \right)} \right)dt}

mit D = \left\{ {y \in {C^2}\left[ {-1,1} \right]:\:\:y\left( {-1} \right) = 0,\:\:y\left( 1 \right) = 2} \right\}. Mit n = 2 und der Wahl , {u_1} = 1-{t^2} und {u_2} = t\left( {1-{t^2}} \right) macht man den Ansatz

\tilde y = \left( {1+t} \right)+{\alpha _1}\left( {1-{t^2}} \right)+{\alpha _2}t\left( {1-{t^2}} \right).

Einsetzen ergibt

J\left( {\tilde y} \right) = 1+\frac{6}{\pi }+\frac{4}{3}\alpha _1^2+\frac{{36}}{{{\pi ^3}}}{\alpha _2}+\frac{4}{5}\alpha _2^2 = f\left( {{\alpha _1},{\alpha _2}} \right)

und dieser Ausdruck ist nun bezüglich {\alpha _1} und {\alpha _2} zu minimieren. Aus \nabla f = 0 erhalten wir {\alpha _1} = 0 und {\alpha _2} = -\frac{{45}}{{2{\pi ^3}}}. Da die Hesse-Matrix positiv definit ist, handelt es sich in der Tat um eine Minimalstelle.

Polynome eignen sich im Allgemeinen nicht besonders gut zur globalen Approximation von Funktionen. Bessere Resultate lassen sich mit Splines erzielen. Berücksichtigt man etwa im letzten Beispiel, dass J\left( y \right) schon wohldefiniert ist, wenn die Funktion y nur stückweise stetig differenzierbar ist mit beschränkter Ableitung, dann kann man folgende Ansatzfunktion wählen:

ritz-ansatz-funktionen-uberlagerung-elemente

Diese Ansatzfunktionen spielen in der “Methode der Finiten Elemente”, die der Ritz-Methode eng verwandt ist, eine große Rolle.

9.2 Methode von Galerkin

Mit dieser Methode kann die Gleichung

\delta J\left( {y,v} \right) = 0\quad \forall \:zul\ddot assige\:v,\quad \quad \quad \quad \left( {67} \right)

die sich als notwendige Bedingung für die Lösung des Variationsproblems (66) ergibt, approximativ gelöst werden.

Die Idee von Galerkin besteht zunächst einmal wieder darin, mit endlich dimensionalen Teilräumen zu arbeiten. Seien dazu {u_0},{u_1}, \ldots {u_n} \in D linear unabhängige Funktionen, mit denen wir eine approximative Lösung in der Form

\tilde y = {u_0}+\sum\limits_{j = 1}^n {{\alpha _j}{u_j}}

ansetzen und

{v_1}, \ldots ,{v_n} linear unabhängige Funktionen, die einen endlich dimensionalen Teilraum aller zulässigen Variationsrichtungen aufspannen.

Die gesuchte Approximation \tilde y soll so bestimmt werden, dass statt (67) ersatzweise

\delta J\left( {{u_0}+\sum\limits_{j = 1}^n {{\alpha _j}{u_j}} ,\:\:\sum\limits_{i = 1}^n {{\beta _i}{v_i}} } \right) = 0\quad \forall {\beta _i} \in \mathbb{R}\quad \quad \quad \quad \left( {68} \right)

erfüllt ist. Wir setzen ab jetzt voraus, dass \delta J “linear in der Variationsrichtung” ist, soll heißen

\delta J\left( {y,\lambda v+\mu w} \right) = \lambda \delta J\left( {y,v} \right)+\mu \delta J\left( {y,w} \right).\quad \quad \quad \quad \left( {69} \right)

In unserem Standardfall

J = \int\limits_a^b {Ldt} \quad \Rightarrow \quad \delta J\left( {y,v} \right) = \int\limits_a^b {{L_y} \cdot v+{L_{\dot y}} \cdot \dot vdt}

ist diese Linearität offenbar gegeben. Es gibt jedoch auch Gegenbeispiele.

Beispiel 9.2: Gegenbeispiel zur vorherigen Aussage

Es sei J:{\mathbb{R}^2} \to \mathbb{R} definiert durch

J\left( {\vec x} \right) = \left\{ {\begin{array}{*{20}{c}}{\frac{{x_1^3}}{{x_1^2+x_2^2}}}&{\vec x \ne 0} \\ 0&{\vec x = 0} \end{array}} \right..

Für die Variation in Richtung \vec a ergibt sich aus \delta J\left( {0,\vec a} \right) = {\left. {\frac{d}{{d\varepsilon }}J\left( {0+\varepsilon \vec a} \right)} \right|_{\varepsilon = 0}}, dass

\delta J\left( {\vec x} \right) = \left\{ {\begin{array}{*{20}{c}}{\frac{{a_1^3}}{{a_1^2+a_2^2}}}&{\vec x \ne 0} \\ 0&{\vec x = 0} \end{array}} \right..

Dies ist offenbar keine in \vec a lineare Funktion.

Wie gesagt setzen wir jedoch (69) voraus und bekommen dann die zu (68) äquivalente Bedingung

\delta J\left( {{u_0}+\sum\limits_{j = 1}^n {{\alpha _j}{u_j}} ,{v_i}} \right) = 0,\quad i = 1, \ldots ,n.\quad \quad \quad \quad \left( {70} \right)

Die Bestimmung der {\alpha _j} läuft also darauf hinaus, ein System von n Gleichungen für n Unbekannte zu lösen.

Ein Spezialfall ist besonders gut handzuhaben. Dieser liegt bei der in Abschnitt 8 betrachteten Situation vor, dass das Variationsproblem zu einer selbstadjungierten Euler-Gleichung gehört. In Satz 8.2 hatten wir diesbezüglich das Funktional

J\left( y \right) = \int\limits_a^b {\left( {p{{\dot y}^2}-q{y^2}+2hy} \right)dt}

angegeben. Hierfür ergibt sich

\delta J\left( {y,v} \right) = \int\limits_a^b {\left( {2\dot p\dot y \cdot \dot v-2qy \cdot v+2h\dot v} \right)dt}

oder allgemeiner

\delta J\left( {y,v} \right) = B\left( {y,v} \right)-F\left( v \right)\quad \quad \quad \quad \left( {71} \right)

mit den Abkürzungen

B\left( {y,v} \right) = \int\limits_a^b {\left( {2p\dot y \cdot \dot v-2qy \cdot v} \right)dt}

F\left( v \right) = -\int\limits_a^b {2h \cdot vdt} ,

wobei B eine sogenannte Bilinearform ist. Dies bedeutet, dass B wie ein Skalarprodukt im ersten und im zweiten Argument linear ist.

Ähnlich ist es in der Situation von Satz 8.7. Für das dort betrachtete Funktional

J\left( u \right) = \int {\int\limits_G {\left[ {\frac{1}{2}\left( {{p_1}u_x^2+{p_2}u_y^2} \right)-\frac{1}{2}q{u^2}+hu} \right]dx} dy}

(das Randintegral haben wir zur Vereinfachung weggelassen) erhält man

\delta J\left( {u,v} \right) = \int {\int\limits_G {\left( {{p_1}{u_x}{v_x}+{p_2}{u_y}{v_y}-quv} \right)dx} dy} -\int {\int\limits_G {-hvdx} dy},

was wieder von der Form (71) ist, diesmal mit

B\left( {u,v} \right) = \int {\int\limits_G {\left( {{p_1}{u_x}{v_x}+{p_2}{u_y}{v_y}-quv} \right)dx} dy}

F\left( v \right) = \int {\int\limits_G {-hvdx} dy}

Wenn wir (71) voraussetzen und in (70) benutzen, dann bekommen wir die zu (70) äquivalente Formulierung

B\left( {{u_0}+\sum\limits_{j = 1}^n {{\alpha _j}{u_j}} ,{v_i}} \right)-F\left( {{v_i}} \right) = B\left( {{u_0},{v_i}} \right)+\sum\limits_{j = 1}^n {{\alpha _j}B\left( {{u_j},{v_i}} \right)} -F\left( {{v_i}} \right) = 0\quad \forall i

\Rightarrow \quad \sum\limits_{j = 1}^n {{\alpha _j}B\left( {{u_j},{v_i}} \right)} = F\left( {{v_i}} \right)-B\left( {{u_0},{v_i}} \right)

\Rightarrow \quad A\alpha = b

mit

A = \left( {\begin{array}{*{20}{c}}{B\left( {{u_1},{v_1}} \right)}& \ldots &{B\left( {{u_n},{v_1}} \right)} \\ \vdots &{}& \vdots \\ {B\left( {{u_1},{v_n}} \right)}& \ldots &{B\left( {{u_n},{v_n}} \right)} \end{array}} \right),

b = \left( {\begin{array}{*{20}{c}}{F\left( {{v_1}} \right)-B\left( {{u_0}-{v_1}} \right)} \\ \vdots \\ {F\left( {{v_n}} \right)-B\left( {{u_0}-{v_n}} \right)} \end{array}} \right)

sowie dem gesuchten Vektor \alpha = {\left( {{\alpha _1}, \ldots ,{\alpha _n}} \right)^T}.

Beispiel 9.3: Dirichlet-Problem

Zum Dirichlet-Problem

{u_{xx}}+{u_{yy}} = g,\quad \left( {x,y} \right) \in G

u = 0,\quad \left( {x,y} \right) \in \partial G

gehört das Funktional

J\left( u \right) = \int {\int\limits_G {\left( {u_x^2+u_y^2+2gu} \right)dx} dy},

dessen Euler-Gleichung gerade die oben stehende partielle Differentialgleichung ist. Die Variation ist \delta J\left( {u,v} \right) = B\left( {u,v} \right)-F\left( v \right) mit

B\left( {u,v} \right) = \int {\int\limits_G {\left( {u_x^2+u_y^2} \right)dx} dy}

F\left( v \right) = \int {\int\limits_G {gvdx} dy}