8 – Wechselspiel Variationsprobleme und Differentialgleichungen

 

Ausgehend von der Variationsaufgabe (A) mit dem Problem (5)

J\left( y \right) = \int\limits_{{t_0}}^{{t_1}} {L\left( {t,y\left( t \right),\dot y\left( t \right)} \right)dt} \mathop = \limits^! \operatorname{Extr} .

y \in {C^1}\left[ {{t_0},{t_1}} \right],\quad y\left( {{t_0}} \right) = \alpha ,\quad y\left( {{t_1}} \right) = b

hatten wir in Satz 3.6 die Euler-Gleichung (8) und daraus – hinreichende Differenzierbarkeit vorausgesetzt – die Differentialgleichung 2. Ordnung (9) hergeleitet:

{L_{\dot y\dot y}}\ddot y+{L_{\dot yy}}\dot y+{L_{\dot yt}} = {L_y}.

Zusammen mit geforderten Randwerten y\left( {{t_0}} \right) = {y_0} und y\left( {{t_1}} \right) = {y_1} hat man es hier mit einem sogenannten Randwertproblem für eine DGL 2. Ordnung zu tun. Manchmal gelingt es, die DGL (9) analytisch zu lösen. Das ist jedoch eine Ausnahmesituation – in den meisten Fällen muss man sich mit einer numerischen Lösung begnügen.

Es gibt eine Reihe von numerischen Verfahren zur Lösung des Randwertproblems zur DGL (9). Erfolgreich, aber nicht sehr einfach handzuhaben ist das sogenannte Mehrfach-Schießverfahren (multiple shooting method).

Eine andere Herangehensweise ist es, nicht die Euler-Gleichung zu lösen, sondern das ursprüngliche Problem (5) direkt zu betrachten (“Direkte Verfahren der Variationsrechnung”). Das tut man bei den sogenannten Finite-Elemente-Methoden. Wir besprechen die Grundlagen der direkten Verfahren im folgenden Abschnitt 9.

Die Finite-Elemente-Methoden sind so erfolgreich, dass man in der Numerik sogar daran interessiert ist, “den Spieß umzudrehen” und eine gegebene DGL 2. Ordnung zu interpretieren versucht als Eulersche Differentialgleichung, um dann das dahinter stehende Variationsproblem mit Methoden der Finiten Elemente zu lösen.

Dies ist sicher möglich bei linearen Differentialgleichungen 2. Ordnung von der Form

{a_2}\left( t \right)\ddot y+{a_1}\left( t \right)\dot y+{a_0}\left( t \right)y = f\left( t \right),\quad t \in \left[ {a,b} \right],

mit {a_2}\left( t \right) \ne 0\forall t \in \left[ {a,b} \right]. Diese DGL lässt sich durch Multiplikation mit der Funktion

p\left( t \right) = \exp \left\{ {\int {\frac{{{a_1}\left( t \right)}}{{{a_2}\left( t \right)}}dt} } \right\}

(im Exponenten steht die Stammfunktion von \frac{{{a_1}\left( t \right)}}{{{a_2}\left( t \right)}}) in die Form

\frac{d}{{dt}}\left[ {p\left( t \right)\dot y} \right]+q\left( t \right)y = h\left( t \right)\quad \quad \quad \quad \left( {60} \right)

bringen, wobei

q\left( t \right) = \frac{{{a_0}\left( t \right)}}{{{a_2}\left( t \right)}}p\left( t \right),\quad h\left( t \right) = \frac{{f\left( t \right)}}{{{a_2}\left( t \right)}}p\left( t \right).

Eine Differentialgleichung der Bauart (60) heißt selbstadjungiert.

Beispiel 8.1: Selbstadjungierte DGL

Die DGL

t\ddot y+{t^2}\dot y+y = \sin t

lässt sich für t \ne 0 wegen \exp \left\{ {\int {tdt} } \right\} = \exp \left\{ {\frac{{{t^2}}}{2}} \right\} überführen in

\frac{d}{{dt}}\left( {\exp \left\{ {\frac{{{t^2}}}{2}} \right\}\dot y} \right)+\frac{1}{t}\exp \left\{ {\frac{{{t^2}}}{2}} \right\}y = \frac{{\sin t}}{t}\exp \left\{ {\frac{{{t^2}}}{2}} \right\}

und ist dann selbstadjungiert.

Eine selbstadjungierte DGL lässt sich ohne weiteres als Euler-Gleichung interpretieren. Wir brauchen dafür lediglich eine Lagrange-Funktion L = L\left( {t,y\left( t \right),\dot y\left( t \right)} \right) angeben mit

{L_y} = -q\left( t \right)y+h\left( t \right),\quad \frac{d}{{dt}}{L_{\dot y}} = \frac{d}{{dt}}\left( {p\left( t \right)\dot y} \right).

Das unmittelbar einsichtige Ergebnis formulieren wir im folgenden Satz.

Satz 8.2: Zusammenhang zwischen Differentialgleichung und Variationsproblem

Die lineare Differentialgleichung

\frac{d}{{dt}}\left[ {p\left( t \right)\dot y} \right]+q\left( t \right)y = h\left( t \right),\quad \quad t \in \left[ {a,b} \right]

ist die Euler-Gleichung des Variationsproblems

J\left( y \right) = \int\limits_a^b {\left( {p\left( t \right)\dot y{{\left( t \right)}^2}-q\left( t \right)y{{\left( t \right)}^2}+2h\left( t \right)y\left( t \right)} \right)dt} \mathop = \limits^! \operatorname{Extr} .

Beispiel 8.3: Randwertproblem als Variationsproblem

(Beispiel aus Meyberg, Vachenauer) Das Randwertproblem

\ddot y+\left( {\sin t} \right)y = {e^t},\quad y\left( 3 \right) = \alpha ,\quad y\left( 9 \right) = \beta

lautet als Variationsproblem

\int\limits_3^9 {\left( {{{\dot y}^2}-\left( {\sin t} \right){y^2}+2{e^t}y} \right)dt} \mathop = \limits^! \operatorname{Extr} ,\quad y\left( 3 \right) = \alpha ,\quad y\left( 9 \right) = \beta.

Ein Vorteil der Behandlung von Randwertproblemen als Variationsprobleme liegt auch darin, dass nur noch Ableitungen erster Ordnung auftreten – die Ansatzfunktionen der Finite-Elemente-Methode können entsprechend gewählt werden.

Ihre größte Bedeutung haben Finite-Elemente-Methoden allerdings bei der numerischen Behandlung von Randwertproblemen für partielle Differentialgleichungen (PDGL). Um dies herauszustellen, müssen wir zunächst Variationsprobleme für Funktionen in mehreren Veränderlichen betrachten. Der Einfachheit halber tun wir dies exemplarisch nur für Funktionen “in der Ebene”.

Sei G \subset {\mathbb{R}^2} ein Gebiet mit einer “glatten” Randkurve \partial G. “Glatter” Rand soll bedeuten, dass der Rand aus endlich vielen {C^1}-Kurven {\gamma _i}:\left[ {{a_1},{b_i}} \right] \to {\mathbb{R}^2} besteht. Das ist zum Beispiel der Fall, wenn G die Einheitskreisscheibe mit der Randkurve

\gamma :\left[ {0,2\pi } \right) \to {\mathbb{R}^2},\quad \gamma \left( t \right) = \left( {\cos t,\quad \sin t} \right)

oder das Einheitsquadrat mit den Randstücken

{\gamma _1}:\left[ {-0.5,\:\:0.5} \right] \to {\mathbb{R}^2},\quad {\gamma _1}\left( t \right) = \left( {t,\:\:-0.5} \right),\quad {\gamma _2}:\left[ {-0.5,\:\:0.5} \right] \to {\mathbb{R}^2},\quad {\gamma _2}\left( t \right) = \left( {0.5,\:\:t} \right), \ldots

ist. In Analogie zur Variationsaufgabe (A) betrachten wir die folgende Aufgabenstellung.

Aufgabe (E): Variationsproblem für Funktionen mehrerer Veränderlicher

Es sei G \subset {\mathbb{R}^2} wie oben und

D: = \left\{ {f \in {C^2}\left( G \right):\:\:f\left( {x,y} \right) = \varphi \left( {x,y} \right)\:\:\forall \left( {x,y} \right) \in \partial G} \right\}

mit einer vorgegebenen Funktion \varphi. Die Funktion

L = L\left( {x,y,p,q,r} \right):D \times \mathbb{R} \times \mathbb{R} \times \mathbb{R} \to \mathbb{R}

sei zweimal stetig partiell differenzierbar. Dann ist das folgende Problem zu lösen:

J\left( f \right): = \int {\int\limits_G {L\left( {x,y,f\left( {x,y} \right),{f_x}\left( {x,y} \right),{f_y}\left( {x,y} \right)} \right)dx} dy} \mathop = \limits^! \operatorname{Extr} ,\quad f \in D.

Bei der Lösung dieses Problems geht man wieder gemäß der Euler-Idee vor, das heißt man unterstellt, eine Lösung \hat f sei bereits gefunden und betrachtet dann für v \in {C^2}\left( G \right) mit v\left( {x,y} \right) = 0 für \left( {x,y} \right) \in \partial G die Vergleichsfunktionen

{f_\varepsilon }: = \hat f+\varepsilon v.

Wegen der Minimalität von \hat f muss gemäß Satz 3.4

\delta J\left( {\hat f,v} \right) = \mathop {\lim }\limits_{\varepsilon \to 0} \frac{1}{\varepsilon }\left( {J\left( {\hat f+\varepsilon v} \right)-J\left( {\hat f} \right)} \right) = 0

gelten. Mit Differentiation unter dem Integralzeichen bekommen wir

0 = \int {\int\limits_G {\left( {{L_f}v+{L_{{f_x}}}{v_x}+{L_{{f_y}}}{v_y}} \right)dx} dy}

= \int {\int\limits_G {\left( {{L_f}-\frac{d}{{dx}}{L_{{f_x}}}-\frac{d}{{dy}}{L_{{f_y}}}} \right)dx} dy} +\int {\int\limits_G {\left( {\frac{d}{{dx}}\left[ {{L_{{f_x}}}v} \right]+\frac{d}{{dy}}\left[ {{L_{{f_y}}}v} \right]} \right)dx} dy} \quad \quad \left( {61} \right)

wobei wir die gewöhnliche Produktregel angewendet haben, etwa in der Form

\frac{d}{{dx}}\left[ {{L_{{f_x}}}v} \right] = \left( {\frac{d}{{dx}}{L_{{f_x}}}} \right)v+{L_{{f_x}}}{v_x}.

An dieser Stelle brauchen wir die partielle Integration für zweidimensionale Integrale. Diese heißt (ebener) Satz von Green und wird in der Vorlesung Analysis behandelt.

Satz 8.4: Satz von Green in der Ebene

Es sei G ein Gebiet mit “glattem” Rand wie oben, wobei die Randstücke so parametrisiert seien, dass G stets links von der Durchlaufrichtung liegt. Für ein {C^1}-Vektorfeld \vec v:G \to {\mathbb{R}^2} gilt dann

\int {\int\limits_G {\left( {\frac{{\partial {v_2}\left( {x,y} \right)}}{{\partial x}}-\frac{{\partial {v_1}\left( {x,y} \right)}}{{\partial y}}} \right)dx} dy} = \int\limits_{\partial G} {\vec v \cdot d\vec x} \quad \quad \quad \quad \left( {62} \right)

Bemerkungen:

  1. Wenn \partial G aus den {C^1}-Kurvenstücken {\gamma _1}, \ldots ,{\gamma _n} besteht, dann ist

    \int\limits_{\partial G} {\vec v \cdot d\vec x} : = \int\limits_{{\gamma _1}} {\vec v \cdot d\vec x} + \ldots +\int\limits_{{\gamma _n}} {\vec v \cdot d\vec x}

    zu setzen.

  2. Für eine {C^1}-Kurve \gamma :\left[ {a,b} \right] \to {\mathbb{R}^2} definiert man

    \int\limits_\gamma {\vec v \cdot d\vec x} : = \int\limits_a^b {\vec v\left( {\gamma \left( t \right)} \right) \cdot \dot \gamma \left( t \right)dt}.

    Der Integrand ist als Skalarprodukt der Vektoren \vec v\left( {\gamma \left( t \right)} \right) und \dot \gamma \left( t \right) zu verstehen. Wenn man \vec v als Kraftfeld interpretiert, bedeutet dies, dass nur der tangential in Richtung des Wegs wirkende Anteil der Kraft integriert wird, so wie es dem physikalischen Satz entspricht: “Arbeit = Graft mal Weg”. Wenn {\left\| {\dot \gamma \left( t \right)} \right\|_2} = 1, wie in der folgenden Skizze vorausgesetzt, dann entspricht nämlich das Skalarprodukt \vec v\left( {\gamma \left( t \right)} \right) \cdot \dot \gamma \left( t \right) gerade der Projektion von \vec v\left( {\gamma \left( t \right)} \right) auf den Tangentialvektor \dot \gamma \left( t \right):

    satz-green-ebene-kurvenstuck-bahn-tangente

  3. Man kann sich diese Aussage des Satzes von Green recht gut plausibel machen, wenn man sich das Gebiet G von sehr vielen, sehr kleinen Quadraten {Q_i} überdeckt vorstellt. Eines dieser Quadrate skizzieren wir wie folgt:

    satz-green-gebiet-quadrate-uberdeckung-gitter

    Der Rand dieses Quadrats ist durch vier Geradenstücke {\gamma _1}, \ldots ,{\gamma _4} der kantenlängen \Delta x bzw. \Delta y parametrisiert. Das Kurvenintegral in () für diesen Rand ist dann näherungsweise gegeben durch

    \left( {\begin{array}{*{20}{c}}{{v_1}\left( {\vec a} \right)} \\ {{v_2}\left( {\vec a} \right)} \end{array}} \right)\left( {\begin{array}{*{20}{c}}{\Delta x} \\ 0 \end{array}} \right)+\left( {\begin{array}{*{20}{c}}{{v_1}\left( {\vec b} \right)} \\ {{v_2}\left( {\vec b} \right)} \end{array}} \right)\left( {\begin{array}{*{20}{c}} 0 \\ {\Delta y} \end{array}} \right)+\left( {\begin{array}{*{20}{c}}{{v_1}\left( {\vec c} \right)} \\ {{v_2}\left( {\vec c} \right)} \end{array}} \right)\left( {\begin{array}{*{20}{c}}{-\Delta x} \\ 0 \end{array}} \right)+\left( {\begin{array}{*{20}{c}}{{v_1}\left( {\vec d} \right)} \\ {{v_2}\left( {\vec d} \right)} \end{array}} \right)\left( {\begin{array}{*{20}{c}} 0 \\ {-\Delta y} \end{array}} \right)

    = \left( {{v_1}\left( {\vec a} \right)-{v_1}\left( {\vec c} \right)} \right)\Delta x+\left( {{v_2}\left( {\vec b} \right)-{v_2}\left( {\vec d} \right)} \right)\Delta y

    = \frac{{\partial {v_2}}}{{\partial x}}\left( {\xi ,{{\vec z}_2}} \right)\Delta x\Delta y-\frac{{\partial {v_1}}}{{\partial y}}\left( {{{\vec z}_1},\zeta } \right)\Delta x\Delta y \approx \left( {\frac{{\partial {v_2}}}{{\partial x}}\left( {\vec z} \right)-\frac{{\partial {v_1}}}{{\partial x}}\left( {\vec z} \right)} \right)\Delta x\Delta y

    nach dem Mittelwertsatz. Hier steht rechts der zu {Q_i} gehörende Summand der Riemann-Summe für das Gebietsintegral (62).
    Wenn man nun das Gebiet G durch nebeneinander liegende Quadrate der obigen Form so ausschöpft, dass sich zwei Nachbarquadrate eine gemeinsame Kante teilen, dann wird diese Kante bei den beiden Quadraten in unterschiedlicher Richtung durchlaufen – ihr Beitrag zum Gesamtintegral hebt sich damit weg. Was übrig bleibt, sind die Randintegrale von Quadraten ohne Nachbarn, also nach dem Grenzübergang das Integral über den Rand \partial G.

Den Satz von Green wenden wir jetzt an zur Berechnung des letzten Integrals in (61). Dabei setzen wir

\vec v = \left( {\begin{array}{*{20}{c}}{-{L_{{f_y}}}v} \\ {{L_{{f_x}}}v} \end{array}} \right)

und erhalten dann aus (62)

\int {\int\limits_G {\left( {\frac{d}{{dx}}\left[ {{L_{{f_x}}}v} \right]+\frac{d}{{dy}}\left[ {{L_{{f_y}}}v} \right]} \right)dx} dy} = \int\limits_{\partial G} {\left( {\begin{array}{*{20}{c}}{-{L_{{f_y}}}v} \\ {{L_{{f_x}}}v} \end{array}} \right) \cdot d\vec x} = 0,

da v = 0 auf \partial G. Damit verschwindet das letzte Integral in (61). Somit haben wir

\int {\int\limits_G {\left( {{L_f}-\frac{d}{{dx}}{L_{{f_x}}}-\frac{d}{{dy}}{L_{{f_y}}}} \right)vdx} dy} = 0

für alle v \in {C^2}\left( G \right) mit {\left. v \right|_{\partial G}} = 0. Es gibt ein zweidimensionales Analogon zum Hilfssatz 3.5, so dass wir den folgenden Satz bekommen.

Satz 8.5: Euler-Lagrange-Differentialgleichungen in 2D

Es seien die Voraussetzungen der Variationsaufgabe (E) gegeben. Eine Lösung f erfüllt dann die Gleichung

{L_f}-\frac{d}{{dx}}{L_{{f_x}}}-\frac{d}{{dy}}{L_{{f_y}}} = 0.\quad \quad \quad \quad \left( {63} \right)

In ausdifferenzierter Form wird dies zu einer linearen partiellen Differentialgleichung zweiter Ordnung. Zum Beispiel ist

\frac{d}{{dx}}{L_{{f_x}}}\left( \ldots \right) = {L_{{f_x},x}}\left( \ldots \right)+{L_{{f_x},f}}\left( \ldots \right){f_x}+{L_{{f_x},{f_x}}}\left( \ldots \right){f_{xx}}+{L_{{f_x},{f_y}}}\left( \ldots \right){f_{xy}}.

Beispiel 8.6: Schwingende Saite

(Beispiel entnommen aus MV) Eine zwischen x = 0 und x = l mit Spannkraft N (wirkt in horizontaler Richtung) eingespannte Saite nimmt zur Zeit t die Lage y = y\left( {x,t} \right) ein, wobei t \geq 0 und 0 \leq x \leq l.

Die potentielle Energie ist

U = N \cdot \left( {\int\limits_0^l {ds} -l} \right),

wobei das Integral die Bogenlänge der Saite ist. Dieses Integral lässt sich auch in der Form

\int\limits_0^l {\sqrt {1+y_x^2\left( {x,t} \right)} dx}

schreiben, so dass wir “in erster Näherung”

U \approx \frac{N}{2}\int\limits_0^l {y_x^2dx}

erhalten. Die kinetische Energie ist durch

T = \frac{1}{2}\int\limits_0^l {\rho \left( x \right)y_t^2dx}

gegeben. Nach dem Hamilton-Prinzip ist die tatsächlich angenommene Lage y\left( {x,t} \right) der Saite eine Extremale des Wirkungsintegrals zwischen zwei beliebigen Zeitpunkten:

\int\limits_{{t_0}}^{{t_1}} {\left( {T-U} \right)dt} = \frac{1}{2}\int\limits_{{t_0}}^{{t_1}} {\int\limits_0^l {\left( {\rho y_t^2-Ny_x^2} \right)dx} dt} .

Die Lagrange-Funktion lautet hier mit x,t statt x,y und mit y statt f

L\left( {x,t,y,{y_x},{y_t}} \right) = \frac{1}{2}\left( {\rho y_t^2-Ny_x^2} \right),

so dass wir mit {L_y} = 0, {L_{yt}} = \rho {y_t} und {L_{yx}} = -N{y_x} die folgende explizite Euler-Gleichung erhalten:

N{y_{xx}}\left( {x,t} \right)-\rho \left( x \right){y_{tt}}\left( {x,t} \right) = 0.

Dies ist eine sogenannte hyperbolische Differentialgleichung, die Gleichung der schwingenden Saite. Sie kann gelöst werden, wenn die anfängliche (t = 0) Auslenkung y\left( {x,0} \right) der Saite bekannt ist.

In Satz 8.5 haben wir gesehen, dass man eine PDGL 2. Ordnung als notwendige Bedingung zur Lösung des Variationsproblems (E) erhält. Jetzt wollen wir umgekehrt eine gegebene lineare PDGL 2. Ordnung interpretieren als Euler-Gleichung eines Variationsproblems vom Typ (E). Wie schon im eindimensionalen Fall geht das nicht für beliebige PDGL. Möglich ist es aber bei einer 2D-Variante der selbstadjungierten DGL (60), nämlich bei einer PDGL der Form

\frac{\partial }{{\partial x}}\left( {{p_1}\left( {x,y} \right)\frac{{\partial u}}{{\partial x}}} \right)+\frac{\partial }{{\partial y}}\left( {{p_2}\left( {x,y} \right)\frac{{\partial u}}{{\partial y}}} \right)+q\left( {x,y} \right)u = h\left( {x,y} \right),\quad \quad \quad \quad \left( {64} \right)

deren Lösung u = u\left( {x,y} \right) auf einem Gebiet G \subset {\mathbb{R}^2} mit stückweise glattem Rand gesucht ist. Zusätzlich zu (64) sind noch Randbedingungen gegeben. Folgende Randbedingungen sind vorgesehen:

  1. Dirichlet-Bedingungen. Auf einem Teil {C_1} \subset \partial G des Randes soll u\left( {x,y} \right) = \varphi \left( {x,y} \right) gelten mit einer vorgegebenen Funktion \varphi.
  2. Allgemeine Neumann-Bedingungen. Auf dem Teil {C_2}: = \partial G\backslash {C_1} des Rands soll die Bedingung {n_1}\left( {{p_1}{u_x}} \right)+{n_2}\left( {{p_2}{u_y}} \right)+\alpha u = \beta erfüllt sein. Dabei ist \vec n = \left( {{n_1}\left( {x,y} \right),{n_2}\left( {x,y} \right)} \right) die aus dem Gebiet G nach außen zeigende Normale der Randkurve.

Es ist übrigens durchaus möglich, dass {C_1} oder {C_2} die leere Menge ist. Die sogenannte spezielle Neumann-Bedingung ergibt sich für {p_t} = 1 = {p_2} und \alpha = 0 = \beta aus der allgemeinen Neumann-Bedingung und besagt anschaulich, dass sich u über den Rand hinaus nicht ändert: Der Rand “isoliert”.

Wir unterstellen nun eine Parametrisierung des Randes nach der Bogenlänge, so dass die Bedingungen a) und b) in der Form

\begin{array}{*{20}{c}}{u = \varphi \left( s \right)\quad auf\:{C_1}} \\ {{n_1}\left( {{p_1}{u_x}} \right)+{n_2}\left( {{p_2}{u_y}} \right)+\alpha \left( s \right)u = \beta \left( s \right)\:\:auf\:{C_2}} \end{array}\quad \quad \quad \quad \left( {65} \right)

geschrieben werden können.

Satz 8.7: Zusammenhang zwischen Extremale des Funktionals und Lösung der PDGL

Es sei G \subset {\mathbb{R}^2} ein Gebiet mit stückweise glattem Rand und {p_1},{p_2},q,h \in {C^2}\left( G \right). Es sei \hat u \in {C^2}\left( G \right) eine Extremale des Funktionals

J\left( u \right) = \int {\int\limits_G {\left[ {\frac{1}{2}\left( {{p_1}u_x^2+{p_2}u_y^2} \right)-\frac{1}{2}q{u^2}+hu} \right]dx} dy} +\int\limits_{{C_2}} {\left[ {\frac{1}{2}\alpha \left( s \right){u^2}-\beta \left( s \right)u} \right]ds}

die zudem die Randbedingung

{\left. u \right|_{{C_1}}} = \varphi

erfüllt. Dann ist \hat u eine Lösung der PDGL (64), die die Randbedingungen (65) erfüllt.

Der Beweis des Satzes beruht darauf, dass man die erste Variation des Funktionals J gleich null setzt, wobei einmal mit Hilfe des Gauß‘schen Integralsatzes partiell integriert wird. Die Details kann man zum Beispiel im Buch “Methode der finiten Elemente” von H. R. Schwarz (Teubner-Verlag) nachlesen.

Bemerkenswert ist, dass die Randbedingung a) explizit gefordert wird, während b) von einer Extremalen automatisch erfüllt wird. Die Neumannsche heißt deswegen auch natürliche Randbedingung.

Beispiel 8.8: Dirichlet-Prinzip

Für {p_1} = {p_2} = 1 und q = h = 0 ergibt sich aus dem Satz, dass die Extremalen des Variationsproblems

\int {\int\limits_G {\left( {u_x^2+u_y^2} \right)dx} dy} \mathop = \limits^! \min

gerade die Lösungen des Dirichlet-Problems

\begin{array}{*{20}{c}}{\Delta u = {u_{xx}}+{u_{yy}} = 0,}&{\left( {x,y} \right) \in G} \\ {u\left( {x,y} \right) = \varphi \left( {x,y} \right),}&{\left( {x,y} \right) \in \Gamma = \partial G} \end{array}

ist.

Ähnliche Artikel

Kommentar verfassen