1.2 – Beispiele und vereinfachte Anwendungen

 

Beispiel 1: Kollokationsmethode für Fredholm-Integraloperatoren erster Art

Erinnerung
Kollokationsmethode
: Methode zur numerischen Lösung gewöhnlicher Differentialgleichungen, partieller Differentialgleichungen und Integralgleichungen. Idee: Wähle einen endlich-dimensionalen Raum von Kandidaten für die Lösung (oft Polynome bis zu einem bestimmten Grad) und eine Anzahl an Punkten im Definitionsbereich. Bestimme dann die Lösung, die die gegebene Gleichung an den Punkten (Kollokationspunkten) erfüllt. Der Fourier-Operator ist der Kern des Fredholm-Integrals erster Art, das die Fouriertransformation definiert.
Der Begriff des Fredholm-Operators ist eine Verallgemeinerung der Invertierbarkeit einer linearen Abbildung zwischen Vektorräumen.

Sei A ein Fredholm-Integraloperator der ersten Art, also

\left( {Au} \right)\left( x \right): = \int\limits_G {k\left( {x,y} \right)u\left( y \right)dy},

wobei der Integralkern z.B. k \in {C^\infty }\left( {G \times G} \right) sei und X = Y = {L^2}\left( G \right) auf einem beschränkten offenen Gebiet G \subset {\mathbb{R}^d}. Dann ist A:{L^2}\left( G \right) \to {L^2}\left( G \right) ein stetiger linearer Operator.

Es soll nun ein Problem der Art gelöst werden, wie in Kapitel 1.1 vorgestellt wurde.

Ansatz 1

Als Ansatzfunktion {u_N} wählen wir die Summe

{u_N} = \sum\limits_{k = 1}^N {{\alpha _k}{w_k}\left( x \right)},

wobei die Funktionen {w_k} Polynome, stückweise Polynome oder Eigenfunktionen des Operators A seien können. Dieser Ansatz führt auf ein \left( {N \times N} \right)-System linearer Gleichungen für die Unbekannten {\alpha _k} \in \mathbb{R},\:\:k \in 1, \ldots ,N:

Wir setzen {u_N} in Au = f ein und fordern, dass A{u_N} = f in N Punkten {x_1}, \ldots ,{x_N} \in G gilt (Kollokation):

A{u_N}\left( {{x_j}} \right) = \int\limits_G {k\left( {{x_j},y} \right){u_N}\left( y \right)dy} = f\left( {{x_j}} \right),\quad \forall j = 1, \ldots ,N

\Rightarrow \quad \int\limits_G {k\left( {{x_j},y} \right)\sum\limits_{k = 1}^N {{\alpha _k}{w_k}\left( y \right)} \:dy} = f\left( {{x_j}} \right),\quad \quad {\alpha _k} \in \mathbb{R},\:\:\forall j = 1, \ldots ,N

\Rightarrow \quad \sum\limits_{k = 1}^N {{\alpha _k}\underbrace {\int\limits_G {k\left( {{x_j},y} \right){w_k}\left( y \right)\:dy} }_{{a_{jk}}}} = f\left( {{x_j}} \right),\quad \quad {\alpha _k} \in \mathbb{R},\:\:\forall j = 1, \ldots ,N

Das Integral kann i.A. nicht analytisch gelöst werden. Wir verwenden eine Integrationsformel:

\int\limits_G {k\left( {{x_j},y} \right){w_k}\left( y \right)\:dy} \approx \sum\limits_{i = 1}^N {{\gamma _i}k\left( {{x_j},{y_i}} \right){w_k}\left( {{y_i}} \right)},

wobei {\gamma _i} die Gewichte der Formel sind. Hiermit erhalten wir das leicht gestörte System

{A_N}\left( {\begin{array}{*{20}{c}}{{\alpha _1}} \\ \vdots \\ {{\alpha _N}} \end{array}} \right) = \left( {\begin{array}{*{20}{c}}{f\left( {{x_1}} \right)} \\ \vdots \\ {f\left( {{x_N}} \right)} \end{array}} \right),

wobei {A_N} = {\left( {{{\tilde a}_{jk}}} \right)_{jk}} und {\tilde a_{jk}}: = \sum\limits_{i = 1}^N {{\gamma _i}k\left( {{x_j},{y_i}} \right){w_k}\left( {{y_i}} \right)} von N abhängen.

Probleme

  • Welche Funktionen \left\{ {{w_k}} \right\} müssen wir benutzen?
  • Welche Kollokationspunkte \left\{ {{x_j}} \right\}?
  • Welche Integrationsformel \left\{ {{\gamma _i},{y_i}} \right\}?
  • Ist es möglich, mit Singularitäten der Kernfunktion k umzugehen?

Beispiel 2: Galerkin-Methode für Beispiel 1

Wir betrachten das gleiche Problem und den gleichen Ansatz wie bei Beispiel 1.

Galerkin-Methode: Wir multiplizieren die Gleichung A{u_N}\left( x \right) = f\left( x \right) mit N linear unabhängigen Testfunktionen {v_j}\left( x \right) und integrieren über G, so dass ein System linearer Gleichungen für {\alpha _j} entsteht:

A{u_N}\left( x \right) = \int\limits_G {k\left( {x,y} \right){u_N}\left( y \right)dy} = f\left( x \right)

\Rightarrow \quad \int\limits_G {\int\limits_G {k\left( {x,y} \right){u_N}\left( y \right){v_j}\left( x \right)dy} dx} = \int\limits_G {f\left( x \right){v_j}\left( x \right)dx} ,\quad j = 1, \ldots ,N

\Rightarrow \quad \int\limits_G {\int\limits_G {k\left( {x,y} \right)\sum\limits_{k = 1}^N {{\alpha _k}{w_k}\left( y \right)} \:{v_j}\left( x \right)dy} dx} = \int\limits_G {f\left( x \right){v_j}\left( x \right)dx} ,\quad j = 1, \ldots ,N

\Rightarrow \quad \sum\limits_{k = 1}^N {{\alpha _k}\underbrace {\int\limits_G {\int\limits_G {k\left( {x,y} \right){w_k}\left( y \right){v_j}\left( x \right)dy} dx} }_{{a_{jk}}}} = \underbrace {\int\limits_G {f\left( x \right){v_j}\left( x \right)dx} }_{{\beta _j}},\quad j

= 1, \ldots ,N

Das lineare Gleichungssystem lautet nun

{A_N}\left( {\begin{array}{*{20}{c}}{{\alpha _1}} \\ \vdots \\ {{\alpha _N}} \end{array}} \right) = \left( {\begin{array}{*{20}{c}}{{\beta _1}} \\ \vdots \\ {{\beta _N}} \end{array}} \right),

wobei {A_N}: = {\left( {{a_{jk}}} \right)_{jk}}. Wegen der Definition des {L^2}-Skalarproduktes ist dies äquivalent zu

\left\langle {A{u_N},{v_j}} \right\rangle = \left\langle {f,{v_j}} \right\rangle ,\quad j = 1, \ldots ,N.

Das bedeutet, dass die orthogonale Projektion von A{u_N} und f auf den 1D-Unterraum span\:\:{v_j} = \mathbb{R}{v_j},\:\:j = 1, \ldots ,N gleich ist. {u_N} löst das Problem Au = f also im Unterraum {X_N}: = span\left\{ {{v_1}, \ldots ,{v_N}} \right\}.

Wie in Beispiel 1 können Integrationsformeln benutzt werden, um die Integrale zu approximieren. Es bleibt jedoch die Frage, was für Funktionen \left\{ {{w_k}} \right\} wir nutzen können. Dies hängt von der Problemstellung ab.

Nehmen wir an, X ist ein Hilbertraum (vollständiger Vektorraum mit Skalarprodukt) mit Orthonormalbasis {\left\{ {{w_k}} \right\}_{k \in \mathbb{N}}}. Dann kann jedes Element aus X als Reihe geschrieben werden:

u = \sum\limits_{k = 1}^\infty {{\alpha _k}{w_k}} ,\quad f = \sum\limits_{k = 1}^\infty {{\beta _k}{w_k}}

Es ergibt sich:

Au = A\sum\limits_{k = 1}^\infty {{\alpha _k}{w_k}} = \sum\limits_{k = 1}^\infty {{\alpha _k}A{w_k}} \mathop = \limits^! \sum\limits_{l = 1}^\infty {{\beta _l}{w_l}} = f

\Rightarrow \quad \sum\limits_{k = 1}^\infty {{\alpha _k}\left\langle {A{w_k},{w_j}} \right\rangle } = \sum\limits_{l = 1}^\infty {{\beta _l}\left\langle {{w_l},{w_j}} \right\rangle } = {\beta _j},\quad \forall j \in \mathbb{N}

\Rightarrow \quad \sum\limits_{k = 1}^\infty {{a_{jk}}{\alpha _k}} = {\beta _j},\quad \forall j \in \mathbb{N},\quad {a_{jk}}: = \left\langle {A{w_k},{w_j}} \right\rangle

Ein lineares Gleichungssystem erhalten wir, indem wir die Reihe an einem bestimmten Punkt abbrechen. Es stellt sich hier die Frage der Konvergenz.

Beispiel 3: Ritz-Methode für Variationsprobleme ohne Nebenbedingungen

Erinnerung: Selbstadjungiert
linearer Operator mit besonderen Eigenschaften. Ein dicht definierter Operator S:D(S)->H heißt dann adjungiert zu T:D(T)->H, wenn = gilt. Selbstadjungiert: = für alle x, y aus D(T).

Sei A:X \to X ein selbstadjungierter Operator im Hilbertraum X mit innerem Produkt \left\langle { \cdot , \cdot } \right\rangle. Dann ist a\left( {u,v} \right): = \left\langle {Au,v} \right\rangle eine symmetrische Bilinearform. Die Operatorgleichung Au = f oder \left\langle {Au,v} \right\rangle = \left\langle {f,v} \right\rangle ,\:\:\forall v \in X ist äquivalent zu: Finde einen Minimierer u des Funktionals

J\left( u \right) = \frac{1}{2}a\left( {u,u} \right)-\left\langle {f,u} \right\rangle

in X. Dass das so ist, kann man zeigen, indem man die erste Variation dieses Funktionals gleich 0 setzt:

J\left( u \right) = \frac{1}{2}\int\limits_\Omega {A{u^2}\left( x \right)-f\left( x \right)u\left( x \right)dx}

\delta J = {\left. {\frac{d}{{d\varepsilon }}J\left( {u+\varepsilon v} \right)} \right|_{\varepsilon = 0}}

= {\left. {\int\limits_\Omega {\frac{d}{{d\varepsilon }}\left( {\frac{1}{2}A{u^2}\left( x \right)+Au\left( x \right)\varepsilon v\left( x \right)+\frac{1}{2}A{\varepsilon ^2}{v^2}\left( x \right)-f\left( x \right)u\left( x \right)-f\varepsilon v} \right)dx} } \right|_{\varepsilon = 0}}

= \int\limits_\Omega {Au\left( x \right)v\left( x \right)-f\left( x \right)v\left( x \right)dx}

= a\left( {u,v} \right)-\left\langle {f,v} \right\rangle \mathop = \limits^! 0\quad \Rightarrow \quad a\left( {u,v} \right)\mathop = \limits^! \left\langle {f,v} \right\rangle

Die Idee des Ritz-Verfahrens ist es, J\left( v \right) in dem endlich-dimensionalen Unterraum {X_N} \subset X zu minimieren. Wir nehmen z.B. {X_N} als den Raum, der durch endlich viele Basisvektoren \left\{ {{w_1}, \ldots ,{w_N}} \right\} aufgespannt wird und machen folgenden Ansatz.

Ansatz 2

Wir approximieren u in Form von

{u_N} = \sum\limits_{k = 1}^N {{\alpha _k}{w_k}}.

Nun setzen wir {u_N} in J\left( v \right) ein und versuchen, J durch Berechnung passender {\alpha _k} zu minimieren. Um notwendige und hinreichende Bedingungen für ein Minimum von J in {X_N} zu erhalten, definieren wir:

\tilde J\left( {{\alpha _1}, \ldots ,{\alpha _N}} \right): = J\left( {\sum\limits_{k = 1}^N {{\alpha _k}{w_k}} } \right).

Es folgt:

\tilde J\left( {{\alpha _1}, \ldots ,{\alpha _N}} \right) = \frac{1}{2}a\left( {\sum\limits_{k = 1}^N {{\alpha _k}{w_k}} ,\sum\limits_{j = 1}^N {{\alpha _j}{w_j}} } \right)-\left\langle {f,\sum\limits_{j = 1}^N {{\alpha _j}{w_j}} } \right\rangle

\:\: = \frac{1}{2}\sum\limits_{j,k = 1}^N {{\alpha _k}{\alpha _j}a\left( {{w_k},{w_j}} \right)} -\sum\limits_{j = 1}^N {{\alpha _j}\left\langle {f,{w_j}} \right\rangle }

Wir nehmen nun an, dass a\left( {u,v} \right) positiv definit ist. Dann ist eine notwendige und hinreichende Bedingung für ein Minimum von \tilde J, dass

\frac{\partial }{{\partial {\alpha _l}}}\tilde J\left( {{\alpha _1}, \ldots ,{\alpha _N}} \right) = \sum\limits_{j = 1}^N {{a_{lj}}{\alpha _j}} -{\beta _l}\mathop = \limits^! 0\quad \forall l = 1, \ldots ,N.

Die Ritz-Methode ist also äquivalent zum Galerkin-Verfahren, da wir das lineare Gleichungssystem

\sum\limits_{j = 1}^N {{a_{lj}}{\alpha _j}} = {\beta _l},\quad \forall l = 1, \ldots ,N

lösen müssen.