3.2 – Einführung in Sobolev-Räume

 

Es gibt viele Möglichkeiten, Sobolev-Räume zu definieren. Die folgende basiert auf trigonometrischen Polynomen und der Fouriertransformation. Wir definieren zunächst die Norm für s \in \mathbb{R}:

\left\| f \right\|_s^2 = \left\| f \right\|_{{H^s}}^2: = \sum\limits_{k = -\infty }^\infty {{{\hat k}^{2s}}{{\left| {\hat f\left( k \right)} \right|}^2}} ,\quad \hat k: = \left\{ {\begin{array}{*{20}{c}}{1,}&{k = 0} \\ {2\pi \left| k \right|,}&{k \ne 0} \end{array}} \right.

Der Sobolev-Raum {H^s} ist nun definiert als der Abschluss von T unter der Norm {\left\| {\: \cdot \:} \right\|_s}. {H^s} ist ein Hilbert-Raum über \mathbb{C} mit innerem Produkt

{\left\langle {f,g} \right\rangle _s}: = \sum\limits_{k = -\infty }^\infty {{{\hat k}^{2s}}\hat f\left( k \right)\overline {\hat g\left( k \right)} }.

Eigenschaften von Hs

  1. {H^0} = {L^2} wegen der Parsevalschen Gleichung
  2. f \in {H^s} \Leftrightarrow j-te Ableitung {f^{\left( j \right)}} \in {H^{s-j}} für s \in \mathbb{R}, j \in \mathbb{N}. Das bedeutet, dass sich {H^s} bei Differentiation genauso verhält wie der Raum {C^n}: f \in {C^n} \Leftrightarrow {f^{\left( j \right)}} \in {C^{n-j}},\:\:n,j \in \mathbb{N},\:\:n > j
  3. s \geq t \Rightarrow {H^s} \subset {H^t}.
    Beachte: {C^\infty } \subset \ldots \subset {H^s} \subset \ldots \subset {H^0} = {L^2} \subset \ldots \subset {H^t} \subset \ldots ,\:\:s > 0,t < 0
  4. In {H^n} sind die Funktionen, die n-1 mal stetig differenzierbar sind, während die n-te Ableitung im schwachen Sinne verstanden wird. Beispiel: {H^1} \subset {C^0}, {C^1} \subset {H^1}
    Die n-te Ableitung muss noch in {L^2} liegen.

Mit den \left( {2N+1} \right) Basisfunktionen {w_k} von {T_N} sei

{P_N}:{H^s} \to {T_N},\quad u = \sum\limits_{k = -\infty }^\infty {\hat u\left( k \right){w_k}} \mapsto {P_N}u = \sum\limits_{k = -N}^N {\hat u\left( k \right){w_k}}.

Dann ist {P_N} eine orthogonale Projektion auf {T_N}, da für alle s \in \mathbb{R}, u,v \in {H^s} gilt:

{\left\langle {{P_N}u,v} \right\rangle _s} = \sum\limits_{k = -N}^N {{{\hat k}^{2s}}\hat u\left( k \right)\overline {\hat v\left( k \right)} } = {\left\langle {u,{P_N}v} \right\rangle _s} ({P_N} ist symmetrisch)

P_N^2 = {P_N} ({P_N} ist idempotent)

Daher gilt für v \in {T_N}:

\left\| {u-v} \right\|_{{H^s}}^2 = \sum\limits_{k = -N}^N {{{\hat k}^{2s}}{{\left| {\hat u\left( k \right)-\hat v\left( k \right)} \right|}^2}} +\sum\limits_{\left| k \right| > N} {{{\hat k}^{2s}}{{\left| {\hat u\left( k \right)} \right|}^2}},

wobei die erste Summe gleich \left\| {{P_N}\left( {u-v} \right)} \right\|_{{H^s}}^2 \leq \left\| {{P_N}u-v} \right\|_{{H^s}}^2, da {P_N}v = v.

Daher zeigt die Wahl v = {P_N}u, dass

\left\| {u-{P_N}u} \right\|_{{H^s}}^2 \leq \left\| {u-v} \right\|_{{H^s}}^2,\:\:\forall v \in {T_N},

und {P_N}u ist die beste Repräsentation von u \in {H^s} in {T_N} (unabhängig von s \in \mathbb{R}).