0.3 – LTI-Systeme im Zustandsraum

 

0.3.1 Lösung der Zustandsgleichung

Wir betrachten zunächst den skalaren Zustand mit skalaren Ein- und Ausgangsgrößen. Die Zustandsgleichung lautet für diesen Fall:

\dot x\left( t \right) = ax\left( t \right)+bu\left( t \right)\quad \Rightarrow \quad \dot x\left( t \right)-ax\left( t \right) = bu\left( t \right),\quad x\left( 0 \right) = {x_0}

Der Lösungsraum setzt sich additiv aus homogener und inhomogener Lösung zusammen. Wir betrachten die homogene Gleichung \dot x\left( t \right)-ax\left( t \right) = 0 und verwenden den Exponentialansatz:

x\left( t \right) = k{e^{\lambda t}}\quad \Rightarrow \quad \dot x\left( t \right) = k\lambda {e^{\lambda t}}

Einsetzen in die Differentialgleichung:

\dot x\left( t \right)-ax\left( t \right) = k\lambda {e^{\lambda t}}-ak{e^{\lambda t}} = 0\quad \mathop \Rightarrow \limits^{k \ne 0} \quad \lambda = a\quad \Rightarrow \quad x\left( t \right) = k{e^{at}}

Für die inhomogene Lösung verwenden wir die Methode der Variation der Konstanten, indem wir die Konstante k durch eine Funktion der Zeit k\left( t \right) ersetzen und die resultierende Ansatzfunktion x\left( t \right) in die inhomogene DGL einsetzen:

x\left( t \right) = k\left( t \right){e^{at}}\quad \Rightarrow \quad \dot x\left( t \right) = \dot k\left( t \right){e^{at}}+k\left( t \right)a{e^{at}}

\dot k\left( t \right){e^{at}}+k\left( t \right)a{e^{at}}-ak\left( t \right){e^{at}} = bu\left( t \right)\quad \Rightarrow \quad \dot k\left( t \right) = {e^{-at}}bu\left( t \right)

Wir müssen \dot k\left( t \right) nun nur noch über die Zeit integrieren und in die Ansatzfunktion einsetzen:

k\left( t \right)-k\left( 0 \right) = \int_0^t {\dot k\left( \tau \right)d\tau } = \int_0^t {{e^{-a\tau }}bu\left( \tau \right)d\tau }

\Rightarrow \quad k\left( t \right) = k\left( 0 \right)+\int_0^t {{e^{-a\tau }}bu\left( \tau \right)d\tau }

x\left( t \right) = k\left( t \right){e^{at}} = k\left( 0 \right){e^{at}}+\int_0^t {{e^{a\left( {t-\tau } \right)}}bu\left( \tau \right)d\tau }

Mit der Anfangsbedingung kommen wir auf eine eindeutige Lösung (Bewegungsgleichung):

{x_0}\mathop = \limits^! x\left( 0 \right) = k\left( 0 \right){e^0} = k\left( 0 \right)\quad \Rightarrow \quad x\left( t \right) = \underbrace {{x_0}{e^{at}}}_{{x_{frei}}\left( t \right)}+\underbrace {\int_0^t {{e^{a\left( {t-\tau } \right)}}bu\left( \tau \right)d\tau } }_{{x_{erzw}}\left( t \right)}

Die Eigenbewegung {x_{frei}}\left( t \right) hat, je nach Vorzeichen des Parameters a, drei typische Formen:

a < 0: Eigenbewegung klingt exponentiell ab, System geht in Ruhezustand über

a = 0: System verharrt in Anfangszustand

a > 0: Eigenbewegung klingt exponentiell auf und entfernt sich immer weiter von Ruhelage

Wir kommen nun zum vektoriellen Zustand. Hier lautet die Zustandsgleichung

\dot {\vec x} = A\vec x+B\vec u,\quad \quad \vec x\left( 0 \right) = {\vec x_0}

mit \vec x \in {\mathbb{R}^n},\:\:\vec u \in {\mathbb{R}^p},\:\:A \in {\mathbb{R}^{n \times n}},\:\:B \in {\mathbb{R}^{n \times p}}. Sie wird analog zum skalaren Fall gelöst. Wir betrachten wieder zunächst die homogene Gleichung \dot {\vec x} = A\vec x. Wir benutzen wieder einen Exponentialansatz mit dem matrixwertigen Argument At. Hierzu ein kleiner Einschub:

Berechnung von {e^{At}} und \frac{d}{{dt}}{e^{At}}:

Wir erinnern uns an die Darstellung der reellen Exponentialfunktion als Grenzwert einer unendlichen Reihe:

{e^{at}} = 1+at+\frac{{{{\left( {at} \right)}^2}}}{{2!}}+\frac{{{{\left( {at} \right)}^3}}}{{3!}}+ \ldots = \sum\limits_{i = 0}^\infty {\frac{{{{\left( {at} \right)}^i}}}{{i!}}}

Solch eine Summe kann für die Matrix At ebenfalls gebildet werden. Wir definieren daher {e^{At}} als den folgenden Grenzwert:

{e^{At}} = I+\left( {At} \right)+\frac{{{{\left( {At} \right)}^2}}}{{2!}}+\frac{{{{\left( {At} \right)}^3}}}{{3!}}+ \ldots = \sum\limits_{i = 0}^\infty {\frac{{{{\left( {At} \right)}^i}}}{{i!}}}

Diese Reihe konvergiert für alle Matrizen A \in {\mathbb{R}^{n \times n}} und der Grenzwert {e^{At}} ist für beliebige Matrizen A \in {\mathbb{R}^{n \times n}} regulär und damit invertierbar. Der Wert von {e^{At}} für t = 0 ist gleich der Einheitsmatrix.

Für die Ableitung \frac{d}{{dt}}{e^{At}} leiten wir die Summanden einzeln ab:

\frac{d}{{dt}}{e^{At}} = \frac{d}{{dt}}\left( {I+\left( {At} \right)+\frac{{{A^2}{t^2}}}{{2 \cdot 1!}}+\frac{{{A^3}{t^3}}}{{3 \cdot 2!}}+ \ldots } \right)

= A+\frac{{{A^2}t}}{{1!}}+\frac{{{A^3}{t^2}}}{{2!}}+ \ldots = {e^{At}}A = A{e^{At}}

Analog zum skalaren Fall ist die Lösung der homogenen DGL:

\vec x\left( t \right) = {e^{At}}\vec k,\quad k \in {\mathbb{R}^n}

Für die inhomogene DGL benutzen wir wieder die Variation der Konstanten:

\vec x\left( t \right) = {e^{At}}\vec k\left( t \right)\quad \Rightarrow \quad \dot {\vec x}\left( t \right) = A{e^{At}}\vec k\left( t \right)+{e^{At}}\dot {\vec k}\left( t \right)

\dot {\vec x} = A\vec x+B\vec u\quad \Rightarrow \quad \underline {A{e^{At}}\vec k\left( t \right)} +{e^{At}}\dot {\vec k}\left( t \right) = \underline {A{e^{At}}\vec k\left( t \right)} +B\vec u

\Rightarrow \quad \dot {\vec k}\left( t \right) = {e^{-At}}B\vec u\left( t \right)

\vec k\left( t \right)-\vec k\left( 0 \right) = \int_0^t {\dot {\vec k}\left( \tau \right)d\tau } = \int_0^t {{e^{-A\tau }}B\vec u\left( \tau \right)d\tau }

\Rightarrow \quad \vec k\left( t \right) = \vec k\left( 0 \right)+\int_0^t {{e^{-A\tau }}B\vec u\left( \tau \right)d\tau }

\vec x\left( t \right) = \underbrace {{e^{At}}\vec k\left( 0 \right)}_{{{\vec x}_{frei}}\left( t \right)}+\underbrace {\int_0^t {{e^{A\left( {t-\tau } \right)}}B\vec u\left( \tau \right)d\tau } }_{{{\vec x}_{erzw}}\left( t \right)},\quad \quad \vec k\left( 0 \right) = {{\vec x}_0}

In Abwesenheit einer äußeren Erregung \vec u\left( t \right) wird der Übergang (die Transition) eines Anfangszustandes \vec x\left( 0 \right) = {\vec x_0} innerhalb der Zeit t auf den Zustand \vec x\left( t \right) allein durch die sogenannte Transitionsmatrix \phi \left( t \right): = {e^{At}} bestimmt. Der Übergang von \vec x\left( {{t_1}} \right) nach \vec x\left( {{t_2}} \right) wird dann nur durch \phi \left( {{t_2}-{t_1}} \right) bestimmt.

0.3.2 Diagonalisierung der Systemmatrix, Berechnung der Transitionsmatrix

Im letzten Abschnitt haben wir die Transitionsmatrix

\phi \left( t \right) \equiv {e^{At}} = \sum\limits_{i = 0}^\infty {\frac{{{{\left( {At} \right)}^i}}}{{i!}}}

eines LTI-Systems hergeleitet. Wir möchten nun diese Matrix explizit berechnen. Die Berechnung lässt sich in dem Spezialfall leicht durchführen, dass die Systemmatrix A eine Diagonalmatrix ist:

A = \Lambda = \left( {\begin{array}{*{20}{c}}{{\lambda _1}} & \ldots & 0 \\ \vdots & \ddots & \vdots \\ 0 & \ldots & {{\lambda _n}} \\ \end{array} } \right)

\Rightarrow \quad \phi \left( t \right) = \left( {\begin{array}{*{20}{c}}{\sum\limits_{i = 0}^\infty {\frac{{\lambda _1^i{t^i}}}{{i!}}} } & \ldots & 0 \\ \vdots & \ddots & \vdots \\ 0 & \ldots & {\sum\limits_{i = 0}^\infty {\frac{{\lambda _n^i{t^i}}}{{i!}}} } \\ \end{array} } \right) = \left( {\begin{array}{*{20}{c}}{{e^{{\lambda _1}t}}} & \ldots & 0 \\ \vdots & \ddots & \vdots \\ 0 & \ldots & {{e^{{\lambda _n}t}}} \\ \end{array} } \right)

Falls wir ein LTI-System vorliegen haben, dessen Systemmatrix nicht diagonal ist, so können wir versuchen, durch eine Koordinatentransformation des Zustandsraums diese Diagonalstruktur herbeizuführen. Hierzu erinnern wir uns an folgendes Verfahren.

Koordinatentransformation:
Die Komponenten {x_i} des Zustands \vec x können als Koordinaten des Vektors \vec x bezüglich der Standardbasis des n-dimensionalen Zustandsraums \left\{ {{{\vec e}_1}, \ldots ,{{\vec e}_n}} \right\} aufgefasst werden. Äquivalenterweise können wir \vec x auch durch seine Koordinaten {z_i} bezüglich einer anderen, von uns gewählten Basis \left\{ {{{\vec v}_1}, \ldots ,{{\vec v}_n}} \right\} des Zustandsraums darstellen:

koordinaten-transformation-zustandsraum-basis

\vec x = {z_1}{\vec v_1}+ \ldots +{z_n}{\vec v_n} = \underbrace {\left( {\begin{array}{*{20}{c}}{{{\vec v}_1}} & \ldots & {{{\vec v}_n}} \\ \end{array} } \right)}_{ = :V \in {\mathbb{R}^{n \times n}}}\underbrace {\left( {\begin{array}{*{20}{c}}{{z_1}} \\ \vdots \\{{z_n}} \\ \end{array} } \right)}_{ = :\vec z \in {\mathbb{R}^n}} = V\vec z

Diese Transformation wenden wir nun auf die alten Zustandsgleichungen an:

\dot {\vec x} = A\vec x+B\vec u,\quad \vec x\left( 0 \right) = {{\vec x}_0}
\Rightarrow \quad V\dot {\vec z} = AV\vec z+B\vec u,\quad V\vec z\left( 0 \right) = V{{\vec z}_0}\quad |{V^{-1}} \cdot \left\{ \ldots \right\}
\Rightarrow \quad {V^{-1}}V\dot {\vec z} = {V^{-1}}AV\vec z+{V^{-1}}B\vec u,\quad \quad {V^{-1}}V\vec z\left( 0 \right) = {V^{-1}}V{{\vec z}_0}
\Rightarrow \quad \dot {\vec z} = \underbrace {{V^{-1}}AV}_{ = :\hat A}\vec z+\underbrace {{V^{-1}}B}_{ = :\hat B}\vec u,\quad \quad \vec z\left( 0 \right) = {{\vec z}_0}
\vec y = C\vec x+D\vec u\quad \Rightarrow \quad \vec y = \underbrace {CV}_{ = :\hat C}\vec z+\underbrace D_{ = :\hat D}\vec u

Wir erhalten damit die neuen (transformierten) Zustandsgleichungen:

\dot {\vec z} = \hat A\vec z+\hat B\vec u,\quad \quad \vec z\left( 0 \right) = {{\vec z}_0}
\vec y = \hat C\vec z+\hat D\vec u

Unsere Strategie, die Transitionsmatrix unseres LTI-Systems explizit zu berechnen, besteht damit aus drei Schritten:

  1. Finde eine reguläre (d.h. invertierbare) Zustandstransformation \vec x = V\vec z, so dass die Systemmatrix \hat A des transformierten Systems Diagonalstruktur hat.
  2. Als Reihensumme von Summanden mit Diagonalstruktur hat die Transitionsmatrix \hat \phi \left( t \right) = {e^{\hat At}} des transformierten Systems dann ebenfalls Diagonalstruktur und kann einfach berechnet werden (siehe oben).
  3. Die Transitionsmatrix \phi \left( t \right) der ursprünglichen Systemdarstellung ergibt sich durch die inverse Zustandstransformation (d.h. Rücktransformation). In Analogie zu den Transformationsformeln für die Systemmatrix A,

    \hat A = {V^{-1}}AV\quad \Leftrightarrow \quad A = V\hat A{V^{-1}},

    lautet die Formel für die Rücktransformation der Transitionsmatrix:

    \phi \left( t \right) = V\hat \phi \left( t \right){V^{-1}}

Zum ersten Schritt:

\hat A soll Diagonalstruktur haben. Daraus ergibt sich folgendes:

\hat A = {V^{-1}}AV\mathop = \limits^! \Lambda \quad \Rightarrow \quad AV = V\Lambda

\Rightarrow \quad \left( {\begin{array}{*{20}{c}}{A{{\vec v}_1}} & \ldots & {A{{\vec v}_n}} \\ \end{array} } \right) = \left( {\begin{array}{*{20}{c}}{{\lambda _1}{{\vec v}_1}} & \ldots & {{\lambda _n}{{\vec v}_n}} \\ \end{array} } \right)

\Rightarrow \quad \left( {A-{\lambda _i}I} \right){{\vec v}_i} = \vec 0

Im nicht-trivialen Fall {\vec v_i} \ne 0 folgt daraus \det \left( {A-{\lambda _i}} \right) = 0. Damit müssen aber die Zahlen {\lambda _1}, \ldots ,{\lambda _n} die Nullstellen des charakteristischen Polynoms der Systemmatrix A und daher die Eigenwerte der Matrix A sein. Die nicht-trivialen Vektoren {\vec v_i} werden als die zu den {\lambda _i} gehörigen Eigenvektoren bezeichnet. Die Systemmatrix A \in {\mathbb{R}^{n \times n}} des LTI-Systems kann genau dann mittels einer regulären Zustandstransformation (die komplexwertig sein kann!) auf Diagonalform \hat A = \Lambda transformiert werden, wenn zu A n linear unabhängige (evtl. auch komplexwertige) Eigenvektoren existieren.

Wir wollen im folgenden stets annehmen, dass dies der Fall ist.

Algorithmische Darstellung des Verfahrens zur Berechnung der Transitionsmatrix \phi \left( t \right):

  1. Berechne die Eigenwerte {\lambda _1}, \ldots ,{\lambda _n} von A.
  2. Bestimme die Eigenvektoren zu A als nicht-triviale Lösung von \left( {A-{\lambda _i}I} \right){\vec v_i} = \vec 0.
  3. Bilde daraus die Transformationsmatrix V = \left( {\begin{array}{*{20}{c}}{{{\vec v}_1}} & \ldots & {{{\vec v}_n}} \\ \end{array} } \right)
  4. Berechne \hat A = {V^{-1}}AV und damit \hat \phi \left( t \right) = {e^{\hat At}}
  5. Berechne die Transitionsmatrix \phi \left( t \right) = V\hat \phi \left( t \right){V^{-1}} bezüglich der originalen Darstellung

0.3.3 Komplexe Eigenwerte, Eigenbewegungen des Systems

Die Systemmatrix A ist das Ergebnis einer physikalischen Modellierung und hat daher nur reelle Matrixelemente. Daraus folgt, dass auch die Koeffizienten des charakteristischen Polynoms reell sind. Die Nullstellen können allerdings komplex sein. Wenn aber einer komplexe Zahl \lambda = \delta +j\omega Nullstelle ist, dann ist ihre komplex Konjugierte {\lambda ^*} = \delta -j\omega ebenfalls Nullstelle. Komplexe Eigenwerte treten also stets als konjugiert komplexe Eigenwert-Paare auf. Die zugehörigen Eigenvektoren sind ebenfalls konjugiert komplex.

Die Diagonalisierung der Systemmatrix beschert uns folgende Zustandsgleichung für die neuen Zustandskoordinaten \vec z:

{{\dot z}_1} = {\lambda _1}{z_1}+{{\hat B}_{11}}{u_1}+ \ldots +{{\hat B}_{1p}}{u_p}

\vdots

{{\dot z}_n} = {\lambda _n}{z_n}+{{\hat B}_{n1}}{u_1}+ \ldots +{{\hat B}_{np}}{u_p}

Wie man sieht, sind die Gleichungen entkoppelt. Dadurch können sie leicht in einem Signalflussdiagramm dargestellt werden.

Die Gleichungen für die freie Bewegung lauten

{\dot z_i} = {\lambda _i}{z_{i,frei}}\left( t \right)

Auch diese sind entkoppelt und können jeweils für sich gelöst werden:

{z_i}\left( t \right) = {e^{{\lambda _i}t}}{z_i}\left( 0 \right)

Um aus den kanonischen Zustandskoordinaten {z_i} den ursprünglichen, physikalisch interpretierbaren Zustand \vec x zurückzugewinnen, schreiben wir \vec x als Linearkombination der n Lösungen längs der Eigenvektoren:

{\vec x_{frei}}\left( t \right) = {z_1}\left( 0 \right){e^{{\lambda _1}t}}{\vec v_1}+ \ldots +{z_n}\left( 0 \right){e^{{\lambda _n}t}}{\vec v_n}

Die Lösungen {e^{{\lambda _i}}}{\vec v_i} werden Eigenbewegungen oder Modi des Systems genannt. Zwei Fälle sind hier zu unterscheiden:

  1. {\lambda _i} sind reell: reines Auf- oder Abklingen, keine Schwingung
  2. {\lambda _i} sind komplex: Auf- oder abklingende Schwingung

An der Lage eines komplexen Eigenwertpaares in der komplexen Ebene sehen wir also, wie schnell das System schwingt und wie schnell es dabei auf- oder abklingt:

pol-nullstelle-frequenz-komplex-ebene-imaginar-reell

Der Eigenwert mit dem größten Realteil heißt dominanter Eigenwert. Von ihm hängt das Langzeitverhalten des Systems ab.

0.3.4 Stabilitätskriterien

Ein System ist asymptotisch stabil, wenn die folgenden äquivalenten Aussagen gelten:

  • \mathop {\lim }\limits_{t \to \infty } \vec x\left( t \right) = \vec 0
  • {e^{{\delta _i}t}}\xrightarrow{{t \to \infty }}0
  • \operatorname{Re} {\lambda _i} = {\delta _i} < 0\quad \forall i = 1, \ldots ,n

Analog dazu ist ein System instabil, wenn die folgenden äquivalenten Aussagen gelten:

  • \mathop {\lim }\limits_{t \to \infty } \vec x\left( t \right) = \infty
  • \exists {\delta _i}:{e^{{\delta _i}t}}\xrightarrow{{t \to \infty }}\infty
  • \exists {\lambda _i}:\operatorname{Re} {\lambda _i} = {\delta _i} > 0

Ist ein System asymptotisch stabil, so ist es auch BIBO-stabil. Die Umkehrung gilt nicht zwingend. Das Hurwitz-Kriterium erlaub es, die asymptotische Stabilität eines dynamischen Systems zu untersuchen, ohne die Eigenwerte explizit berechnen zu müssen. Vorgehen:

  1. Stelle das charakteristische Polynom auf: {a_n}{\lambda ^n}+{a_{n-1}}{\lambda ^{n-1}}+ \ldots +{a_1}\lambda +{a_0}
  2. Wenn alle {a_i} vorkommen und positiv sind, stelle folgende Matrix auf:

    H = \left( {\begin{array}{*{20}{c}}{{a_1}} & {{a_3}} & {{a_5}} & \ldots \\{{a_0}} & {{a_2}} & {{a_4}} & \ldots \\ 0 & {{a_1}} & {{a_3}} & \ldots \\ 0 & {{a_0}} & {{a_2}} & \ldots \\ \vdots & \vdots & \vdots & \ddots \\ \end{array} } \right) \in {\mathbb{R}^{n \times n}},\quad \quad {\left. {{a_i}} \right|_{i > n}} = 0

  3. Berechne die Determinanten {D_i} der \left( {i \times i} \right)-Matrizen von der oberen linken Ecke aus. Wenn alle diese Hurwitz-Determinanten positiv sind, ist das LTI-System asymptotisch stabil.

Ähnliche Artikel

Kommentar verfassen