Differentialgleichungen < gewöhnliche < Differentialgl. < Analysis < Hochschule < Mathe < Vorhilfe
|
Aufgabe | Lösen sie folgende Differntialgleichung:
[mm] x=\pmat{ 0 & -1 \\ -1 & 0 }x [/mm] |
Ich bin dem besprochenen Lösungsweg gefolgt und versucht x(t)= exp [mm] (\pmat{ 0 & -1 \\ -1 & 0 }t)x_{0} [/mm] auszurechnen. Das ist [mm] \pmat{ 1 & 1 \\ -1 & 1 } [/mm] * exp [mm] \vektor{ \pmat{ 1 & 0 \\ 0 & -1 } } [/mm] * [mm] \bruch{1}{2} [/mm] * [mm] \pmat{ 1 & -1 \\ 1 & 1 }
[/mm]
Wie geht es jetzt weiter? Denn exp [mm] \vektor{ \pmat{ 1 & 0 \\ 0 & -1 } } [/mm] konvergiert ja gar nicht.
Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 16:11 Di 21.07.2009 | Autor: | fred97 |
> Lösen sie folgende Differntialgleichung:
> [mm]x=\pmat{ 0 & -1 \\ -1 & 0 }x[/mm]
Du meinst wohl
[mm]x'=\pmat{ 0 & -1 \\ -1 & 0 }x[/mm]
> Ich bin dem besprochenen
> Lösungsweg gefolgt und versucht x(t)= exp [mm](\pmat{ 0 & -1 \\ -1 & 0 }t)x_{0}[/mm]
> auszurechnen. Das ist [mm]\pmat{ 1 & 1 \\ -1 & 1 }[/mm] * exp
> [mm]\vektor{ \pmat{ 1 & 0 \\ 0 & -1 } }[/mm] * [mm]\bruch{1}{2}[/mm] * [mm]\pmat{ 1 & -1 \\ 1 & 1 }[/mm]
Was machst Du da ???????????
>
> Wie geht es jetzt weiter? Denn exp [mm]\vektor{ \pmat{ 1 & 0 \\ 0 & -1 } }[/mm]
> konvergiert ja gar nicht.
Doch ! $exp(A) = [mm] \summe_{n=0}^{\infty}\bruch{A^n}{n!}$ [/mm] konvergiert für jede Matrix A !
>
> Ich habe diese Frage in keinem Forum auf anderen
> Internetseiten gestellt.
Sei $ A [mm] =\pmat{ 0 & -1 \\ -1 & 0 }$
[/mm]
Wenn Du ordentlich rechnest, so siehst Du:
[mm] $A^{2n} [/mm] = E (=$ Einheitsmatrix) und [mm] $A^{2n+1} [/mm] = A$ für n [mm] \in \IN_0
[/mm]
Damit kommst Du auf (nachrechnen !):
$ exp(tA) = sinh(t)A+cosh(t)E$
FRED
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 16:44 Di 21.07.2009 | Autor: | pelzig |
> > Ich bin dem besprochenen
> > Lösungsweg gefolgt und versucht x(t)= exp [mm](\pmat{ 0 & -1 \\ -1 & 0 }t)x_{0}[/mm]
> > auszurechnen. Das ist [mm]\pmat{ 1 & 1 \\ -1 & 1 }[/mm] * exp
> > [mm]\vektor{ \pmat{ 1 & 0 \\ 0 & -1 } }[/mm] * [mm]\bruch{1}{2}[/mm] * [mm]\pmat{ 1 & -1 \\ 1 & 1 }[/mm]
> Was machst Du da ???????????
Er hat A diagonalisiert via [mm] $A=TDT^{-1}$, [/mm] dann ist [mm] $exp(At)=T\cdot\exp(D)\cdot T^{-1}$. [/mm] Damit ist [mm] $$\exp(At)=T\cdot\pmat{e^t&0\\0&e^{-t}}\cdot T^{-1}=1/2\cdot\pmat{e^t+e^{-t}&e^t-e^{-t}\\e^t-e^{-t}&e^t+e^{-t}}$$ [/mm] was ziemlich genau mit deiner Lösung übereinstimmt, und wie ich finde wesentlich eleganter ist. Das einzige was noch fehlte war [mm]\exp(D\cdot t)[/mm] zu berechnen...
Gruß, Robert
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 17:38 Di 21.07.2009 | Autor: | fred97 |
> > > Ich bin dem besprochenen
> > > Lösungsweg gefolgt und versucht x(t)= exp [mm](\pmat{ 0 & -1 \\ -1 & 0 }t)x_{0}[/mm]
> > > auszurechnen. Das ist [mm]\pmat{ 1 & 1 \\ -1 & 1 }[/mm] * exp
> > > [mm]\vektor{ \pmat{ 1 & 0 \\ 0 & -1 } }[/mm] * [mm]\bruch{1}{2}[/mm] * [mm]\pmat{ 1 & -1 \\ 1 & 1 }[/mm]
>
> > Was machst Du da ???????????
> Er hat A diagonalisiert via [mm]$A=TDT^{-1}$,[/mm] dann ist
> [mm]$exp(At)=T\cdot\exp(D)\cdot T^{-1}$.[/mm] Damit ist
> [mm]\exp(At)=T\cdot\pmat{e^t&0\\0&e^{-t}}\cdot T^{-1}=1/2\cdot\pmat{e^t+e^{-t}&e^t-e^{-t}\\e^t-e^{-t}&e^t+e^{-t}}[/mm]
> was ziemlich genau mit deiner Lösung übereinstimmt, und
> wie ich finde wesentlich eleganter ist.
Wieso ? Die Berechnung von [mm]\exp(A\cdot t)[/mm] ist nicht aufwendiger als die Berechnung von [mm]\exp(D\cdot t)[/mm]
bei meiner Lösung spart man sich die Diagonalisiererei
FRED
> Das einzige was
> noch fehlte war [mm]\exp(D\cdot t)[/mm] zu berechnen...
>
> Gruß, Robert
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 18:04 Di 21.07.2009 | Autor: | pelzig |
Ich finde die Lösung mathematisch gesehen einfach eleganter und interessanter. Deine Methode ist sicherlich einfach, etwas elementarer, basiert aber darauf, dass du eine einfache geschlossene Form für die [mm] A^k [/mm] findest und die Potenzreihen siehst, was i.A. sicher nicht so einfach klappen wird.
Gruß, Robert
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 08:24 Mi 22.07.2009 | Autor: | fred97 |
> Ich finde die Lösung mathematisch gesehen einfach
> eleganter und interessanter. Deine Methode ist sicherlich
> einfach, etwas elementarer, basiert aber darauf, dass du
> eine einfache geschlossene Form für die [mm]A^k[/mm] findest und
> die Potenzreihen siehst, was i.A. sicher nicht so einfach
> klappen wird.
Diagonalisieren klappt auch nicht immer ...........
Gruß FRED
>
> Gruß, Robert
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 09:54 Mi 22.07.2009 | Autor: | pelzig |
> Diagonalisieren klappt auch nicht immer ...........
Ok, dann nennen wir es "Jordansche Normalform bilden".
Gruß, Robert
|
|
|
|
|
exp [mm] \vektor{\pmat{ \lambda_1 & 0 \\ 0 & \lambda_2 }}=\pmat{ e^{ \lambda_1 * t} & 0 \\ 0 & e^{ \lambda_2 * t} }?
[/mm]
Oder habe ich da was falsch verstanden?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 21:56 Di 21.07.2009 | Autor: | pelzig |
> exp [mm]\vektor{\pmat{ \lambda_1 & 0 \\ 0 & \lambda_2 }}=\pmat{ e^{ \lambda_1 * t} & 0 \\ 0 & e^{ \lambda_2 * t} }?[/mm]
Nein, [mm] $$\exp\left(\pmat{\lambda_1&0\\0&\lambda_2}\cdot\red{t}\right)=\pmat{e^{\lambda_1t}&0\\0&e^{\lambda_2t}}$$
[/mm]
|
|
|
|
|
> Lösen sie folgende Differntialgleichung:
> > [mm]x=\pmat{ 0 & -1 \\ -1 & 0 }x[/mm]
>
> Du meinst wohl
>
> [mm]x'=\pmat{ 0 & -1 \\ -1 & 0 }x[/mm]
>
>
ja genau!
>
>
> > Ich bin dem besprochenen
> > Lösungsweg gefolgt und versucht x(t)= exp [mm](\pmat{ 0 & -1 \\ -1 & 0 }t)x_{0}[/mm]
> > auszurechnen. Das ist [mm]\pmat{ 1 & 1 \\ -1 & 1 }[/mm] * exp
> > [mm]\vektor{ \pmat{ 1 & 0 \\ 0 & -1 } }[/mm] * [mm]\bruch{1}{2}[/mm] * [mm]\pmat{ 1 & -1 \\ 1 & 1 }[/mm]
>
> Was machst Du da ???????????
>
>
Ich folge dem Lösungsweg, den wir besprochen haben, auch wenn ich ihn nicht so ganz verstehe.
Wenn [mm] A=BJB^{-1}, [/mm] mit J= Jordanform, dann ist exp (A)=B exp(J) [mm] B^{-1}.
[/mm]
>
>
> >
> > Wie geht es jetzt weiter? Denn exp [mm]\vektor{ \pmat{ 1 & 0 \\ 0 & -1 } }[/mm]
> > konvergiert ja gar nicht.
>
> Doch ! [mm]exp(A) = \summe_{n=0}^{\infty}\bruch{A^n}{n!}[/mm]
> konvergiert für jede Matrix A !
>
>
>
>
> Sei [mm]A =\pmat{ 0 & -1 \\ -1 & 0 }[/mm]
>
> Wenn Du ordentlich rechnest, so siehst Du:
>
> [mm]A^{2n} = E (=[/mm] Einheitsmatrix) und [mm]A^{2n+1} = A[/mm] für n [mm]\in \IN_0[/mm]
>
>
> Damit kommst Du auf (nachrechnen !):
>
> [mm]exp(tA) = sinh(t)A+cosh(t)E[/mm]
>
> FRED
Gut. Mal angenommen es konvergiert. Wie rechne ich jetzt damit weiter? Oder genauer gefragt: Ich stelle zwar brav nach Lösungsansatz mein [mm] x(t)=exp(At)x_0 [/mm] auf, aber was soll das eigentlich und was mache ich dann damit?
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 16:56 Di 21.07.2009 | Autor: | fred97 |
> > Lösen sie folgende Differntialgleichung:
> > > [mm]x=\pmat{ 0 & -1 \\ -1 & 0 }x[/mm]
> >
> > Du meinst wohl
> >
> > [mm]x'=\pmat{ 0 & -1 \\ -1 & 0 }x[/mm]
> >
> >
> ja genau!
> >
> >
> > > Ich bin dem besprochenen
> > > Lösungsweg gefolgt und versucht x(t)= exp [mm](\pmat{ 0 & -1 \\ -1 & 0 }t)x_{0}[/mm]
> > > auszurechnen. Das ist [mm]\pmat{ 1 & 1 \\ -1 & 1 }[/mm] * exp
> > > [mm]\vektor{ \pmat{ 1 & 0 \\ 0 & -1 } }[/mm] * [mm]\bruch{1}{2}[/mm] * [mm]\pmat{ 1 & -1 \\ 1 & 1 }[/mm]
>
> >
> > Was machst Du da ???????????
> >
> >
> Ich folge dem Lösungsweg, den wir besprochen haben, auch
> wenn ich ihn nicht so ganz verstehe.
>
> Wenn [mm]A=BJB^{-1},[/mm] mit J= Jordanform, dann ist exp (A)=B
> exp(J) [mm]B^{-1}.[/mm]
> >
> >
> > >
> > > Wie geht es jetzt weiter? Denn exp [mm]\vektor{ \pmat{ 1 & 0 \\ 0 & -1 } }[/mm]
> > > konvergiert ja gar nicht.
> >
> > Doch ! [mm]exp(A) = \summe_{n=0}^{\infty}\bruch{A^n}{n!}[/mm]
> > konvergiert für jede Matrix A !
> >
> >
> >
> >
> > Sei [mm]A =\pmat{ 0 & -1 \\ -1 & 0 }[/mm]
> >
> > Wenn Du ordentlich rechnest, so siehst Du:
> >
> > [mm]A^{2n} = E (=[/mm] Einheitsmatrix) und [mm]A^{2n+1} = A[/mm] für n [mm]\in \IN_0[/mm]
>
> >
> >
> > Damit kommst Du auf (nachrechnen !):
> >
> > [mm]exp(tA) = sinh(t)A+cosh(t)E[/mm]
> >
> > FRED
> Gut. Mal angenommen es konvergiert.
? Es konvergiert !
> Wie rechne ich jetzt
> damit weiter? Oder genauer gefragt: Ich stelle zwar brav
> nach Lösungsansatz mein [mm]x(t)=exp(At)x_0[/mm] auf, aber was soll
> das eigentlich und was mache ich dann damit?
Es ist
[mm] $\exp(tA)=1/2\cdot\pmat{e^t+e^{-t}&e^t-e^{-t}\\e^t-e^{-t}&e^t+e^{-t}} [/mm] $
Die Spalten dieser Matrix bilden ein Fundamentalsystem deiner Differentialgleichung.
Ist [mm] x_0 \in \IR^2 [/mm] gegeben, so ist die eindeutig bestimmte Lösung des Anfangswertproblems
$ [mm] x'=\pmat{ 0 & -1 \\ -1 & 0 }x [/mm] ; x(0) = [mm] x_0 [/mm] $
gegeben durch
$x(t) = [mm] exp(tA)x_0$
[/mm]
FRED
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 17:06 Di 21.07.2009 | Autor: | pelzig |
> Gut. Mal angenommen es konvergiert. Wie rechne ich jetzt
> damit weiter? Oder genauer gefragt: Ich stelle zwar brav
> nach Lösungsansatz mein [mm]x(t)=exp(At)x_0[/mm] auf, aber was soll
> das eigentlich und was mache ich dann damit?
Siehe oben...
|
|
|
|
|
Das heißt, ich kann nur eine Lösung der Differentialgleichung finden, wenn ich einen Punkt [mm] x_{0} [/mm] gegeben habe, von dem aus ich mein
$ x(t) = exp [mm] (At)*x_{0} [/mm] entwickeln kann?
|
|
|
|
|
Hallo derdickeduke,
> Das heißt, ich kann nur eine Lösung der
> Differentialgleichung finden, wenn ich einen Punkt [mm]x_{0}[/mm]
> gegeben habe, von dem aus ich mein
> $ x(t) = exp [mm](At)*x_{0}[/mm] entwickeln kann?
Durch [mm]e^{At}[/mm] ist eine Fundamentalsystem der DGL gegeben.
Der Punkt [mm]x_{0}[/mm] konkretisiert die Lösung der DGL.
Gruß
MathePower
|
|
|
|
|
Für eine andere Teilaufgabe hat man dasselbe Spiel mit der Matrix
[mm] \pmat{ -2 & 5 \\ -1 & 2 } [/mm] zu spielen.
Dabei komme ich auf:
[mm] exp(At)=\pmat{ ie^{it}+1/2*e^{it} & -ie^{-it}+1/2*e^{-it} \\ -ie^{it}+1/2*e^{it} & ie^{-it}+1/2*e^{-it} }
[/mm]
Ist das richtig?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 07:02 Do 23.07.2009 | Autor: | fred97 |
> Für eine andere Teilaufgabe hat man dasselbe Spiel mit der
> Matrix
> [mm]\pmat{ -2 & 5 \\ -1 & 2 }[/mm] zu spielen.
>
> Dabei komme ich auf:
> [mm]exp(At)=\pmat{ ie^{it}+1/2*e^{it} & -ie^{-it}+1/2*e^{-it} \\ -ie^{it}+1/2*e^{it} & ie^{-it}+1/2*e^{-it} }[/mm]
>
> Ist das richtig?
Nein, das kann nicht richtig sein, denn für t = 0 müßte die Einheitsmatrix rauskommen, was bei Dir aber nicht der Fall ist.
Ohne Gewähr:
ich komme auf $exp(At) =cos(t)E+sin(t)A$
FRED
>
>
|
|
|
|
|
> > Für eine andere Teilaufgabe hat man dasselbe Spiel mit der
> > Matrix
> > [mm]\pmat{ -2 & 5 \\ -1 & 2 }[/mm] zu spielen.
> >
> > Dabei komme ich auf:
> > [mm]exp(At)=\pmat{ ie^{it}+1/2*e^{it} & -ie^{-it}+1/2*e^{-it} \\ -ie^{it}+1/2*e^{it} & ie^{-it}+1/2*e^{-it} }[/mm]
>
> >
> > Ist das richtig?
>
>
> Nein, das kann nicht richtig sein, denn für t = 0 müßte
> die Einheitsmatrix rauskommen, was bei Dir aber nicht der
> Fall ist.
>
> Ohne Gewähr:
>
> ich komme auf [mm]exp(At) =cos(t)E+sin(t)A[/mm]
>
> FRED
>
>
> >
> >
Aber eine Berechnung über Diagonalisierung wie für die erste Matrix ist doch möglich, oder? (falls man sich nicht verrechnet;) )
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 08:36 Do 23.07.2009 | Autor: | fred97 |
> > > Für eine andere Teilaufgabe hat man dasselbe Spiel mit der
> > > Matrix
> > > [mm]\pmat{ -2 & 5 \\ -1 & 2 }[/mm] zu spielen.
> > >
> > > Dabei komme ich auf:
> > > [mm]exp(At)=\pmat{ ie^{it}+1/2*e^{it} & -ie^{-it}+1/2*e^{-it} \\ -ie^{it}+1/2*e^{it} & ie^{-it}+1/2*e^{-it} }[/mm]
>
> >
> > >
> > > Ist das richtig?
> >
> >
> > Nein, das kann nicht richtig sein, denn für t = 0 müßte
> > die Einheitsmatrix rauskommen, was bei Dir aber nicht der
> > Fall ist.
> >
> > Ohne Gewähr:
> >
> > ich komme auf [mm]exp(At) =cos(t)E+sin(t)A[/mm]
> >
> > FRED
> >
> >
> > >
> > >
>
> Aber eine Berechnung über Diagonalisierung wie für die
> erste Matrix ist doch möglich, oder? (falls man sich nicht
> verrechnet;) )
Ja, $ [mm] \pmat{ -2 & 5 \\ -1 & 2 } [/mm] $ ist diagonalisierbar.
Auch wenn pelzig anderer Meinung ist, ich denke es geht schneller, wenn man
benutzt:
[mm] $A^{2k}= [/mm] (-1)^kE$ und [mm] $A^{2k+1}= [/mm] (-1)^kA$
für $k [mm] \in \IN_0$
[/mm]
FRED
|
|
|
|
|
Ich habe nachgerechnet und komme nun auf
[mm] exp(At)=\pmat{ (i+1/2)e^{it}-(i-1/2)e^{-it} & -5/2*e^{it}+5/2*e^{-it} \\ i/2*e^{it}-i/2*e^{-it} & (-i+1/2)*e^{it}+(i+1/2)e^{it} },
[/mm]
wobei dann wieder die Spalten dieser Matrix die Lösung Aufgabe bilden, oder?
|
|
|
|
|
Hallo skandalon,
> Ich habe nachgerechnet und komme nun auf
> [mm]exp(At)=\pmat{ (i+1/2)e^{it}-(i-1/2)e^{-it} & -5/2*e^{it}+5/2*e^{-it} \\ i/2*e^{it}-i/2*e^{-it} & (-i+1/2)*e^{it}+(i+1/2)e^{it} },[/mm]
Jetzt stimmt's.
>
> wobei dann wieder die Spalten dieser Matrix die Lösung
> Aufgabe bilden, oder?
Nun, die obige Matrix bildet ein Fundamentalsystem der DGL
[mm]x'=A*x[/mm]
Gruß
MathePower
|
|
|
|