Fourier-Transformierte < Analysis < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 15:22 Do 30.12.2004 | Autor: | Bastiane |
Hallo ihr im Matheraum!
Nachtrag: Ich nehme mal an, dass sich nicht wirklich viele so genau mit dieser Aufgabe hier beschäftigt haben, deswegen schreibe ich mal meine weitere Erkenntnis direkt hier rein und nicht in eine neue Mitteilung!
Ich habe da gerade ein Problemchen bei der Berechnung einer Fourier-Transformierten - vielleicht habe ich auch nur gerade ein Brett vorm Kopf wegen der Ferien...
Sei A eine symmetrische, positiv definite Matrix mit reellen Einträgen. Berechnen Sie die Fourier-Transformierte der Funktion
[mm] f:\IR^n\to\IR, \; f(x)=e^{-}
[/mm]
Nun ist die Fouriertransformierte folgendermaßen definiert:
[mm] \hat{f}(\xi)=\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{e^{-i<\xi,x>}f(x)dx}
[/mm]
Hier habe ich dann also:
[mm] \hat{f}(\xi)=\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{e^{-i<\xi,x>}e^{-}
dx} [/mm] =
[mm] \bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{e^{-i<\xi,x>-}dx} [/mm] = (mit Fubini - ist das richtig so?)
[mm] \bruch{1}{(2\pi)^\bruch{n}{2}}\produkt_{i=1}^{n}\integral_{\IR}{e^{-i<\xi,x>-}dx}
[/mm]
und nun komme ich nicht weiter. Kann man das so schon integrieren? Wenn ja, was ist das Integral bzw. die Ableitung des Skalarprodukts? Oder was muss ich hier jetzt sonst machen?
Wenn ich da oben Fubini anwende, habe ich ja danach nur noch ein Integral über dem Eindimensionalen. Und da ist das Skalarprodukt ja auch viel einfacher... Also müsste ich da wohl statt [mm] -i<\xi,x> [/mm] schreiben: [mm] -i\xi_{k}x_k, [/mm] aber was schreibe ich statt -<x,Ax>?
Für [mm] A=(a_{ij}) [/mm] (wie in der Regel immer definiert) ist [mm] Ax=\vektor{\summe_{i=1}^{n}a_{1i}x_i \\ ... \\ \summe_{i=1}^{n}a_{ni}x_n}. [/mm] Also müsste ich dann im Integral schreiben:
[mm] x_k\summe_{i=1}^{n}a_{ki}x_i [/mm] - ist das richtig so?
Dann würde ich erhalten:
[mm] =\produkt_{i=1}^{n}\bruch{1}{\wurzel{2\pi}}\integral_{\IR}{e^{-i\xi_{k}x_k-x_k\summe_{i=1}^{n}a_{ki}x_i}dx}
[/mm]
und was müsste ich dann machen? Direkt mit partieller Integration da dran gehen? Oder gibt's da vorher noch was zu vereinfachen oder sonst irgendeinen Trick?
Bin für jeden Tipp dankbar - das Skalarprodukt war noch nie mein Freund... Und noch was: wo braucht man, dass die Matrix symmetrisch und positiv definit mit reellen Einträgen ist?
Viele Grüße
Bastiane
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 19:33 Do 30.12.2004 | Autor: | Peter_Pein |
Hallo Bastiane,
offen gestanden habe ich z.Zt. nicht viel Lust, mich damit zu beschäftigen und gebe deshalb nur eine Vermutung zu einem Teil Deines Problems an:
Ich denke mal, dass das Integral nicht konvergiert, wenn A nicht pos. def. ist. Warum A nun aber symmetrisch sein muss, ist mir auch schleierhaft
Alles Gute,
Peter
P.S.: den ollen Fubini habe ich auch anders in Erinnerung. Sagt der Satz nicht nur, dass man Integration über ein Gebiet koordinatenweise ausführen kann?
|
|
|
|
|
Status: |
(Frage) reagiert/warte auf Reaktion | Datum: | 00:36 Mo 03.01.2005 | Autor: | Bastiane |
Hallo nochmal!
Habe gerade mal was ausprobiert...
angenommen, bis hierhin war alles richtig (wäre schön, wenn das mal irgendjemand genauer betrachten könnte):
[mm] \produkt_{k=1}^{n}\bruch{1}{\wurzel{2\pi}}\integral_{\IR}{e^{-i\xi_{k}x_k-x_k\summe_{i=1}^{n}a_{ki}x_i}dx}, [/mm] dann weiß ich im Moment gar nicht, was ich da mit partieller Integration wollte (ich hab' da mal den Laufindex von dem Produkt geändert, das war glaube ich vorher irgendwie falsch. Jetzt hoffe ich, dass das i im Exponent vor dem Skalarprodukt nicht mit dem Laufindex-i der Summe im Exponent verwechselt wird...). Kann man das nicht so direkt integrieren:
= [mm] \produkt_{k=1}^{n}\bruch{1}{\wurzel{2\pi}}\integral_{\IR}{e^{x_k(-i\xi_{k}-\summe_{i=1}^{n}a_{ki}x_i)}dx}
[/mm]
= [mm] \produkt_{k=1}^{n}\bruch{1}{\wurzel{2\pi}}e^{x_k(-i\xi_{k}-\summe_{i=1}^{n}a_{ki}x_i)}\bruch{1}{-i\xi_k-\summe_{i=1}^{n}a_{ki}x_i)}
[/mm]
?
Oder habe ich mich hier wieder mit den Indizes vertan? Oder ist sonst etwas falsch?
Und nun stehe ich wieder mal vor dem Problem, dass ich nicht weiß, wie weit man so etwas berechnen muss, bis man fertig ist. Ist das jetzt schon die Fourier-Transformierte? Oder woran erkenne ich, dass es sie ist? Immerhin steht ja kein Integral mehr da... Oder muss man das Produkt auch noch irgendwie berechnen? Aber wie würde ich da anfangen? mmh
Viele Grüße
Bastiane
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 20:39 Di 04.01.2005 | Autor: | Stefan |
Liebe Christiane!
Ein paar Fragen von mir:
1) Hast du die Aufgabe jetzt hinbekommen? Hast du meinen Ansatz verstanden?
2) Ist sie noch relevant oder hast du bereits abgegeben?
3) Hast du deinen Fehler erkannt?
4) Bist du an der Aufgabe oder an einer Erklärung des Fehlers noch interessiert, unabhängig davon, ob du sie abgegeben hast oder nicht?
Ich frage nur, weil ich mich etwas wundere, dass keine Reaktion kam.
Liebe Grüße
Stefan
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 04:18 Mo 03.01.2005 | Autor: | Stefan |
Liebe Christiane!
Aus Zeitmangel nur ganz kurz:
Zu berechnen ist ja:
[mm]\hat{f}(\xi)=\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{e^{-i<\xi,x>-}dx}[/mm].
Da $A$ symmetrisch (und positiv definit) ist, gibt es eine orthogonale Matrix $U$, so dass $D:=U^TAU$ eine Diagonalmatrix ist, in deren Diagonaleinträge die positiven Eigenwerte [mm] $\lambda_1,\ldots,\lambda_n$ [/mm] von $A$ stehen.
Wegen [mm] $|\det(U)|=1$ [/mm] erhalten wir aus der Transformationsformel
[mm]\hat{f}(\xi)[/mm]
[mm]=\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{e^{-i<\xi,x>-}dx}[/mm]
[mm]=\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{|\det(U)| \cdot e^{-i<\xi,Ux>-}dx}[/mm]
[mm]=\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{ e^{-i<\xi,Ux>-}dx}[/mm]
[mm]=\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{ e^{-i<\xi,Ux>-}dx}[/mm]
[mm]=\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{ e^{-i<\xi,Ux>-\sum\limits_{i=1}^n \lambda_i\, x_i^2} \, dx}[/mm]
So, jetzt nur noch das erste Skalarprodukt ausrechnen, dann Fubini anwenden und dann dieses Resultat verwenden, und du bist fertig. Ich kann mir das morgen leider nicht anschauen, aber ich denke, dass kriegst du alleine (oder mit der Hilfe anderer hier) zu Ende hin.
Liebe Grüße
Stefan
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 23:03 Di 04.01.2005 | Autor: | Bastiane |
Hallo Stefan!
Schon mal danke, dass du trotz Zeitmangel auf meine Frage geantwortet hast!
> Da [mm]A[/mm] symmetrisch (und positiv definit) ist, gibt es eine
> orthogonale Matrix [mm]U[/mm], so dass [mm]D:=U^TAU[/mm] eine Diagonalmatrix
> ist, in deren Diagonaleinträge die positiven Eigenwerte
> [mm]\lambda_1,\ldots,\lambda_n[/mm] von [mm]A[/mm] stehen.
Nur noch ne kurze Frage: muss die Matrix dafür nur symmetrisch oder auch noch positiv definit sein?
> [mm]=\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{ e^{-i<\xi,Ux>-\sum\limits_{i=1}^n \lambda_i\, x_i^2} \, dx}[/mm]
Also ich würde dann erstmal nur erhalten:
[mm] =\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{ e^{-i\summe_{j=1}^{n}\xi_j\summe_{i=1}^{n}u_{ji}x_i>-\sum\limits_{i=1}^n \lambda_i\, x_i^2} \, dx}
[/mm]
oder weiß ich über U sonst noch irgendwas, dass ich hier gebrauchen kann?
Oder kann ich dann die Summen zusammenfassen, vielleicht die beiden Summenzeichen vertauschen und dann die zweite Summe auch noch mit da rein, oder kommt hier schon direkt Fubini?
Nur, damit du das nicht später selber entdeckst und hintergangen fühlst oder so:
hier hatte ich zu deinen ersten Umformungen schon mal Fragen gestellt, weil ich befürchtete, dass sich das hier keiner angucken würde, und du ja auch erstmal keine Zeit hattest. Nicht, dass du denkst, ich wollte von dir da keine Antwort drauf. Ich wollte nur, wenn möglich, eine schnelle Antwort, und du hattest ja gesagt, dass du keine Zeit hast, es dir anzugucken. Also: nicht böse sein, ja?
Viele Grüße
Christiane
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 20:56 Mi 05.01.2005 | Autor: | Stefan |
Liebe Christiane!
Ich rechne dir die Aufgabe jetzt mal zu Ende. Über die Vorgehensweise bin ich nicht gerade glücklich, aber weil du es bist, lasse ich es mal dabei und helfe lieber.
Also: Wie bereits erklärt, nutzen wir für positive $a$ die Identität
(*) [mm] $\int\limits_{0}^{\infty} e^{-ax^2}\, \cos(tx)\, [/mm] dx = [mm] \frac{1}{2} \sqrt{\frac{\pi}{a}} e^{-\frac{t^2}{4a}}$.
[/mm]
Also, es gilt (soweit waren wir, wenn du bis dahin noch Fragen hast, musst du sie noch einmal stellen, da ich nicht durchblicke, was bereits erklärt wurde und was noch unklar ist):
[mm] $\hat{f}(\xi) [/mm] = [mm] \frac{1}{(2\pi)^{\frac{n}{2}}} \int\limits_{\IR^n} e^{-\sum\limits_{i=1}^n \left[\left( \sum\limits_{j=1}^n \xi_j u_{ji} \right)\, i \, x_i - \lambda_i\, x_i^2 \right]}\, [/mm] dx$
(Fubini)
$= [mm] \frac{1}{(2\pi)^{\frac{n}{2}}} \prod\limits_{i=1}^n \int\limits_{\IR} e^{-\left( \sum\limits_{j=1}^n \xi_j u_{ij} \right)\, i \, x_i - \lambda_i\, x_i^2}\, dx_i$
[/mm]
$= [mm] \frac{2^n}{(2\pi)^{\frac{n}{2}}} \prod\limits_{i=1}^n \int\limits_0^{\infty} \cos \left( \sum\limits_{j=1}^n \xi_j\, u_{ji}\, x_i \right)e^{-\lambda_i\, x_i^2}\, dx_i$
[/mm]
(nach (*))
$= [mm] \frac{1}{(2\pi)^{\frac{n}{2}}} \prod\limits_{i=1}^n \sqrt{\frac{\pi}{\lambda_i}}e^{-\frac{\left(\sum\limits_{j=1}^n \xi_ju_{ji} \right)^2}{4\lambda_i}}$
[/mm]
$= [mm] \frac{1}{2^{\frac{n}{2}}} \cdot \frac{1}{\sqrt{\det(A)}} e^{- \frac{\sum\limits_{i=1}^n \left( \sum\limits_{j=1}^n \xi_j u_{ji} \right)^2}{4\lambda_i}}$
[/mm]
$= [mm] \frac{1}{2^{\frac{n}{2}}} \cdot \frac{1}{\sqrt{\det(A)}} e^{-\frac{\langle U^T \xi,D^{-1}U^T\xi \rangle}{4}}$
[/mm]
$= [mm] \frac{1}{2^{\frac{n}{2}}} \cdot \frac{1}{\sqrt{\det(A)}} e^{-\frac{\langle \xi,U D^{-1}U^T\xi \rangle}{4}}$
[/mm]
$= [mm] \frac{1}{2^{\frac{n}{2}}} \cdot \frac{1}{\sqrt{\det(A)}} e^{-\frac{\langle \xi,A^{-1} \xi \rangle}{4}}$
[/mm]
Mir war übrigens vorher klar, dass so etwas in der Art rauskommt, da man (im Wesentlichen, modulo Konstanten) die zentrierte mehrdimensionale Gaußverteilung mit Covarianzmatrix $A$ invers fouriertransformiert (und somit mehr oder weniger, d.h. wiederum modulo Konstanten, die Dichte einer zentrierten Gaußverteilung rauskommen muss). Auch wenn dir das jetzt nichts sagt: Es ist eher ein Hinweis für sonstige Interessierte. Verrechnet haben kann ich mich durchaus (ist nicht unwahrscheinlich), aber die wesentlichen Schritte sollten stimmen.
Liebe Grüße
Stefan
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 16:50 Do 06.01.2005 | Autor: | Bastiane |
Lieber Stefan!
> Ich rechne dir die Aufgabe jetzt mal zu Ende. Über die
> Vorgehensweise bin ich nicht gerade glücklich, aber weil du
> es bist, lasse ich es mal dabei und helfe lieber.
War wirklich nicht ganz okay von mir. Mittlerweile glaube ich auch, dass moudi meine Frage hier auch gefunden und vielleicht auch beantwortet hätte. Ich werde so etwas bestimmt nicht nochmal tun.
Und vielen vielen Dank, dass du mir trotzdem noch so hilfst.
> Also: Wie bereits erklärt, nutzen wir für positive [mm]a[/mm] die
> Identität
>
> (*) [mm]\int\limits_{0}^{\infty} e^{-ax^2}\, \cos(tx)\, dx = \frac{1}{2} \sqrt{\frac{\pi}{a}} e^{-\frac{t^2}{4a}}[/mm].
Ist das eigentlich eine bekannte Formel? Bei der Aufgabe damals wurde sie auf dem Übungsblatt angegeben, aber das war ja auch keine Mathematiker-Aufgabe. Oder muss ich diese Formel hier womöglich noch beweisen? (In der Vorlesung kam sie jedenfalls nicht vor...)
> [mm]\hat{f}(\xi) = \frac{1}{(2\pi)^{\frac{n}{2}}} \int\limits_{\IR^n} e^{-\sum\limits_{i=1}^n \left[\left( \sum\limits_{j=1}^n \xi_j u_{ji} \right)\, i \, x_i - \lambda_i\, x_i^2 \right]}\, dx[/mm]
>
>
> (Fubini)
>
> [mm]= \frac{1}{(2\pi)^{\frac{n}{2}}} \prod\limits_{i=1}^n \int\limits_{\IR} e^{-\left( \sum\limits_{j=1}^n \xi_j u_{ij} \right)\, i \, x_i - \lambda_i\, x_i^2}\, dx_i[/mm]
>
>
> [mm]= \frac{2^n}{(2\pi)^{\frac{n}{2}}} \prod\limits_{i=1}^n \int\limits_0^{\infty} \cos \left( \sum\limits_{j=1}^n \xi_j\, u_{ji}\, x_i \right)e^{-\lambda_i\, x_i^2}\, dx_i[/mm]
Hier hast du doch "angewendet": [mm] e^{i\varphi}=\cos\varphi+i\sin\varphi!?
[/mm]
Aber ich vermisse den Teil mit dem [mm] i\sin... [/mm] Fällt der wieder weg? Aber warum?
> (nach (*))
>
> [mm]= \frac{1}{(2\pi)^{\frac{n}{2}}} \prod\limits_{i=1}^n \sqrt{\frac{\pi}{\lambda_i}}e^{-\frac{\left(\sum\limits_{j=1}^n \xi_ju_{ji} \right)^2}{4\lambda_i}}[/mm]
>
>
> [mm]= \frac{1}{2^{\frac{n}{2}}} \cdot \frac{1}{\sqrt{\det(A)}} e^{- \frac{\sum\limits_{i=1}^n \left( \sum\limits_{j=1}^n \xi_j u_{ji} \right)^2}{4\lambda_i}}[/mm]
Das sehe ich im Moment nicht, woher das kommt... Also, wohin das [mm] \pi [/mm] verschwindet sehe ich jetzt, aber woher kommt die Determinante? War das irgendeine Formel?
> [mm]= \frac{1}{2^{\frac{n}{2}}} \cdot \frac{1}{\sqrt{\det(A)}} e^{-\frac{\langle U^T \xi,D^{-1}U^T\xi \rangle}{4}}[/mm]
Das muss ich mir gleich nochmal genau angucken - aber ich vermisse jetzt schon das [mm] \lambda [/mm] - fällt das sicher weg?
> [mm]= \frac{1}{2^{\frac{n}{2}}} \cdot \frac{1}{\sqrt{\det(A)}} e^{-\frac{\langle \xi,U D^{-1}U^T\xi \rangle}{4}}[/mm]
>
>
> [mm]= \frac{1}{2^{\frac{n}{2}}} \cdot \frac{1}{\sqrt{\det(A)}} e^{-\frac{\langle \xi,A^{-1} \xi \rangle}{4}}[/mm]
Der Rest ist dann klar! Vielen Dank!
> Mir war übrigens vorher klar, dass so etwas in der Art
> rauskommt, da man (im Wesentlichen, modulo Konstanten) die
> zentrierte mehrdimensionale Gaußverteilung mit
> Covarianzmatrix [mm]A[/mm] invers fouriertransformiert (und somit
> mehr oder weniger, d.h. wiederum modulo Konstanten, die
> Dichte einer zentrierten Gaußverteilung rauskommen muss).
> Auch wenn dir das jetzt nichts sagt: Es ist eher ein
> Hinweis für sonstige Interessierte. Verrechnet haben
> kann ich mich durchaus (ist nicht unwahrscheinlich), aber
> die wesentlichen Schritte sollten stimmen.
Auch Hinweise für sonstige Interessierte müssen mal sein! Vielleicht kann ich selbst damit ja später mal was anfangen, und dann fällt mir ein, dass du mir das jetzt schon gesagt hast!
Viele Grüße
Christiane
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 18:36 Do 06.01.2005 | Autor: | moudi |
> Lieber Stefan!
> > Ich rechne dir die Aufgabe jetzt mal zu Ende. Über die
>
> > Vorgehensweise bin ich nicht gerade glücklich, aber weil
> du
> > es bist, lasse ich es mal dabei und helfe lieber.
>
>
>
> War wirklich nicht ganz okay von mir. Mittlerweile glaube
> ich auch, dass moudi meine Frage hier auch gefunden und
> vielleicht auch beantwortet hätte. Ich werde so etwas
> bestimmt nicht nochmal tun.
> Und vielen vielen Dank, dass du mir trotzdem noch so
> hilfst.
>
> > Also: Wie bereits erklärt, nutzen wir für positive [mm]a[/mm] die
>
> > Identität
> >
> > (*) [mm]\int\limits_{0}^{\infty} e^{-ax^2}\, \cos(tx)\, dx = \frac{1}{2} \sqrt{\frac{\pi}{a}} e^{-\frac{t^2}{4a}}[/mm].
>
> Ist das eigentlich eine bekannte Formel? Bei der Aufgabe
> damals wurde sie auf dem Übungsblatt angegeben, aber das
> war ja auch keine Mathematiker-Aufgabe. Oder muss ich diese
> Formel hier womöglich noch beweisen? (In der Vorlesung kam
> sie jedenfalls nicht vor...)
>
> > [mm]\hat{f}(\xi) = \frac{1}{(2\pi)^{\frac{n}{2}}} \int\limits_{\IR^n} e^{-\sum\limits_{i=1}^n \left[\left( \sum\limits_{j=1}^n \xi_j u_{ji} \right)\, i \, x_i - \lambda_i\, x_i^2 \right]}\, dx[/mm]
>
> >
> >
> > (Fubini)
> >
> > [mm]= \frac{1}{(2\pi)^{\frac{n}{2}}} \prod\limits_{i=1}^n \int\limits_{\IR} e^{-\left( \sum\limits_{j=1}^n \xi_j u_{ij} \right)\, i \, x_i - \lambda_i\, x_i^2}\, dx_i[/mm]
>
> >
> >
> > [mm]= \frac{2^n}{(2\pi)^{\frac{n}{2}}} \prod\limits_{i=1}^n \int\limits_0^{\infty} \cos \left( \sum\limits_{j=1}^n \xi_j\, u_{ji}\, x_i \right)e^{-\lambda_i\, x_i^2}\, dx_i[/mm]
>
>
> Hier hast du doch "angewendet":
> [mm]e^{i\varphi}=\cos\varphi+i\sin\varphi!?
[/mm]
Das ist in der Tat so.
> Aber ich vermisse den Teil mit dem [mm]i\sin...[/mm] Fällt der
> wieder weg? Aber warum?
Das Stichwort ist gerade und ungerade Funktionen (sagt dir das etwas?)
[mm]\sin(cx)[/mm] ist eine ungerade Funktion und [mm]e^{-\lambda x^2}[/mm] ist eine gerade Funktion. Das Produkt ist dann wieder eine ungerade Funktion (wie mit Zahlen, wer hätte es gedacht).
Integriert man eine ungerade Funktion über ganz [mm]\IR[/mm], (oder über ein bezüglich x=0 symmetrisches Intervall), dann ist das Integral 0. Denn die beiden Integrale über den negativen x-Bereich und über den positiven x-Bereich heben sich gegenseitig auf.
Die cos-Funktion ist eine gerade Funktion und auch das Produkt zweier geraden Funktionen ist gerade. Integriert man eine gerade Funktion über ganz [mm]\IR[/mm], (oder über ein bezüglich x=0 symmetrisches Intervall), dann sind die beiden Integrale über den negativen und den positiven Bereich gleich gross. Darum [mm]\int_{\IR} \mathrm{geradefunktion}\,dx=2\int_0^\infty \mathrm{geradefunktion}\, dx [/mm], was hier auch angewendet wurde.
>
>
> > (nach (*))
> >
> > [mm]= \frac{1}{(2\pi)^{\frac{n}{2}}} \prod\limits_{i=1}^n \sqrt{\frac{\pi}{\lambda_i}}e^{-\frac{\left(\sum\limits_{j=1}^n \xi_ju_{ji} \right)^2}{4\lambda_i}}[/mm]
>
> >
> >
> > [mm]= \frac{1}{2^{\frac{n}{2}}} \cdot \frac{1}{\sqrt{\det(A)}} e^{- \frac{\sum\limits_{i=1}^n \left( \sum\limits_{j=1}^n \xi_j u_{ji} \right)^2}{4\lambda_i}}[/mm]
>
> Das sehe ich im Moment nicht, woher das kommt...
> Also, wohin das [mm]\pi[/mm] verschwindet sehe ich
> jetzt, aber woher kommt die Determinante? War das
> irgendeine Formel?
Die [mm]\lambda_i[/mm] sind ja die Eigenwerte der diagonalisierbaren Matrix A. Dann ist das Produkt aller Eigenwerte ja gerade die Determinante.
>
>
> > [mm]= \frac{1}{2^{\frac{n}{2}}} \cdot \frac{1}{\sqrt{\det(A)}} e^{-\frac{\langle U^T \xi,D^{-1}U^T\xi \rangle}{4}}[/mm]
>
> Das muss ich mir gleich nochmal genau angucken - aber ich
> vermisse jetzt schon das [mm]\lambda[/mm] - fällt das sicher weg?
>
Die [mm]\lambda_i[/mm] stecken in der Diagonalmatrix [mm]D=\mathtm{diag}(\lambda_1,\dots,\lmbda_n)[/mm]. Dann ist [mm]D^{-1}=\mathtm{diag}(\lambda_1^{-1},\dots,\lmbda_n^{-1})[/mm].
mfG Moudi
>
> > [mm]= \frac{1}{2^{\frac{n}{2}}} \cdot \frac{1}{\sqrt{\det(A)}} e^{-\frac{\langle \xi,U D^{-1}U^T\xi \rangle}{4}}[/mm]
>
> >
> >
> > [mm]= \frac{1}{2^{\frac{n}{2}}} \cdot \frac{1}{\sqrt{\det(A)}} e^{-\frac{\langle \xi,A^{-1} \xi \rangle}{4}}[/mm]
>
>
> Der Rest ist dann klar! Vielen Dank!
>
>
> > Mir war übrigens vorher klar, dass so etwas in der Art
>
> > rauskommt, da man (im Wesentlichen, modulo Konstanten)
> die
> > zentrierte mehrdimensionale Gaußverteilung mit
> > Covarianzmatrix [mm]A[/mm] invers fouriertransformiert (und somit
>
> > mehr oder weniger, d.h. wiederum modulo Konstanten, die
>
> > Dichte einer zentrierten Gaußverteilung rauskommen muss).
>
> > Auch wenn dir das jetzt nichts sagt: Es ist eher ein
> > Hinweis für sonstige Interessierte. Verrechnet haben
>
> > kann ich mich durchaus (ist nicht unwahrscheinlich), aber
>
> > die wesentlichen Schritte sollten stimmen.
> Auch Hinweise für sonstige Interessierte müssen mal sein!
> Vielleicht kann ich selbst damit ja später mal was
> anfangen, und dann fällt mir ein, dass du mir das jetzt
> schon gesagt hast!
>
> Viele Grüße
> Christiane
>
>
>
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 14:44 Mo 03.01.2005 | Autor: | Bastiane |
Hallo!
Ich habe hier mal ein paar Fragen, die aus einer anderen Aufgabe heraus kommen. Aber da diese Aufgabe so kompliziert aussieht, dass sie sich wahrscheinlich keiner von euch angucken wird, dachte ich, stelle ich meine Fragen dazu mal hier, denn diese Fragen müssten eigentlich einfacher sein, aber irgendwie habe ich da wohl zu viele Lücken.
Zuerst habe ich eine Matrix A, die symmetrisch und positiv definit ist, also gibt es eine orthogonale Matrix U, so dass $ D:=U^TAU $ eine Diagonalmatrix ist, in deren Diagonaleinträge die positiven Eigenwerte $ [mm] \lambda_1,\ldots,\lambda_n [/mm] $ von A stehen.
Nun gilt angeblich: [mm] |\det(U)|=1 [/mm] und ich sehe irgendwie nicht, warum!? (Falls das wider Erwarten doch ein längerer Beweis sein sollte, reicht es mir, wenn mir jemand sagt, unter welchem Stichwort ich das in Büchern finden könnte..)
Weiter erhält man dann wohl aus der Transformationsformel:
[mm] \bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{e^{-i<\xi,x>-}dx}
[/mm]
[mm] =\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{|\det(U)| \cdot e^{-i<\xi,Ux>-}dx} [/mm]
Ich nehme an, dass mir hier wieder nur eine Eigenschaft des Skalarproduktes fehlt...
und bei der nächsten Umformung fehlt mir wohl wieder nur so was in der Art:
[mm] =\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{ e^{-i<\xi,Ux>-}dx} [/mm]
Ich kann doch bei [mm] \- [/mm] das U vor das Skalarprodukt ziehen: [mm] \-U
[/mm]
aber wie kommt es dann als Transponierte in den rechten Teil des Skalarproduktes zu [mm] -?
[/mm]
Etwas später erhalte ich dann:
[mm] \bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{ e^{-i<\xi,Ux>-\sum\limits_{i=1}^n \lambda_i\, x_i^2} \, dx} [/mm] und muss nun noch das erste Skalarprodukt berechnen. Kann ich da für U irgendwas Spezielles schreiben (D besteht ja beispielsweise nur aus den Eigenwerten, aber U?)? Oder erhalte ich dann nur:
[mm] <\xi,Ux>=\summe_{j=1}^{n}\xi_j\summe_{i=1}^{n}u_{ji}x_i [/mm] ?
So, und das war's auch schon. Ich denke, wenn man nur die richtigen Regeln kennt, ist das ganz einfach, aber wie gesagt, irgendwie fehlt mir da was...
Bin auch dankbar, falls jemand nur zu einer dieser Fragen was antworten kann!
Viele Grüße
Bastiane
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 15:16 Mo 03.01.2005 | Autor: | moudi |
> Hallo!
> Ich habe hier mal ein paar Fragen, die aus einer anderen
> Aufgabe heraus kommen. Aber da diese Aufgabe so kompliziert
> aussieht, dass sie sich wahrscheinlich keiner von euch
> angucken wird, dachte ich, stelle ich meine Fragen dazu mal
> hier, denn diese Fragen müssten eigentlich einfacher sein,
> aber irgendwie habe ich da wohl zu viele Lücken.
>
> Zuerst habe ich eine Matrix A, die symmetrisch und positiv
> definit ist, also gibt es eine orthogonale Matrix U, so
> dass [mm]D:=U^TAU[/mm] eine Diagonalmatrix ist, in deren
> Diagonaleinträge die positiven Eigenwerte
> [mm]\lambda_1,\ldots,\lambda_n[/mm] von A stehen.
>
> Nun gilt angeblich: [mm]|\det(U)|=1[/mm] und ich sehe irgendwie
Das ist richtig, eine Orthogonale Abbildung entspricht einer Isometrie (Längenerhaltende Abbildung), daraus folgt natürlich, dass alle (meist komplexe) Eigenwerte den Betrag 1 haben. Uebrigens sind orthogonale Matrizen über den komplexen Zahlen diagonalisierbar.
> nicht, warum!? (Falls das wider Erwarten doch ein
> längerer Beweis sein sollte, reicht es mir, wenn mir jemand
> sagt, unter welchem Stichwort ich das in Büchern finden
> könnte..)
>
>
> Weiter erhält man dann wohl aus der
> Transformationsformel:
>
> [mm]\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{e^{-i<\xi,x>-}dx}
[/mm]
>
> [mm]=\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{|\det(U)| \cdot e^{-i<\xi,Ux>-}dx}[/mm]
Das stimmt nicht. Es handelt sich um eine Variablentransformation in einem Mehrfachintegral. (Stichwort: Jacobimatrix). Hier macht man die lineare Variablentransformation x'= Ux. Und integriert jetzt über die Variable x', die man aber wieder x nennt.
>
> Ich nehme an, dass mir hier wieder nur eine Eigenschaft des
> Skalarproduktes fehlt...
>
> und bei der nächsten Umformung fehlt mir wohl wieder nur so
> was in der Art:
> [mm]=\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{ e^{-i<\xi,Ux>-}dx}[/mm]
>
> Ich kann doch bei [mm]\-[/mm] das U vor das Skalarprodukt
> ziehen: [mm]\-U[/mm]
Das macht absolut keinen Sinn. Hier ist das Stichwort adjungierte Matrix oder adjungierte Transformation.
Es gilt für jede Matrix [mm] \langle Ux,y\rangle=\langle x,U^T y\rangle[/mm], wenn es das Standardskalarprodukt ist.
> aber wie kommt es dann als Transponierte in den rechten
> Teil des Skalarproduktes zu [mm]-?
[/mm]
>
> Etwas später erhalte ich dann:
> [mm]\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{ e^{-i<\xi,Ux>-\sum\limits_{i=1}^n \lambda_i\, x_i^2} \, dx}[/mm]
> und muss nun noch das erste Skalarprodukt berechnen. Kann
> ich da für U irgendwas Spezielles schreiben (D besteht ja
> beispielsweise nur aus den Eigenwerten, aber U?)? Oder
> erhalte ich dann nur:
> [mm]<\xi,Ux>=\summe_{j=1}^{n}\xi_j\summe_{i=1}^{n}u_{ji}x_i[/mm]
> ?
Ja das ist richtig. U ist eine Orthogonalmatrix, das heisst, die Kolonnenvektoren (oder Zeilenvektoren) bilden eine Orthonormalbasis der [mm]\IR^n[/mm]. Aber das nützt hier glaube ich nicht viel.
>
>
> So, und das war's auch schon. Ich denke, wenn man nur die
> richtigen Regeln kennt, ist das ganz einfach, aber wie
> gesagt, irgendwie fehlt mir da was...
> Bin auch dankbar, falls jemand nur zu einer dieser Fragen
> was antworten kann!
>
Apropos, das ganze sieht Verdächtig nach Fouriertransformation aus.
mfG Moudi
> Viele Grüße
> Bastiane
>
>
>
>
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 22:47 Di 04.01.2005 | Autor: | Bastiane |
Hallo Moudi!
> > Zuerst habe ich eine Matrix A, die symmetrisch und
> positiv
> > definit ist, also gibt es eine orthogonale Matrix U, so
>
> > dass [mm]D:=U^TAU[/mm] eine Diagonalmatrix ist, in deren
> > Diagonaleinträge die positiven Eigenwerte
> > [mm]\lambda_1,\ldots,\lambda_n[/mm] von A stehen.
> >
> > Nun gilt angeblich: [mm]|\det(U)|=1[/mm] und ich sehe irgendwie
>
>
> Das ist richtig, eine Orthogonale Abbildung entspricht
> einer Isometrie (Längenerhaltende Abbildung), daraus folgt
> natürlich, dass alle (meist komplexe) Eigenwerte den Betrag
> 1 haben. Uebrigens sind orthogonale Matrizen über den
> komplexen Zahlen diagonalisierbar.
Natürlich ist das richtig! Das hatte ich mir ja nicht selbst ausgedacht... Danke für die Erklärung - so "anschaulich" verstehe ich das. Aber reicht das, wenn man es mathematisch formuliert, oder kann man das auch noch anders begründen? (also, falls es zu lang wird, lieber nicht! )
Und in welchem Buch finde ich etwas über Variablentransformation? In einem Ana-Buch oder einem LA-Buch oder noch wo anders?
> > Weiter erhält man dann wohl aus der
> > Transformationsformel:
> >
> >
> [mm]\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{e^{-i<\xi,x>-}dx}
[/mm]
> >
> >
> [mm]=\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{|\det(U)| \cdot e^{-i<\xi,Ux>-}dx}[/mm]
>
>
> Das stimmt nicht. Es handelt sich um eine
> Variablentransformation in einem Mehrfachintegral.
> (Stichwort: Jacobimatrix). Hier macht man die lineare
> Variablentransformation x'= Ux. Und integriert jetzt über
> die Variable x', die man aber wieder x nennt.
Was stimmt da nicht? Die Umformung doch wohl schon!?!
Aber irgendwie verstehe ich das trotzdem nicht - in der Jacobimatrix stehen doch nur die Ableitungen. Leite ich dann die Skalarprodukte nach x ab und schreibe statt x' Ux da hin oder wie?
> > [mm]=\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{ e^{-i<\xi,Ux>-}dx}[/mm]
>
> >
> > Ich kann doch bei [mm]\-[/mm] das U vor das Skalarprodukt
>
> > ziehen: [mm]\-U[/mm]
>
> Das macht absolut keinen Sinn. Hier ist das Stichwort
> adjungierte Matrix oder adjungierte Transformation.
> Es gilt für jede Matrix [mm]\langle Ux,y\rangle=\langle x,U^T y\rangle[/mm],
> wenn es das Standardskalarprodukt ist.
Aha - danke für das Stichwort. Diese Eigenschaft kannte ich irgendwie gar nicht. Habe da jetzt mal nachgeforscht, und bei Wikipedia finde ich:
" < Av, w > = < v, adj(A)w > für alle v, w in [mm] \IR^n
[/mm]
Man kann dann zeigen, dass adj(A) genau die Transponierte von A ist."
Stimmt der Satz hier drunter? In einem LA-Buch finde ich nämlich nur eine recht seltsame Definition für die adjungierte Matrix...
Aber in meinem Fall gilt es anscheinend, ansonsten käme ich ja nicht auf diese Umformung.
> > Etwas später erhalte ich dann:
> > [mm]\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{ e^{-i<\xi,Ux>-\sum\limits_{i=1}^n \lambda_i\, x_i^2} \, dx}[/mm]
>
> > und muss nun noch das erste Skalarprodukt berechnen. Kann
>
> > ich da für U irgendwas Spezielles schreiben (D besteht ja
>
> > beispielsweise nur aus den Eigenwerten, aber U?)? Oder
>
> > erhalte ich dann nur:
> > [mm]<\xi,Ux>=\summe_{j=1}^{n}\xi_j\summe_{i=1}^{n}u_{ji}x_i[/mm]
>
> > ?
> Ja das ist richtig. U ist eine Orthogonalmatrix, das
> heisst, die Kolonnenvektoren (oder Zeilenvektoren) bilden
> eine Orthonormalbasis der [mm]\IR^n[/mm]. Aber das nützt hier glaube
> ich nicht viel.
Mmh - aber wie komme ich hier denn dann weiter?
> Apropos, das ganze sieht Verdächtig nach
> Fouriertransformation aus.
Ja, in der Tat - willst du mal gucken?
Viele Grüße und danke für die Antwort
Bastiane
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 11:07 Mi 05.01.2005 | Autor: | moudi |
> Hallo Moudi!
>
> > > Zuerst habe ich eine Matrix A, die symmetrisch und
> > positiv
> > > definit ist, also gibt es eine orthogonale Matrix U, so
>
> >
> > > dass [mm]D:=U^TAU[/mm] eine Diagonalmatrix ist, in deren
> > > Diagonaleinträge die positiven Eigenwerte
> > > [mm]\lambda_1,\ldots,\lambda_n[/mm] von A stehen.
A propos hier ist das Stichwort Hauptachsentransformation. Die Matrix muss dafür nur symmetrisch sein (um eine weitere Frage zu beantworten).
> > >
> > > Nun gilt angeblich: [mm]|\det(U)|=1[/mm] und ich sehe irgendwie
>
> >
> >
> > Das ist richtig, eine Orthogonale Abbildung entspricht
>
> > einer Isometrie (Längenerhaltende Abbildung), daraus
> folgt
> > natürlich, dass alle (meist komplexe) Eigenwerte den
> Betrag
> > 1 haben. Uebrigens sind orthogonale Matrizen über den
> > komplexen Zahlen diagonalisierbar.
> Natürlich ist das richtig! Das hatte ich mir ja nicht
> selbst ausgedacht... Danke für die Erklärung - so
> "anschaulich" verstehe ich das. Aber reicht das, wenn man
> es mathematisch formuliert, oder kann man das auch noch
> anders begründen? (also, falls es zu lang wird, lieber
> nicht! )
Vielleicht ein kurze Erläuterung. Man kann |det(U)| auffassen als Volumen, des von den Kolonnen der Matrix erzeugten Parallelepipeds. Nun was ist das?
Zeichnet man im [mm]\IR^2[/mm] zwei Vektoren a, b vom Koordinatenursprung aus, dann kann man sie zu einem Parallelogramm ergänzen. Die Fläche diese Parallelogramms ist |det(a,b)|, wobei (a,b) die Matrix mit den Kolonnenvektoren a und b ist. Sind die Vektoren a und b zufällig linear abhängig, dann ist das Paralllelogramm "ausgeartet" (es ist nur eine Strecke) und die Fläche ist 0.
Zeichnet man im [mm]\IR^3[/mm] drei Vektoren a,b,c vom Koordinatenursprung aus, dann sind sie drei Kanten eines sog. Spates oder Parallelepipeds (das ist populär ausgedrückt, ein "schiefer Quader" -- so wie ein Parallelogramm ein "schiefes Rechteck" ist , versteht man die Analogie?) Das Volumen dieses Spats ist wiederum |det(a,b,c)|.
Dies lässt sich auf beliebige Dimensionen verallgemeinern. Also ist
[mm]|\det(a_1, \dots, a_n)|[/mm] das Volumen des von den Vektoren erzeugten Parallelepipeds.
Ist nun [mm]U=(a_1, \dots, a_n)[/mm] eine orthogonale Matrix, so ist das von den Vektoren [mm]a_1, \dots, a_n[/mm] erzeugte Parallleepiped ein n-dimensionaler Würfel mit Kantenlänge 1, es hat also das Volumen 1 (der Würfel ist nicht achsenparallel sondern steht irgendwie in der Landschaft).
> Und in welchem Buch finde ich etwas über
> Variablentransformation? In einem Ana-Buch oder einem
> LA-Buch oder noch wo anders?
>
Da würde ich ein Analysisbuch in die Hand nehmen und unter dem Kapitel
Variablentransformation bei mehrfachen Integralen nachschlagen.
>
> > > Weiter erhält man dann wohl aus der
> > > Transformationsformel:
> > >
> > >
> >
> [mm]\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{e^{-i<\xi,x>-}dx}
[/mm]
> > >
> > >
> >
> [mm]=\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{|\det(U)| \cdot e^{-i<\xi,Ux>-}dx}[/mm]
>
> >
> >
> > Das stimmt nicht. Es handelt sich um eine
> > Variablentransformation in einem Mehrfachintegral.
> > (Stichwort: Jacobimatrix). Hier macht man die lineare
>
> > Variablentransformation x'= Ux. Und integriert jetzt über
>
> > die Variable x', die man aber wieder x nennt.
> Was stimmt da nicht? Die Umformung doch wohl schon!?!
> Aber irgendwie verstehe ich das trotzdem nicht - in der
> Jacobimatrix stehen doch nur die Ableitungen. Leite ich
> dann die Skalarprodukte nach x ab und schreibe statt x' Ux
> da hin oder wie?
Eine Funktion [mm]f:\IR^n\to\IR^n[/mm] ist gegen durch n Koordinatenfunktionen [mm]f_i(x_1,\dots x_n)[/mm], und die Jacobi- oder Funktionalmatrix A ist gegeben durch [mm]a_{ij}=\frac{\partial f_i}{\partial x_j}[/mm].
In diesem Fall ist f die lineare Funktion, die durch die Matrix U gegeben ist.
Es gilt [mm]f_i(x_1,\dots,x_n)=\sum_{j=1}^n u_{ij}x_j[/mm]. Berechnet man die partiellen Ableitungen so erhält man (big surprise) [mm]\frac{\partial f_i}{\partial x_j}=u_{ij}[/mm] die Jacobimatrix ist gleich U.
>
> > > [mm]=\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{ e^{-i<\xi,Ux>-}dx}[/mm]
>
> >
> > >
> > > Ich kann doch bei [mm]\-[/mm] das U vor das
> Skalarprodukt
> >
> > > ziehen: [mm][mm] \-U[/mm
[/mm]
> >
> > Das macht absolut keinen Sinn. Hier ist das Stichwort
>
> > adjungierte Matrix oder adjungierte Transformation.
> > Es gilt für jede Matrix [mm]\langle Ux,y\rangle=\langle x,U^T y\rangle[/mm],
>
> > wenn es das Standardskalarprodukt ist.
>
> Aha - danke für das Stichwort. Diese Eigenschaft kannte ich
> irgendwie gar nicht. Habe da jetzt mal nachgeforscht, und
> bei Wikipedia finde ich:
> " < Av, w > = < v, adj(A)w > für alle v, w in [mm]\IR^n
[/mm]
> Man kann dann zeigen, dass adj(A) genau die Transponierte
> von A ist."
>
> Stimmt der Satz hier drunter? In einem LA-Buch finde ich
> nämlich nur eine recht seltsame Definition für die
> adjungierte Matrix...
Ja das ist korrekt.
> Aber in meinem Fall gilt es anscheinend, ansonsten käme
> ich ja nicht auf diese Umformung.
>
> > > Etwas später erhalte ich dann:
> > > [mm]\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{ e^{-i<\xi,Ux>-\sum\limits_{i=1}^n \lambda_i\, x_i^2} \, dx}[/mm]
>
> >
> > > und muss nun noch das erste Skalarprodukt berechnen.
> Kann
> >
> > > ich da für U irgendwas Spezielles schreiben (D besteht
> ja
> >
> > > beispielsweise nur aus den Eigenwerten, aber U?)? Oder
>
> >
> > > erhalte ich dann nur:
> > >
> [mm]<\xi,Ux>=\summe_{j=1}^{n}\xi_j\summe_{i=1}^{n}u_{ji}x_i[/mm]
> >
> > > ?
> > Ja das ist richtig. U ist eine Orthogonalmatrix, das
>
> > heisst, die Kolonnenvektoren (oder Zeilenvektoren) bilden
>
> > eine Orthonormalbasis der [mm]\IR^n[/mm]. Aber das nützt hier
> glaube
> > ich nicht viel.
> Mmh - aber wie komme ich hier denn dann weiter?
Da bin ich im Moment überfragt.
>
> > Apropos, das ganze sieht Verdächtig nach
> > Fouriertransformation aus.
> Ja, in der Tat - willst du mal gucken?
>
>
> Viele Grüße und danke für die Antwort
> Bastiane
>
>
>
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 18:46 Mi 05.01.2005 | Autor: | moudi |
Liebe Christiane
Warum gilt für orthogonale Matrizen U [mm]|\det(U)|=1[/mm]?
i) U orthogonal heisst [mm]U^{-1}=U^T [/mm]
ii) [mm]\det(U^T)=\det(U)[/mm] (sollte bekannt sein, kann man direkt aus
der Definiton der Determinante schliessen ist aber aufwändig)
iii) [mm]\det(U^{-1})=\frac 1{\det(U)}[/mm] (weil [mm]U^{-1}U=I[/mm] und die Determinantenfunktion
ist multiplikativ und [mm]\det(I)=1[/mm])
iv) aus i),ii),iii) folgt [mm]\frac1{\det(U)}=\det(U)[/mm] und daraus [mm]\det(U)=\pm 1[/mm]
mfG Moudi
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 20:26 Mi 05.01.2005 | Autor: | Stefan |
Hallo!
> > Weiter erhält man dann wohl aus der
> > Transformationsformel:
> >
> >
> [mm]\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{e^{-i<\xi,x>-}dx}
[/mm]
> >
> >
> [mm]=\bruch{1}{(2\pi)^{\bruch{n}{2}}}\integral_{\IR^n}{|\det(U)| \cdot e^{-i<\xi,Ux>-}dx}[/mm]
>
>
> Das stimmt nicht.
Warum sollte das denn nicht stimmen?? Das ist schon alles richtig so. (Ich hatte es Christiane so erklärt.)
Außerdem stelle ich die beiden Threads jetzt mal untereinander. Mir ist das hier zu chaotisch.
Viele Grüße
Stefan
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 20:57 Mi 05.01.2005 | Autor: | moudi |
OK
Es stimmt schon. Mit es stimmt nicht meinte ich die Erklärung von Christiane (nicht die von dir), aber es chon alle ok.
mfG Moudi
|
|
|
|