relle Eigenvektoren



  • Hallo,
    stehe gerade auf dem Schlauch, vielleicht kann jemand schnell helfen.
    Ich habe eine relle symmetrische Matrix A,
    eine komplexe orthogonale Matrix B und eine relle diagonale Matrix D mit
    A=BDBA = B^* D B.
    Wie komme ich aus B denn auf die rellen Eigenvektoren von A?



  • Schaut nach Eigenwertzerlegung aus:
    http://mathworld.wolfram.com/EigenDecompositionTheorem.html

    Sprich: die Spaltenvektoren der Matrix entsprechen den Eigenvektoren.



  • Das heisst wohl, wenn die Eigenvektoren nicht reell sind, muss ich mich irgendwo verrechnet haben.

    Ich habe einen Vektor xRnx \in R^n und betrachte die Matrix C mit
    Cij:=t=1nxi+txj+tC_{ij} := \sum_{t=1}^n x_{i+t} x_{j+t} wobei das plus im Index modulo n zu verstehen ist (zirkulärer Shift).

    Dazu multiplizier ich mit der Fourier-Matrix Fjk:=1ne2πi/njk=:1nWjkF_{jk} := \frac{1}{\sqrt{n}} e^{2 \pi i/n \: j k} =: \frac{1}{\sqrt{n}} W^{jk} (über alle Indices ausser a,b wird im folgenden summiert).

    \begin{eqnarray} (F C F^*)_{ab} &=& F_{ai} \: x_{i+t} \: x_{j+t} \: F_{bj}^* \\ &=& n^{-1} \: W^{ai} \: x_{i+t} \: W^{-bj} \: x_{j+t}^* \\ &=& n^{-1} \: W^{a(i-t)} \: x_{i} \: W^{-b(j-t)} \: x_{j}^* \\ &=& n^{-1} \: (W^{ai} x_{i}) \: (W^{bj} x_{j})^* \: W^{(b-a)t} \\ &=& n \: \hat{x}_{a} \: \hat{x}\_b^* \: \delta\_{ab} \\ &=& n \: diag(|\hat{x}|^2) \end{eqnarray}

    mit x^:=Fx\hat{x} := F x
    Sieht da jemand einen Fehler?



  • Deine Rechnung sieht komisch aus, kannst du die kritischen Schritte mal etwas expliziter ausführen (incl. Summenzeichen+Summationsgrenzen)? Kann es sein, dass dir da die t-Abh. beim Index-Shift in der Summation abhanden gekommen ist, weil du Einstein-Konvention benutzt?
    Konkret habe ich Zeile 5 im Verdacht, falsch zu sein. Du hast zuerst
    n(FCF)ab=i,j,t=1ne2πi(aibj)/nxi+txj+t=t=1ni,j=t+1n+te2πi(a(it)b(jt))/nx_ix_j=t=1ne2πit(ba)/ni,j=t+1n+te2πi(aibj)/nx_ix_jn(FCF^*)_{ab}=\sum\limits_{i,j,t=1}^n \mathrm{e}^{2\pi\mathrm{i}(ai-bj)/n}x_{i+t}x_{j+t}=\sum\limits_{t=1}^n\sum\limits_{i,j=t+1}^{n+t}\mathrm{e}^{2\pi\mathrm{i}(a(i-t)-b(j-t))/n}x\_ix\_j=\sum\limits_{t=1}^n\mathrm{e}^{2\pi\mathrm{i}t(b-a)/n}\sum\limits_{i,j=t+1}^{n+t}\mathrm{e}^{2\pi\mathrm{i}(ai-bj)/n}x\_ix\_j
    gerechnet, nicht wahr? Im nächsten Schritt faktorisierst du die beiden Summen dann auf einmal und wertest t=1ne2πit(ba)/n=nδab\sum\limits_{t=1}^n\mathrm{e}^{2\pi\mathrm{i}t(b-a)/n}=n\delta_{ab} aus, aber ich denke nicht, dass das so einfach faktorisieren sollte.



  • t=1ne2πit(ba)/ni,j=t+1n+te2πi(aibj)/nx_ix_j=t=1ne2πit(ba)/ni,j=1ne2πi(aibj)/nx_ix_j\sum\limits_{t=1}^n\mathrm{e}^{2\pi\mathrm{i}t(b-a)/n}\sum\limits_{i,j=t+1}^{n+t}\mathrm{e}^{2\pi\mathrm{i}(ai-bj)/n}x\_ix\_j = \sum\limits_{t=1}^n\mathrm{e}^{2\pi\mathrm{i}t(b-a)/n}\sum\limits_{i,j=1}^{n}\mathrm{e}^{2\pi\mathrm{i}(ai-bj)/n}x\_ix\_j
    Die hintere Summe hängt ja nur in den Summengrenzen von t ab. Weil alle Indices aber modulo n gerechnet werden und ein +/-n bei den i,j im Exponenten den Faktor 1 ergibt, kann man die Summe auch umordnen und statt von t+1 bis t+n zu gehen von 1 bis n gehen. (die i/j > n sind äquivalent zu i/j-n, d.h. es kommen alle i,j von 1 bis n genau einmal vor)



  • Schlauchsteher schrieb:

    t=1ne2πit(ba)/ni,j=t+1n+te2πi(aibj)/nx_ix_j=t=1ne2πit(ba)/ni,j=1ne2πi(aibj)/nx_ix_j\sum\limits_{t=1}^n\mathrm{e}^{2\pi\mathrm{i}t(b-a)/n}\sum\limits_{i,j=t+1}^{n+t}\mathrm{e}^{2\pi\mathrm{i}(ai-bj)/n}x\_ix\_j = \sum\limits_{t=1}^n\mathrm{e}^{2\pi\mathrm{i}t(b-a)/n}\sum\limits_{i,j=1}^{n}\mathrm{e}^{2\pi\mathrm{i}(ai-bj)/n}x\_ix\_j
    Die hintere Summe hängt ja nur in den Summengrenzen von t ab. Weil alle Indices aber modulo n gerechnet werden und ein +/-n bei den i,j im Exponenten den Faktor 1 ergibt, kann man die Summe auch umordnen und statt von t+1 bis t+n zu gehen von 1 bis n gehen. (die i/j > n sind äquivalent zu i/j-n, d.h. es kommen alle i,j von 1 bis n genau einmal vor)

    Ja, das ist korrekt, ich hatte wohl Tomaten auf den Augen bzw. wollte einen Fehler sehen, wo keiner ist - und das willst du vielleicht auch. Alle möglichen C-Matritzen haben per Konstruktion einen verschwindenen Kommutator, also diagonalisieren sie auch simultan unter den selben Eigenbasen, in welche dir die Fouriermatrizen transformieren - den Beweis haben wir ja hier. Wenn dich die komplexen Eigenvektoren stören, so kannst du auf jeden Fall immer eine Basis finden, in der die Eigenvektoren reell sind, da die Matrix ja reell symmetrisch ist, du musst also für jeden Eigenraum ein paar komplexe Linearkombinationen finden, sodass der resultierende Vektor nur reelle Einträge hat.



  • Argh, ja, hatte wirklich Tomaten auf den Augen.
    Danke, Jodocus!

    (für relle Vektoren x gilt x^_i=x^_ni\hat{x}\_i = \hat{x}\_{n-i}^*, also x^_i=x^_ni|\hat{x}\_i| = |\hat{x}\_{n-i}| und damit ist der Eigenraum zu jedem Eigenwert mindestens 2 dimensional, wird durch e±2πi/nkme^{\pm 2\pi i/n \: k m} aufgepannt, woraus man sich, wie für Fouriertransformation irgendwie zu erwarten, Sinus und Kosinus zusammenbauen kann 🙄)


Anmelden zum Antworten