This is the file  protla201.htm   (later we will have protla202, 03, 04..)  in  http://www.univie.ac.at/NuHAG/FEICOURS/ws0304

GEOMETRISCHE VORBEREITUNG auf die (Bedeutung und Nützlichkeit) der Begriffe:

EIGENVEKTOR und EIGENWERT einer linearen Abbildung eines Vektorraumes in sich (zuerst anhand des Vektorraumes R^n, wo also diese linearen Abbildungen durch quadratische  n x n Matrizen geben sind.

Def.:  Ein vom Nullvektor verschiedener Vektor  v  in einem Vektorraum V  heisst  EIGENVEKTOR zum EIGENWERT   s  (aus dem Koerper) fuer die lineare Abbidlung T von V in sich, wenn gilt:  Tv = s v  (d.h. die Wirkung der linearen Abbildung auf diesem speziellen Vektor ist "trivial", lediglich eine Streckung/Stauchung um den Faktor  s).

WICHTIG: 

THEOREM:  Eine  n x n Matrix   A  ist genau dann diagonalisierbar (d.h. durch Wahl einer passenden Matrix in Diagonalgestalt zu bringen) wenn es eine BASIS von Eigenvektoren zu  A gibt.  

Wir haben auch schon gezeigt, dass eine Matrix die unitaer (d.h. mit Hilfe einer orthogonalen Matrix im reellen Fall, mit  transp(U) = U, oder einer unitaeren Matrix mit  inv(U) = U' , die transponiert konjugiert Matrix) diagonalisierbar ist (mit reellen) Diagonalelementen, jedenfalls symmetrisch ist (d.h. A = transp(A)) bzw. hermitesch (im komplexen Fall, d.h. A' = A)!

Eines des Ziele des kommenden Abschnittes ist die Klaerung der Umkehrung dieser Fragestellung (wir werden sehen, "das geht").


Bewiesene Eigenschaften:  (Material erst am 9.Okt. ins Netz gestellt)

Lemma:  Eine  hermitesche Matrix  (d.h. mit A = A')  hat nur reelle Eigenwerte  

Beweis:  sei   s in R der Eigenwert,  v der zugehoerige Eigenvektor ungleich Null, dann gilt offenbar

s <v,v> =  <sv,v> = <Av,v> = (allgemein) <v,A'v> = (weil A=A') <v,Av> = <v,sv> = conj(s) <v,v>. 

Analog beweist man, dass

Lemma: Wenn  A = A' gilt, dann ist dann stehen Eigenvektoren zu verschiedenen Eigenvektoren zueinander orthogonal

Beweis:  Wieder betrachtet man    <A*v1,v2> = <v1,A*v2> auf zwei Arten .... (Testfrage f.Koll.!)

Kontrollfrage:  Ist klar, warum   <A*x,y>  = <x,A'*y>  stets gilt??  [schreibe  <u,v> als   v'*u, nutze (A*B)' = B'*A'  ! ]

OFFENE FRAGEN (zum Vorausdenken?):

Wenn eine Matrix Eigenwerte hat, wie kann man diese "herausfinden"? Wieviele verschiedenen (lineare unabhaengige) Eigenvektoren kann man finden? Was hat man davon, wenn man eine Matrix "unitaer diagonalisiert" hat? etc. etc....


3.Stunde, 9.Oktober 2004 (Vorschau, unverbindlich): 

Was hat man davon, wenn man eine Diagolnalisierung einer Matrix kennt?

Beispiele von Diagonalisierungen

NOTWENDIGE Eigenschaften von Diagonalisierungen/Eigenvektoren etc.

Terminologie:  Eigenraum zum Eigenwert  sGesamtheit aller Eigenvektoren zum Skalar  s  (da dies gleichzeitig der Nullraum von (A-sI) ist, ist klar, dass das wirklich ein Teilraum von  R^n ist). Die Dimension des Eigenraumes  E_s  wird die geometrische Vielfachheit des Eigenwertes  s genannt.

Beispiel:    A =  [0,1; 0,0]   (das ist MATLAB-Schreibweise, die eine Matrix zeilenweise beschreibt!).

 (oder allgmein: Die Matrix, die den Differentationsoperator auf  Pn(x) bzgl. Standardbasis beschreibt, ist nilpotent, d.h. hat die Eigenschaft, dass  A^n  =  0 (0-matrix) ist. Eine solche Matrix kann nur den Eigenwert  s = 0 haben (! Eigenwerte duerfen Null sein, nur Eigenvektoren duerfen aus gutem Grunde NICHT Nullvektoren sein...). In diesem konkreten Fall gilt: die geometrische Vielfachheit dieses einzigen Eigenwertes ist = 1 (nur die Vielfachen des konstanten Polynoms werden beim Differenzieren auf Null abgebildet!).

ALLGEMEIN kann man immerhin noch sagen:

LEMMA:  Die Summe der geometrischen Vielfachheiten aller Eigenraeume eine nxn-Matrix  A  ist  hoechstens gleich  n. 

Beweis folgt spaeter (weiter unten, hoffentlich bald).

Gleich die Anschlussfrage: was hat man davon, wenn hier Gleichheit herrscht?

LEMMA: Fuer eine  nxn-Matrix  A  gilt:  Falls die die Summe der geom. Vielfachheiten der Eigenraeume gleich  n  ist, dann kann die Matrix unter Verwendung einer passenden Basis (von Eigenvektoren) auf Diagonalgestalt gebracht werden (und umgekehrt).

Beweis:  Es seien  s1, ..., sl  alle Eigenwerte  A  und E1,..,El die entsprechenden Eigenraeume mit Dimension  r1,...,rl, wobei gelte: r1+r2+...+rl = n. Nun koennen wir in jedem der Raeume eine Basis von insgesamt  n  Eigenvektoren bilden, d.h. v1,...,vn  mit  A*vk =  s_j  vk (wenn v_k ein Basisvektor aus Ej ist). Somit gilt aber (wieder zusammensetzen) dass  [ A ]_{V,V} =  D ist, wobei die Matrix D diejenige Diagonalmatrix ist, in der die Eigenwerte s1,...,sl  in "entsprechender Vielfachheit" vorkommen. (>> Uebungsaufgabe). Die Umkehrung ist der LeserIn überlassen.  

Um das naeher beschreiben zu koennen, muessen wir die Begriffe "direkte Summe", "orthogonale direkte Summe" etc. [noch einmal] naeher betrachten und analysieren (nun vor allem von einem Matrix-Standpunkt aus).

Erinnere:  Direkte Summen (man sollte ein eingekreistes "+" verwenden):  V = V1 + V2 + .. + Vr  (also die eindeutige Zerlegung von Vektoren nach "Bestandteilen" in den 2 oder mehreren Summanden, d.h. Teilraeumen, welche die direkt Summe aufbauen) entstehen "ganz einfach dadurch"  dass man eine Partition der Indexmenge (bzw. einfach der BASIS, in Teilmengen, die also paarweise disjunkt sind) betreibt, und als  V_l  einfach das Erzeugnis der Basis-Vektoren aus dem l-ten Topf (Teilmenge der Basis). Eine Summe ist eine "orthogonale" direkte Summe, wenn die so entstehenden Teilraeume orthogonal zueinander sind, d.h. wenn die Basisvektoren, die zu verschiedenen Teilraumen gehoeren (und somit alle ihre Linearkombinationen) paarweise zueinander orthogonal sind, d.h. wenn gilt:  vl in Vl,  vm  in Vm,  l von m verschieden, impliziert dass <vl,vm> = 0.

LEMMA:    Ist  A eine hermitesche Matrix (A = A' ) , mit der Eigenschaft dass die Summe der geometrischen Vielfachheiten ihrer Eigenraeume gerade  n   ist [wir werden noch sehen, dass diese Bedingung automatisch erfuellt ist!], dann ist  R^n  die direkte orthogonale Summe der Eigenraeume von  A .

Beweis: nun nurmehr ein Anwenden des bisher gesagten. Man beachte, dass man "im Normalfall"  eine Basis des Eigenraumes  Es  zum Eigenwert  s  dadurch findet, indem man den Nullraum von  A - sI   bestimmt, also Gauss Elimination mit dieser Matrix betreibt, um eine Basis des Nullraumes zu finden (d.h. durch Verwenden von freien Variablen eine Familie linear unabhaengiger Loesungen des entsprechenden homogenene linearen Gleichungssystems).

4.-5. Stunde, 14./16.Oktober 2004 (Vorschau, unverbindlich): 

Prinzip: Divide an Conquer!!!

Def.:    Ein Teilraum des W eines Vektorraumes  heisst invariant unter einer linearen Abbildung T des Raumes wenn  T(W) in W enthalten ist. Eine lineare Abbildung lässt sich in Teil-Abbildungen zerlegen, wenn es eine direkte Summenzerlegung V = W1 + W2 gibt, wobei beide Teilräume W1 und W2 invariant unter T sind  (d.h. die Abbildungen T1 = Einschränkung von T auf W1, bzw. T2, Einschr. auf W2, können als Abbildungen von Wi in sich, i=1,2, aufgefasst werden, und beschreiben  T  in diesem Falle vollständig).

LEMMA:  Für  V = Rn (oder Cn, wie immer) ist die  in der obigen Defininition beschriebene Situation genau dann gegeben, wenn sich eine Matrix in Block-Diagonalgestalt bringen läßt, wobei die beiden Blocke die Größe  n1=dim(W1)  bzw. n2=dim(W2) haben.

Beweis: JEDE Basis von W1 sowie W2 gibt miteinander eine Basis für V.  Ti hat dann eine Matrix-Darstellung vom Format ni x ni (i=1,2). Details sind der LeserIn überlassen.

LEMMA:  Ist   A eine hermitesche Matrix  (bzw. eine reelle symmetrische Matrix, wenn wir den Vektorraum Rn nehmen), so ist mit  jedem invarianten Teilraum   W  auch sein orthogonales Komplement bzgl.  A invariant. Insbesondere läßt sich die Matrix durch zwei quadratische Teilmatrizen beschreiben, die die Einschränkung der Abb. T,  x  wird auf  A*x abgebildet, auf   W bzw.  Orth.Kompl.W  beschreiben. Die zugehörigen Matrizen  A1 bzw. A2 sind (selbstverständlich) wieder hermitesch (auch hier gilt wieder eine Umkehrung).

BEMERKUNG:   Da alles auf die Teilräume reduziert werden kann, ist es z.B. leicht zu sehen, dass die Matrix  A  invertierbar ist genau dann wenn beide Teilmatrizen invertierbar sind. Da Blockmatrizen einfach "blockweise" miteinander multipliziert werden, ist natürlich auch die Inverse in Block-Gestalt schreibbar, mit den einzelnen "Inversen Matrizen" in den Block-Diagonalen.

Anmerkungen zum Thema: WIE kann ich konkret, wenn ich eine Partition von {1,...,n} habe, und eine Basis {a1,...,an} eine Zerlegung des Raumes (inkl. der schrägen Projektionen) konkret bestimmen.

Def.:   Ein System von Vektoren (bk) in einem Vektorraum mit Skalarprodukt (z.B. Rn, Cn) heisst biorthogonal zu einem anderen System (ak), wenn (es gleich viele Vektoren sind und wenn) gilt:   <aj,bk> = Kronecker-Delta_{j,k}, also = 1 wenn j = k, und Null sonst.

Man beachte: Diese  Definition beschreibt einen symmetrischen Begriff, d.h. es wäre korrekter zu sagen: Die beiden Systeme von Vektoren haben gleiche Index-Menge und sind "zueinander" biorthogonal.

LEMMA (Matrix-Sicht):  Die Biorthogalitätsrelation ist äquivalent (wenn man die ak und bj  als Spalten entsprechender Matrizen auffasst) zur Gültigkeit der Gleichung   B' * A = Id  (dim = Anzahl der Vektoren).  

LEMMA:  Zu einem gegebenen System von Vektoren im Cn ,  {a1,...,ak} gibt es genau dann ein Biorthogonalsystem, wenn die Vektoren linear unabh. sind (also muss jedenfalls  k  <=  n  gelten!). Unter allen Biorthogonalsystemen (es gibt im Falle k < n unendlich viele verschiedene!) ist dasjenige "ausgezeichnet" (und auch eindeutig dadurch festgelegt), welches (als Matrix B aufgefaßt) denselben Spaltenraum wie  A hat.

Beweis: Wenn es ein (bel.) Biorthogonal-System B  gibt,  und  A*x = 0 gilt, dann auch  x = B'*A*x = B'*0 = 0 (Kurzform d. Bew.!), also ist lin.Unabh. eine notwendige Bedingung. Umgekehrt gilt: Sind die Spalten von A  lin. unabh, und  y = A*x ein Element des Spaltenraumes, so sind die Koeffizienten eindeutig bestimmt. Wenn  A  k lin.unabh. Spalten hat, gibt es also eine eindeutige (und daraus folgt auch schon lineare!) Abb. vom Spaltenraum in den Rk, welche ein Isomorphismus ist.  etc... (noch genauer auszuformulieren, vorl. Ende, 9h...) 

LEMMA: Ein System von Spaltenvektoren im Cn (Rn) ist linear unabh. genau dann, wenn die zugehorige GRAM-Matrix  A'*A (vom Format  k x k)  invertierbar ist, weil   NULL(A) = NULL(A'*A).

Beweis:  Klar ist, dass NULL(A'*A) in NULL(A) enthalten ist. Sei nun umgekehrt z in NULL(A'*A), also  A'*A*z = 0, also auch

<A'*A*z,z> = 0, also  <A*z,A*z> = 0, also A*z = 0. Klarerweise ist  A'*A  invertierbar genau dann wenn es injektiv ist!

ANWENDUNGEN der Diagonalisierbarkeit:

Hat mein eine Matrix diagonalisiert, dann ist sie leicht zu invertieren !  (wann geht das: genau dann wenn die zugehoerige Diagonalmatrix invertierbar ist, d.h. nur Eintragungen ungleich Null hat).   

Hat man eine Matrix die nur strikt positive Eigenwerte hat, dann ist es auch moeglich, eine Wurzel zu ziehen (eindeutig, wenn man von der Wurzel der Matrix ebenfalls pos. Eigenwert erwartet). Insgesamt kann man also auch die Wurzel aus der Inversen (= Inverse der Wurzel!) in diesem Falle bilden (die sich spaeter noch als besonder nuetzlich erweisen wird).

BEISPIEL: FOURIER MATRIX,  zur Diagonalisierung des Shift-Operators... 

Sei   S:  [x1,...,xn]  auf  [xn, x1,x2,...xnder "zyklische Rechts-Shift". Man zeige, dass es fuer diesen Operator eine eindeutig bestimmte ONB (Orthonormalbasis) von Vektoren in  C^n  gibt!!!  (und dass die zugehoerigen Eigenwerte die komplexen Einheitswurzeln der Ordnung n sind).

vorlaeufiges Ende:  11.53. 9.Okt.2003 .  FORTSETZUNG  PROTLA202.htm .  (starting Oct.27th)    


ZURUECK zur Uebersichtsseite:    http://www.univie.ac.at/NuHAG/FEICOURS/WS0304/ws0304.htm