, 21 min read

Das äußere Produkt und Determinanten

Original post is here eklausmeier.goip.de/blog/2024/01-29-aeusseres-produkt-und-determinanten.


1. Das äußere Produkt

Es gibt eine Fülle von Möglichkeiten Determinanten einzuführen. Ein Weg ist, über das äußere Produkt zu gehen. Die folgenden Ausführungen erfolgen in enger Anlehnung an das Buch Matrizenrechnung von Wolfgang Gröbner (1966).

Es sei K ein beliebiger Körper. Jeden Vektor eines n-dimensionalen Vektorraumes über K kann man darstellen als Linearkombination der Basisvektoren (im weiteren Einheiten genannt)

a=a1ε1+a2ε2++anεn,b=b1ε1+b2ε2++bnεn,ai,biK.

Das äußere Produkt (Zeichen ) wird zunächst für die Einheiten erklärt:

εiεk:=εik:=εki
ab=aibk(εiεk)=aibkεik=i<k(aibkakbi)εik
ab=(ba)

insbesondere

aa=0,(λa)b=a(λb)=λ(ab),a(b+c)=(ab)+(ac),(b+c)a=(ba)+(ca).

Im C3 kann dem äußeren Produkt eine anschauliche Bedeutung beigelegt werden. Identifiziert man

ε12=ε3,ε23=ε1,ε31=ε2,

liegen also die Einheiten höherer Stufe wieder im ursprünglichen Vektorraume, so gilt in diesem Falle für das äußere Produkt, welches man auch vektorielles Produkt nennt (Schreibweise: a×b)

ab=a×b=(a2b3a3b2)ε1+(a3b1a1b3)ε2+(a1b2a2b1)ε3.

Die Verallgemeinerung auf das äußere Produkt von Vektoren höherer Stufe geschieht nach der Regel

εi1εi2εik:=εi1i2ik,

entsprechend

εi1i2ikεj1j2j=εi1εi2εikεj1εj2εj.

Unter einem Vektor k-ter Stufe versteht man allgemein eine Linearform in den (nk) Einheiten k-ter Stufe. Summe, Differenz und inneres Produkt solcher Vektoren sind nach den üblichen Regeln der Algebra erklärt. Man darf also Vektoren derselben Stufe beliebig mit Skalaren multiplizieren und addieren.

1. Satz: Sind a1,a2,,ak Vektoren 1-ter Stufe, so ändert sich das äußere Produkt nicht, wenn man zu einem dieser Vektoren, etwa a1, ein lineares Kompositum der übrigen Vektoren addiert:

a1a2ak=(a1+λ2a2++λkak)a2ak,λ2,,λkK.

Der Beweis ergibt sich durch direktes Ausmultiplizieren der rechten Seite. Bis auf den ersten Summand verschwinden alle weiteren Summanden, da bei allen anderen Produkten, außer dem ersten, stets zwei gleiche Vektoren miteinander äußerlich multipliziert werden.

2. Definition einer Determinante

1. Während das Produkt von k Vektoren erster Stufe insgesamt (nk) Komponenten hat, so hat insbesondere das Produkt von n Vektoren nur noch eine Komponente. Diese Komponente heißt eine Determinante.

a1a2an=a1i1a2i2aninεi1εi2εin.

Alle Glieder, welche das Produkt von zwei Einheiten mit gleichem Index enthalten, verschwinden. Für die Determinante schreibt man

|A|=|aik|=±a1i1a2i2anin,

wobei ±=(1)i1++in.

2. Beispiel: n=2: Es ist

|a11a12a21a22|=a11a22a21a12.

n=3: Hier berechnet man |A| zu

a11a22a33+a12a23+a13a21a32a31a22a13a32a23a11a33a21a12.

Aufgrund der hohen Anzahl der Summanden, nämlich n! (jeder Summand ist n-faches Produkt), benutzt man zur eigentlichen Berechnung von Determinanten i.d.R. ab n3 Determinantenregeln.

3. Mit Hilfe von Determinanten lassen sich auch die Produkte von weniger als n Vektoren genauer ausschreiben. Das Produkt von

a=a1ε1+a2ε2++anεn,b=b1ε1+b2ε2++bnεn,

ist

ab=i<k|ai,bk|εik,

wo |ai,bk|=|ai,akbi,bk| bedeutet. Für einen weiteren dritten Vektor

c=c1ε1+c2ε2++cnεn,

gilt

abc=i<j<k|ai,bj,ck|εijk,

mit

|ai,bj,ck|=|aiajakbibjbkcicjck|

3. Eigenschaften einer Determinante

1. Bemerkung: Es gelten:

(1) Die Determinante einer quadratischen Matrix A=(aik)

|A|=|aik|=±a1i1a2i2anin,

ist eine homogene, lineare Funktion der Elemente einer jeden Zeile und einer jeden Spalte.

(2) Eine Determinante ändert ihr Vorzeichen, wenn man zwei Zeilen oder zwei Spalten miteinander vertauscht.

(3) Eigenschaft (1) und (2) sind für eine Determinante charakteristisch. Bis auf eine Normierung durch einen Skalar, gibt es keine weiteren multilinearen, alternierenden Formen dieser Art.

2. Satz: Ist Φ:GL(n,K)K× eine Abbildung mit Φ(AB)=Φ(A)Φ(B), für alle A,BGL(n,K), dann gibt es φ:K×K×, mit φ(αβ)=φ(α)φ(β), für alle α,βK× und es ist Φ(A)=φ(detA), für alle AGL(n,K).

Beweis: siehe Max Koecher (1985), S.119.     ☐

3. Siehe Wolfgang Gröbner (1966). Es seien A=(aik) und B=(bik) zwei n-zeilige quadratische Matrizen, C=(cik)=AB sei die Produktmatrix. Es ist cik=aijbjk. Die Zeilenvektoren von C sind

ci=kcikεk=j,kaijbjkεk=jaijbj,

wobei bj=bjkεk die Zeilenvektoren von B bedeuten. Nun ist

c1c2cn=|C|ε12n=(a11b1+a12b2++a1nbn)(an1b1+an2b2++annbn)=|A|b1b2bn=|A||B|ε12n.

Durch Vergleich der ersten und letzten Zeile sieht man |C|=|A||B|, also |AB|=|A||B|.

4. Der oben abgeleitete Determinantenproduktsatz, wie auch letztlich das kanonische Skalarprodukt, ist ein Spezialfall der Formel von Cauchy/Binet, auch Determinantenproduktsatz für rechteckige Matrizen genannt. Cauchy, Augustin Louis (1789--1857) Binet, Jacques Philipe Marie (1786--1856)

Es sei A=(aik) eine m×n-Matrix, B=(bk) eine n×s-Matrix. Ihr Produkt AB=C=(ci) ist eine m×s-Matrix mit den Elementen

ci=kaikbk,i=1,,m,=1,,s.

Jeder Zeilenvektor ci von C ist

ci=ciε=k,aikbkε=kaikbk,

mit den Zeilenvektoren bk der Matrix B zu bk=bkε. Nun ist

c1c2cm=C1122mmε12m=kAk11k22kmm(bk1bk2bkm)=k,Ak11k22kmmB1k12k2mkmε12m,

Durch Vergleich der Koeffizienten vor ε12m findet man

k,Ak11k22kmmB1k12k2mkm=C1122mm

5. Diese Formel kann man noch etwas verallgemeinern, wenn man statt c1c2cm das äußere Produkt von irgend welchen r Zeilenvektoren ci1ci2cir auf genau die gleiche Weise auswertet:

k,Ak1i1k2i2krirB1k12k2rkr=C1i12i2mim

In Worten: Jede r-zeilige Unterdeterminante der Produktmatrix ist darstellbar als Summe von Produkten r-reihiger Unterdeterminanten aus A und B, die so kombiniert sind, daß jeweils die Spaltenindizes der ersten mit den Spaltenindizes der zweiten übereinstimmen, während die Zeilenindizes der ersten und die Spaltenindizes der zweiten mit den entsprechenden Indizes in der Produktmatrix übereinstimmen.

6. Man untersucht nun Spezialfälle der obigen Formel. Ist r=m=s (also C quadratisch), so hat man

|C|=kAk11k22kmmB1k12k2mkm

Ist n<m, so gilt |C|=0. Setzt man B=A, dann ist einerseits

ci=kaikak=aia,

mit den Zeilenvektoren ai der Matrix A. Andererseits ist B1k12k2mkm=Ak11k22kmm und zusammen mit

ai1ai2air=kAk1i1k2i2krirεk1k2kr,

ergibt sich

(*)|AA|=|aiak|=(Ak11k22kmm)2=|a1a2am|2.

Eine Anwendung dieser Formel liefert mit m=2 und A=(a1a2amb1b2bm) die Formel von Lagrange, Lagrange, Joseph Louis (1736--1813)

|a×b|=i<k(aibkakbi)2=(ai2)(bk2)(aibk)2=|a|2|b|2(ab)2.

Sind die a1,a2,,am paarweise othogonal, also

aiak={0,für ik,|ai|2,für i=k,

so folgt unmittelbar aus ()

|a1a2am|=|a1||a2||am|.

In Worten: Der Betrag des äußeren Produktes von paarweise othogonalen Vektoren ist gleich dem Produkt ihrer Beträge. Dies ist die anschauliche Bedeutung des Spatproduktes. Das Volumen, welches von paarweise othogonalen Vektoren aufgespannt wird, ist gleich dem Produkt der Seitenlängen.

4. Der Laplacesche Entwicklungssatz

1. Siehe Wolfgang Gröbner (1966). Es seien (i1,,ir) und (i1,,is) zueinander komplementäre Anordnungen, also r+s=n,

i1<i2<<ir,i1<i2<<is,

und (i1,,ir,i1,,is) ist eine Permutation von (1,2,,n), also s=nr. Komplementär geordnete Anordnungen (i1,,ir,i1,,is) brauchen

(i11)+(i22)++(irr)=i1+i2++irr2(r+1)

Transpositionen um die natürliche Anordnung (1,,n) zu erreichen.

Durch Zusammenfassen von Zeilenvektoren von A rechnet man

|A|ε1n=a1an=(1)p(ai1air)(ai1ainr)=(1)p(kAk1i1k2i2krirεk1kr)(kAk1i1k2i2knrinrεk1knr)=k(1)m+pAk1i1k2i2krirAk1i1k2i2knrinrε1n.

mit

p=i1++irr2(r+1),m=k1++irr2(r+1),

und es wurde benutzt

εk1krεk1knr=εk1krk1knr=(1)mε1n,

oder allgemeiner

εk1krεν1νnr=εk1krν1νnr={(1)mε1n,falls ν1=k1,,νnr=knr,0,sonst.

Zur Schreibvereinfachung definiert man das algebraische Komplement αk1i1k2i2krir zu

αk1i1k2i2krir:=(1)i1++ir+k1++krAk1i1k2i2krir.

Statt algebraisches Komplement sagt man auch Adjunkte der Unterdeterminante Ak1i1k2i2krir. Mit dieser Notation erhält man den

2. Satz: Allgemeiner Laplacescher Entwicklungssatz. Laplace, Pierre Simon (1749--1827). Man erhält den Wert der n-reihigen Determinante |A|, entwickelt nach nach den Zeilen i1,i2,,ir, (1i1<i2<<irn), indem man alle r-reihigen Unterdeterminanten dieser r Zeilen bildet, sie mit ihren algebraischen Komplementen multipliziert und dann addiert:

|A|=kAk1i1k2i2krirαk1i1k2i2krir,|A|=iAk1i1k2i2krirαk1i1k2i2krir.

Die Summen sind über alle (nr) Kombination (k1,,kr), bzw. (i1,,ir) zu erstrecken.

3. Nach dem oben hergeleiteten gilt offensichtlich leicht allgemeiner

kAk1i1k2i2krirαk11k22krr={|A|,falls iν=ν,0,sonst.

Für r=1 erhält man das übliche Entwickeln nach einer Zeile oder Spalte insbesondere

(a11a1nan1ann)(α11αn1α1nαnn)=(|A|00|A|).

Wie üblich für ξij: i Zeilenindex, j Spaltenindex, für (α) also transponierte Matrix. Damit liegt eine explizite Beschreibung der inversen Matrix vor, also αij/|A| für das (j,i)-Element der Inversen.

4. Satz: (Minor Inverser) Es sei B=A1, wobei A invertierbar sei. Jeden Minor der Inversen kann man ausdrücken durch die Adjunkte der Ursprungsmatrix:

Bk1i1k2i2krir=αk1i1k2i2krir|A|=(1)m|A|Ak1i1k2i2knrinr,m=i1++ir+k1++kr.

Beweis: Nach Cauchy/Binet ist

(*)kAk1i1k2i2krirB1k12k2rkr={1,falls iν=ν ν,0,sonst.

Nach dem Laplaceschen Entwicklungssatz ist

kAk1i1k2i2krirαk11k22krr={|A|,falls iν=ν ν,0,sonst.

Es sind (Ak1i1k2i2krir)k und (α1k12k2rkr)k beides Matrizen mit (nr)=(nnr) Zeilen und Spalten. Nach () ist (B1k12k2rkr)k offensichtlich Inverse, genauso aber auch αk1i1k2i2krir/|A|. Da Inversen eindeutig bestimmt sind, folgt Gleichheit.     ☐

5. Beispiel: Sowohl für Cauchy/Binet, Laplaceschen Entwicklungssatz als auch Minoren Inverser. Es seien

A=(131464811396732951611),A1=(10205111128767630654169791394).

(1) Die Determinante von A berechnet man z.B. so:

|A|=A1212A3434A1213A3424+A1214A3423+A1223A3414A1224A3413+A1234A3412=1.

Hierbei muß nicht wie bei dem Laplaceschen Entwicklungssatz nach einer Zeile (oder Spalte) immer ein Vorzeichenwechsel von einem Term zum nächsten stattfinden.

(2) Es ist AB=:C=I. Also nach Cauchy/Binet wie oben (42) Summanden

C2334=|0010|=A2312B1234+A2313B1334+A2314B1423+A2323B2334+A2324B2434+A2334B3434=0.

(3) Für den Minor B1234 der Inversen B rechnet man

B1234=|20111|=(1)101A1234=|64139|=2,

genauso

B2324=|116765|=(1)11A1314=|13462|=2.

5. Weitere Folgerungen aus dem Satz von Cauchy/Binet

Aufgrund seiner großen Bedeutung sei für den Determinantenmultiplikationssatz von Cauchy/Binet ein weiterer Beweis angegeben, der nicht Bezug nimmt auf das äußere Produkt.

1. Satz: (Satz von Cauchy/Binet) Es sei C=AB. Dann gilt C1r1r=iAi11i22irrB1i12i2rir.

Beweis: (für Cauchy/Binet) siehe Gantmacher, Felix R. (1908--1964), Gantmacher (1986). Man rechnet

|c11c1rcr1crr|=|i1=1na1i1bi11ir=1na1irbirri1=1nari1bi11ir=1narirbirr|=i1,,ir=1n|a1i1bi11a1irbirrari1bi11arirbirr|=i1,,ir=1nAi11i22irrbi11birr.

Unter allen nr Summanden sind nur n(n1)(nr+1)=(nr)r! Summanden von Interesse, bei denen die Minoren Ai11i22irr nicht zwei, drei, , r gleiche Spalten enthalten. Von den (nr)r! sind aber wiederum nur (nr) echt verschieden, die restlichen sind nichts anderes als Vertauschungen zweier Spalten. Also rechnet man weiter

=1i1<<irn(ν1,,νr)Perm(i1,,ir)σ(ν1,,νr)Ai11i22irrbν11bνrr=1i1<<irnAi11i22irrσ(ν1,,νr)bν11bνrr=1i1<<irnAi11i22irrB1i12i2rir.

    ☐

2. Der Satz von Cauchy/Binet liest sich für mehr als zwei Matrizen wie folgt

(AB)ij=kAikBkj,(ABC)ij=k,AikBkCj,(ABCD)ij=k,,mAikBkCmDmj,(ABCDE)ij=k,,m,pAikBkCmDmpEpj.

3. Es sei

Ap:=(Ak1i1k2i2kpip)i1<<ip,k1<<kpC[(np)×(np)]

die ^{p-te assoziierte Matrix} zu A.

Die Anordnungen seien in lexikographischer Reihenfolge durchlaufen. Beispielsweise erhält man für eine 4×4 Matrix A die 6×6 Matrix

A6=(A1212A1213A1234A3412A3413A3434)

Eine Umformulierung des Satzes von Cauchy/Binet ist: Aus C=AB folgt Cp=ApBp, p=1,2,,n. Insbesondere: Aus B=A1 folgt Bp=Ap1, p=1,2,,n.

4. Satz: Es sei A=(aij)i,j=1n und

|AλI|=(λ)n+cn1(λ)n1+cn2(λ)n2++c1(λ)+c0.

Dann gilt

cn1=1inaii,cn2=1i1<i2nAi1i2i1i2,cn3=1i1<i2<i3nAi1i2i3i1i2i3,,c0=A1n1n=|A|.

Beweis: Siehe Felix Ruvimovich Gantmacher (1908--1964), Gantmacher, 1986, "Matrizentheorie", §3.7. Die Potenz (λ)np tritt in denjenigen Termen von |AλI| auf, die

ak1k1λ,ak2k2λ,,aknpknpλ,k1<<knp

enthalten. Anwendung des allgemeinen Laplaceschen Entwicklungssatzes entwickelt nach (k1,,knp) liefert

|AλI|=(ak1k1λ)(ak2k2λ)(aknpknpλ)Ai1ipi1ip+Rest,

wobei (i1,,ip) die zu (k1,,knp) komplementäre Anordnung ist, also {k1,,knp,i1,,ip}={1,,n}. Bildet man alle möglichen (nnp)=(np) Kombinationen von np Elementen k1<<knp, die besagte Diagonalelemente enthalten, so erhält man genau (np) Minoren als Summe, die die Koeffizienten vor (λ)np ausmachen.     ☐

5. Beispiel: zu cnk=iAi1i1i2i2ikik im Falle n=3. Für

|a11λa12a13a21a22λa23a31a32a33λ|

erhält man

=(λ)3+(a11+a22+a33)λ2+(a11a22a21a12a11a33a31a13+a22a33a32a23)(λ)+|A|=(λ)3+(A11+A22+A33)λ2+(A1212+A1313+A2323)(λ)+|A|.

6. Eine direkte Folge ist der Vietascher Wurzelsatz. Vieta (siehe Viète), Fran\c cois Viéte (1540--1603). Entweder benutzt man eine Jordansche Normalform (A=XJX1) oder eine Schursche Normalform (A=UTU). Das charakteristische Polynom bleibt bei einer Ähnlichkeitstransformation invariant, daher

cnk=i1<<ikλi1λik=i1<<ikAi1i1i2i2ikik.

Es wird nicht behauptet, daß i.a. λi1λik=Ai1i1i2i2ikik. Beispielsweise für eine invertierbare Begleitmatrix C1Cn×n gilt λ1λk(C1)1k1k=0, für k<n.

7. Satz: Bei zwei diagonalähnlichen Matrizen A,BCn×n mögen sämtliche Eigenvektoren gleich sein. Dann gilt: AB=BA, d.h. A und B kommutieren.

Beweis: X enthalte sämtliche Eigenvektoren, D1=diagλi, D2=diagμi, A=XD1X1, B=XD2X1. Also AB=XD1X1XD2X1=XD1D2X1=XD2X1XD1X1=BA.     ☐

8. Satz: Es gelte AB=BA. Dann gilt: A und B haben gemeinsame Eigenvektoren.

Beweis: Siehe James H. Wilkinson (1919--1986), Wilkinson (1965) "The Algebraic Eigenvalue Problem", siehe Gantmacher, Felix R. (1908--1964), Gantmacher (1986) "Matrizentheorie", §9.10. Für ein beliebiges Eigenelement (λ,x) von A gilt ABkx=λBkx, k=0,1,2, In der Vektorfolge x, Bx, B2x, seien die ersten p Vektoren linear unabhängig, also der (p+1)-te Vektor Bpx ist eine Linearkombination der p vorhergehenden. Der Unterraum S:=x,Bx,,Bp1x ist bzgl. B invariant, also BSS, daher existiert ein Eigenvektor yS für B|S, damit auch für B. ABkx=λBkx zeigt, daß x, Bx, B2x, Eigenvektoren zum selben Eigenwert λ sind. Insbesondere jede Linearkombination dieser Vektoren ist Eigenvektor von A, also auch yS.     ☐

9. Bemerkung: Beim Beweis war wesentlich, daß B einen Eigenvektor besitzt. Bei komplexen Matrizen ist dies aufgrund des Fundamentalsatzes der Algebra klar. Bei reellen Matrizen (über R) braucht kein reeller Eigenwert zu existieren und somit auch kein Eigenvektor. Die Drehungsmatrix T=(cosαsinαsinαcosα) hat für geeignetes α keinen reellen Eigenwert. Anschaulich ist dies ersichtlich, weil nicht jede Drehung streckt, staucht oder Fixpunkte hat. Algebraisch ist dies ersichtlich, weil det(AλI)=λ22λcosα+1=(λcosα)2+(1cos2α) nicht für jedes α über R zerfällt. Sehr wohl hat T jedoch in C die beiden Eigenwerte λ=±isinα. Der Satz bleibt richtig, wenn man im Reellen zusätzlich fordert, daß B nur reelle Eigenwerte hat, z.B. falls B hermitesch ist. Der Satz bleibt auch richtig, wenn man voraussetzt: A und B enthalten 1×1 Jordanblöcke (lineare Elementarteiler).

10. Satz: Es sei ACm×n und BCn×m. Sind beide Matrizen quadratisch (m=n) so haben AB und BA dasselbe charakteristische Polynom und damit die gleichen Eigenwerte samt Multiplizitäten. Im Falle mn haben AB und BA die gleichen Eigenwerte samt Multiplizitäten außer, daß das Produkt der höheren Ordnung |mn| zusätzliche Nullen im Spektrum hat.

Beweis: siehe Wilkinson, J.H., Wilkinson (1965). Es ist

|I0BμI||μIABμI|=|μIA0μ2IBA|

und

|μIA0I||μIABμI|=:α=|μ2IAB0BμI|.

Also

μnα=μn|μ2IBA|=μn|μ2IAB|.

Für μ=0 beachte man |AB|=|BA|. Der Fall mn wird genauso bewiesen.     ☐

Den Beweis hätte man auch direkt über die Koeffizienten des charakteristischen Polynomes führen können. Nämlich mit

|ABλI|=(λ)n+cn1(λ)n1++c1(λ)+c0,|BAλI|=(λ)n+dn1(λ)n1++d1(λ)+d0,

berechnet man die ci und di zu

cnk=i(AB)i1i1i2i2ikik=i,AiBi,dnk=i(BA)ii=i,BiAi.

Vertauschung von i und in einer der beiden Summen zeigt Gleichheit, einmal abgesehen von möglichen “Stellenverschiebungen”. Also cnk+=dnk, was aber gerade Multiplikation des charakteristischen Polynomes mit λ bedeutet.