Lineära avbildningar

Med lineära avbildningar, menar vi här lineära funktioner från ett vektorrum till ett annat. Mängden av alla lineära funktioner från vektorrummet U till vektorrumet V kallas

L(U,V)

General Linear Group

Delmängden av de inverterbara medlemmarna i L(V,V) kallas GL(V,V) (General Linear Group). <GL(V,V),○> utgör en grupp, för:

GL(V,V) uppträder också under namnet GL(n,R), där n är dimensionen hos V, och R är V:s skalärkropp. Med det namnet är den känd som en av de klassiska Lie-grupperna.


Lineära avbildningar och matriser

Givet nu

Vi söker koordinaterna fi(u) för f(u). De ges av:
Bi(f(∑uj·bj)
Både Bi och f är lineära, och då också deras sammansättning och då kan vi ta ut summan ur dem.
Bif(u) = ∑uj·Bi(f(bj))
Vi ser att vi kan skriva resultatet som
fi(u)=∑Aij·uj
med
Aij=Bi(f(bj))
Talscemat Aij kallas för den till f hörande matrisen. Själva matrisen betecknas med A, eller Af, om vi vill markera kopplingen till avbildningen f. Avbildningen som har matrisen A kan vi på samma sätt beteckna med fA.

Om U har dimensionen n och V har dimensionen m, så genomlöper i värden från 1 till n och j genomlöper värden från 1 till m, och då säger man att A är en (m×n)-matris.

En vektor u i U kan representeras som en (n×1) matris u med värden enligt:

ui1 = Bi(u)
En sådan (n×1)-matris kallas en kolonnmatris. En (1×n)-matris kallas en radmatris.

Isomorfism mellan lineära avbildningar och matriser

Lineära avbildningar och matriser är isomorfa med följande korrespondenser:

Denna isomorfism ger oss en ny representation av gruppen GL(V,V) som mängden av (n×n)-matriser som har inverser tillsammans med matrismultiplikation. Man gör ingen stor sak av skillnaden mellan en grupp bestående av avbildningar, och en isomorf grupp bestående av matriser. De betraktas som helt identiska.

Volymskalning

Låt V ha dimensionen n. Tag en mängd {vk} av n stycken vektorer. Denna uppsättning vektorer spänner upp en figur som har volymen:

Vol({vk})= v1∧v2∧...∧vn
Efter avbildningen med ett f ur L(U,V) har vi mängden {f(vk)} av vektorer, som spänner upp en annan figur. Den har volymen:
Vol({f(vk)})= f(v1)∧f(v2)∧... ∧f(vn)
avbildningen f har nu en enhetlig volymskalning, så att
S=Vol(f({vk}))/Vol({vk})
blir detsamma för alla {vk} som har en volym skild från 0.

Vektormängden som ges av enhetsvektorerna (1,0,0,..0),(0,1,0,...0), ...,(0,0,0,...1), har volymen 1. Av den avbildning som svarar mot matrisen A, avbildas den på de vektorer{aj} som har koordinaterna:
aji = Aij
Volymskalningen för avbildningen ges då av:
S = a1∧a2∧ ...∧an
Detta uttryck kallas determinanten för matrisen:
det(A) = S
Funktionen det är en homomorfism, som avbildar matrismultiplikation på vanlig multiplikation.
det(AB) = det(A)·det(B)
Determinanten kan beräknas rekursivt, ut matriser med lägre dimension, som
det(A) = ∑(-1)i+j·Aj1 ·det(subj1(A))
där subjk(A) är den undermatris ur A, som saknar rad j och kolonn k

Inverterbarhet

En lineär avbildning f är inverterbar om och endast om dess volymskalning är skild från 0.

Följaktligen är en matris inverterbar om och endast om dess determinant är skild från 0.

Inversen till en matris

Inversen, A-1 till en matris A går att räkna ut på följande sätt:

A-1ij = (-1)i+j· det(subji(A))/det(A)
där funktionen subij tar bort den i:te raden och j:te kolonnen ur sitt argument.


Inre produkter

Bilineära avbildningar, som ofta används för att skapa duala rum, kan realiseras med matriser. I uttrycket B(u,v) betecknar vi u och v med koordinater, men vi uttrycker u som ∑uCibi, där överindex C betyder konjugering vilket har relevans för komplexa eller kvaternionvärda koordinater.

B(u,v) = B(∑uCibi, ∑vjbj) = ∑ijuCi B(bi,bj)vj = uCTAv
med
Aij = B(bi,bj)
Varje bilineär funktion B kan alltså realiseras med hjälp av en matris. Operationen T (transponering) byter index från ui1 till u1i, och förvandlar därmed matrisen u från en kolonnmatris till en radmatris.

Om avbildningen B är symmetrisk (kommutativ) så att B(u,v)=B(v,u) så gäller för matriserna att Aij=Aji, Om B(u,u) ≥ 0 med likhet endast för u=0, så säger man att avbildningen (och matrisen) är positivt definit. En sådan symmetrisk reellvärd bilineär positivt definit avbildning kallas en inre produkt, och om det existerar en sådan kallas vektorrummet V ett inre produktrum. Inre produkter kan användas för att bilda metriker. Om B ges av en enhetsmatris, så ger B(u,u) den vanliga pythagoreiska längden av u.

Om avbildningen B är skevsymmetrisk, så att B(u,v)=-B(u,v), vilket är uppfyllt så snart B(u,u)=0 för alla u (se om detta här), så gäller för matriserna att Aij=-Aji varav följer att Aii=0. En sådan skevsymmetrisk bilineär avbildning kallas en yttre produkt. I en del sammanhang kan man betrakta en yttre produkt som en inre produkt.

Den adjungerade avbildningen

Givet en inre produkt B. Då hör till varje lineär avbildning A en adjungerad avbildning AA sådan att

B(Au,v) = B(u,AAv)   för alla u och v
Om B är symmetrisk, så är i det reella fallet AA = AT (A-transponat) dvs.:
AijT=Aji
I det komplexa fallet, med B som enhetsmatris, så är AA = ATC = AH transponering och komplexkonjugering, tillsammans kallad Hermittekonjugering eller Hermitteisering.

Isometrier

Återigen givet en inre produkt B. B(u,u) är tänkt att ge ett mått på u. En lineär avbildning A är en isometri om
B(Au,Av)=B(u,v)
Måttet B är alltså opåverkat av A. Av detta följer
B(Au,Av) = B(u,AAA,v) = B(u,v)
varav
AAA=I
dvs
A-1 = AA
I det reella fallet gäller då att en isommetri till en symmetrisk (egentlig) inre produkt uppfyller
A-1=AT
En sådan matris kallas ortogonal.

I det komplexa fallet gäller att
A-1=AH=ATC
En sådan matris kallas unitär.

Norm och polarisering

Om B är den inre produkten, så kallas

║u║=(B(u,u))1/2
för normen eller beloppet eller längden av u. Givet att B är symmetriskt, kan man ur uttrycket för normen rekonstruera den inre produkten. Normen har formen:
║u║2 = ∑ nijuiuj
där vi har summera så att termerna med uiuj och ujui uppträder sammanslagna i bara en term uiuj, där förslagsvis i≤j. I den inre produkten måste vi hålla dem isär, så att vi får två koeffecienter bij och bji som vardera är hälften av nij:
bij = bji = (1/2)nij


Den kanoniska inre produkten

Den inre produkten B = I med matrisen AB = Enhetsmatrisen intar en särställning. Med den ges den inre produkten av

B(u,v) = ∑i uivj
Normen ges då av
║u║ = (∑ ui2)1/2 Låt samtidigt koordinaterna ui för vektorerna vara givna för en bas av inbördes ortogonala basvektorer med längden 1 (kallad en ortonormerad bas). Då är I(u,u)1/2 som kallas ║u║ lika med längden av u, och
I(u,v) = ║u║·║v║ cos(α)
där α är vinkeln mellan vektorerna u och v mätt i deras gemensamma plan. Om
I(u,v) = 0
är följaktligen u och v ortogonala. Genom konventionen att representera första argumentet i B med komplexkonjugerade koordinater blir I(u,u) reellt även för vektorer med komplexa koordinater. Däremot är det inte i det komplexkonjugerade fallet meningsfullt att säga att I(u,v) betyder ortogonalitet. Det finns i det fallet ingen cosinus-formel att falla tillbaka på.

Om en matris A är ortogonal, så att:

ATA = AAT = I
så följer därav att för alla kolonn-(rad-)vektorerna ak att
║ak║ = (I(ak,ak)) 1/2=1

I(ai,aj) = 0   i≠j
Kolonn- (rad-) vektorerna i en ortogonal matris har alltså längden 1, och är inbördes ortogonala (förutsatt en ortonormerad bas). Omvändningen gäller av samma skäl: Om man sätter upp en matris A med kolonnvektorer med längden 1 som är inbördes ortogonala, så blir A ortogonal.


Diagonalisering

En egenvektor e till en lineär avbildning L är en vektor e, sådan att det existerar ett reellt tal λ så att

L(e) = λ·e
Om L genereras av en matris A, blir detta:
(A - λI)e = 0
Om (A - λI) är inverterbar, så får vi bara den triviala lösningen
e = (A - λI)-10 = 0
Villkoret för att λ skall kunna vara ett egenvärde är därför att inversen inte existerar vilket ges av
det(A -λI) = 0   (sekularekvationen)
Om A är en (n×n)-matris, så blir detta en n:te-gradsekvation. Enligt algebrans fundamentalsats har denna ekvation n rötter om än inte nödvändigtvis olika. Med ett egenvärde λk givet, löser man ek ur den definierande ekvationen
Aek = λk·ek
Att vi nu har dessa n egenvärden med motsvarande egenvektorer kan vi formulera i en enda ekvation:
j Aijekj = ∑l λkδkl eli
δ är Kroneckers delta. Kombinationen λkδkl bildar en diagonalmatris
λ100
0λ20
00λ3
kallad Λ.

Vidare ställer vi upp egenvektorernas koordinater i en matris
e11 e21 e31
e12 e22 e32
e13 e23 e33
kallad E. I ekvationen ovan sker summationen över e:s underindex i vänsterledet, men över e:s överindex i högerledet. Det ger att E multipliceras med A från vänster i vänsterledet, men med Λ från höger i högerledet. Alltså:
AE = EΛ
Om E har en invers, så har vi en isomorfism som omvandlar A till en diagonalmatris enligt:
E-1AE = Λ
Annorlunda uttryckt så förvandlas den den lineära avbildningen L till komponentvis multiplikation med λk.

E är uppbygd av egenvektorerna, och om dessa är inbördes ortogonala och har längden 1, så är E ortogonal, och alltså enkelt inverterbar enligt:

E-1 = ET
Om ek är en egenvektor, så är s·ek också en egenvektor, så vi kan alltid välja egenvektorer så att de har längden 1. Beträffande ortogonaliteten har vi följande:

Vi säger att L är en symmetrisk avbildning, om AL är symmetrisk.

Sats: Om L är symmetrisk, och om egenvärdena λk är olika, så är motsvarande egenvektorer ortogonala. Det finns då n ortogonala egenvektorer, så kan vi sätta upp dem i en matris E, som blir ortogonal.

Bevis: Den inre produkten I är symmetrisk, och därför ges matrisen AA för den adjungerade avbildningen LA till L som AA = AT = A. Alltså är LA = L.Då har vi

λiI(ei,ej) = I(λiei,ej) = I(L(ei),ej) = I(ei,L(ej)) = I(eijej) = λjI(ei,ej)
varav följer
i - λj) I(ei,ej) = 0
Om egenvärdena är olika, så måste alltså I(ei,ej)=0.

#

Om (för fallet att L är symmetrisk) några egenvärden skulle vara lika så gör detta ingenting. Mot en viss dubbelrot till sekularekvationen, svarar två olika egenvektorer, som är inbördes ortogonala. Detta leder till följande sats:

Sats: (Spektralsatsen) För en symmetrisk avbildning L kan man finna n ortogonala egenvektorer, och alltså sätta upp en diagonaliserande matris E som är inverterbar.

Man behöver först följande

Sats: En symmetrisk avbildning har bara reella egenvärden.

Bevis: Antag att egenvärdet λ är icke-reellt. Vi har relationen Ae = λe, där vi har placerat egenvektorn e i en kolonnmatris. Vi multiplicerar från vänster med radmatrisen eH, och får då.

eHAe=λeHe
Men eHe är reell, och det är också w=eHAe för
wH = (eHAe)H = eHAHeHH = eHAe = w
Detta motsäger antagandet att λ skulle kunna vara icke-reellt.

#

Vidare gäller att egenvektorerna har reella koordinater om och endast om egenvektorerna är ortogonala.

Antag som ett exempel att vi har en avbildning L från ett n-dimensionellt rum till sig själv, och med ett dubbelt egenvärde λ1 svarande mot en egenvektor e1. Då har vi:

I(L(u),e1) = I(u,L(e1) = λ1I(u,e1)
Om u och e är ortogonala, så är I(u,e1)=0, och då är också I(L(u),e1)=0, så att L(u) är också är ortogonalt mot e1. Allt detta under förutsättning att e1 har reella koordinater. Kallar vi rummet av vektorer som är ortogonala mot e1 för N1, så är alltså L en avbildning, som avbildar N1 på N1. Restriktionen av L till N1 är då en avbildning, som avbildar N1 på sig själv. Rummet har dimensionen n-1. Denna avbildning har då n-1 egenvärden svarande mot n-1 egenvektorer. De måste alla falla i N1, och de är alltså alla ortogonala mot e1. Detta bevisar spektralsatsen.

till innehåll