Med lineära avbildningar, menar vi här lineära funktioner från ett vektorrum till ett annat. Mängden av alla lineära funktioner från vektorrummet U till vektorrumet V kallas
L(U,V)
Delmängden av de inverterbara medlemmarna i L(V,V) kallas GL(V,V) (General Linear Group). <GL(V,V),○> utgör en grupp, för:
Givet nu
Bi(f(∑uj·bj)Både Bi och f är lineära, och då också deras sammansättning och då kan vi ta ut summan ur dem.
Bif(u) = ∑uj·Bi(f(bj))Vi ser att vi kan skriva resultatet som
fi(u)=∑Aij·ujmed
Aij=Bi(f(bj))Talscemat Aij kallas för den till f hörande matrisen. Själva matrisen betecknas med A, eller Af, om vi vill markera kopplingen till avbildningen f. Avbildningen som har matrisen A kan vi på samma sätt beteckna med fA.
Om U har dimensionen n och V har dimensionen m, så genomlöper i värden från 1 till n och j genomlöper värden från 1 till m, och då säger man att A är en (m×n)-matris.
En vektor u i U kan representeras som en (n×1) matris u med värden enligt:
ui1 = Bi(u)En sådan (n×1)-matris kallas en kolonnmatris. En (1×n)-matris kallas en radmatris.
Lineära avbildningar och matriser är isomorfa med följande korrespondenser:
(AB)ij= ∑k Aik·Bkj
(f(v))i= ∑j Aij·vjsom visats ovan. Om man representerar vektorerna v och f(v)med kolonnvektorer, så kan detta skrivas som en matrismultiplikation;
f(v) = Av
Iij = 1 om i=j, 0 annars
Låt V ha dimensionen n. Tag en mängd {vk} av n stycken vektorer. Denna uppsättning vektorer spänner upp en figur som har volymen:
Vol({vk})= v1∧v2∧...∧vnEfter avbildningen med ett f ur L(U,V) har vi mängden {f(vk)} av vektorer, som spänner upp en annan figur. Den har volymen:
Vol({f(vk)})= f(v1)∧f(v2)∧... ∧f(vn)avbildningen f har nu en enhetlig volymskalning, så att
S=Vol(f({vk}))/Vol({vk})blir detsamma för alla {vk} som har en volym skild från 0.
aji = AijVolymskalningen för avbildningen ges då av:
S = a1∧aDetta uttryck kallas determinanten för matrisen:2 ∧ ...∧an
det(A) = SFunktionen det är en homomorfism, som avbildar matrismultiplikation på vanlig multiplikation.
det(AB) = det(A)·det(B)Determinanten kan beräknas rekursivt, ut matriser med lägre dimension, som
det(A) = ∑(-1)i+j·Aj1 ·det(subj1(A))där subjk(A) är den undermatris ur A, som saknar rad j och kolonn k
En lineär avbildning f är inverterbar om och endast om
dess volymskalning är skild från 0.
Följaktligen är en matris inverterbar om och endast om
dess determinant är skild från 0.
Inversen, A-1 till en matris A går att räkna ut på följande sätt:
A-1ij = (-1)i+j· det(subji(A))/det(A)där funktionen subij tar bort den i:te raden och j:te kolonnen ur sitt argument.
Bilineära avbildningar, som ofta används för att skapa duala rum, kan realiseras med matriser. I uttrycket B(u,v) betecknar vi u och v med koordinater, men vi uttrycker u som ∑uCibi, där överindex C betyder konjugering vilket har relevans för komplexa eller kvaternionvärda koordinater.
B(u,v) = B(∑uCibi, ∑vjbj) = ∑ijuCi B(bi,bj)vj = uCTAvmed
Aij = B(bi,bj)Varje bilineär funktion B kan alltså realiseras med hjälp av en matris. Operationen T (transponering) byter index från ui1 till u1i, och förvandlar därmed matrisen u från en kolonnmatris till en radmatris.
Givet en inre produkt B. Då hör till varje lineär avbildning A en adjungerad avbildning AA sådan att
B(Au,v) = B(u,AAv) för alla u och vOm B är symmetrisk, så är i det reella fallet AA = AT (A-transponat) dvs.:
AijT=AjiI det komplexa fallet, med B som enhetsmatris, så är AA = ATC = AH transponering och komplexkonjugering, tillsammans kallad Hermittekonjugering eller Hermitteisering.
B(Au,Av)=B(u,v)Måttet B är alltså opåverkat av A. Av detta följer
B(Au,Av) = B(u,AAA,v) = B(u,v)varav
AAA=Idvs
A-1 = AAI det reella fallet gäller då att en isommetri till en symmetrisk (egentlig) inre produkt uppfyller
A-1=ATEn sådan matris kallas ortogonal.
A-1=AH=ATCEn sådan matris kallas unitär.
Om B är den inre produkten, så kallas
║u║=(B(u,u))1/2för normen eller beloppet eller längden av u. Givet att B är symmetriskt, kan man ur uttrycket för normen rekonstruera den inre produkten. Normen har formen:
║u║2 = ∑ nijuiujdär vi har summera så att termerna med uiuj och ujui uppträder sammanslagna i bara en term uiuj, där förslagsvis i≤j. I den inre produkten måste vi hålla dem isär, så att vi får två koeffecienter bij och bji som vardera är hälften av nij:
bij = bji = (1/2)nij
Den inre produkten B = I med matrisen AB = Enhetsmatrisen intar en särställning. Med den ges den inre produkten av
B(u,v) = ∑i uivjNormen ges då av ║u║ = (∑ ui2)1/2 Låt samtidigt koordinaterna ui för vektorerna vara givna för en bas av inbördes ortogonala basvektorer med längden 1 (kallad en ortonormerad bas). Då är I(u,u)1/2 som kallas ║u║ lika med längden av u, och
I(u,v) = ║u║·║v║ cos(α)där α är vinkeln mellan vektorerna u och v mätt i deras gemensamma plan. Om
I(u,v) = 0är följaktligen u och v ortogonala. Genom konventionen att representera första argumentet i B med komplexkonjugerade koordinater blir I(u,u) reellt även för vektorer med komplexa koordinater. Däremot är det inte i det komplexkonjugerade fallet meningsfullt att säga att I(u,v) betyder ortogonalitet. Det finns i det fallet ingen cosinus-formel att falla tillbaka på.
Om en matris A är ortogonal, så att:
ATA = AAT = Iså följer därav att för alla kolonn-(rad-)vektorerna ak att
║ak║ = (I(ak,ak)) 1/2=1Kolonn- (rad-) vektorerna i en ortogonal matris har alltså längden 1, och är inbördes ortogonala (förutsatt en ortonormerad bas). Omvändningen gäller av samma skäl: Om man sätter upp en matris A med kolonnvektorer med längden 1 som är inbördes ortogonala, så blir A ortogonal.
I(ai,aj) = 0 i≠j
En egenvektor e till en lineär avbildning L är en vektor e, sådan att det existerar ett reellt tal λ så att
L(e) = λ·eOm L genereras av en matris A, blir detta:
(A - λI)e = 0Om (A - λI) är inverterbar, så får vi bara den triviala lösningen
e = (A - λI)-10 = 0Villkoret för att λ skall kunna vara ett egenvärde är därför att inversen inte existerar vilket ges av
det(A -λI) = 0 (sekularekvationen)Om A är en (n×n)-matris, så blir detta en n:te-gradsekvation. Enligt algebrans fundamentalsats har denna ekvation n rötter om än inte nödvändigtvis olika. Med ett egenvärde λk givet, löser man ek ur den definierande ekvationen
Aek = λk·ekAtt vi nu har dessa n egenvärden med motsvarande egenvektorer kan vi formulera i en enda ekvation:
∑j Aijekj = ∑l λkδkl eliδ är Kroneckers delta. Kombinationen λkδkl bildar en diagonalmatris
λ1 | 0 | 0 |
0 | λ2 | 0 |
0 | 0 | λ3 |
e11 | e21 | e31 |
e12 | e22 | e32 |
e13 | e23 | e33 |
AE = EΛOm E har en invers, så har vi en isomorfism som omvandlar A till en diagonalmatris enligt:
E-1AE = ΛAnnorlunda uttryckt så förvandlas den den lineära avbildningen L till komponentvis multiplikation med λk.
E är uppbygd av egenvektorerna, och om dessa är inbördes ortogonala och har längden 1, så är E ortogonal, och alltså enkelt inverterbar enligt:
E-1 = ETOm ek är en egenvektor, så är s·ek också en egenvektor, så vi kan alltid välja egenvektorer så att de har längden 1. Beträffande ortogonaliteten har vi följande:
Vi säger att L är en symmetrisk avbildning, om AL
är symmetrisk.
Sats: Om L är symmetrisk, och om egenvärdena
λk är olika, så är motsvarande egenvektorer
ortogonala. Det finns då n ortogonala egenvektorer, så kan vi
sätta upp dem i en matris E, som blir ortogonal.
Bevis: Den inre produkten I är symmetrisk, och därför
ges matrisen AA för den adjungerade avbildningen
LA
till L som AA = AT = A. Alltså är
LA = L.Då har vi
λiI(ei,ej) = I(λiei,ej) = I(L(ei),ej) = I(ei,L(ej)) = I(ei,λjej) = λjI(ei,ej)varav följer
(λi - λj) I(ei,ej) = 0Om egenvärdena är olika, så måste alltså I(ei,ej)=0.
Om (för fallet att L är symmetrisk) några egenvärden skulle
vara lika så gör detta ingenting. Mot en viss dubbelrot till
sekularekvationen, svarar två olika egenvektorer, som är
inbördes ortogonala. Detta leder till följande sats:
Sats: (Spektralsatsen) För en symmetrisk avbildning
L kan man finna n ortogonala egenvektorer, och alltså sätta
upp en diagonaliserande matris E som är inverterbar.
Man behöver först följande
Sats: En symmetrisk avbildning har bara reella egenvärden.
Bevis: Antag att egenvärdet λ är icke-reellt. Vi har
relationen Ae = λe, där vi har placerat egenvektorn e i en
kolonnmatris. Vi multiplicerar från vänster med radmatrisen
eH, och får då.
eHAe=λeHeMen eHe är reell, och det är också w=eHAe för
wH = (eHAe)H = eHAHeHH = eHAe = wDetta motsäger antagandet att λ skulle kunna vara icke-reellt.
Vidare gäller att egenvektorerna har reella koordinater om och endast om egenvektorerna är ortogonala.
Antag som ett exempel att vi har en avbildning L från ett n-dimensionellt rum till sig själv, och med ett dubbelt egenvärde λ1 svarande mot en egenvektor e1. Då har vi:
I(L(u),e1) = I(u,L(e1) = λ1I(u,e1)Om u och e är ortogonala, så är I(u,e1)=0, och då är också I(L(u),e1)=0, så att L(u) är också är ortogonalt mot e1. Allt detta under förutsättning att e1 har reella koordinater. Kallar vi rummet av vektorer som är ortogonala mot e1 för N1, så är alltså L en avbildning, som avbildar N1 på N1. Restriktionen av L till N1 är då en avbildning, som avbildar N1 på sig själv. Rummet har dimensionen n-1. Denna avbildning har då n-1 egenvärden svarande mot n-1 egenvektorer. De måste alla falla i N1, och de är alltså alla ortogonala mot e1. Detta bevisar spektralsatsen.