Spektralsatsen

Spektralsatsen är en samling satser inom linjär algebra. Satserna anger vilka linjära avbildningar som har en bas av ortonormerade egenvektorer och alltså kan diagonaliseras i denna bas, det vill säga huruvida matrisen A kan uttryckas som

där D är en diagonalmatris och U är en unitär matris.

Satsen anger dels att vissa matriser är diagonaliserbara, dels att det inte är nödvändigt att beräkna en invers, vilket är fallet vid allmänna diagonaliseringar, då matrisen skrivs

.

Spektralsatser

Spektralsatsen finns i flera utföranden. Spektralsatsen för symmetriska avbildningar är oftast den enda som lärs ut i en grundkurs i linjär algebra.

Symmetriska avbildningar

Om är ett ändligt-dimensionellt reellt inre produktrum gäller följande:

är en symmetrisk linjär avbildning har en ortonormerad bas av egenvektorer till .

Hermitska avbildningar

Om är ett ändligt-dimensionellt komplext inre produktrum gäller följande:

är en hermitsk linjär avbildning har en ortonormerad bas av egenvektorer till och egenvärdena är reella.

Normala avbildningar

Om är ett ändligt-dimensionellt komplext inre produktrum gäller följande:

är en normal linjär avbildning har en ortonormerad bas av egenvektorer till (men egenvärdena är i allmänhet inte reella).

Notera ekvivalensen: Normala linjära avbildningar är alltså exakt de avbildningar som kan diagonaliseras med en bas av ortonormerade egenvektorer.

Bevis

Symmetriska avbildningar

Spektralsatsen bevisas för en reell symmetrisk avbildning F genom matematisk induktion över dimensionen p för vektorrummet som F verkar på.

  • Visa att satsen gäller för p = 1.
Låt vektorn vara talet 1. Eftersom avbildningsmatrisen har dimensionen 1x1 och är reell avbildas på en reell multipel av sig själv, så egenvärdet är reellt.
är alltså en normerad egenvektor till och därmed den sökta basen till .
  • Anta vidare att satsen är sann för rum av dimensionen p. Visa då att satsen även är sann för rum av dimensionen p + 1.
Symmetriska matriser är hermitska, och hermitska matriser har endast reella egenvärden. Välj ett (reellt) egenvärde för i rummet och låt vektorn vara en normerad egenvektor till denna.
Bilda mängden som innehåller alla vektorer i som är ortogonala mot . Dimensionen för blir alltså . Låt ha ortonormala basvektorer . Notera att dessa inte nödvändigtvis är egenvektorer till .
Fyll ut med till en ON-bas för .
Transformationsmatrisen blir då ortonormal, så . Avbildningsmatrisen i den nya basen, , blir då symmetrisk eftersom . Den får då formen .
V har dimension p och är symmetrisk existerar ortonormala egenvektorer till F begränsat till rummet V enligt induktionsantagandet.
Det betyder i sin tur att är en ortonormerad bas bestående av egenvektorer till
  • Eftersom satsen är sann för dimensionen och om den är sann för ett rum av dimensionen så är den även sann för rum av dimensionen , är satsen sann för alla heltalsdimensioner.

Normala avbildningar

Schurs sats kan användas för att bevisa att en normal matris kan diagonaliseras med en unitär matris.

Låt A vara en normal matris. Det finns då, enligt Schurs sats, en unitär matris U så att A = UTUH, där T är en uppåt triangulär matris med A:s egenvärden på diagonalen. Man får då att:

.

A är normal och U inverterbar ger detta att TTH = THT. T är uppåt triangulär och TH är nedåt triangulär, så för att produkterna TTH och THT ska vara lika måste T vara diagonal.

Historia

Spektralsatsen utformades under början av 1800-talet av Augustin-Louis Cauchy.

Tillämpningar

Kvadratiska former

En kvadratisk form kan skrivas som en symmetrisk matris och kan därför diagonaliseras med en ortonormerad bas. Den blir då mer lätthanterlig. Spektralsatsen kan i vissa fall vara formulerad som att en kvadratisk form i ett euklidiskt rum har en kanonisk ortonormerad bas. Detta gör att spektralsatsen kan användas för att bestämma olika andragradsytors huvudaxlar.

Exempelvis kan den kvadratiska formen

skrivas på matrisform som

och där egenvärdena är

,

så att k i den nya basen kan skrivas

.

Referenser

  • Janfalk, Ulf, Linjär Algebra, 2007, MAI (Linköpings Universitet)
  • Thompson, Jan, Matematiklexikon, 2005, Wahlström & Widstrand
  • Treil, Sergei, Linear Algebra Done Wrong, 2004, elektroniskt tillgänglig http://www.math.brown.edu/%7Etreil/papers/LADW/LADW.html
  • Horn, Roger; Charles Johnson (1985). Matrix Analysis. Cambridge University Press. ISBN 978-0-521-38632-6