Lineær algebra

Fra Matematikk.net
Hopp til: navigasjon, søk


Lineær Algebra

Lineær algebra er en gren av matematikken som omhandler vektorer, matriser og lineære transformasjoner. Dette fagfeltet er fundamentalt i mange vitenskaper, inkludert fysikk, datafag og ingeniørfag.

Vektorer

En vektor er en størrelse som har både retning og størrelse. For eksempel kan vi representere en vektor i det tredimensjonale rommet slik:

<math> \mathbf{v} = \begin{bmatrix} 2 \\ 3 \\ 5 \end{bmatrix} </math>

Vi kan legge sammen to vektorer ved å addere deres respektive komponenter:

<math> \mathbf{a} = \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix}, \quad \mathbf{b} = \begin{bmatrix} 4 \\ 5 \\ 6 \end{bmatrix} </math>

<math> \mathbf{a} + \mathbf{b} = \begin{bmatrix} 1+4 \\ 2+5 \\ 3+6 \end{bmatrix} = \begin{bmatrix} 5 \\ 7 \\ 9 \end{bmatrix} </math>

Du støter på vektorer i R1 og R2. Skriver man dem oftest horisontalt. En vektor i rommet kan da skrives $[x, y, z]$. I ditt videre studie vil du trolig treffe på engelskspråklige lærebøker. Da er denne skrivemåten vanlig: <math> \mathbf{v} = \begin{bmatrix} x \\ y \\ z \end{bmatrix} </math>. Det er bare forskjellige måter å uttrykke det samme på.

Matriser

En matrise er en tabell av tall som består av rader (bortover) og kolonner (nedover). Matrisen A nedenfor, har tre rader og fire kolonner.

<math> A = \begin{bmatrix} 1 & 0 & 4 & 2 \\ 0 & 0 & 3 & 7 \\ 2 & 2 & 1 & 4 \end{bmatrix} </math>

Matrisen er en 3 x 4 matrise. Det gir oss dimensjonen på matrisen, 3 rader og 4 kolonner. Generelt snakker vi om m x n matriser, der m er antall rader og n antall kolonner. Matrisen består 12 elementer, alle med en unik posisjon. Generellt:



\[ A = (a_{ij}) = \begin{bmatrix} a_{11} & a_{12} & a_{13} & a_{14} \\ a_{21} & a_{22} & a_{23} & a_{24} \\ a_{31} & a_{32} & a_{33} & a_{34} \end{bmatrix} \]

Indeksene i og j er nummeret på henholdsvis radnummer og kolonnenummer.



Matriseaddisjon (og subtraksjon)

Dersom matrisene har samme dimensjon kan de legges sammen. Man legger da sammen elementene i samme posisjon.


Matriser med samme dimensjon kan adderes og subtraheres. Resultatet blir en matrise med samme dimensjon som disse.

\[ \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{bmatrix} + \begin{bmatrix} b_{11} & b_{12} \\ b_{21} & b_{22} \end{bmatrix} = \begin{bmatrix} a_{11}+ b_{11} & a_{12} + b_{12} \\ a_{21} + b_{21} & a_{22} + b_{22} \end{bmatrix} \]



Eksempel 1:


\[ \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} + \begin{bmatrix} 5 & 6 \\ 7 & 8 \end{bmatrix} = \begin{bmatrix} 1+5 & 2+6 \\ 3+7 & 4+8 \end{bmatrix} = \begin{bmatrix} 6 & 8 \\ 10 & 12 \end{bmatrix} \]



Matrisemultiplikasjon

Med en skalar (tall)


Multiplikasjon av en matrise med en skalar gjøres ved å multiplisere hvert element i matrisen, med skalaren.


\[ A =\begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{bmatrix} \]

\[ kA = k \cdot \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{bmatrix} =\begin{bmatrix} k \cdot a_{11} & k \cdot a_{12} \\ k \cdot a_{21} & k \cdot a_{22} \end{bmatrix} \]




Eksempel 2:


\[ A = \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} \]

Multiplikasjon av en matrise med en skalar gjøres ved å multiplisere hvert element i matrisen, med skalaren:

\[ 3A = \begin{bmatrix} 3 & 6 \\ 9 & 12 \end{bmatrix} \]



Eksempel 3: Hvis vi bruker en negativ skalar, f.eks. \( k = -2 \):

\[ -2 \cdot \begin{bmatrix} 5 & -1 \\ 0 & 4 \end{bmatrix} = \begin{bmatrix} -2 \cdot 5 & -2 \cdot (-1) \\ -2 \cdot 0 & -2 \cdot 4 \end{bmatrix} = \begin{bmatrix} -10 & 2 \\ 0 & -8 \end{bmatrix} \]




La \( A \) og \( B \) være matriser av samme dimensjon og \( k, m \) være skalarer. Da gjelder følgende regler:

  • Distributivitet over matriseaddisjon:

\[ k \cdot (A + B) = k \cdot A + k \cdot B \]

  • Distributivitet over skalarmultiplikasjon:

\[ (k + m) \cdot A = k \cdot A + m \cdot A \]

  • Assosiativitet for skalarer:

\[ k \cdot (m \cdot A) = (k \cdot m) \cdot A \]

  • Nøytrale elementer:

\[ 1 \cdot A = A, \quad 0 \cdot A = 0 \]

Disse reglene sikrer at skalarmultiplikasjon er konsistent med vanlige algebraiske operasjoner.



To matriser Multiplikasjon av to matriser utføres ved å ta skalarproduktet av radene i den første matrisen med kolonnene i den andre matrisen. For at to matriser skal kunne multipliseres, må antall kolonner i den første matrisen være lik antall rader i den andre matrisen.


Gitt to matriser \( A \) og \( B \), der \( A \) har dimensjon \( m \times n \) og \( B \) har dimensjon \( n \times p \), kan produktet \( C = A \cdot B \) defineres som en matrise med dimensjon \( m \times p \), der elementene \( c_{ij} \) beregnes som:

\[ c_{ij} = \sum_{k=1}^{n} a_{ik} b_{kj} \]

Dette betyr at elementet i rad \( i \), kolonne \( j \) i produktmatrisen er summen av produktet av elementene i rad \( i \) i \( A \) og kolonne \( j \) i \( B \).




Eksempel 4:

La oss multiplisere en \( 2 \times 3 \)-matrise med en \( 3 \times 2 \)-matrise:

\[ A = \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{bmatrix}, \quad B = \begin{bmatrix} 7 & 8 \\ 9 & 10 \\ 11 & 12 \end{bmatrix} \]

Da beregner vi produktet \( C = A \cdot B \):

\[ C = \begin{bmatrix} (1\cdot7 + 2\cdot9 + 3\cdot11) & (1\cdot8 + 2\cdot10 + 3\cdot12) \\ (4\cdot7 + 5\cdot9 + 6\cdot11) & (4\cdot8 + 5\cdot10 + 6\cdot12) \end{bmatrix} \]

\[ = \begin{bmatrix} (7 + 18 + 33) & (8 + 20 + 36) \\ (28 + 45 + 66) & (32 + 50 + 72) \end{bmatrix} \]

\[ = \begin{bmatrix} 58 & 64 \\ 139 & 154 \end{bmatrix} \]

Dermed er produktet:

\[ C = \begin{bmatrix} 58 & 64 \\ 139 & 154 \end{bmatrix} \]


  • Matrisemultiplikasjon er generelt ikke kommutativ, dvs. \( A \cdot B \neq B \cdot A \) i de fleste tilfeller.
  • Den assosiative loven gjelder:

\[ (A \cdot B) \cdot C = A \cdot (B \cdot C) \]

  • Den distributive loven gjelder:

\[ A \cdot (B + C) = A \cdot B + A \cdot C \]

  • Multiplikasjon med identitetsmatrisen \( I \) gir \( A \cdot I = I \cdot A = A \).



Radoperasjoner


Bytte to rader \[ \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} \to \begin{bmatrix} 3 & 4 \\ 1 & 2 \end{bmatrix} \]


Multiplisere en rad med en skalar (f.eks. 2) \[ \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} \to \begin{bmatrix} 1 & 2 \\ 6 & 8 \end{bmatrix} \]


Legge til et multiplum av en rad til en annen rad (f.eks. legge til 2 ganger rad 1 til rad 2) \[ \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} \to \begin{bmatrix} 1 & 2 \\ 3+2\cdot1 & 4+2\cdot2 \end{bmatrix} = \begin{bmatrix} 1 & 2 \\ 5 & 8 \end{bmatrix} \]

Identitetsmatrisen

En identitetsmatrise er en kvadratisk matrise der alle elementer på hoveddiagonalen er 1, og alle andre elementer er 0. Den betegnes ofte som \( I \).

Eksempel på en \( 3 \times 3 \) identitetsmatrise:

<math> I_3 = \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix} </math>

    • Egenskaper:**

1. Når en hvilken som helst matrise \( A \) multipliseres med identitetsmatrisen, forblir den uendret: \( AI = IA = A \). 2. Identitetsmatrisen fungerer som nøytralt element i matriseproduktet.

Invers av en Matrise

Å invertere en matrise betyr å finne en annen matrise som, når den multipliseres med den opprinnelige matrisen, gir identitetsmatrisen:


\[A^{-1} A = I \]

En matrise har en invers hvis og bare hvis dens determinant er ulik null.

For en \( 2 \times 2 \) matrise \( A \) gitt ved:

<math> A = \begin{bmatrix} a & b \\ c & d \end{bmatrix} </math>

kan vi finne inversen ved:

<math> A^{-1} = \frac{1}{\det(A)} \begin{bmatrix} d & -b \\ -c & a \end{bmatrix} </math>

hvor \( \det(A) = ad - bc \) må være ulik null.




Eksempel:

For matrisen

<math> A = \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} </math>

blir determinanten:

<math> \det(A) = (1 \cdot 4 - 2 \cdot 3) = -2 </math>

og inversen er:

<math> A^{-1} = \frac{1}{-2} \begin{bmatrix} 4 & -2 \\ -3 & 1 \end{bmatrix} = \begin{bmatrix} -2 & 1 \\ 1.5 & -0.5 \end{bmatrix} </math>

Hvorfor invertere en matrise?

1. **Løse lineære ligningssystemer:** Hvis \( Ax = b \), kan vi finne løsningen ved å multiplisere med \( A^{-1} \):

<math> x = A^{-1}b </math>

2. **Transformasjoner:** Inversen brukes til å reversere lineære transformasjoner, for eksempel i datagrafikk og robotikk.

3. **Økonomi og statistikk:** Brukes i regresjonsanalyse og andre statistiske beregninger.




Eksempel x:


Vi tar utgangspunkt i følgende system av fire lineære likninger med fire ukjente:

<math> \begin{cases} x + 2y - z + w = 3 \\ 2x - y + 3z - w = 1 \\ 3x + y - 2z + 2w = 4 \\ x - 3y + 2z + w = 2 \end{cases} </math>

Dette systemet kan skrives på matriseform som <math>AX = B</math>, hvor

<math> A = \begin{bmatrix} 1 & 2 & -1 & 1 \\ 2 & -1 & 3 & -1 \\ 3 & 1 & -2 & 2 \\ 1 & -3 & 2 & 1 \end{bmatrix}, \quad X = \begin{bmatrix} x \\ y \\ z \\ w \end{bmatrix}, \quad B = \begin{bmatrix} 3 \\ 1 \\ 4 \\ 2 \end{bmatrix} </math>

Vi løser systemet ved hjelp av Gauss-jordaneliminasjon, der vi utfører radoperasjoner for å omforme den utvidede matrisen <math>[A | B]</math> til redusert trappeform.

Steg 1: Initial utvidet matrise


<math> \left[ \begin{array}{cccc|c} 1 & 2 & -1 & 1 & 3 \\ 2 & -1 & 3 & -1 & 1 \\ 3 & 1 & -2 & 2 & 4 \\ 1 & -3 & 2 & 1 & 2 \end{array} \right] </math>

Steg 2: Gjør første element i første kolonne til 1


Første pivot er allerede 1, så vi fortsetter.

Steg 3: Null ut elementer under første pivot


Trekk 2 ganger første rad fra andre rad: <math> R_2 \leftarrow R_2 - 2R_1 </math>

Trekk 3 ganger første rad fra tredje rad: <math> R_3 \leftarrow R_3 - 3R_1 </math>

Trekk første rad fra fjerde rad: <math> R_4 \leftarrow R_4 - R_1 </math>

Gir: <math> \left[ \begin{array}{cccc|c} 1 & 2 & -1 & 1 & 3 \\ 0 & -5 & 5 & -3 & -5 \\ 0 & -5 & 1 & -1 & -5 \\ 0 & -5 & 3 & 0 & -1 \end{array} \right] </math>

Steg 4: Gjør andre pivot til 1


Divider andre rad på -5: <math> R_2 \leftarrow \frac{1}{-5} R_2 </math>

Gir: <math> \left[ \begin{array}{cccc|c} 1 & 2 & -1 & 1 & 3 \\ 0 & 1 & -1 & \frac{3}{5} & 1 \\ 0 & -5 & 1 & -1 & -5 \\ 0 & -5 & 3 & 0 & -1 \end{array} \right] </math>

Steg 5: Null ut elementer under og over andre pivot


Legg til 5 ganger andre rad i tredje og fjerde rad: <math> R_3 \leftarrow R_3 + 5R_2, \quad R_4 \leftarrow R_4 + 5R_2 </math>

Trekk 2 ganger andre rad fra første rad: <math> R_1 \leftarrow R_1 - 2R_2 </math>

Resultat: <math> \left[ \begin{array}{cccc|c} 1 & 0 & 1 & \frac{1}{5} & 1 \\ 0 & 1 & -1 & \frac{3}{5} & 1 \\ 0 & 0 & -4 & 2 & 0 \\ 0 & 0 & 8 & 3 & 4 \end{array} \right] </math>

Steg 6: Gjør tredje pivot til 1


Divider tredje rad på -4: <math> R_3 \leftarrow \frac{1}{-4} R_3 </math>

Gir: <math> \left[ \begin{array}{cccc|c} 1 & 0 & 1 & \frac{1}{5} & 1 \\ 0 & 1 & -1 & \frac{3}{5} & 1 \\ 0 & 0 & 1 & -\frac{1}{2} & 0 \\ 0 & 0 & 8 & 3 & 4 \end{array} \right] </math>

Steg 7: Null ut elementer over og under tredje pivot


Trekk 8 ganger tredje rad fra fjerde rad: <math> R_4 \leftarrow R_4 - 8R_3 </math>

Legg til tredje rad i første rad og andre rad: <math> R_1 \leftarrow R_1 - R_3, \quad R_2 \leftarrow R_2 + R_3 </math>

Gir: <math> \left[ \begin{array}{cccc|c} 1 & 0 & 0 & \frac{3}{10} & 1 \\ 0 & 1 & 0 & \frac{1}{10} & 1 \\ 0 & 0 & 1 & -\frac{1}{2} & 0 \\ 0 & 0 & 0 & 7 & 4 \end{array} \right] </math>

Steg 8: Gjør siste pivot til 1


Divider fjerde rad på 7: <math> R_4 \leftarrow \frac{1}{7} R_4 </math>

Til slutt nuller vi elementer over siste pivot for å få en enhetsmatrise til venstre. Dette gir løsningen:

<math> \begin{bmatrix} x \\ y \\ z \\ w \end{bmatrix} = \begin{bmatrix} 0.7 \\ 0.9 \\ 0.3 \\ 0.57 \end{bmatrix} </math>



Når har et system ingen eller uendelig mange løsninger?

  • Ingen løsning: Hvis en rad i den utvidede matrisen har formen <math>[0 \quad 0 \quad 0 \quad 0 \quad c]</math> der <math>c \neq 0</math>, er systemet inkonsistent.
  • Uendelig mange løsninger: Hvis en rad har formen <math>[0 \quad 0 \quad 0 \quad 0 \quad 0]</math>, har systemet en fri variabel, og det finnes uendelig mange løsninger.


Tilfelle med ingen løsninger


Dersom en rad ender opp som en selvmotsigelse, for eksempel:

\[ \left[ \begin{array}{ccc|c} 1 & 1 & 1 & 3 \\ 0 & 1 & -2 & 1 \\ 0 & 0 & 0 & 5 \end{array} \right] \]

så betyr siste rad \( 0 = 5 \), som er en selvmotsigelse. Da har likningssettet ingen løsninger.

Tilfelle med en fri variabel


Dersom vi får en rad som er identisk null, for eksempel:

\[ \left[ \begin{array}{ccc|c} 1 & 1 & -1 & 2 \\ 0 & 1 & 2 & -3 \\ 0 & 0 & 0 & 0 \end{array} \right] \]

så har vi en fri variabel. Hvis vi lar \( z = t \), kan vi skrive løsningen som:

\[ x = 2 + t, \quad y = -3 - 2t, \quad z = t \]

Dette gir en uendelig mengde løsninger parametrisert ved \( t \).

Konklusjon

- Hvis vi får en motstridende rad (f.eks. \( 0 = 5 \)), har vi ingen løsninger. - Hvis vi får en rad med bare nuller, har vi en fri variabel og uendelig mange løsninger. - Hvis matrisen kan reduseres til en trappeform der alle ukjente har en unik verdi, har vi én entydig løsning.

Determinanter

Hvordan løse determinanter

En determinant er en numerisk verdi assosiert med en kvadratisk matrise, som spiller en viktig rolle i lineær algebra, særlig i sammenheng med lineære ligningssystemer, matriseinversjon og areal-/volumberegninger.

2×2 determinant

En 2×2-matrise har formen: \[ A = \begin{bmatrix} a & b \\ c & d \end{bmatrix} \] Determinanten av denne matrisen, skrevet som \( \det(A) \) eller \( |A| \), beregnes som: \[ \det(A) = ad - bc \]

Eksempel

Betrakt matrisen: \[ A = \begin{bmatrix} 3 & 5 \\ 2 & 7 \end{bmatrix} \] Determinanten er: \[ \det(A) = (3 \cdot 7) - (5 \cdot 2) = 21 - 10 = 11 \]

3×3 determinant

For en 3×3-matrise: \[ A = \begin{bmatrix} a & b & c \\ d & e & f \\ g & h & i \end{bmatrix} \] Beregnes determinanten ved hjelp av Sarrus' regel: \[ \det(A) = aei + bfg + cdh - ceg - bdi - afh \]

Eksempel

Gitt matrisen: \[ A = \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{bmatrix} \] Beregning: \[ \det(A) = (1 \cdot 5 \cdot 9) + (2 \cdot 6 \cdot 7) + (3 \cdot 4 \cdot 8) - (3 \cdot 5 \cdot 7) - (2 \cdot 4 \cdot 9) - (1 \cdot 6 \cdot 8) \] \[ = (45 + 84 + 96) - (105 + 72 + 48) = 225 - 225 = 0 \]

4×4 determinant

For en 4×4-matrise: \[ A = \begin{bmatrix} a_{11} & a_{12} & a_{13} & a_{14} \\ a_{21} & a_{22} & a_{23} & a_{24} \\ a_{31} & a_{32} & a_{33} & a_{34} \\ a_{41} & a_{42} & a_{43} & a_{44} \end{bmatrix} \] kan determinanten beregnes ved Laplaces utvidelse langs en rad eller kolonne. Vi ekspanderer langs første rad: \[ \det(A) = a_{11} M_{11} - a_{12} M_{12} + a_{13} M_{13} - a_{14} M_{14} \] hvor \( M_{ij} \) er minor-determinanten (3×3-determinant) oppnådd ved å fjerne rad \( i \) og kolonne \( j \).

Eksempel

Betrakt matrisen: \[ A = \begin{bmatrix} 1 & 2 & 3 & 4 \\ 5 & 6 & 7 & 8 \\ 9 & 10 & 11 & 12 \\ 13 & 14 & 15 & 16 \end{bmatrix} \] Ekspansjon langs første rad: \[ \det(A) = 1 \begin{vmatrix} 6 & 7 & 8 \\ 10 & 11 & 12 \\ 14 & 15 & 16 \end{vmatrix} - 2 \begin{vmatrix} 5 & 7 & 8 \\ 9 & 11 & 12 \\ 13 & 15 & 16 \end{vmatrix} + 3 \begin{vmatrix} 5 & 6 & 8 \\ 9 & 10 & 12 \\ 13 & 14 & 16 \end{vmatrix} - 4 \begin{vmatrix} 5 & 6 & 7 \\ 9 & 10 & 11 \\ 13 & 14 & 15 \end{vmatrix} \] Ved å beregne disse 3×3-determinantene finner vi at \( \det(A) = 0 \).

Oppsummering

  • En 2×2-determinant beregnes som \( ad - bc \).
  • En 3×3-determinant kan beregnes med Sarrus' regel eller Laplaces utvidelse.
  • En 4×4-determinant beregnes vanligvis ved Laplaces utvidelse til 3×3-determinanter.

Determinanter brukes i mange områder av matematikken, inkludert løsning av lineære ligningssystemer (Cramers regel), finne areal/volum i geometri og analyse av matriseegenskaper.



Bruksområder for Determinanter:

  • Løse lineære ligningssystemer: Determinanter brukes til å avgjøre om et system har en entydig løsning. Hvis determinanten til koeffisientmatrisen er null, er systemet enten inkonsistent eller har uendelig mange løsninger.
  • Finne inversen av en matrise: En matrise er inverterbar hvis og bare hvis dens determinant er ulik null.
  • Geometrisk tolkning: Determinanten av en \( 2 \times 2 \) eller \( 3 \times 3 \) matrise kan tolkes som arealet eller volumet av en parallellogram eller parallellpiped dannet av vektorene i matrisen.
  • Transformasjoner og endringer i volum: I datagrafikk og fysikk brukes determinanter til å forstå hvordan transformasjoner påvirker geometriske objekter.
    • Konkret eksempel:**

Anta at vi har en transformasjonsmatrise som skalerer områder i planet:

<math> T = \begin{bmatrix} 3 & 1 \\ 2 & 4 \end{bmatrix} </math>

Da er determinanten:

<math> \det(T) = (3 \cdot 4 - 1 \cdot 2) = 10 </math>

Dette betyr at en figur i planet som transformeres av \( T \) vil få sitt areal skalert med en faktor på 10.

    • Hvorfor er dette viktig?**

- **I fysikk**: Determinanter brukes for å beregne volumendringer under deformasjoner i elastisitetsteori. - **I maskinlæring**: Determinanter brukes til å vurdere om en matrise har en unik løsning i systemer av ligninger, noe som er viktig for å trene modeller. - **I datagrafikk**: Determinanter brukes til å forstå hvordan en transformasjon påvirker bildet eller modellen.

    • Determinanter og Vektorprodukt:**

Vektorproduktet (kryssproduktet) av to vektorer i \( \mathbb{R}^3 \) er definert ved hjelp av determinanter:

<math> \mathbf{a} \times \mathbf{b} = \begin{vmatrix} \mathbf{i} & \mathbf{j} & \mathbf{k} \\ a_1 & a_2 & a_3 \\ b_1 & b_2 & b_3 \end{vmatrix} </math>

Dette utvides til:

<math> \mathbf{a} \times \mathbf{b} = \begin{bmatrix} a_2b_3 - a_3b_2 \\ a_3b_1 - a_1b_3 \\ a_1b_2 - a_2b_1 \end{bmatrix} </math>

    • Geometrisk tolkning:** Kryssproduktet av to vektorer gir en tredje vektor som står vinkelrett på de to opprinnelige vektorene. Lengden av kryssproduktet tilsvarer arealet av parallellogrammet spent ut av de to vektorene.
    • Eksempel:**

La \( \mathbf{a} = \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix} \) og \( \mathbf{b} = \begin{bmatrix} 4 \\ 5 \\ 6 \end{bmatrix} \), da er

<math> \mathbf{a} \times \mathbf{b} = \begin{bmatrix} (2 \cdot 6 - 3 \cdot 5) \\ (3 \cdot 4 - 1 \cdot 6) \\ (1 \cdot 5 - 2 \cdot 4) \end{bmatrix} = \begin{bmatrix} -3 \\ 6 \\ -3 \end{bmatrix} </math>

Dette betyr at vektoren \( \mathbf{a} \times \mathbf{b} \) er vinkelrett på både \( \mathbf{a} \) og \( \mathbf{b} \), noe som er viktig i fysikk (f.eks. moment og elektromagnetisme) og datagrafikk.

Egenverdier og Egenvektorer

Egenverdier for en matrise \( A \) finnes ved å løse ligningen:

<math> \det(A - \lambda I) = 0 </math>

For matrisen

<math> A = \begin{bmatrix} 2 & 1 \\ 1 & 2 \end{bmatrix} </math>

får vi karakteristisk ligning:

<math> \begin{vmatrix} 2 - \lambda & 1 \\ 1 & 2 - \lambda \end{vmatrix} = (2-\lambda)(2-\lambda) - 1 \cdot 1 = \lambda^2 - 4\lambda + 3 = 0 </math>

Løser vi for \( \lambda \), får vi egenverdiene \( \lambda_1 = 3 \) og \( \lambda_2 = 1 \).

Egenvektorer finnes ved å løse \( (A - \lambda I) \mathbf{v} = 0 \) for hver egenverdi.


Egenverdier og Egenvektorer

En egenverdi \( \lambda \) og en egenvektor \( \mathbf{v} \) til en matrise \( A \) er definert ved ligningen:

<math> A \mathbf{v} = \lambda \mathbf{v} </math>

Dette betyr at når matrisen \( A \) multipliseres med egenvektoren \( \mathbf{v} \), får vi tilbake en skalert versjon av \( \mathbf{v} \), der \( \lambda \) er skalaren.

    • Hvorfor er egenverdier og egenvektorer viktige?**

1. **Dynamiske systemer:** Egenverdier brukes til å analysere stabilitet og oppførsel til systemer over tid, for eksempel i fysikk og økonomi. 2. **Databehandling:** PCA (hovedkomponentanalyse) i maskinlæring bruker egenverdier for å redusere dimensjonalitet. 3. **Differensiallikninger:** Brukes til å finne løsninger av lineære differensiallikninger. 4. **Grafteori:** I nettverksanalyse brukes egenverdier til å forstå strukturer og forbindelser.

    • Eksempel:**

Gitt matrisen

<math> A = \begin{bmatrix} 4 & -2 \\ 1 & 1 \end{bmatrix} </math>

Finn egenverdiene ved å løse determinantlikningen

<math> \det(A - \lambda I) = 0 </math>

<math> \begin{vmatrix} 4 - \lambda & -2 \\ 1 & 1 - \lambda \end{vmatrix} = (4 - \lambda)(1 - \lambda) - (-2)(1) = \lambda^2 - 5\lambda + 6 = 0 </math>

Løsningene gir egenverdier \( \lambda_1 = 3 \) og \( \lambda_2 = 2 \).

Tilhørende egenvektorer finnes ved å løse \( (A - \lambda I) \mathbf{v} = 0 \).

Konklusjon

Lineær algebra er et kraftig verktøy som brukes i mange fagfelt. Vektorer, matriser og lineære ligninger er fundamentale konsepter som gir grunnlaget for mer avansert matematikk og anvendelser.



Hva er en egenvektor?

En egenvektor til en matrise \( A \) er en vektor som, når den multipliseres med \( A \), ikke endrer retning – den kan bare strekkes eller krympes. Skaleringen bestemmes av en egeneverdi \( \lambda \), slik at:

\[ A \mathbf{v} = \lambda \mathbf{v} \]

Praktisk eksempel: Transformasjon i 2D

Tenk deg at du har en matrise som representerer en transformasjon i et todimensjonalt rom, for eksempel en enkel skjærings- eller skaleringstransformasjon.

Eksempel: Strekk langs en akse

Se for deg matrisen

\[ A = \begin{bmatrix} 2 & 0 \\ 0 & 1 \end{bmatrix} \]

og en vektor \( \mathbf{v}_1 = \begin{bmatrix}1 \\ 0\end{bmatrix} \). Vi får:

\[ A \mathbf{v}_1 = \begin{bmatrix}2 & 0 \\ 0 & 1\end{bmatrix} \begin{bmatrix}1 \\ 0\end{bmatrix} = \begin{bmatrix}2 \\ 0\end{bmatrix} = 2 \mathbf{v}_1 \]

Her ser vi at vektoren \( \mathbf{v}_1 \) ikke har endret retning, men bare blitt strukket med en faktor 2. Det betyr at \( \mathbf{v}_1 \) er en egenvektor til \( A \), med egeneverdi \( \lambda_1 = 2 \).

Intuisjon

  • Egenvektorer er de spesielle retningene i rommet som en transformasjon ikke roterer, men kun strekker eller krymper.
  • Egenverdiene forteller hvor mye egenvektorene blir skalert.

Dette har mange praktiske bruksområder, for eksempel i bildeprosessering, kvantemekanikk og maskinlæring (f.eks. hovedkomponentanalyse – PCA).

Hva er en transformasjon i matrisesammenheng?

En transformasjon betyr at en matrise \( A \) brukes til å endre eller manipulere vektorer i et rom. Dette gjøres ved matrise-vektor-multiplikasjon:

\[ \mathbf{w} = A\mathbf{v} \]

hvor en vektor \( \mathbf{v} \) blir til en ny vektor \( \mathbf{w} \).

Typer transformasjoner

Avhengig av matrisen kan forskjellige ting skje med vektoren:

  • Skalering: Vektoren blir strukket eller krympet.
  • Rotasjon: Vektoren roteres rundt origo.
  • Speiling: Vektoren speiles over en linje (i 2D) eller et plan (i 3D).
  • Skjæring (shearing): Vektoren forskyves sidelengs uten å endre lengde.
  • Projeksjon: Vektoren blir presset ned til en lavere dimensjon.

Eksempel: Skalering

Hvis vi har matrisen:

\[ A = \begin{bmatrix} 2 & 0 \\ 0 & 3 \end{bmatrix} \]

og vektoren \( \mathbf{v} = \begin{bmatrix} x \\ y \end{bmatrix} \), får vi:

\[ A \mathbf{v} = \begin{bmatrix} 2x \\ 3y \end{bmatrix} \]

Dette betyr at vi har skalert vektoren med 2 i \( x \)-retning og 3 i \( y \)-retning.

Hva er en transponert matrise?

En transponert matrise er en matrise der vi bytter om på radene og kolonnene. Elementet som opprinnelig var på rad \( i \) og kolonne \( j \), flyttes til rad \( j \) og kolonne \( i \). Den transponerte av en matrise \( A \) skrives som \( A^T \).

Eksempel på transponering

Hvis vi har matrisen:

\[ A = \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{bmatrix} \]

så blir den transponerte:

\[ A^T = \begin{bmatrix} 1 & 4 \\ 2 & 5 \\ 3 & 6 \end{bmatrix} \]

Her har vi byttet rader med kolonner:

  • Første rad \([1, 2, 3]\) blir første kolonne.
  • Andre rad \([4, 5, 6]\) blir andre kolonne.

Egenskaper ved transponering

  • \( (A^T)^T = A \) (dobbel transponering gir originalen tilbake).
  • \( (A + B)^T = A^T + B^T \) (transponering av en sum).
  • \( (AB)^T = B^T A^T \) (rekkefølgen snus ved transponering av et produkt).
  • \( (cA)^T = cA^T \), hvor \( c \) er en konstant.

Praktiske bruksområder

Eksempel 1: Dataanalyse og statistikk

I dataanalyse lagres ofte datasett i matriser, der radene representerer observasjoner og kolonnene representerer variabler. Noen ganger er det nødvendig å transponere matrisen for å tilpasse den til en spesifikk algoritme eller analyse.

For eksempel, dersom vi har en matrise der hver rad representerer en persons svar på en spørreundersøkelse, men en bestemt statistisk metode krever at variablene er ordnet i rader, kan vi transponere matrisen for å tilpasse dataene.

Gitt en matrise: \[ A = \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{bmatrix} \] Transponering gir: \[ A^T = \begin{bmatrix} 1 & 4 \\ 2 & 5 \\ 3 & 6 \end{bmatrix} \] Dette gjør det enklere å anvende visse statistiske metoder som hovedkomponentanalyse (PCA).

Eksempel 2: Rotasjon av bilder i datagrafikk

I datagrafikk kan et bilde representeres som en matrise der hver celle inneholder en pikselverdi. Ved å transponere en matrise kan man enkelt rotere et bilde 90 grader.

For eksempel, hvis et bilde er lagret som en matrise: \[ B = \begin{bmatrix} R & G & B \\ C & M & Y \end{bmatrix} \] Ved å transponere og deretter speile kolonnene, oppnår vi en 90-graders rotasjon: \[ B^T = \begin{bmatrix} R & C \\ G & M \\ B & Y \end{bmatrix} \] Deretter speiler vi kolonnene for å få riktig orientering.

Dette prinsippet brukes i bildebehandlingsprogrammer og grafiske applikasjoner for å rotere bilder effektivt uten tap av kvalitet.



  • Løsning av ligningssystemer (f.eks. minste kvadraters metode).
  • Symmetriske matriser (hvor \( A^T = A \)).
  • Geometri og dataanalyse (f.eks. i rotasjonsmatriser og statistikk).

Dette er grunnleggende konsepter innen lineær algebra med mange anvendelser i fysikk, datagrafikk og maskinlæring.