Lineær algebra
Lineær Algebra
Lineær algebra er en gren av matematikken som omhandler vektorer, matriser og lineære transformasjoner. Dette fagfeltet er fundamentalt i mange vitenskaper, inkludert fysikk, datafag og ingeniørfag.
Vektorer
En vektor er en størrelse som har både retning og størrelse. For eksempel kan vi representere en vektor i det tredimensjonale rommet slik:
<math> \mathbf{v} = \begin{bmatrix} 2 \\ 3 \\ 5 \end{bmatrix} </math>
Vi kan legge sammen to vektorer ved å addere deres respektive komponenter:
<math> \mathbf{a} = \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix}, \quad \mathbf{b} = \begin{bmatrix} 4 \\ 5 \\ 6 \end{bmatrix} </math>
<math> \mathbf{a} + \mathbf{b} = \begin{bmatrix} 1+4 \\ 2+5 \\ 3+6 \end{bmatrix} = \begin{bmatrix} 5 \\ 7 \\ 9 \end{bmatrix} </math>
Du støter på vektorer i R1 og R2. Skriver man dem oftest horisontalt. En vektor i rommet kan da skrives $[x, y, z]$. I ditt videre studie vil du trolig treffe på engelskspråklige lærebøker. Da er denne skrivemåten vanlig: <math> \mathbf{v} = \begin{bmatrix} x \\ y \\ z \end{bmatrix} </math>. Det er bare forskjellige måter å uttrykke det samme på.
Matriser
En matrise er en tabell av tall som består av rader (bortover) og kolonner (nedover). Matrisen A nedenfor, har tre rader og fire kolonner.
<math> A = \begin{bmatrix} 1 & 0 & 4 & 2 \\ 0 & 0 & 3 & 7 \\ 2 & 2 & 1 & 4 \end{bmatrix} </math>
Matrisen er en 3 x 4 matrise. Det gir oss dimensjonen på matrisen, 3 rader og 4 kolonner. Generelt snakker vi om m x n matriser, der m er antall rader og n antall kolonner. Matrisen består 12 elementer, alle med en unik posisjon. Generellt:
\[ A = (a_{ij}) = \begin{bmatrix} a_{11} & a_{12} & a_{13} & a_{14} \\ a_{21} & a_{22} & a_{23} & a_{24} \\ a_{31} & a_{32} & a_{33} & a_{34} \end{bmatrix} \]
- Indeksene i og j er nummeret på henholdsvis radnummer og kolonnenummer.
Matriseaddisjon (og subtraksjon)
Dersom matrisene har samme dimensjon kan de legges sammen. Man legger da sammen elementene i samme posisjon.
Matriser med samme dimensjon kan adderes og subtraheres. Resultatet blir en matrise med samme dimensjon som disse.
\[ \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{bmatrix} + \begin{bmatrix} b_{11} & b_{12} \\ b_{21} & b_{22} \end{bmatrix} = \begin{bmatrix} a_{11}+ b_{11} & a_{12} + b_{12} \\ a_{21} + b_{21} & a_{22} + b_{22} \end{bmatrix} \]
Eksempel 1:
\[
\begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} + \begin{bmatrix} 5 & 6 \\ 7 & 8 \end{bmatrix} =
\begin{bmatrix} 1+5 & 2+6 \\ 3+7 & 4+8 \end{bmatrix} =
\begin{bmatrix} 6 & 8 \\ 10 & 12 \end{bmatrix}
\]
Matrisemultiplikasjon
Med en skalar (tall)
Multiplikasjon av en matrise med en skalar gjøres ved å multiplisere hvert element i matrisen, med skalaren.
\[
A =\begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{bmatrix}
\]
\[ kA = k \cdot \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{bmatrix} =\begin{bmatrix} k \cdot a_{11} & k \cdot a_{12} \\ k \cdot a_{21} & k \cdot a_{22} \end{bmatrix} \]
Eksempel 2:
\[ A = \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} \]
Multiplikasjon av en matrise med en skalar gjøres ved å multiplisere hvert element i matrisen, med skalaren:
\[ 3A = \begin{bmatrix} 3 & 6 \\ 9 & 12 \end{bmatrix} \]
Eksempel 3: Hvis vi bruker en negativ skalar, f.eks. \( k = -2 \):
\[ -2 \cdot \begin{bmatrix} 5 & -1 \\ 0 & 4 \end{bmatrix} = \begin{bmatrix} -2 \cdot 5 & -2 \cdot (-1) \\ -2 \cdot 0 & -2 \cdot 4 \end{bmatrix} = \begin{bmatrix} -10 & 2 \\ 0 & -8 \end{bmatrix} \]
La \( A \) og \( B \) være matriser av samme dimensjon og \( k, m \) være skalarer. Da gjelder følgende regler:
- Distributivitet over matriseaddisjon:
\[ k \cdot (A + B) = k \cdot A + k \cdot B \]
- Distributivitet over skalarmultiplikasjon:
\[ (k + m) \cdot A = k \cdot A + m \cdot A \]
- Assosiativitet for skalarer:
\[ k \cdot (m \cdot A) = (k \cdot m) \cdot A \]
- Nøytrale elementer:
\[ 1 \cdot A = A, \quad 0 \cdot A = 0 \]
Disse reglene sikrer at skalarmultiplikasjon er konsistent med vanlige algebraiske operasjoner.
To matriser
Multiplikasjon av to matriser utføres ved å ta skalarproduktet av radene i den første matrisen med kolonnene i den andre matrisen. For at to matriser skal kunne multipliseres, må antall kolonner i den første matrisen være lik antall rader i den andre matrisen.
Gitt to matriser \( A \) og \( B \), der \( A \) har dimensjon \( m \times n \) og \( B \) har dimensjon \( n \times p \), kan produktet \( C = A \cdot B \) defineres som en matrise med dimensjon \( m \times p \), der elementene \( c_{ij} \) beregnes som:
\[ c_{ij} = \sum_{k=1}^{n} a_{ik} b_{kj} \]
Dette betyr at elementet i rad \( i \), kolonne \( j \) i produktmatrisen er summen av produktet av elementene i rad \( i \) i \( A \) og kolonne \( j \) i \( B \).
Eksempel
La oss multiplisere en \( 2 \times 3 \)-matrise med en \( 3 \times 2 \)-matrise:
\[ A = \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{bmatrix}, \quad B = \begin{bmatrix} 7 & 8 \\ 9 & 10 \\ 11 & 12 \end{bmatrix} \]
Da beregner vi produktet \( C = A \cdot B \):
\[ C = \begin{bmatrix} (1\cdot7 + 2\cdot9 + 3\cdot11) & (1\cdot8 + 2\cdot10 + 3\cdot12) \\ (4\cdot7 + 5\cdot9 + 6\cdot11) & (4\cdot8 + 5\cdot10 + 6\cdot12) \end{bmatrix} \]
\[ = \begin{bmatrix} (7 + 18 + 33) & (8 + 20 + 36) \\ (28 + 45 + 66) & (32 + 50 + 72) \end{bmatrix} \]
\[ = \begin{bmatrix} 58 & 64 \\ 139 & 154 \end{bmatrix} \]
Dermed er produktet:
\[ C = \begin{bmatrix} 58 & 64 \\ 139 & 154 \end{bmatrix} \]
Egenskaper
- Matrisemultiplikasjon er generelt ikke kommutativ, dvs. \( A \cdot B \neq B \cdot A \) i de fleste tilfeller.
- Den assosiative loven gjelder:
\[ (A \cdot B) \cdot C = A \cdot (B \cdot C) \]
- Den distributive loven gjelder:
\[ A \cdot (B + C) = A \cdot B + A \cdot C \]
- Multiplikasjon med identitetsmatrisen \( I \) gir \( A \cdot I = I \cdot A = A \).
Disse reglene hjelper oss med å forstå hvordan matriser kan kombineres og brukes i beregninger.
Radoperasjoner
Bytte to rader <math> \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} \to \begin{bmatrix} 3 & 4 \\ 1 & 2 \end{bmatrix} </math>
Multiplisere en rad med en skalar (f.eks. 2) <math> \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} \to \begin{bmatrix} 1 & 2 \\ 6 & 8 \end{bmatrix} </math>
Legge til et multiplum av en rad til en annen rad (f.eks. legge til 2 ganger rad 1 til rad 2) <math> \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} \to \begin{bmatrix} 1 & 2 \\ 3+2\cdot1 & 4+2\cdot2 \end{bmatrix} = \begin{bmatrix} 1 & 2 \\ 5 & 8 \end{bmatrix} </math>
Identitetsmatrisen
En identitetsmatrise er en kvadratisk matrise der alle elementer på hoveddiagonalen er 1, og alle andre elementer er 0. Den betegnes ofte som \( I \).
Eksempel på en \( 3 \times 3 \) identitetsmatrise:
<math> I_3 = \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix} </math>
- Egenskaper:**
1. Når en hvilken som helst matrise \( A \) multipliseres med identitetsmatrisen, forblir den uendret: \( AI = IA = A \). 2. Identitetsmatrisen fungerer som nøytralt element i matriseproduktet.
Invers av en Matrise
Å invertere en matrise betyr å finne en annen matrise som, når den multipliseres med den opprinnelige matrisen, gir identitetsmatrisen:
<math> A^{-1} A = I </math>
En matrise har en invers hvis og bare hvis dens determinant er ulik null.
For en \( 2 \times 2 \) matrise \( A \) gitt ved:
<math> A = \begin{bmatrix} a & b \\ c & d \end{bmatrix} </math>
kan vi finne inversen ved:
<math> A^{-1} = \frac{1}{\det(A)} \begin{bmatrix} d & -b \\ -c & a \end{bmatrix} </math>
hvor \( \det(A) = ad - bc \) må være ulik null.
- Eksempel:**
For matrisen
<math> A = \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} </math>
blir determinanten:
<math> \det(A) = (1 \cdot 4 - 2 \cdot 3) = -2 </math>
og inversen er:
<math> A^{-1} = \frac{1}{-2} \begin{bmatrix} 4 & -2 \\ -3 & 1 \end{bmatrix} = \begin{bmatrix} -2 & 1 \\ 1.5 & -0.5 \end{bmatrix} </math>
- Hvorfor invertere en matrise?**
1. **Løse lineære ligningssystemer:** Hvis \( Ax = b \), kan vi finne løsningen ved å multiplisere med \( A^{-1} \):
<math> x = A^{-1}b </math>
2. **Transformasjoner:** Inversen brukes til å reversere lineære transformasjoner, for eksempel i datagrafikk og robotikk.
3. **Økonomi og statistikk:** Brukes i regresjonsanalyse og andre statistiske beregninger.
Lineære Ligningssystemer
Et system av lineære ligninger kan skrives som en matrise:
<math> \begin{cases} x + 2y = 5 \\ 3x + 4y = 6 \end{cases} </math>
Dette kan skrives på matriseform som:
<math> \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} \begin{bmatrix} x \\ y \end{bmatrix} = \begin{bmatrix} 5 \\ 6 \end{bmatrix} </math>
Løsningen kan finnes ved å bruke Gauss-eliminasjon eller invers matrise-metoden.
Determinanter
Determinanten til en \( 2 \times 2 \) matrise er gitt ved:
<math> \det(A) = \begin{vmatrix} a & b \\ c & d \end{vmatrix} = ad - bc </math>
For eksempel, for matrisen
<math> A = \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} </math>
blir determinanten:
<math> \det(A) = (1\cdot4 - 2\cdot3) = -2 </math>
Bruksområder for Determinanter:
- Løse lineære ligningssystemer: Determinanter brukes til å avgjøre om et system har en entydig løsning. Hvis determinanten til koeffisientmatrisen er null, er systemet enten inkonsistent eller har uendelig mange løsninger.
- Finne inversen av en matrise: En matrise er inverterbar hvis og bare hvis dens determinant er ulik null.
- Geometrisk tolkning: Determinanten av en \( 2 \times 2 \) eller \( 3 \times 3 \) matrise kan tolkes som arealet eller volumet av en parallellogram eller parallellpiped dannet av vektorene i matrisen.
- Transformasjoner og endringer i volum: I datagrafikk og fysikk brukes determinanter til å forstå hvordan transformasjoner påvirker geometriske objekter.
- Konkret eksempel:**
Anta at vi har en transformasjonsmatrise som skalerer områder i planet:
<math> T = \begin{bmatrix} 3 & 1 \\ 2 & 4 \end{bmatrix} </math>
Da er determinanten:
<math> \det(T) = (3 \cdot 4 - 1 \cdot 2) = 10 </math>
Dette betyr at en figur i planet som transformeres av \( T \) vil få sitt areal skalert med en faktor på 10.
- Hvorfor er dette viktig?**
- **I fysikk**: Determinanter brukes for å beregne volumendringer under deformasjoner i elastisitetsteori. - **I maskinlæring**: Determinanter brukes til å vurdere om en matrise har en unik løsning i systemer av ligninger, noe som er viktig for å trene modeller. - **I datagrafikk**: Determinanter brukes til å forstå hvordan en transformasjon påvirker bildet eller modellen.
- Determinanter og Vektorprodukt:**
Vektorproduktet (kryssproduktet) av to vektorer i \( \mathbb{R}^3 \) er definert ved hjelp av determinanter:
<math> \mathbf{a} \times \mathbf{b} = \begin{vmatrix} \mathbf{i} & \mathbf{j} & \mathbf{k} \\ a_1 & a_2 & a_3 \\ b_1 & b_2 & b_3 \end{vmatrix} </math>
Dette utvides til:
<math> \mathbf{a} \times \mathbf{b} = \begin{bmatrix} a_2b_3 - a_3b_2 \\ a_3b_1 - a_1b_3 \\ a_1b_2 - a_2b_1 \end{bmatrix} </math>
- Geometrisk tolkning:** Kryssproduktet av to vektorer gir en tredje vektor som står vinkelrett på de to opprinnelige vektorene. Lengden av kryssproduktet tilsvarer arealet av parallellogrammet spent ut av de to vektorene.
- Eksempel:**
La \( \mathbf{a} = \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix} \) og \( \mathbf{b} = \begin{bmatrix} 4 \\ 5 \\ 6 \end{bmatrix} \), da er
<math> \mathbf{a} \times \mathbf{b} = \begin{bmatrix} (2 \cdot 6 - 3 \cdot 5) \\ (3 \cdot 4 - 1 \cdot 6) \\ (1 \cdot 5 - 2 \cdot 4) \end{bmatrix} = \begin{bmatrix} -3 \\ 6 \\ -3 \end{bmatrix} </math>
Dette betyr at vektoren \( \mathbf{a} \times \mathbf{b} \) er vinkelrett på både \( \mathbf{a} \) og \( \mathbf{b} \), noe som er viktig i fysikk (f.eks. moment og elektromagnetisme) og datagrafikk.
Egenverdier og Egenvektorer
Egenverdier for en matrise \( A \) finnes ved å løse ligningen:
<math> \det(A - \lambda I) = 0 </math>
For matrisen
<math> A = \begin{bmatrix} 2 & 1 \\ 1 & 2 \end{bmatrix} </math>
får vi karakteristisk ligning:
<math> \begin{vmatrix} 2 - \lambda & 1 \\ 1 & 2 - \lambda \end{vmatrix} = (2-\lambda)(2-\lambda) - 1 \cdot 1 = \lambda^2 - 4\lambda + 3 = 0 </math>
Løser vi for \( \lambda \), får vi egenverdiene \( \lambda_1 = 3 \) og \( \lambda_2 = 1 \).
Egenvektorer finnes ved å løse \( (A - \lambda I) \mathbf{v} = 0 \) for hver egenverdi.
Egenverdier og Egenvektorer
En egenverdi \( \lambda \) og en egenvektor \( \mathbf{v} \) til en matrise \( A \) er definert ved ligningen:
<math> A \mathbf{v} = \lambda \mathbf{v} </math>
Dette betyr at når matrisen \( A \) multipliseres med egenvektoren \( \mathbf{v} \), får vi tilbake en skalert versjon av \( \mathbf{v} \), der \( \lambda \) er skalaren.
- Hvorfor er egenverdier og egenvektorer viktige?**
1. **Dynamiske systemer:** Egenverdier brukes til å analysere stabilitet og oppførsel til systemer over tid, for eksempel i fysikk og økonomi. 2. **Databehandling:** PCA (hovedkomponentanalyse) i maskinlæring bruker egenverdier for å redusere dimensjonalitet. 3. **Differensiallikninger:** Brukes til å finne løsninger av lineære differensiallikninger. 4. **Grafteori:** I nettverksanalyse brukes egenverdier til å forstå strukturer og forbindelser.
- Eksempel:**
Gitt matrisen
<math> A = \begin{bmatrix} 4 & -2 \\ 1 & 1 \end{bmatrix} </math>
Finn egenverdiene ved å løse determinantlikningen
<math> \det(A - \lambda I) = 0 </math>
<math> \begin{vmatrix} 4 - \lambda & -2 \\ 1 & 1 - \lambda \end{vmatrix} = (4 - \lambda)(1 - \lambda) - (-2)(1) = \lambda^2 - 5\lambda + 6 = 0 </math>
Løsningene gir egenverdier \( \lambda_1 = 3 \) og \( \lambda_2 = 2 \).
Tilhørende egenvektorer finnes ved å løse \( (A - \lambda I) \mathbf{v} = 0 \).
Konklusjon
Lineær algebra er et kraftig verktøy som brukes i mange fagfelt. Vektorer, matriser og lineære ligninger er fundamentale konsepter som gir grunnlaget for mer avansert matematikk og anvendelser.