Dag 6
Linjär algebra
| Versionen från 18 maj 2007 kl. 08.57 (redigera) Annator (Diskussion | bidrag) ← Gå till föregående ändring |
Nuvarande version (5 juni 2007 kl. 15.28) (redigera) (ogör) Vcrispin (Diskussion | bidrag) |
||
| (15 mellanliggande versioner visas inte.) | |||
| Rad 1: | Rad 1: | ||
| - | == 1.4 Inversa matriser och räkneregler för matriser == | + | == 1.5 Elementarmatriser och en metod för att beräkna $A^{-1}$ == |
| - | Några av de mest grundläggande egenskaperna hos reella tal är | ||
| - | *(1) $ab=ba$, multiplikation är kommutativ | + | En elementarmatris $E$ är en matris som fås genom att utföra en elementär radoperation (se definitionen på sid. 5 i läroboken) på enhetsmatrisen. Genom att multiplicera en matris $A$ med $E$ från vänster kan man sedan utföra samma elementära radoperation på $A$. Detta innebär att Gausselimination kan ses som multiplikation från vänster med en produkt av elementarmatriser. Om det går att finna en sådan elimination som resulterar i enhetsmatrisen så har man också hittat inversen till $A$ eftersom $E_kE_{k-1} \cdots E_3E_2E_1A=I$ medför att $E_kE_{k-1} \cdots E_3E_2E_1$ är invers till $A$. Läs detaljerna om detta i boken och titta särskilt noga på exempel 4 och 5, som du kommer att ha nytta av för att kunna lösa övningarna. |
| - | *(2) $a(bc)=(ab)c$, multiplikation är associativ | + | |
| - | *(3) $a(b+c)=ab+ac$, distributiva lagen | + | |
| - | *(4) Om $ab=0$ så är antingen $a=0$ eller $b=0$ | + | |
| - | Den sista egenskapen är mycket viktig vid ekvationslösning. Det är till exempel den vi använder när vi sluter oss till att $x^2+px+q=0$ har lösningarn $x=-\frac{p}{2}\pm \sqrt{\frac{p^2}{4}-q}$. Resonemanget bakom är $x^2+px+q=0 \Leftrightarrow (x+\frac{p}{2})^2-\frac{p^2}{4}+q=0 \Leftrightarrow (x+\frac{p}{2}-\sqrt{\frac{p^2}{4}+q})((x+\frac{p}{2}+\sqrt{\frac{p^2}{4}+q})=0 \Leftrightarrow x+\frac{p}{2}=\pm \sqrt{\frac{p^2}{4}-q}$ | ||
| - | I näst sista steget har vi använt konjugatregeln baklänges och i sista steget egenskap (4). | ||
| - | Så vad har detta med matrisräkning att göra? Jo, för matriser gäller (2) och (3) men ''inte'' (1) och (4). Att (1) inte kan gälla för matriser är egentligen ganska självklart för om A är en $n \times m$-matris (dvs en matris med $n$ rader och $m$ kolumner) och B är en $k \times l$-matris så måste $m=k$ för att AB skall vara definierad, och $l=n$ för att BA skall vara definierad. Det kan alltså mycket väl vara så att en av produkterna är definierad, men inte den andra. Då kan man förstås inte säga att de båda produkterna är lika. Men inte ens om båda produkterna är definierade och lika stora är det säkert att $AB=BA$. Detta är mycket viktigt att hålla i minnet då man arbetar med matriser. Att inte (4) gäller har att göra med att en produkt av två matriser kan bli 0 (dvs nollmatrisen) även om ingen av faktorerna är det. Som demonstrerats ovan betyder detta ekvationslösning med matriser inte helt och hållet kan göras som för reella tal. Läs nu sidorna 39-41 i boken för att se exempel på det du just läst här. Konstruera sedan två $3 \times 3$-matriser som inte kommuterar och två $2 \times 2$-matriser B och C sådana att $BC=0$, men $B \neq 0$ och $C \neq 0$. | + | Gör följande övningar i första hand: |
| + | * 1.5.6abc, 1.5.8ad | ||
| + | Har du tid över kan du göra även: | ||
| + | * 1.5.10 | ||
| - | Läs nu igenom avsnitt 1.4 i boken. När du är klar bör du veta vad som menas med enhetsmatris (identity matrix på engelska) och invers matris. Enhetsmatrisen är matrisernas motsvarighet till ettan bland de reella talen. Att bilda $A^{-1}$ för en matris $A$ är motsvarigheten till att bilda $1/a$ för ett reellt tal $a$. På grund av att ordningen spelar roll vid matrismultiplikation kan man inte använda skrivsättet $1/A$ för matriser eftersom man inte skulle veta om $B/A$ betyder $a^{-1}B$ eller $BA^{-1}$. | ||
| - | Viktigt att lägga på minnet från detta avsnitt är också räknereglerna $(AB)^T=B^TA^T$ och $(A^T)^{-1}=(A^{-1})^T$. | + | == 1.6 Mer om ekvationssystem och inverterbarhet == |
| - | När du är klar med genomläsningen kan du | + | |
| + | Det här avsnittet bygger vidare på teorin för linjära ekvationssystem och innehåller flera viktiga satser. Här kommer beviset för att varje linjärt ekvationssytem har ingen, en eller oändligt många lösningar som utlovades i avsnitt 1.1. Dessutom visas att när man skall visa att $B$ är invers till $A$ så räcker det att kolla att $AB=I$ ''eller'' $BA=I$. Den viktigaste satsen är dock 1.6.4 som beskriver hur inverterbarhet av en kvadratisk matris $A$ hänger ihop med lösbarhet hos system $A\bf x=y$. I satsen radas ett antal ekvivalenta påståenden upp. Detta innebär att för en vissa matriser $A$ är alla sex påståendena i satsen sanna och föra andra matriser $A$ är alla sex falska. Det kan alltså inte vara så att några påståenden är sanna och några falska för samma matris. | ||
| + | |||
| + | |||
| + | Gör följande övningar i första hand: | ||
| + | * 1.6.1, 1.6.9abc | ||
| + | Har du tid över kan du göra även: | ||
| + | * 1.6.17 [för svar gå till [[Svar på övning 1.6.17]] ] | ||
| + | |||
| + | |||
| + | == 1.7 Diagonala triangulära och symmetriska matriser == | ||
| + | |||
| + | |||
| + | Detta avsnitt, som är relativt lättläst, beskriver tre speciella typer av kvadratiska matriser. En diagonal matris har bara nollor utanför diagonalen, en triangulär bara nollor ovanför (alternativt nedanför) diagonalen. En symmetrisk matris är oförändrad efter spegling i diagonalen, eller med andra ord $A^T=A$. | ||
| + | |||
| + | |||
| + | Gör följande övningar i första hand: | ||
| + | * 1.7.3, 1.7.10ab | ||
| + | Har du tid över kan du göra även: | ||
| + | * 1.7.11 | ||
Nuvarande version
[redigera] 1.5 Elementarmatriser och en metod för att beräkna $A^{-1}$
En elementarmatris $E$ är en matris som fås genom att utföra en elementär radoperation (se definitionen på sid. 5 i läroboken) på enhetsmatrisen. Genom att multiplicera en matris $A$ med $E$ från vänster kan man sedan utföra samma elementära radoperation på $A$. Detta innebär att Gausselimination kan ses som multiplikation från vänster med en produkt av elementarmatriser. Om det går att finna en sådan elimination som resulterar i enhetsmatrisen så har man också hittat inversen till $A$ eftersom $E_kE_{k-1} \cdots E_3E_2E_1A=I$ medför att $E_kE_{k-1} \cdots E_3E_2E_1$ är invers till $A$. Läs detaljerna om detta i boken och titta särskilt noga på exempel 4 och 5, som du kommer att ha nytta av för att kunna lösa övningarna.
Gör följande övningar i första hand:
- 1.5.6abc, 1.5.8ad
Har du tid över kan du göra även:
- 1.5.10
[redigera] 1.6 Mer om ekvationssystem och inverterbarhet
Det här avsnittet bygger vidare på teorin för linjära ekvationssystem och innehåller flera viktiga satser. Här kommer beviset för att varje linjärt ekvationssytem har ingen, en eller oändligt många lösningar som utlovades i avsnitt 1.1. Dessutom visas att när man skall visa att $B$ är invers till $A$ så räcker det att kolla att $AB=I$ eller $BA=I$. Den viktigaste satsen är dock 1.6.4 som beskriver hur inverterbarhet av en kvadratisk matris $A$ hänger ihop med lösbarhet hos system $A\bf x=y$. I satsen radas ett antal ekvivalenta påståenden upp. Detta innebär att för en vissa matriser $A$ är alla sex påståendena i satsen sanna och föra andra matriser $A$ är alla sex falska. Det kan alltså inte vara så att några påståenden är sanna och några falska för samma matris.
Gör följande övningar i första hand:
- 1.6.1, 1.6.9abc
Har du tid över kan du göra även:
- 1.6.17 [för svar gå till Svar på övning 1.6.17 ]
[redigera] 1.7 Diagonala triangulära och symmetriska matriser
Detta avsnitt, som är relativt lättläst, beskriver tre speciella typer av kvadratiska matriser. En diagonal matris har bara nollor utanför diagonalen, en triangulär bara nollor ovanför (alternativt nedanför) diagonalen. En symmetrisk matris är oförändrad efter spegling i diagonalen, eller med andra ord $A^T=A$.
Gör följande övningar i första hand:
- 1.7.3, 1.7.10ab
Har du tid över kan du göra även:
- 1.7.11

