D
Linjär algebra
| Versionen från 14 maj 2007 kl. 09.54 (redigera) Annator (Diskussion | bidrag) ← Gå till föregående ändring |
Nuvarande version (4 juni 2007 kl. 09.20) (redigera) (ogör) Vcrispin (Diskussion | bidrag) |
||
| (5 mellanliggande versioner visas inte.) | |||
| Rad 1: | Rad 1: | ||
| - | == 1.1 Linjära ekvationsystem och matriser == | + | == 1.4 Inversa matriser och räkneregler för matriser == |
| + | Några av de mest grundläggande egenskaperna hos reella tal är | ||
| - | Något förenklat kan man säga att den linjära algebran handlar om att översätta geometriska problem till algebraiska och vice versa. Det visar sig att en mycket stor del av de geometriska problem vi kommer att intressera oss för kan översättas till frågor om så kallade linjära ekvationssystem. | + | *(1) $ab=ba$, multiplikation är kommutativ |
| + | *(2) $a(bc)=(ab)c$, multiplikation är associativ | ||
| + | *(3) $a(b+c)=ab+ac$, distributiva lagen | ||
| + | *(4) Om $ab=0$ så är antingen $a=0$ eller $b=0$ | ||
| - | En linjär ekvation i $n$ obekanta är en ekvation som kan skrivas på formen $ a_1x_1+a_2x_2+a_3x_3+ \cdots +a_{n-1}x_{n-1}+a_nx_n=0 $ Några exempel på linjära ekvationer i 3 variabler är $ 5x_1+17x_2-12x_3=0 $ och $\sqrt{5}x_1-x_2+\pi x_3=0$. Ekvationen $\sqrt{x_1}+x_2-x_3=0$ är däremot inte linjär. Skriv nu upp två egna exempel på linjära och icke-linjära ekvationer innan du läser vidare. Läs sedan igenom sidorna 1-3 (tom exempel 2)i boken. Lös övning 1.1.3 (a) och (c) som en kontroll på att du förstått det du har läst. Välj parametern som beskriver svaret på 1.1.3 (a) på två olika sätt och fundera på vilket samband som finns mellan dina två parametrar (på liknande sätt som görs i exempel 2(a), sid 2-3). | + | Den sista egenskapen är mycket viktig vid ekvationslösning. Det är till exempel den vi använder när vi sluter oss till att $x^2+px+q=0$ har lösningarn $x=-\frac{p}{2}\pm \sqrt{\frac{p^2}{4}-q}$. Resonemanget bakom är $x^2+px+q=0 \Leftrightarrow (x+\frac{p}{2})^2-\frac{p^2}{4}+q=0 \Leftrightarrow (x+\frac{p}{2}-\sqrt{\frac{p^2}{4}+q})((x+\frac{p}{2}+\sqrt{\frac{p^2}{4}+q})=0 \Leftrightarrow x+\frac{p}{2}=\pm \sqrt{\frac{p^2}{4}-q}$ |
| + | I näst sista steget har vi använt konjugatregeln baklänges och i sista steget egenskap (4). | ||
| - | Ett linjärt ekvationssystem är en uppsättning linjära ekvationer. För att en uppsättning värden $(a_1, a_2, \ldots , a_n)$ skall räknas som en lösning till systemet krävs att alla ekvationer är uppfyllda om man sätter $x_1=a_1, x_2=a_2$ osv. Längre fram i kursen kommer vi att visa att varje linjärt ekvationssystem har antingen 0, 1 eller oändligt många lösningar. För system med 2 obekanta är detta detsamma som att säga att det för att antal linjer i planet finns antingen 0, 1 eller oändligt många punkter där de alla strålar samman. Ge exempel på dessa tre olika fall. Läs sedan resten av avsnitt 1.1 i boken och lös övningarna 1.1.7 och 1.1.8. Det tar ofta en stund att förstå nya matematiska begrepp, så det kanske tar ett tag innan du kommer på lösningen. När du känner dig säker på svaret kan du jämföra med lösningarna på nätet: Klicka på länken [http://www.justask4u.com/csp/ELA9/EFramesetMain.csp?CSPCHD=00000001000g31lzdlOb003027314678], välj "Browse by chapters" i menyn i vänsterkanten och sedan kapitel 1, avsnitt 1, samt klicka på det problem du vill se lösningen av. Om du skulle köra fast helt i dina lösningsförsök så kan du också hitta tips på nätsidorna ovan. | + | Så vad har detta med matrisräkning att göra? Jo, för matriser gäller (2) och (3) men ''inte'' (1) och (4). Att (1) inte kan gälla för matriser är egentligen ganska självklart för om A är en $n \times m$-matris (dvs en matris med $n$ rader och $m$ kolumner) och B är en $k \times l$-matris så måste $m=k$ för att AB skall vara definierad, och $l=n$ för att BA skall vara definierad. Det kan alltså mycket väl vara så att en av produkterna är definierad, men inte den andra. Då kan man förstås inte säga att de båda produkterna är lika. Men inte ens om båda produkterna är definierade och lika stora är det säkert att $AB=BA$. Detta är mycket viktigt att hålla i minnet då man arbetar med matriser. Att inte (4) gäller har att göra med att en produkt av två matriser kan bli 0 (dvs nollmatrisen) även om ingen av faktorerna är det. Som demonstrerats ovan betyder detta ekvationslösning med matriser inte helt och hållet kan göras som för reella tal. Läs nu sidorna 39-41 i boken för att se exempel på det du just läst här. Konstruera sedan två $3 \times 3$-matriser som inte kommuterar och två $2 \times 2$-matriser B och C sådana att $BC=0$, men $B \neq 0$ och $C \neq 0$. |
| + | Läs nu igenom avsnitt 1.4 i boken. När du är klar bör du veta vad som menas med enhetsmatris (identity matrix på engelska) och invers matris. Enhetsmatrisen är matrisernas motsvarighet till ettan bland de reella talen. Att bilda $A^{-1}$ för en matris $A$ är motsvarigheten till att bilda $1/a$ för ett reellt tal $a$. På grund av att ordningen spelar roll vid matrismultiplikation kan man inte använda skrivsättet $1/A$ för matriser eftersom man inte skulle veta om $B/A$ betyder $A^{-1}B$ eller $BA^{-1}$. | ||
| - | == 1.2 Gausselimination == | + | Viktigt att lägga på minnet från detta avsnitt är också räknereglerna $(AB)^T=B^TA^T$ och $(A^T)^{-1}=(A^{-1})^T$. |
| - | En trevlig egenskap hos linjära ekvationssystem är att det finns en algoritm för att lösa dem, dvs en metod som för varje ekvationssystem består av ett ändligt antal steg. Den vanligaste metoden kallas Gausselimination och beskrivs i avsnitt 1.2. Man lär sig metoden bäst genom övning så jag föreslår att du först läser igenom avsnitt 1.1 och sedan löser uppgifterna 1.2.6abc, 1.2.7ab, 1.2.8abcd, 1.2.13c. När du har klarat av dem kan du, om du har tid över, lösa 1.2.12ab och 1.2.17. Till det sista problemet kan du hitta lösningar och tips på nätsidan på samma sätt som beskrivs oven i anvisningarna till avsnitt 1.1. Som du kommer att märka tar det tid och kräver stor noggrannhet att lösa linjära ekvationssystem för hand. Normalt använder man datorer för att ta fram lösningen, men det är mycket viktigt att förstå hur det går till, vilket man lär sig vid handräkning. Denna förståelse krävs för att kunna programmera en dator till att lösa linjära ekvationssystem. Dessutom ger insikt i metoden intressant kunskap som sats 1.2.1: Att ett homgent system med fler obekanta en ekvationer alltid har ett oändligt antal lösningar. Har man förstått processen vid Gausselimination blir denna sats nästan självklar. | + | När du är klar med genomläsningen kan du lösa uppgifterna 1.4.6, 1.4.14 och 1.4.16. På de sista två kan du finna svaret på sidan [[Lösningar till 1.4.14 och 1.4.16]]. (Men titta inte på det förrän du har ett eget svar. På den här sortens uppgifter är tankarna på vägen fram till svaret det värdefulla, att "plugga in" någon annans lösning är i stort sett meningslöst.) |
| - | == 1.3 Matriser och matrisräkning == | + | == 1.5 Elementarmatriser och en metod för att beräkna $A^{-1}$ == |
| - | En matris är inget mer exotiskt än ett rektangulärt schema av tal, tex heltal eller reella tal. (Läs s.23-25 för att se några exempel.) Det som är intressant och listigt med matriser är att man kan addera, subtrahera och multiplicera dem och att dessa operationer visar sig ha väldigt användbara egenskaper. I det här avsnittet skall vi fokusera på hur räkneoperationerna går till, varför de är så användbara kommer vi att återkomma till senare. Ett exempel på användbarheten av matrismultiplikation finns dock redan på sid 32, att ett linjärt ekvationsystem smidigt kan skrivas med hjälp av matriser. Läs nu avsnitt 1.3 noggrant och lös sedan uppgifterna 1.3.3abcefg, 1.3.4bcdef, 1.3.5abcdgjk, 1.3.7be, 1.3.13a och 1.3.14a. Återigen kan du hitta hjälp på traven och lösningar till en del av uppgifterna på kursbokens hemsida: [http://www.justask4u.com/csp/ELA9/EFramesetMain.csp?CSPCHD=00000001000g31lzdlOb003027314678]. | + | En elementarmatris, $E$ är en matris som fås genom att utföra en elementär radoperation (se definitionen på sid 5 i läroboken) på enhetsmatrisen. Genom att multiplicera en matris $A$ med $E$ från vänster kan man sedan utföra samma elementära radoperation på $A$. Detta innebär att Gausselimination kan ses som multiplikation från vänster med en produkt av elementarmatriser. Om det går att finna en sådan elimination som resulterar i enhetsmatrisen så har man också hittat inversen till $A$ eftersom $E_kE_{k-1} \cdots E_3E_2E_1A=I$ medför att $E_kE_{k-1} \cdots E_3E_2E_1$ är invers till $A$. Läs detaljerna om detta i boken och titta särskilt noga på exempel 4 och 5, som du kommer att ha nytta av för att kunna lösa övningarna till detta avsnitt: 1.5.6abc, 1.5.8ad och 1.5.10. |
| + | |||
| + | |||
| + | == 1.6 Mer om ekvationssystem och inverterbarhet == | ||
| + | |||
| + | |||
| + | Det här avsnittet bygger vidare på teorin för linjära ekvationssystem och innehåller flera viktiga satser. Här kommer beviset för att varje linjärt ekvationssytem har ingen, en eller oändligt många lösningar som utlovades i avsnitt 1.1. Dessutom visas att när man skall visa att $B$ är invers till $A$ så räcker det att kolla att $AB=I$ ''eller'' $BA=I$. Den viktigaste satsen är dock 1.6.4 som beskriver hur inverterbarhet av en kvadratisk matris $A$ hänger ihop med lösbarhet hos system $Ax=y$. I satsen radas ett antal ekvivalenta påståenden upp. Detta innebär att för en vissa matriser $A$ är alla sex påståendena i satsen sanna och föra andra matriser $A$ är alla sex falska. Det kan alltså inte vara så att några påståenden är sanna och några falska för samma matris. Läs nu avsnitt 1.6 och lös sedan följande uppgifter: 1.6.1, 1.6.9abc och 1.6.17. För svar till den sista övningen gå till [[Svar på övning 1.6.17]]. | ||
| + | |||
| + | |||
| + | |||
| + | == 1.7 Diagonala triangulära och symmetriska matriser == | ||
| + | |||
| + | |||
| + | Detta avsnitt, som är relativt lättläst, beskriver tre speciella typer av kvadratiska matriser. En diagonal matris har bara nollor utanför diagonalen, en triangulär bara nollor ovanför (alternativt nedanför) diagonalen. En symmetrisk matris är oförändrad efter spegling i diagonalen, eller med andra ord $A^T=A$. När du läst igenom avsnittet i boken kan du kontrollera dina kunskaper genom att räkna 1.7.3, 1.7.10ab och 1.7.11. | ||
Nuvarande version
Innehåll |
[redigera] 1.4 Inversa matriser och räkneregler för matriser
Några av de mest grundläggande egenskaperna hos reella tal är
- (1) $ab=ba$, multiplikation är kommutativ
- (2) $a(bc)=(ab)c$, multiplikation är associativ
- (3) $a(b+c)=ab+ac$, distributiva lagen
- (4) Om $ab=0$ så är antingen $a=0$ eller $b=0$
Den sista egenskapen är mycket viktig vid ekvationslösning. Det är till exempel den vi använder när vi sluter oss till att $x^2+px+q=0$ har lösningarn $x=-\frac{p}{2}\pm \sqrt{\frac{p^2}{4}-q}$. Resonemanget bakom är $x^2+px+q=0 \Leftrightarrow (x+\frac{p}{2})^2-\frac{p^2}{4}+q=0 \Leftrightarrow (x+\frac{p}{2}-\sqrt{\frac{p^2}{4}+q})((x+\frac{p}{2}+\sqrt{\frac{p^2}{4}+q})=0 \Leftrightarrow x+\frac{p}{2}=\pm \sqrt{\frac{p^2}{4}-q}$ I näst sista steget har vi använt konjugatregeln baklänges och i sista steget egenskap (4).
Så vad har detta med matrisräkning att göra? Jo, för matriser gäller (2) och (3) men inte (1) och (4). Att (1) inte kan gälla för matriser är egentligen ganska självklart för om A är en $n \times m$-matris (dvs en matris med $n$ rader och $m$ kolumner) och B är en $k \times l$-matris så måste $m=k$ för att AB skall vara definierad, och $l=n$ för att BA skall vara definierad. Det kan alltså mycket väl vara så att en av produkterna är definierad, men inte den andra. Då kan man förstås inte säga att de båda produkterna är lika. Men inte ens om båda produkterna är definierade och lika stora är det säkert att $AB=BA$. Detta är mycket viktigt att hålla i minnet då man arbetar med matriser. Att inte (4) gäller har att göra med att en produkt av två matriser kan bli 0 (dvs nollmatrisen) även om ingen av faktorerna är det. Som demonstrerats ovan betyder detta ekvationslösning med matriser inte helt och hållet kan göras som för reella tal. Läs nu sidorna 39-41 i boken för att se exempel på det du just läst här. Konstruera sedan två $3 \times 3$-matriser som inte kommuterar och två $2 \times 2$-matriser B och C sådana att $BC=0$, men $B \neq 0$ och $C \neq 0$.
Läs nu igenom avsnitt 1.4 i boken. När du är klar bör du veta vad som menas med enhetsmatris (identity matrix på engelska) och invers matris. Enhetsmatrisen är matrisernas motsvarighet till ettan bland de reella talen. Att bilda $A^{-1}$ för en matris $A$ är motsvarigheten till att bilda $1/a$ för ett reellt tal $a$. På grund av att ordningen spelar roll vid matrismultiplikation kan man inte använda skrivsättet $1/A$ för matriser eftersom man inte skulle veta om $B/A$ betyder $A^{-1}B$ eller $BA^{-1}$.
Viktigt att lägga på minnet från detta avsnitt är också räknereglerna $(AB)^T=B^TA^T$ och $(A^T)^{-1}=(A^{-1})^T$.
När du är klar med genomläsningen kan du lösa uppgifterna 1.4.6, 1.4.14 och 1.4.16. På de sista två kan du finna svaret på sidan Lösningar till 1.4.14 och 1.4.16. (Men titta inte på det förrän du har ett eget svar. På den här sortens uppgifter är tankarna på vägen fram till svaret det värdefulla, att "plugga in" någon annans lösning är i stort sett meningslöst.)
[redigera] 1.5 Elementarmatriser och en metod för att beräkna $A^{-1}$
En elementarmatris, $E$ är en matris som fås genom att utföra en elementär radoperation (se definitionen på sid 5 i läroboken) på enhetsmatrisen. Genom att multiplicera en matris $A$ med $E$ från vänster kan man sedan utföra samma elementära radoperation på $A$. Detta innebär att Gausselimination kan ses som multiplikation från vänster med en produkt av elementarmatriser. Om det går att finna en sådan elimination som resulterar i enhetsmatrisen så har man också hittat inversen till $A$ eftersom $E_kE_{k-1} \cdots E_3E_2E_1A=I$ medför att $E_kE_{k-1} \cdots E_3E_2E_1$ är invers till $A$. Läs detaljerna om detta i boken och titta särskilt noga på exempel 4 och 5, som du kommer att ha nytta av för att kunna lösa övningarna till detta avsnitt: 1.5.6abc, 1.5.8ad och 1.5.10.
[redigera] 1.6 Mer om ekvationssystem och inverterbarhet
Det här avsnittet bygger vidare på teorin för linjära ekvationssystem och innehåller flera viktiga satser. Här kommer beviset för att varje linjärt ekvationssytem har ingen, en eller oändligt många lösningar som utlovades i avsnitt 1.1. Dessutom visas att när man skall visa att $B$ är invers till $A$ så räcker det att kolla att $AB=I$ eller $BA=I$. Den viktigaste satsen är dock 1.6.4 som beskriver hur inverterbarhet av en kvadratisk matris $A$ hänger ihop med lösbarhet hos system $Ax=y$. I satsen radas ett antal ekvivalenta påståenden upp. Detta innebär att för en vissa matriser $A$ är alla sex påståendena i satsen sanna och föra andra matriser $A$ är alla sex falska. Det kan alltså inte vara så att några påståenden är sanna och några falska för samma matris. Läs nu avsnitt 1.6 och lös sedan följande uppgifter: 1.6.1, 1.6.9abc och 1.6.17. För svar till den sista övningen gå till Svar på övning 1.6.17.
[redigera] 1.7 Diagonala triangulära och symmetriska matriser
Detta avsnitt, som är relativt lättläst, beskriver tre speciella typer av kvadratiska matriser. En diagonal matris har bara nollor utanför diagonalen, en triangulär bara nollor ovanför (alternativt nedanför) diagonalen. En symmetrisk matris är oförändrad efter spegling i diagonalen, eller med andra ord $A^T=A$. När du läst igenom avsnittet i boken kan du kontrollera dina kunskaper genom att räkna 1.7.3, 1.7.10ab och 1.7.11.

