Dag 5

Linjär algebra

(Skillnad mellan versioner)
Hoppa till: navigering, sök
Versionen från 4 juni 2007 kl. 09.29 (redigera)
Vcrispin (Diskussion | bidrag)
(1.4 Inversa matriser och räkneregler för matriser)
← Gå till föregående ändring
Versionen från 4 juni 2007 kl. 09.31 (redigera) (ogör)
Vcrispin (Diskussion | bidrag)
(1.4 Inversa matriser och räkneregler för matriser)
Gå till nästa ändring →
Rad 8: Rad 8:
*(4) Om $ab=0$ så är antingen $a=0$ eller $b=0$ *(4) Om $ab=0$ så är antingen $a=0$ eller $b=0$
-Den sista egenskapen är mycket viktig vid ekvationslösning. Det är till exempel den vi använder när vi sluter oss till att $x^2+px+q=0$ har lösningarn $x=-\frac{p}{2}\pm \sqrt{\frac{p^2}{4}-q}$. Resonemanget bakom är $x^2+px+q=0 \Leftrightarrow (x+\frac{p}{2})^2-\frac{p^2}{4}+q=0 \Leftrightarrow (x+\frac{p}{2})^2-(\frac{p^2}{4}-q)=0 \Leftrightarrow \big(x+\frac{p}{2}-\sqrt{\frac{p^2}{4}+q\big})\big(x+\frac{p}{2}+\sqrt{\frac{p^2}{4}+q}\big)=0 \Leftrightarrow x+\frac{p}{2}=\pm \sqrt{\frac{p^2}{4}-q}$.+Den sista egenskapen är mycket viktig vid ekvationslösning. Det är till exempel den vi använder när vi sluter oss till att $x^2+px+q=0$ har lösningarna $x=-\frac{p}{2}\pm \sqrt{\frac{p^2}{4}-q}$. Resonemanget bakom är $x^2+px+q=0 \Leftrightarrow (x+\frac{p}{2})^2-\frac{p^2}{4}+q=0 \Leftrightarrow (x+\frac{p}{2})^2-(\frac{p^2}{4}-q)=0 \Leftrightarrow \big( x+\frac{p}{2}-\sqrt{\frac{p^2}{4}+q}\big) \big( x+\frac{p}{2}+\sqrt{\frac{p^2}{4}+q}\big)=0 \Leftrightarrow x+\frac{p}{2}=\pm \sqrt{\frac{p^2}{4}-q}$.
I näst sista steget har vi använt konjugatregeln baklänges och i sista steget egenskap (4). I näst sista steget har vi använt konjugatregeln baklänges och i sista steget egenskap (4).

Versionen från 4 juni 2007 kl. 09.31

Innehåll

1.4 Inversa matriser och räkneregler för matriser

Några av de mest grundläggande egenskaperna hos reella tal är

  • (1) $ab=ba$, multiplikation är kommutativ
  • (2) $a(bc)=(ab)c$, multiplikation är associativ
  • (3) $a(b+c)=ab+ac$, distributiva lagen
  • (4) Om $ab=0$ så är antingen $a=0$ eller $b=0$

Den sista egenskapen är mycket viktig vid ekvationslösning. Det är till exempel den vi använder när vi sluter oss till att $x^2+px+q=0$ har lösningarna $x=-\frac{p}{2}\pm \sqrt{\frac{p^2}{4}-q}$. Resonemanget bakom är $x^2+px+q=0 \Leftrightarrow (x+\frac{p}{2})^2-\frac{p^2}{4}+q=0 \Leftrightarrow (x+\frac{p}{2})^2-(\frac{p^2}{4}-q)=0 \Leftrightarrow \big( x+\frac{p}{2}-\sqrt{\frac{p^2}{4}+q}\big) \big( x+\frac{p}{2}+\sqrt{\frac{p^2}{4}+q}\big)=0 \Leftrightarrow x+\frac{p}{2}=\pm \sqrt{\frac{p^2}{4}-q}$. I näst sista steget har vi använt konjugatregeln baklänges och i sista steget egenskap (4).

Så vad har detta med matrisräkning att göra? Jo, för matriser gäller (2) och (3) men inte (1) och (4). Att (1) inte kan gälla för matriser är egentligen ganska självklart för om A är en $n \times m$-matris (dvs en matris med $n$ rader och $m$ kolumner) och B är en $k \times l$-matris så måste $m=k$ för att AB skall vara definierad, och $l=n$ för att BA skall vara definierad. Det kan alltså mycket väl vara så att en av produkterna är definierad, men inte den andra. Då kan man förstås inte säga att de båda produkterna är lika. Men inte ens om båda produkterna är definierade och lika stora är det säkert att $AB=BA$. Detta är mycket viktigt att hålla i minnet då man arbetar med matriser. Att inte (4) gäller har att göra med att en produkt av två matriser kan bli 0 (dvs nollmatrisen) även om ingen av faktorerna är det. Som demonstrerats ovan betyder detta att ekvationslösning med matriser inte helt och hållet kan göras som för reella tal. Läs nu sidorna 39-41 i boken för att se exempel på det du just läst här. Konstruera sedan två $3 \times 3$-matriser som inte kommuterar och två $2 \times 2$-matriser B och C sådana att $BC=0$, men $B \neq 0$ och $C \neq 0$.

Läs nu igenom avsnitt 1.4 i boken. När du är klar bör du veta vad som menas med enhetsmatris (identity matrix på engelska) och invers matris. Enhetsmatrisen är matrisernas motsvarighet till ettan bland de reella talen. Att bilda $A^{-1}$ för en matris $A$ är motsvarigheten till att bilda $1/a$ för ett reellt tal $a$. På grund av att ordningen spelar roll vid matrismultiplikation kan man inte använda skrivsättet $1/A$ för matriser eftersom man inte skulle veta om $B/A$ betyder $A^{-1}B$ eller $BA^{-1}$.

Viktigt att lägga på minnet från detta avsnitt är också räknereglerna $(AB)^T=B^TA^T$ och $(A^T)^{-1}=(A^{-1})^T$.

När du är klar med genomläsningen kan du lösa uppgifterna 1.4.6, 1.4.14 och 1.4.16. På de sista två kan du finna svaret på sidan Lösningar till 1.4.14 och 1.4.16. (Men titta inte på det förrän du har ett eget svar. På den här sortens uppgifter är tankarna på vägen fram till svaret det värdefulla, att "plugga in" någon annans lösning är i stort sett meningslöst.)

1.5 Elementarmatriser och en metod för att beräkna $A^{-1}$

En elementarmatris, $E$ är en matris som fås genom att utföra en elementär radoperation (se definitionen på sid 5 i läroboken) på enhetsmatrisen. Genom att multiplicera en matris $A$ med $E$ från vänster kan man sedan utföra samma elementära radoperation på $A$. Detta innebär att Gausselimination kan ses som multiplikation från vänster med en produkt av elementarmatriser. Om det går att finna en sådan elimination som resulterar i enhetsmatrisen så har man också hittat inversen till $A$ eftersom $E_kE_{k-1} \cdots E_3E_2E_1A=I$ medför att $E_kE_{k-1} \cdots E_3E_2E_1$ är invers till $A$. Läs detaljerna om detta i boken och titta särskilt noga på exempel 4 och 5, som du kommer att ha nytta av för att kunna lösa övningarna till detta avsnitt: 1.5.6abc, 1.5.8ad och 1.5.10.


1.6 Mer om ekvationssystem och inverterbarhet

Det här avsnittet bygger vidare på teorin för linjära ekvationssystem och innehåller flera viktiga satser. Här kommer beviset för att varje linjärt ekvationssytem har ingen, en eller oändligt många lösningar som utlovades i avsnitt 1.1. Dessutom visas att när man skall visa att $B$ är invers till $A$ så räcker det att kolla att $AB=I$ eller $BA=I$. Den viktigaste satsen är dock 1.6.4 som beskriver hur inverterbarhet av en kvadratisk matris $A$ hänger ihop med lösbarhet hos system $Ax=y$. I satsen radas ett antal ekvivalenta påståenden upp. Detta innebär att för en vissa matriser $A$ är alla sex påståendena i satsen sanna och föra andra matriser $A$ är alla sex falska. Det kan alltså inte vara så att några påståenden är sanna och några falska för samma matris. Läs nu avsnitt 1.6 och lös sedan följande uppgifter: 1.6.1, 1.6.9abc och 1.6.17. För svar till den sista övningen gå till Svar på övning 1.6.17.


1.7 Diagonala triangulära och symmetriska matriser

Detta avsnitt, som är relativt lättläst, beskriver tre speciella typer av kvadratiska matriser. En diagonal matris har bara nollor utanför diagonalen, en triangulär bara nollor ovanför (alternativt nedanför) diagonalen. En symmetrisk matris är oförändrad efter spegling i diagonalen, eller med andra ord $A^T=A$. När du läst igenom avsnittet i boken kan du kontrollera dina kunskaper genom att räkna 1.7.3, 1.7.10ab och 1.7.11.

Den här artikeln är hämtad från http://wiki.math.se/wikis/5b4046_0701/index.php/Dag_5
Personliga verktyg