40 svar
333 visningar
lamayo är nöjd med hjälpen!
lamayo 2059
Postad: 26 maj 2019

matrisprodukt 0 när vektorerna är ortogonala

Finns det någon förklaring till varför matrisprodukten mellan två matriser som har vektorer som är ortogonala mot varandra är noll?

Jag förstår när det gäller skalärprodukt men fattade inte förrän nyligen att det gäller för matrisprodukt med.

Tacksam för hjälp!

Albiki 3912
Postad: 26 maj 2019

Menar du att om kolonnerna hos matris A är ortogonala mot kolonnerna hos matris B så är matrisprodukten AB lika med nollmatrisen?

Är kolonnerna hos A sinsemellan ortogonala? Är kolonnerna hos B sinsemellan ortogonala?

lamayo 2059
Postad: 26 maj 2019
Albiki skrev:

Menar du att om kolonnerna hos matris A är ortogonala mot kolonnerna hos matris B så är matrisprodukten AB lika med nollmatrisen?

Är kolonnerna hos A sinsemellan ortogonala? Är kolonnerna hos B sinsemellan ortogonala?

Sorry att jag var otydlig. Menar att om kolonnerna hos matris A är ortogonala mot kolonnerna hos matris B så är matrisprodukten AB lika med nollmatrisen.

lamayo 2059
Postad: 3 jun 2019

Finns det någon förklaring på det eller är det bara acceptera?

Albiki 3912
Postad: 3 jun 2019

Jag kan visa att om kolonnvektorerna hos AA är ortogonala mot kolonnvektorerna hos BB så är matrisen AtBA^tB lika med nollmatrisen, men det var ju inte vad du ville visa så det får nog bli någon annan som kan hjälpa dig med det. 

Laguna 4957
Postad: 3 jun 2019

Menar du t.ex. 12000012?

lamayo 2059
Postad: 3 jun 2019
Albiki skrev:

Jag kan visa att om kolonnvektorerna hos AA är ortogonala mot kolonnvektorerna hos BB så är matrisen AtBA^tB lika med nollmatrisen, men det var ju inte vad du ville visa så det får nog bli någon annan som kan hjälpa dig med det. 

Ja, det är vad jag försöker förstå, men hur hänger det ihop med att AtBär lika med nollmatrisen?

lamayo 2059
Postad: 3 jun 2019 Redigerad: 3 jun 2019
Laguna skrev:

Menar du t.ex. 12000012?

Ja, ser att det stämmer men kan man visa det på något sätt?

Laguna 4957
Postad: 3 jun 2019
lamayo skrev:
Laguna skrev:

Menar du t.ex. 12000012?

Ja, ser att det stämmer men kan man visa det på något sätt?

Produkten är 2400.

lamayo 2059
Postad: 4 jun 2019
Laguna skrev:
lamayo skrev:
Laguna skrev:

Menar du t.ex. 12000012?

Ja, ser att det stämmer men kan man visa det på något sätt?

Produkten är 2400.

Oj jag körde skalärprodukt. Så det stämmer alltså inte?

Laguna 4957
Postad: 4 jun 2019
lamayo skrev:
Laguna skrev:
lamayo skrev:
Laguna skrev:

Menar du t.ex. 12000012?

Ja, ser att det stämmer men kan man visa det på något sätt?

Produkten är 2400.

Oj jag körde skalärprodukt. Så det stämmer alltså inte?

Det stämmer inte. Vad menar du med skalärprodukt här? 

Albiki 3912
Postad: 4 jun 2019

Hej!

Laguna har visat att det inte är sant att AB=0AB=0 när kolonnerna hos AA och BB är ortogonala mot varandra.

Däremot är det sant att AtB=0A^{t}B=0 när kolonnerna hos AA och BB är ortogonala mot varandra.

Till exempel är matrisprodukten

 10200012=1·0+0·11·0+0·22·0+0·12·0+0·2=0000\begin{pmatrix}1&0\\2&0\end{pmatrix}\begin{pmatrix}0&0\\1&2\end{pmatrix}=\begin{pmatrix}1\cdot 0+0\cdot 1&1\cdot 0+0\cdot 2\\2\cdot 0+0\cdot 1&2\cdot 0+0\cdot 2\end{pmatrix} = \begin{pmatrix}0&0\\0&0\end{pmatrix}

Albiki 3912
Postad: 4 jun 2019 Redigerad: 4 jun 2019

Elementet på rad nummer ii och kolonn nummer jj är lika med skalärprodukten mellan kolonnvektor nummer ii från AA och kolonnvektor nummer jj från BB.

    (AtB)ij=k=1n(At)ik(B)kj=k=1nakibkj=a1ib1j+a2ib2j++anibnj=a1ia2iani·b1jb2jbnj=0.\displaystyle(A^{t}B)_{ij} = \sum_{k=1}^{n}(A^{t})_{ik}(B)_{kj} = \sum_{k=1}^{n}a_{ki}b_{kj} = a_{1i}b_{1j}+a_{2i}b_{2j}+\cdots+a_{ni}b_{nj} = \begin{pmatrix}a_{1i}\\a_{2i}\\\vdots\\a_{ni}\end{pmatrix}\cdot \begin{pmatrix}b_{1j}\\b_{2j}\\\vdots\\b_{nj}\end{pmatrix} = 0.

lamayo 2059
Postad: 4 jun 2019
Albiki skrev:

Elementet på rad nummer ii och kolonn nummer jj är lika med skalärprodukten mellan kolonnvektor nummer ii från AA och kolonnvektor nummer jj från BB.

    (AtB)ij=k=1n(At)ik(B)kj=k=1nakibkj=a1ib1j+a2ib2j++anibnj=a1ia2iani·b1jb2jbnj=0.\displaystyle(A^{t}B)_{ij} = \sum_{k=1}^{n}(A^{t})_{ik}(B)_{kj} = \sum_{k=1}^{n}a_{ki}b_{kj} = a_{1i}b_{1j}+a_{2i}b_{2j}+\cdots+a_{ni}b_{nj} = \begin{pmatrix}a_{1i}\\a_{2i}\\\vdots\\a_{ni}\end{pmatrix}\cdot \begin{pmatrix}b_{1j}\\b_{2j}\\\vdots\\b_{nj}\end{pmatrix} = 0.

Tack så mycket nu förstår jag ! :) 

lamayo 2059
Postad: 4 jun 2019 Redigerad: 4 jun 2019

Albiki skrev:

Hej!

Laguna har visat att det inte är sant att AB=0AB=0 när kolonnerna hos AA och BB är ortogonala mot varandra.

Däremot är det sant att AtB=0A^{t}B=0 när kolonnerna hos AA och BB är ortogonala mot varandra.

Till exempel är matrisprodukten

 10200012=1·0+0·11·0+0·22·0+0·12·0+0·2=0000\begin{pmatrix}1&0\\2&0\end{pmatrix}\begin{pmatrix}0&0\\1&2\end{pmatrix}=\begin{pmatrix}1\cdot 0+0\cdot 1&1\cdot 0+0\cdot 2\\2\cdot 0+0\cdot 1&2\cdot 0+0\cdot 2\end{pmatrix} = \begin{pmatrix}0&0\\0&0\end{pmatrix}

Jag har två följdfrågor. Kollade på härledningen för normalekvationen till minsta kvadratmetoden och där står det såhär:

1) Hur kommer det sig att A(Ax-b)=0  är samma som AT(Ax-b)=0?

2) O varför tar man inte ATx(Ax-b)=0?

Dr. G 4395
Postad: 4 jun 2019
lamayo skrev:

Hur kommer det sig att A(Ax-b)=0  är samma som AT(Ax-b)=0?

Det är inte samma sak. Med den vanliga notationen så är det inte säkert att VL i den första ekvationen ens är definierat.

Albiki 3912
Postad: 4 jun 2019 Redigerad: 4 jun 2019

Hej!

Det du har skrivit är inte en härledning av normalekvationerna. Det gäller inte att vektorn Ax-bAx-b ligger i nollrummet till AA.

Om du vill härleda normalekvationerna på riktigt så ska du finna den vektor xpx \in \mathbb{R}^{p} som minimerar avståndet mellan vektorerna bb och AxAx. Låt x^\hat{x} beteckna vektorn

    x^=argminxp||b-Ax|||\hat{x} = \text{argmin}_{x\in\mathbb{R}^{p}}||b-Ax|||.

Det du ska visa är ekvivalensen

    x=x^AtAx=Atb.x = \hat{x} \iff A^{t}Ax=A^{t}b.

lamayo 2059
Postad: 5 jun 2019
Albiki skrev:

Hej!

Det du har skrivit är inte en härledning av normalekvationerna. Det gäller inte att vektorn Ax-bAx-b ligger i nollrummet till AA.

Om du vill härleda normalekvationerna på riktigt så ska du finna den vektor xpx \in \mathbb{R}^{p} som minimerar avståndet mellan vektorerna bb och AxAx. Låt x^\hat{x} beteckna vektorn

    x^=argminxp||b-Ax|||\hat{x} = \text{argmin}_{x\in\mathbb{R}^{p}}||b-Ax|||.

Det du ska visa är ekvivalensen

    x=x^AtAx=Atb.x = \hat{x} \iff A^{t}Ax=A^{t}b.

Okej, men det minsta avståndet bör väll vara Ax•Ax-b? Kommer dock inte fram till normalekvationen med det

Albiki 3912
Postad: 5 jun 2019 Redigerad: 5 jun 2019

Hur kommer du fram till just det avståndet?

    xtAtAx-bx^tA^tAx-b

och vilken vektor är xx i detta uttryck? 

lamayo 2059
Postad: 5 jun 2019
Albiki skrev:

Hur kommer du fram till just det avståndet?

    xtAtAx-bx^tA^tAx-b

och vilken vektor är xx i detta uttryck? 

Jag ritade i mitt svar ovan vektorerna och tänkte att det kortaste avståndet är när Ax och Ax-b är ortogonala och satte därför skalärprodukten lika med 0. Varför blir det fel?

Albiki 3912
Postad: 6 jun 2019
lamayo skrev:
Albiki skrev:

Hur kommer du fram till just det avståndet?

    xtAtAx-bx^tA^tAx-b

och vilken vektor är xx i detta uttryck? 

Jag ritade i mitt svar ovan vektorerna och tänkte att det kortaste avståndet är när Ax och Ax-b är ortogonala och satte därför skalärprodukten lika med 0. Varför blir det fel?

Det är din uppgift att visa varför det är rätt att göra så.

Aerius 191
Postad: 7 jun 2019

Det kanske råkat bli ett tryckfel i härledningen eftersom antag att

x^värderummet av A

då är

ATx^ = 0.

Inses eftersom AT projicerar en vektor på värderummet av A. Vektorn x^ kan uttryckas med vektorn b som då ger normalekvationen.

lamayo 2059
Postad: 7 jun 2019

Nu har jag gjort såhär men det blir fel när jag tar skalärprodukten men jag använde att a•b=a^t*A*b, borde det inte funka?

Albiki 3912
Postad: 7 jun 2019

Några frågor om din bild:

1. Varför ligger b i kolonnrummet till A?

2. Varför är Ax ortogonal projektion av b på kolonnrummet till A?

3. Hur får du att Pythagoras sats säger att avståndet mellan Ax-b och kolonnrummet till A är minst då Ax-b är ortogonal mot kolonnrummet?

4. Vektorn u borde vara b-Ax istället för Ax-b?

lamayo 2059
Postad: 7 jun 2019
Albiki skrev:

Några frågor om din bild:

1. Varför ligger b i kolonnrummet till A?

2. Varför är Ax ortogonal projektion av b på kolonnrummet till A?

3. Hur får du att Pythagoras sats säger att avståndet mellan Ax-b och kolonnrummet till A är minst då Ax-b är ortogonal mot kolonnrummet?

4. Vektorn u borde vara b-Ax istället för Ax-b?

1. Det är meningen att den inte gör det, glömde skriva att b i det här fallet inte tillhör Col(A).

2. Tänkte eftersom det kortaste avståndet är när Ax-b är ortogonal mot kolonnrummet.

3. Eftersom den säger att hypotenusan är längre än kateterna och om avståndet mellan kolonrummet och b inte är ortogonal blir om man bildar en rätvinklig triangel avståndet hypotenusan medan om avståndet är ortogonal och man bildar en rätvinklig triangel så är det en katet.

4. Ja, gjorde fel.

Albiki 3912
Postad: 7 jun 2019

Läs det du skrev under 3. en gång till. Låter det begripligt för dig? För mig låter det som rappakalja.

lamayo 2059
Postad: 7 jun 2019
Albiki skrev:

Läs det du skrev under 3. en gång till. Låter det begripligt för dig? För mig låter det som rappakalja.

lamayo 2059
Postad: 9 jun 2019

Har kollat på flera bevis och det jag inte fattar är A^t(b-Ax)=0 och varför x är en vektor och inte skalär, kolonnvektorerna är ju i A. Men det måste väll vara så att de använder sig av att A·(b-Ax)= AtMb-Ax=0

Men vad är M i matrisen?

Albiki 3912
Postad: 9 jun 2019
lamayo skrev:

Har kollat på flera bevis och det jag inte fattar är A^t(b-Ax)=0 och varför x är en vektor och inte skalär, kolonnvektorerna är ju i A. Men det måste väll vara så att de använder sig av att A·(b-Ax)= AtMb-Ax=0

Men vad är M i matrisen?

Du måste väl förstå att med sådana inlägg finns det ingen som kan hjälpa dig? Hur i all sin dar ska vi kunna veta vad M är? Jag förstår inte varför du vill hemlighålla det bevis som du tittar på? Det är ingen statshemlighet hur minsta-kvadratmetoden fungerar vet du. 

lamayo 2059
Postad: 9 jun 2019 Redigerad: 9 jun 2019
Albiki skrev:
lamayo skrev:

Har kollat på flera bevis och det jag inte fattar är A^t(b-Ax)=0 och varför x är en vektor och inte skalär, kolonnvektorerna är ju i A. Men det måste väll vara så att de använder sig av att A·(b-Ax)= AtMb-Ax=0

Men vad är M i matrisen?

Du måste väl förstå att med sådana inlägg finns det ingen som kan hjälpa dig? Hur i all sin dar ska vi kunna veta vad M är? Jag förstår inte varför du vill hemlighålla det bevis som du tittar på? Det är ingen statshemlighet hur minsta-kvadratmetoden fungerar vet du. 

Sorry. Här är det beviset jag skrivit ner. Varför blir At*y=0?

Aerius 191
Postad: 9 jun 2019
lamayo skrev:

Har kollat på flera bevis och det jag inte fattar är A^t(b-Ax)=0 och varför x är en vektor och inte skalär, kolonnvektorerna är ju i A. Men det måste väll vara så att de använder sig av att A·(b-Ax)= AtMb-Ax=0

Men vad är M i matrisen?

Du får läsa mer grundläggande linjär algebra innan du försöker förstå minsta kvadratmetoden. x är en vektor eftersom bär en vektor då måste Ax vara en vektor. Det är viktigt med grundförståelse för att kunna följa bevis eller kunna fråga om hjälp. Sitta och gissa hejvilt och hitta på ekvationer som inte fungerar för att sedan fråga varför dessa inte ger rätt svar är meningslöst. Läs på det grundläggande tills det sitter i ryggmärgen. Det vinner du mycket på.

Albiki 3912
Postad: 9 jun 2019 Redigerad: 9 jun 2019

Din specifika fråga är alltså denna: Låt AA vara en matris med nn rader och mm kolonner av reella tal. Varför gäller det att det ortogonala komplementet till matrisens kolonnrumm Col(A)\text{Col}(A)^{\perp} är samma mängd som nollrummet till matrisens transponat N(At)N(A^{t})?

    An×mCol(A)=N(At).A \in \mathbb{R}^{n\times m} \implies \text{Col}(A)^{\perp} = N(A^{t}).

lamayo 2059
Postad: 9 jun 2019
Albiki skrev:

Din specifika fråga är alltså denna: Låt AA vara en matris med nn rader och mm kolonner av reella tal. Varför gäller det att det ortogonala komplementet till matrisens kolonnrumm Col(A)\text{Col}(A)^{\perp} är samma mängd som nollrummet till matrisens transponat N(At)N(A^{t})?

    An×mCol(A)=N(At).A \in \mathbb{R}^{n\times m} \implies \text{Col}(A)^{\perp} = N(A^{t}).

Ja.

Albiki 3912
Postad: 9 jun 2019

Det gäller att varje vektor i n\mathbb{R}^{n} kan skrivas som en summa av två vektorer från kolonnrummet och från dess ortogonala komplement. 

    n=Col(A)Col(A).\mathbb{R}^{n} = \text{Col}(A) \oplus \text{Col}(A)^{\perp}.

För vektorn bnb \in \mathbb{R}^{n} betyder det att den kan skrivas

    b=b||+bb = b_{||}+b_{\perp}

där b||Col(A)b_{||} \in \text{Col}(A) och bCol(A)b_{\perp}\in\text{Col}(A)^{\perp}. Vektorn AxAx ligger i kolonnrummet till AA så vektorn b-Axb-Ax kan skrivas som summan

    b-Ax=(b||-Ax)+b.b-Ax = (b_{||}-Ax)+b_{\perp}.

Pythagoras sats ger avståndet

    |b-Ax|2=|b||-Ax|2+|b|2.|b-Ax|^2 = |b_{||}-Ax|^2+|b_{\perp}|^2.

Albiki 3912
Postad: 9 jun 2019

Om det stämmer att Col(A)=N(At)\text{Col}(A)^{\perp} = N(A^{t}) så följer det att 

    At(b-Ax)=At(b||-Ax)A^{t}(b-Ax) = A^{t}(b_{||}-Ax)

eftersom AtbA^{t}b_{\perp} är nollvektorn.

Albiki 3912
Postad: 9 jun 2019

Från Pythagoras sats ser man att avståndet |b-Ax|2|b-Ax|^2 aldrig kan bli mindre än |b|2|b_{\perp}|^2 och att detta minsta avstånd uppnås då b||-Ax=0b_{||}-Ax=0 (nollvektor). Från sambandet Col(A)=N(At)\text{Col}(A)^{\perp} = N(A^t) följer det då att en sådan vektor xx uppfyller ekvationssystemet (normalekvationerna)

    At(b-Ax)=At0=0Atb=AtAx.A^t(b-Ax) = A^t0 = 0 \iff A^tb = A^tAx.

Om matrisen AtAm×mA^tA\in\mathbb{R}^{m\times m} är inverterbar ges vektorn xx av (AtA)-1Atb(A^tA)^{-1}A^tb.

Albiki 3912
Postad: 9 jun 2019
  • Låt xmx \in \mathbb{R}^{m} vara en godtycklig vektor och yCol(A)y \in \text{Col}(A)^{\perp} vara en godtycklig vektor. Då följer det att skalärprodukten y·(Ax)=0y \cdot (Ax) = 0 och detta kan skrivas som matrismultiplikation (Ax)ty=0xtAty=0.(Ax)^{t}y = 0 \iff x^{t}A^{t}y=0. Detta gäller för godtyckligt xx och därför följer det att Aty=0A^ty = 0 (nollvektor). 

Detta visar att Col(A)N(At).\text{Col}(A)^{\perp} \subseteq N(A^t).

  • Om yN(At)y \in N(A^t) så följer det att xtAty=0x^{t}A^ty = 0 för varje vektor xx, vilket betyder att yy är ortogonal mot varje linjärkombination av kolonnerna till matrisen AA.

Detta visar att N(At)Col(A).N(A^t) \subseteq \text{Col}(A)^{\perp}.

Albiki 3912
Postad: 11 jun 2019

Beräkningarna visar att b||=A(AtA)-1Atbb_{||}=A(A^tA)^{-1}A^tb är projektionen av bb på kolonnrummet till matrisen AA och att b=(I-A(AtA)-1At)bb_{\perp}=(I-A(A^tA)^{-1}A^t)b är projektionen av bb på kolonnrummets ortogonala komplement. 

Albiki 3912
Postad: 4 dagar sedan

Att det som sägs vara projektion på kolonnrummet verkligen är en projektion går att kontrollera genom att verifiera att "projektionen" är idempotent. 

    (A(AtA)-1At)2=A(AtA)-1AtA(AtA)-1At=AI(AtA)-1At=A(AtA)-1At.(A(A^{t}A)^{-1}A^{t})^2 = A(A^{t}A)^{-1}A^{t}A(A^{t}A)^{-1}A^{t} = AI(A^{t}A)^{-1}A^{t} = A(A^{t}A)^{-1}A^{t}.

Alla projektioner (PP) är idempotenta, P2=PP^2 = P.

lamayo 2059
Postad: 3 dagar sedan
Albiki skrev:

Att det som sägs vara projektion på kolonnrummet verkligen är en projektion går att kontrollera genom att verifiera att "projektionen" är idempotent. 

    (A(AtA)-1At)2=A(AtA)-1AtA(AtA)-1At=AI(AtA)-1At=A(AtA)-1At.(A(A^{t}A)^{-1}A^{t})^2 = A(A^{t}A)^{-1}A^{t}A(A^{t}A)^{-1}A^{t} = AI(A^{t}A)^{-1}A^{t} = A(A^{t}A)^{-1}A^{t}.

Alla projektioner (PP) är idempotenta, P2=PP^2 = P.

Tack Albiki! Det klarnade upp nu efter att ha läst igenom några gånger.

Albiki 3912
Postad: 3 dagar sedan

Bra att det klarnade tillslut.

Svara Avbryt
Close