2 svar
128 visningar
Qetsiyah 6503 – Livehjälpare
Postad: 5 jan 2022 23:07 Redigerad: 5 jan 2022 23:10

Linjär algbra: Yttre proukt av linjär avbildning

Hej, se fråga och facit:

Visa spoiler

Men vad betyder egentligen mLS\wedge^m L_S? Man kan ta yttre produkt av vektorer och vektorrum, men linjära avbildningar...?

(Linjära avbildningar är vektorer i Hom( . , .), men det är inte det som sker här tror jag)

Qetsiyah 6503 – Livehjälpare
Postad: 8 jan 2022 18:29 Redigerad: 8 jan 2022 19:28

bump?

Seriouscephalopod jag ser att du skriver men du tvekar, det gör inget om det bara är en gissning, det kanske räcker! Anythings more than i got

oggih Online 1162 – F.d. Moderator
Postad: 8 jan 2022 22:14 Redigerad: 8 jan 2022 22:40

Yttre produkt-konstruktionen är en funktor, vilket betyder att den går att applicera både på vektorrum och på linjära avbildningar mellan vektorrum (på ett sådant vis att den respekterar både identitetsavbildningar och funktionssammansättning).

Mer precist så gäller följande: Låt VV och WW vara ett vektorrum över någon kropp 𝔽\mathbb{F}, och låt f:VWf\colon V\to W vara en linjär avbildning. Kom ihåg att Λm(V)\mathrm{\Lambda}^m(V) kan betraktas av mängden av alla linjärkombinationer av "ord" på formen v1v2vm\mathbf{v}_1\wedge \mathbf{v}_2\wedge \cdots\wedge \mathbf{v}_m, där vi har infört multilinjäritet och bestämt att ord med två likadana vektorer bredvid varandra sätts till 0\mathbf{0}. Motsvarande gäller för Λm(W)\mathrm{\Lambda}^m(W). Den inducerade linjära avbildningen Λmf:Λm(V)Λm(W)\mathrm{\Lambda}^m f\colon \mathrm{\Lambda}^m(V)\to \mathrm{\Lambda}^m(W) definieras nu av att vi sätter

   (Λmf)(v1v2vm)=f(v1)f(v2)f(vm)(\mathrm{\Lambda}^m f)(\mathbf{v}_1\wedge \mathbf{v}_2\wedge \cdots\wedge \mathbf{v}_m)=f(\mathbf{v}_1)\wedge f(\mathbf{v}_2)\wedge \cdots\wedge f(\mathbf{v}_m)

för varje enskilt ord, och sedan utvidgar linjärt. Jämför gärna detta med diskussionen i din tråd om den yttre algebran.


Frågan du nu behöver ställa dig är vad ΛmLS\mathrm{\Lambda}^m L_S gör på varje basvektor eS'=es1'esm'\mathbf{e}_{S'}=\mathbf{e}_{s_1'}\wedge\cdots\wedge\mathbf{e}_{s_m'} (för indexmängder S'={s1',,sm'}{1,,n}S'=\{s_1',\ldots,s_m'\}\subseteq \{1,\ldots,n\} med s1'sm's_1'\lneq\cdots\lneq s_m').

Visa spoiler

Vi får att (ΛmLS)(eS')=(ΛmLS)(es1'esm')=LS(es1')LS(esm')(\mathrm{\Lambda}^m L_S)(\mathbf{e}_{S'})=(\mathrm{\Lambda}^m L_S)(\mathbf{e}_{s_1'}\wedge\cdots\wedge\mathbf{e}_{s_m'})=L_S(\mathbf{e}_{s_1'})\wedge\cdots\wedge L_S(\mathbf{e}_{s_m'}), där LSL_S som tidigare har konstaterats har egenskapen att den för varje basvektor es\mathbf{e}_s kontrollerar om sSs\in S - om ja så låter den basvektorn vara, och om nej så förintas basvektorn i fråga!

Tack vare multilinjäriteten hos \wedge så räcker det med att minst en av faktorerna är 0\mathbf{0} för att hela produkten ska bli 0\mathbf{0}, så det är ganska enkelt att se (tänk efter noggrant här!) att

   (ΛmLS)(eS')=eS'om S'=S0om S' S,\,{(\mathrm{\Lambda}^m L_S)(\mathbf{e}_{S'})}=\left\{\begin{array}{ll}\mathbf{e}_{S'}&\text{om $S'=S$}\\\mathbf{0}&\text{om $S'\neq S$}\,,\end{array}\right.

precis som facit säger!

Svara Avbryt
Close