12 svar
330 visningar

Kurs i komplex analys - vilka är de centrala delarna?

Hej!

Nu ska jag ha en kurs i komplex analys och undrar vilka begrepp och koncept som kan vara viktiga att verkligen förstå så tidigt som möjligt. Examinatorn försöker ju lägga upp kursen så logiskt som möjligt, men finns det saker jag kan göra för att så bra som möjligt förbereda mig för vissa koncept? :)

Detta är lärandemålen och innehållet för kursen: 

Lärandemål (efter fullgjord kurs ska studenten kunna)

Efter fullgjord kurs ska studenten kunna:

  • definiera grundläggande begrepp och utföra grundläggande bevis i komplex analys,
  • använda residykalkyl för bl.a. beräkning av Fouriertransformer,
  • använda den komplexa analysens metoder i resonemang, relevanta för systems stabilitet.

Innehåll

Analytiska och harmoniska funktioner. Elementära funktioner och deras avbildningsegenskaper. Flertydiga funktioner, förgreningspunkter. Komplex integration. Cauchys sats. Cauchys integralformel. Taylor- och Laurentutvecklingar. Isolerade singulära punkter. Residykalkyl. Beräkning av Fouriertransform med residykalkyl. Konforma avbildningar. Möbiusavbildningar. Tillämpningar av konforma avbildningar på Laplace ekvation i planet. Argumentprincipen. Laplacetransformer och tillämpningar på ordinära differentialekvationer. z-transfomer. Linjära system. Nyquistdiagram.

Gustor 782
Postad: 30 aug 13:10 Redigerad: 30 aug 14:36

Intressant fråga. Jag skulle nog säga det ganska uppenbara att det är viktigt att känna att du kan grunderna. Alltså grundläggande algebraiska operationer, modulus, konjugat, exponentialfunktionen, komplexa talplanet, enhetsrötter, ...

Kan vara bra att känna till vissa skillnader som att C inte går att ordna men att alla polynom av grad n har exakt n rötter, osv.

Det komplexa talplanet är väldigt användbart som representation av komplexa tal. På precist matematiskt språk kan man säga att som vektorrum över R är R^2 och C isomorfa (båda beter sig som vektorer som vi kan addera och skala med reella tal).

En skillnad är såklart multiplikation med komplexa tal, där vi måste ta hänsyn till relationen i^2 = -1. (Matematiskt kan vi uttrycka det som att R^2 och C inte är isomorfa som ringar).

Sedan är det nog bra att lägga aningen extra tid vid begreppet komplex differentierbarhet och Cauchy-Riemann-ekvationerna. Vad är likheterna och vad är skillnaderna jämfört med differentierbara funktioner från den reella analysen? Holomorfa (analytiska) funktioner är en stor del av det man undersöker i komplex analys.

Sedan skulle jag gå in på det som står i kursbeskrivningen. Alltså typ integrering, serier, residualkalkyl och olika typer av transformationer och så.

Analytiska funktioner är så användbara eftersom de alltid kan representeras som en konvergent potensserie (Taylorserie). Det är egentligen definitionen av analytisk funktion (kan approximeras med konvergent potensserie överallt). Detta är superfinurligt som du säkert känner till från reell analys, eftersom dessa potensserier i princip är polynom (men oändliga summor istället för ändliga). Det gör att vi kan fortsätta använda många av de verktyg vi redan har för att analysera polynomfunktioner.

Exempelvis kan vi enkelt approximera funktionen i ett område med hjälp av de första termerna i Taylorserien.

(Allt detta gäller självfallet också för reella funktioner.)

Vad är då skillnaden? Jo, när vi talar om komplexa funktioner så visar det sig att alla (komplex-)deriverbara (holomorfa) funktioner är analytiska.

I kontrast så finns det CC^\infty-reella funktioner som inte är analytiska. Det finns ingen enkel klassificering av de reella analytiska funktionerna på samma sätt som det finns för de komplex analytiska (nämligen de som är komplex differentierbara). Generellt är det därför svårare att bestämma om en given reell funktion är analytisk än en komplex.

Den viktiga poängen är att komplex differentierbarhet är ett mycket mer restriktivt villkor än reell differentierbarhet. Det betyder också att holomorfa (analytiska) funktioner har mycket mer struktur än sina reella motsvarigheter.

Någon annan mer insatt i komplex analys kanske kan bidra med lite mer konkreta tips.


Tillägg: 30 aug 2025 13:19

Se till att göra rikligt med övningar tills du känner att det börjar fastna. Jag rekommenderar dock inte att göra varenda övning, det finns något som heter för mycket.

Jag skulle lägga ner lite kraft på se till att hänga med och förstå resonemangen i bevisen.

MrPotatohead 8003 – Moderator
Postad: 30 aug 19:26 Redigerad: 30 aug 19:52

Tack för ett bra svar. Det finns begrepp här som jag antingen inte lärt mig ordentligt, eller orkat lära mig alls. Nu är den tiden över. Mina kunskaper är lite spretiga eller obefintliga. Förbered dig på lite frågor. Det är så tråkigt, och svajigt, att fråga GPT. Om det är någon fråga som besvaras lika bra på Wikipedia är det okej att bara skriva "Googla". :)

Gustor skrev:

Intressant fråga. Jag skulle nog säga det ganska uppenbara att det är viktigt att känna att du kan grunderna. Alltså grundläggande algebraiska operationer, modulus, konjugat, exponentialfunktionen, komplexa talplanet, enhetsrötter, ...

Varför är enhetsrötterna så användbara? 

Kan vara bra att känna till vissa skillnader som att C inte går att ordna men att alla polynom av grad n har exakt n rötter, osv.

Vad innebär det att C inte kan ordnas?

Det komplexa talplanet är väldigt användbart som representation av komplexa tal. På precist matematiskt språk kan man säga att som vektorrum över R är R^2 och C isomorfa (båda beter sig som vektorer som vi kan addera och skala med reella tal).

Är detta rätt: Att något V är ett vektorrum över en annan mängd F innebär att själva vektorerna återfinns i V, och kan se ut på många sätt, medan skalärerna är elementen i F, som vektorerna behöver kunna multipliceras med från kravet för ett vektorrum. 

Är C bara alla reella tal +i+i? Hur ska jag tolka n\mathbb{C}^n? Är det n\mathbb{R}^n med ii? Eller blir det något speciellt med ii när vi har fler dimensioner?

Kan du beskriva isomorf lite närmare? Hur kan det finnas en bijektiv avbildning från R^2 till C när det förekommer ett helt unikt element ii i C? (GPT sa att det handlar om att i bara är ren notation, men du får gärna förklara ändå.)

En skillnad är såklart multiplikation med komplexa tal, där vi måste ta hänsyn till relationen i^2 = -1. (Matematiskt kan vi uttrycka det som att R^2 och C inte är isomorfa som ringar).

Har inte hängt med på snacket om ringar i nayttes trådar ;) men är det korrekt att det är en mängd där det är samma krav på additionen som i vektorrum (abelsk grupp), men multiplikationen är inbördes mellan elementen inuti ringen som kommer med lite krav (associativ + distributiv). 

Vad menas med notationen (R,+)(R, +)? Det skulle tydligen vara en abelsk grupp här.

Nu förstår jag kanske lite varför de är isomorfa som vektorrum (över R) men inte som ringar. Man kan skapa vilka relationer man vill så länge reglerna följs. Under inbördes addition och multiplikation med reella tal händer det inget "speciellt" i C jämfört med i R^2 när vi har ett element som vi kallar ii. Det är först när i2i^2 kan uppstå som det faktiskt blir en strukturell skillnad mellan mängderna. Och således försvinner isomorfin som ringar. 

Sedan är det nog bra att lägga aningen extra tid vid begreppet komplex differentierbarhet och Cauchy-Riemann-ekvationerna. Vad är likheterna och vad är skillnaderna jämfört med differentierbara funktioner från den reella analysen? Holomorfa (analytiska) funktioner är en stor del av det man undersöker i komplex analys.

Vad med ii är det som stökar till det mest med våra vanliga definitioner?

Analytiska funktioner är så användbara eftersom de alltid kan representeras som en konvergent potensserie (Taylorserie). Det är egentligen definitionen av analytisk funktion (kan approximeras med konvergent potensserie överallt). Detta är superfinurligt som du säkert känner till från reell analys, eftersom dessa potensserier i princip är polynom (men oändliga summor istället för ändliga). Det gör att vi kan fortsätta använda många av de verktyg vi redan har för att analysera polynomfunktioner.

Exempelvis kan vi enkelt approximera funktionen i ett område med hjälp av de första termerna i Taylorserien.

(Allt detta gäller självfallet också för reella funktioner.)

Och approximera funktioner vill som vanligt göra för att göra dem till en mer hanterbar och enklare form?

Vad är då skillnaden? Jo, när vi talar om komplexa funktioner så visar det sig att alla (komplex-)deriverbara (holomorfa) funktioner är analytiska.

I kontrast så finns det C^\infty-reella funktioner som inte är analytiska. Det finns ingen enkel klassificering av de reella analytiska funktionerna på samma sätt som det finns för de komplex analytiska (nämligen de som är komplex differentierbara). Generellt är det därför svårare att bestämma om en given reell funktion är analytisk än en komplex.

Den viktiga poängen är att komplex differentierbarhet är ett mycket mer restriktivt villkor än reell differentierbarhet. Det betyder också att holomorfa (analytiska) funktioner har mycket mer struktur än sina reella motsvarigheter.

Begreppet analytisk funktion finns egentligen för alla sorters funktioner, men blir först intressant när vi börjar med komplex analys. Man har ju inte stött på det innan menar jag. 

Tillägg: 30 aug 2025 13:19

Se till att göra rikligt med övningar tills du känner att det börjar fastna. Jag rekommenderar dock inte att göra varenda övning, det finns något som heter för mycket.

Jag skulle lägga ner lite kraft på se till att hänga med och förstå resonemangen i bevisen.

Jodå. Bevisen ska även vara mer eleganta i denna kurs än man stött på tidigare, vilket är skönt. 

naytte 7419 – Moderator
Postad: 30 aug 19:45 Redigerad: 30 aug 19:45

Jag tror att jag kan besvara några av frågorna som ställs här, även om jag givetvis inte har samma expertstatus som Gustor.

Vad innebär det att C inte kan ordnas?

De reella talen har en ordningsrelation <<annotation encoding="LaTeX"><</annotation>, vilket tillåter oss att säga saker som "1 är större än -5". Det existerar en ordning på \mathbb{R}. När går över till de komplexa talen måste vi tyvärr acceptera att en sådan här ordningsrelation inte existerar på \mathbb{C}. Det betyder vanligen ingenting att påstå att 1+i<71+i < 7 eller dylikt. Den stora fördelen med att gå över till \mathbb{C} är att alla polynom av grad nn i \mathbb{C} har exakt nn rötter, något som inte var sant då vi bara begränsade oss till de reella talen. Detta är ett resultat av algebrans fundamentalsats.

Kan du beskriva isomorf lite närmare? Hur kan det finnas en bijektiv avbildning från R^2 till C när det förekommer ett helt unikt element i i C? (GPT sa att det handlar om att i bara är ren notation, men du får gärna förklara ändå.)

Oftast definierar man komplexa tal som tupler av reella tal med den vanliga, komponentvisa additionen men med en konstig multiplikation. Talet vi skulle uttrycka som 1+i1+i är alltså rent formellt egentligen bara tupeln (1,1)(1,1). På samma sätt är 11 tupeln (1,0)(1,0).

Sett som vektorrum över \mathbb{R} finns det därför en strukturbevarande bijektion mellan \mathbb{C} och 2\mathbb{R}^2, nämligen den som skickar (a,b)(a,b) i \mathbb{C} till (a,b)(a,b) i 2\mathbb{R}^2.

MrPotatohead 8003 – Moderator
Postad: 30 aug 20:10 Redigerad: 31 aug 15:28
naytte skrev:

Jag tror att jag kan besvara några av frågorna som ställs här, även om jag givetvis inte har samma expertstatus som Gustor.

Vad innebär det att C inte kan ordnas?

De reella talen har en ordningsrelation <<annotation encoding="LaTeX"><</annotation>, vilket tillåter oss att säga saker som "1 är större än -5". Det existerar en ordning på \mathbb{R}. När går över till de komplexa talen måste vi tyvärr acceptera att en sådan här ordningsrelation inte existerar på \mathbb{C}. Det betyder vanligen ingenting att påstå att 1+i<71+i < 7 eller dylikt. Den stora fördelen med att gå över till \mathbb{C} är att alla polynom av grad nn i \mathbb{C} har exakt nn rötter, något som inte var sant då vi bara begränsade oss till de reella talen. Detta är ett resultat av algebrans fundamentalsats.

Visste att det inte gick men kunde inte koppla användningen olikheter till verbet "ordnas"..

Kan du beskriva isomorf lite närmare? Hur kan det finnas en bijektiv avbildning från R^2 till C när det förekommer ett helt unikt element i i C? (GPT sa att det handlar om att i bara är ren notation, men du får gärna förklara ändå.)

Oftast definierar man komplexa tal som tupler av reella tal med den vanliga, komponentvisa additionen men med en konstig multiplikation. Talet vi skulle uttrycka som 1+i1+i är alltså rent formellt egentligen bara tupeln (1,1)(1,1). På samma sätt är 11 tupeln (1,0)(1,0).

Om vi ser detta som vektorer är kan man typ tänka att (a,b)=a*R^+b*i^(a, b)= a*\hat{R} + b*\hat{i} där vi har R^\hat{R} och i^\hat{i} som basvektorer, vilket är helt analogt med reell och imaginär del vi (jag) är van med. 

Sett som vektorrum över \mathbb{R} finns det därför en strukturbevarande bijektion mellan \mathbb{C} och 2\mathbb{R}^2, nämligen den som skickar (a,b)(a,b) i \mathbb{C} till (a,b)(a,b) i 2\mathbb{R}^2.

Att tänka på funktioner f:ABf: A \to B som en mängd 2-tupler (a,f(a))(a, f(a)) var sjukt tillfredsställande. 

Och hur tolkar du din bijektion där? Om vi har x^\hat{x} och y^\hat{y} som bas i 2\mathbb{R}^2 och har punkten (3,2)=3x^+2y^(3,2)=3\hat{x}+2\hat{y} avbildas de på (3,2)=3+2i(3,2)=3+2i det komplexa talplanet?

Jag är även nyfiken på din tolkning av avbildningar generellt. Ser du det som att "Givet indata a från en värld (mängd) kommer den beroende på en funktion att få något annat utseende b i en ny värld"? Sedan kan man titta på skillnaderna mellan a och b och dra massa slutsatser kring funktionen (bevarar vinklar, skalor, dimensioner osv).

naytte 7419 – Moderator
Postad: 30 aug 20:31

Att tänka på funktioner f:ABf:A→B som en mängd 2-tupler (a,f(a))(a,f(a)) var sjukt tillfredsställande. 

Jag håller med! Det är konstigt att man aldrig ifrågasatte vad dessa objekt (funktioner, t.ex.) egentligen är förrän man började på universitet. Hade jag frågat mitt gymnasiala jag vad en funktion "är" hade det nog tyckt att mitt nuvarande jag ställde en otroligt dum fråga. Men ju mer man rotar i saker och ting, desto mer inser man att man (jag) har accepterat väldigt mycket utan större eftertanke.

Jag tänker att vi kan vi kan skapa en funktion φ:2\varphi:\mathbb{C} \to \mathbb{R}^2 enligt kartan a+bi(a,b)a+bi \mapsto (a,b). Denna funktion är en bijektion eftersom den är både injektiv och surjektiv. Den "respekterar" även operationerna ++ och skalärmultiplikation med reella skalärer, så sett som vektorrum över de reella talen är detta en isomorfi.

Jag är även nyfiken på din tolkning av avbildningar generellt. Ser du det som att "Givet indata a från en värld (mängd) kommer den beroende på en funktion att få något annat utseende b i en ny värld"? Sedan kan man titta på skillnaderna mellan a och b och dra massa slutsatser kring funktionen (bevarar vinklar, skalor, dimensioner osv).

Jag har faktiskt börja tänka på det mer och mer så, ja. Särskilt i samband med flervarren och att man började arbeta med att parametrisera funktioner har tankesättet blivit mycket mer utpräglat hos mig. Det är ganska trevligt att tänka att man tar ett komplicerat område och "förenklar det" till ett enkelt område i en parametervärld genom att införa en parametrisering. Tidigare tänkte jag bara på det som en mängd nn-tupler som uppfyllde vissa egenskaper. Jag tror inte det spelar så stor roll vilken mental modell man använder, och det kanske till och med är till fördel att byta beroende på vad man sysslar med.

Gustor 782
Postad: 1 sep 10:42 Redigerad: 1 sep 12:52

Vad med i är det som stökar till det mest med våra vanliga definitioner?

Ett sätt att tänka på vad det betyder att en funktion f:22f:\mathbb{R}^2\to \mathbb{R}^2 är differentierbar i en punkt aa är att derivatan är "den bästa linjära approximationen av ff", och

f(a+v)f(a)+f'(a)vf(a+v)\approx f(a)+f'(a)v.

I detta fall blir f'(a)f'(a) en 2×22\times 2-matris och vi kan tänka på derivatan som en viss linjär transformation.

En linjär transformation kan i 2\mathbb{R}^2 (efter val av bas) uttryckas som en matris

abcd\begin{pmatrix}a & b\\ c & d\end{pmatrix}.

Specifikt om vi tänker vår funktion uppdelad i koordinater f(x)=(f1(x),f2(x))f(x)=(f_1(x),f_2(x)) så är

f'(x)=f1x1f1x2f2x1f2x2f'(x)=\begin{pmatrix}\frac{\partial f_1}{\partial x_1}& \frac{\partial f_1}{\partial x_2}\\ \frac{\partial f_2}{\partial x_1} & \frac{\partial f_2}{\partial x_2}\end{pmatrix}.

Komponentfunktionerna f1f_1 och f2f_2 kan vara helt oberoende av varandra och ff kan vara differentierbar. Så rad ett och rad två i matrisen har inga direkta krav på hur de måste relatera till varandra.

Men när vi istället betraktar f:f:\mathbb{C}\to\mathbb{C}, så kommer en linjär transformation inte längre kunna vara vilken matris som helst, utan om vi tänker oss en linjär transformation i det komplexa talplanet zwzz\mapsto wz där z=x+yiz=x+yi och w=a+biw=a+bi, så får vi att

wz=(a+bi)(x+yi)=(ax-by)+(bx+ay)iwz = (a+bi)(x+yi)=(ax-by)+(bx+ay)i.

På matrisform blir det 

a-bbaxy\begin{pmatrix}a & -b\\ b & a\end{pmatrix}\begin{pmatrix}x\\ y\end{pmatrix}.

Det vi kan se här är att inte vilken matris som helst definierar en linjär transformation \mathbb{C}\to\mathbb{C}. Faktum är att sett som en transformation i talplanet så är multiplikation av komplexa tal en rotation (och eventuellt en utvidgning/kontraktion). Jämför t.ex. med en reell rotationsmatris. 

Om vi ser derivatan som en viss linjär transformation så innebär detta vissa begränsningar på hur de partiella derivatorna måste förhålla sig till varandra (som ges av de s.k. Cauchy-Riemann ekvationerna).

Det är i grunden detta som gör att komplex differentiering är ett mer specifikt, restriktivt villkor och komplex differentierbara funktioner har mer struktur. 

Ett exempel på detta är att om en komplex funktion är differentierbar en gång, så är den differentierbar oändligt många gånger.

Gustor 782
Postad: 1 sep 16:28 Redigerad: 1 sep 17:44

Varför är enhetsrötterna så användbara?

De är lösningarna till ekvationen zn=1z^n = 1. Kanske inte direkt jätteanvändbara inom komplex analys, men de förekommer mycket i andra områden inom matematik, exempelvis Galois-teori och talteori. Det är nog dock inte något man behöver lägga någon speciell vikt vid i en kurs om komplex analys.

Och approximera funktioner vill som vanligt göra för att göra dem till en mer hanterbar och enklare form?

Det är användbart till rätt mycket tror jag, exempelvis kan man lösa differentialekvationer numeriskt genom att approximera funktionerna med Taylorserier som annars hade varit svårt eller rentav omöjligt att göra algebraiskt.

Vi har också exempelvis en av de allra viktigaste sambanden i komplex analys:

eix=cosx+isinxe^{ix} = \cos x + i\sin x,

något som vi kan använda Taylorserier för att visa.


Sidenote om vektorrum, ringar och isomorfier (inte nödvändigt för komplex analys och kan skippas)

Ofta inom algebra sysslar man med matematiskt objekt som består av "en mängd plus extra struktur som uppfyller vissa axiom/villkor". Ett sätt att tänka på dessa objekt är att de består av två delar: en lista med vilka data som ska ingå, och en lista med villkor, eller axiom, som ska data ska uppfylla. Det är som ett recept--en lista på ingredienser, och en instruktion över hur de ska användas.

Exempel 1: Grupper

En grupp består av följande data:

  • en mängd GG
  • en funktion f:G×GGf:G\times G\to G som tar två element i GG och spottar ut ett element i GG.

Dessa data ska uppfylla vissa villkor för att få kallas en grupp som jag inte tänker gå in på närmare här.

För att specificera vilka data som ingår brukar man skriva dem i en ordnad tupel: (G,f)(G,f). Om vi säger att "(G,f)(G,f) är en grupp" betyder det att GG är en mängd, ff är en funktion1GG enligt ovan och GG tillsammans med ff uppfyller de villkor som ställs i definitionen av en grupp. Vanligen används inte funktionssymboler som ff utan man brukar använda samma symboler som vanlig addition eller multiplikation, exempelvis (G,+)(G,+) eller (G,×)(G,\times). Dock är det viktigt att komma ihåg att symbolen ++ eller ×\times här inte nödvändigtvis har något med vanlig addition eller multiplikation att göra.


Ett vektorrum består av följande data:

  • En mängd VV vars element vanligen kallas vektorer
  • En kropp (se nedan) FF vars element vanligen kallas skalärer
  • En funktion f:V×VVf:V\times V\to V som brukar kallas addition som tar två vektorer och producerar en vektor. Denna funktion brukar sällan skrivas med funktionssymboler som ff, utan vi föredrar att använda ++. Vi skriver också oftast v+wv+w istället för +(v,w)+(v,w).
  • En funktion g:F×VVg:F\times V\to V som brukar kallas skalärprodukt som tar en skalär och en vektor och producerar en vektor. På samma sätt skriver vi ofta bara a·va\cdot v istället för g(a,v)g(a,v).

Dessa data behöver sedan uppfylla en rad villkor för att få kallas ett vektorrum. Om vi vill vara riktigt formella skulle vi kunna specificera denna data genom att skriva (V,F,f,g)(V,F,f,g). Ofta skriver vi bara något i stil med "låt VV vara ett vektorrum över \mathbb{R}" (vilket betyder att \mathbb{R} är våra skalärer), eller enbart "låt VV vara ett vektorrum" om det är underförstått vilka skalärer vi jobbar med.

Exempel 1: De reella talen \mathbb{R} bildar ett vektorrum över sig självt, där vi låter addition vara vanlig addition och där vi låter skalärmultiplikationen ges av den vanliga multiplikationen av reella tal.

Exempel 2: Den kartesiska produkten ×=2\mathbb{R}\times\mathbb{R} = \mathbb{R}^2 bildar ett vektorrum över \mathbb{R} med addition och skalärmultiplikation definierad koordinatvis:

(a,b)+(c,d)=(a+c,b+d)(a,b) + (c,d) = (a+c, b+d), och

λ(a,b)=(λa,λb)\lambda(a,b) = (\lambda a,\lambda b).

Exempel 3: De komplexa talen \mathbb{C} bildar ett vektorrum över \mathbb{R} med addition och skalärmultiplikation definierad av

(a+bi)+(c+di)=(a+c)+(b+d)i(a+bi)+(c+di) = (a+c) + (b+d)i, och

λ(a+bi)=λa+λbi\lambda(a+bi) = \lambda a + \lambda bi.


En ring består av följande data:

  • En mängd RR
  • En funktion f:R×RRf:R\times R\to R som brukar kallas addition eller ringaddition och vanligen skrivs som r+sr+s
  • En funktion g:R×RRg:R\times R\to R som brukar kallas multiplikation eller ringmultiplikation och vanligen skrivs som r·sr\cdot s eller enbart rsrs

Dessa data, som vi kan skriva formellt som (R,+,·)(R,+,\cdot) men oftast bara skriver RR, behöver sedan uppfylla en rad villkor. Några viktiga saker här är att funktionen ff, ringadditionen, måste vara kommutativ, dvs. vi ställer kravet att r+s=s+rr+s = s+r för alla r,sRr,s\in R. Ett koncist sätt att formulera villkoren som berör ringaddition är att säga att (R,+)(R,+) måste bilda en abelsk (kommutativ) grupp.

Multiplikationen däremot behöver inte vara kommutativ i en ring. Om multiplikationen är kommutativ säger vi att "RR är en kommutativ ring".

Exempel 1: Ringen M2()M_2(\mathbb{R}) av 2×22\times 2-matriser med reella koefficienter, tillsammans med matrisaddition och matrismultiplikation, bildar en ring. Denna ring är inte kommutativ, eftersom matrismultiplikation inte är kommutativ.'

Exempel 2: Ringen \mathbb{Z} av heltal tillsammans med vanlig addition och vanlig multiplikation är ett exempel på en kommutativ ring. Det här är det prototypiska exemplet på en kommutativ ring.


En kropp (engelska: field) är en kommutativ ring RR som dessutom besitter följande egenskap: för varje nollskilt element rr i RR, så finns det ett nollskilt element sRs\in R sådant att rs=sr=1rs=sr=1. Uttryckt i ord så är en kropp en kommutativ ring där varje nollskilt element har en multiplikativ invers.

Exempel 1: Ringen \mathbb{R} av reella tal med vanlig addition och multiplikation är en kropp, eftersom varje nollskilt tal rr har en multiplikativ invers 1/r1/r.

Exempel 2: Ringen \mathbb{C} av komplexa tal med komplex addition och komplex multiplikation är också en kropp.

Exempel 2: Ringen \mathbb{Z} av heltal är inte en kropp, eftersom det exempelvis inte finns något heltal vi kan multiplicera talet 22 med för att erhålla 11.


Lite om isomorfa vektorrum och de algebraiska kvaliteterna hos \mathbb{C}

Tittar vi tillbaka på exemplena på vektorrum kan vi observera något intressant. Jämför vi vektorrummet 2\mathbb{R}^2 och \mathbb{C}, båda med skalärer \mathbb{R}, ser vi att de påminner starkt om varandra. Faktum är att om vi väljer att beskriva ett komplext tal a+bia+bi som ett ordnat par (a,b)(a,b) av reella tal, där vi förstår att första koordinaten betyder realdel och andra betyder imaginärdel, då ser vi att operationerna addition och skalärmultiplikation blir identiska.

Vi kan se att det enda som skiljer dem åt är hur vi väljer att skriva elementen: å ena sidan a+bia+bi, å andra sidan (a,b)(a,b). När det enda som skiljer två vektorrum åt är "namnet" på de olika elementen, och att själva operationerna och strukturen i övrigt är densamma, då säger vi att vektorrummen är isomorfa. Intuitivt betyder en isomorfi mellan två objekt att objekten har "samma struktur", med den enda skillnaden att namnen eller representationerna av elementen och operationerna kan vara annorlunda.

Detsamma gäller för andra typer av objekt. 

När vi säger att \mathbb{C} och \mathbb{R} är isomorfa som vektorrum över \mathbb{R}, så menar vi precis att addition och skalärmultiplikation med reella tal beter sig likadant i båda vektorrummen.

Däremot kan vi ju faktiskt multiplicera komplexa tal med andra komplexa tal, inte bara reella tal. Det är nu vi börjar få något annorlunda, för om multiplikationen i 2\mathbb{R}^2 ges komponentvis av (a,b)(˙c,d)=(ac,bd)(a,b)\dot(c,d)=(ac,bd), då kommer det inte längre motsvara komplex multiplikation:

(a+bi)(c+di)=ac+adi+bci+bdi2=(ac-bd)+(ad+bc)i(a+bi)(c+di) = ac + adi + bci + bdi^2 = (ac - bd) + (ad+bc)i.

Skrivet på tupelform skulle detta istället bli (a,b)·(c,d)=(ac-bd,ad+bc)(a,b)\cdot (c,d) = (ac-bd,ad+bc).

Vi kan uttrycka det som att ringen 2\mathbb{R}^2 (med komponentvis addition/multiplikation) inte är isomorf med ringen \mathbb{C}.


Till sist ville jag bara presentera ett sätt att tänka kring de komplexa talen \mathbb{C}. Ett sätt att se det på är att addition av komplexa tal fungerar precis som om vi hade adderat förstagradspolynom:

(a+bi)+(c+di)=(a+c)+(b+d)i(a+bx)+(c+dx)=(a+c)+(b+d)x(a+bi) + (c+di) = (a+c) + (b+d)i\iff (a+bx)+(c+dx) = (a+c) + (b+d)x.

Vi kan tänka på ii som en symbol ungefär som xx i polynom: en formell, obestämd symbol som vi bara manipulerar algebraiskt.

Skillnaden är att så fort vi ser i2i^2 någonstans så kan vi alltid byta ut det mot -1-1. Vid multiplikation av komplexa tal så använder vi det och får

(a+bi)(c+di)=ac+adi+bci+bdi2=(ac-bd)+(ad+bc)i(a+bi)(c+di) = ac + adi + bci + bdi^2 = (ac - bd) + (ad + bc)i.

I övrigt räknar vi med ii som om det vore ett xx.

Detta synsätt med att "manipulera polynom med ii" kan faktiskt göras matematiskt precist:

vi har en ringisomorfi [x]/(x2+1)\mathbb{C}\cong \mathbb{R}[x]/(x^2+1).

(Ringen [x]\mathbb{R}[x] består av alla polynom med reella koefficienter med operationerna polynomaddition och polynommultiplikation; det vi skriver som /(x2+1)/(x^2+1) betyder att vi lägger till relationen att x2+1=0x^2 + 1 = 0, eller x2=-1x^2 = -1. Det vi får kvar är en ring med polynom på formen a+bxa+bx och för vilken x2=-1x^2 = -1. Vilket är precis samma struktur som de komplexa talen!)

Jag tror att jag kan besvara några av frågorna som ställs här, även om jag givetvis inte har samma expertstatus som Gustor.

Smickrande, men jag skulle säga att du överskattar mig lite, och underskattar dig själv lite. Jag har inte någon vidare koll på komplex analys... läste den kursen på distans och pluggade alldeles för lite. Tvättäkta hycklare som sitter här och säger åt Mr. P att plugga ordentligt, haha.


1. En funktion f:G×GGf:G\times G\to G som tar som input två element i en mängd och ger som output ett element i samma mängd brukar kallas för binär operation.

Mycket intressant. Vissa saker börjar klarna. 

Det är i grunden detta som gör att komplex differentiering är ett mer specifikt, restriktivt villkor och komplex differentierbara funktioner har mer struktur. 

Är att ha mer struktur helt enkelt att ha fler villkor?

För att specificera vilka data som ingår brukar man skriva dem i en ordnad tupel.

Så det borde egentligen alltid finnas med beskrivningar till vad ff faktiskt gör i en specifik grupp? Jag antar dock att det ofta kan vara underförstått. 

--- 

När funktioner skrivs f:Gf: G \to \mathbb{C} där GG \subset \mathbb{C} i deriveringssammanhang ( och inte C till C), är det bara för att få endast inre punkter i GG (för deriverbarhet kräver en omgivning)?

Gustor 782
Postad: 9 sep 08:53 Redigerad: 9 sep 10:31

Är att ha mer struktur helt enkelt att ha fler villkor?

I någon mening kan man nog säga så. Behöver inte nödvändigtvis vara fler villkor, utan de kan vara mer specifika. Exempelvis är alla holomorfa (se nedan) funktioner analytiska, men inte alla reellt differentierbara funktioner är analytiska.

Däremot betyder det inte nödvändigtvis att den klass eller kategori av objekt man talar om är mindre bara för att villkoren är fler. Exempelvis är grupper samma sak som mängder utrustade med binära operationer och som uppfyller vissa villkor. Men för varje mängd finns det alltid en binär operation vi kan definiera för att konstruera en grupp på den mängden. Så i någon bemärkelse finns det "lika många" grupper som det finns mängder (i alla fall om du antar axiom of choice), även om grupper är "mer specifika" och har "mer struktur".

Så det borde egentligen alltid finnas med beskrivningar till vad ff faktiskt gör i en specifik grupp? Jag antar dock att det ofta kan vara underförstått.

Ja det stämmer. För att det vi definierar ska vara en funktion måste vi specificera vad den gör med varje element i sin definitionsmängd. Ofta görs detta med en formel i t.ex. analys, typ f(x)=x2f(x)=x^2.

Ibland definieras grupper med en slags multiplikationstabell, som talar om för oss vad den binära operationen ger för output är för varje möjligt par av inputs.

Ibland använder man någon vanlig operation som redan är känd, t.ex. matrismultiplikation, punktvis addition av funktioner, osv. Det är såklart inte så praktiskt för annat är relativt små, ändliga grupper.

Ibland kan man även använda något som kallas för representationer. En grupp i sig är ett abstrakt, algebraiskt objekt. Men ofta är det intressant att tänka på gruppens element som transformationer av något rum. Till exempel kan en grupp ses som en samling bijektiva linjära transformationer av ett vektorrum. Varje element i gruppen kan då efter val av bas representeras som en inverterbar matris. Den binära operationen ges då av komposition av funktioner (vi utför flera transformationer på rad), eller med matrismultiplikation om transformationerna kan skrivas som matriser.

Till exempel kan man se monstergruppen (wikipedia) som rotationer av ett 196883-dimensionellt vektorrum.

Ofta kan man kan lära sig mer både om gruppens algebraiska egenskaper och om rummet genom denna sortens representationer. Det är också ofta lättare att tänka på grupper ur detta perspektiv: En grupp skulle kunna representeras av symmetrier av olika objekt, t.ex. en kvadrat, pentagon eller andra polygoner (dessa typer av grupper kallas dihedrala).

När funktioner skrivs f:Gf:G\to\mathbb{C} där GG\subset\mathbb{C} i deriveringssammanhang ( och inte C till C), är det bara för att få endast inre punkter i GG (för deriverbarhet kräver en omgivning)?

Komplex deriverbarhet definieras i en punkt på samma sätt som i det reella fallet: En funktion f:f:\mathbb{C}\to\mathbb{C} säges vara differentierbar i en punkt z0z_0\in \mathbb{C} om

limzz0f(z)-f(z0)z-z0\lim_{z\to z_0} \frac{f(z)-f(z_0)}{z-z_0}

existerar.

Det man sedan brukar säga, och som är något förvirrande, är att funktionen ff är holomorf i en punkt pp om ff är differentierbar i ett öppet område (öppen cirkelskiva) UU som innehåller pp.

En funktion f:Gf:G\to\mathbb{C} definierad på någon öppen mängd GG\subset \mathbb{C} kan också sägas vara holomorf om den är differentierbar i varje punkt i GG. Dessa två definitioner är ekvivalenta, det beror bara på hur vi väljer att betrakta vår funktion. Ibland är vi inte intresserade av funktioner som är holomorfa på hela C (dessa funktioner brukar kallas "entire") utan endast på någon delmängd av C.

Så komplex differentierbarhet = i en punkt,

holomorf i en punkt = differentierbar i en cirkelskiva kring punkten,

holomorf utan vidare kvalifikation (e.g. "en holomorf funktion") = holomorf i varje punkt i definitionsmängden, samt

analytisk i en punkt = Taylorserien konvergerar inom en cirkelskiva centrerad runt punkten

Ett av de stora, fundamentala resultaten i komplex analys är att de holomorfa funktionerna är precis de analytiska.


Tillägg: 9 sep 2025 10:30

Ett annat sätt att tänka på hur komplex differentierbarhet är ett "starkare" villkor än den reella motsvarigheten är att vi kan tänka på ff som en funktion 22\mathbb{R}^2\to\mathbb{R}^2 om vi delar upp ff i real- och imaginärdel som f(z)=u(a,b)+iv(a,b)f(z)=u(a,b) + iv(a,b), för z=a+biz=a+bi. Gränsvärdet vars existens vi kräver ser likadant ut, men när vi närmar oss z0z_0 kan vi göra det längs oändligt många olika vägar (tänk att vi närmar oss en punkt i det komplexa talplanet). Vi kräver att vi ska få ett och samma gränsvärde för varje och en av dessa vägar.

I jämförelse när vi pratar om reella funktioner i en dimension har vi bara två vägar att närma oss: x>x0x>x_0 eller x<x0x<x_0.

Tomten 2001
Postad: 9 sep 10:36

Att C inte kan ges en ordningsrelation är väl lite för mycket sagt. Med Zorns Lemma visar man Välordningsprincipen, som säger att varje mängd kan välordnas. En välordning är en total ordning, där varje delmängd har ett minsta element. N är ett exempel på en välordnad mgd. Kruxet är att det verkar vara det enda exemplet man känner till utöver de s k ordinaltalen. Som jag ser det kan C alltså välordnas men vi vet inte hur. Måhända går den fantastiska algebraiska strukturen förlorad?

naytte 7419 – Moderator
Postad: 9 sep 10:49 Redigerad: 9 sep 10:49

Zorns lemma kommer väl från urvalsaxiomet…? 😬

Farliga grejer…

Gustor 782
Postad: 9 sep 11:29 Redigerad: 9 sep 11:29
Tomten skrev:

Att C inte kan ges en ordningsrelation är väl lite för mycket sagt. Med Zorns Lemma visar man Välordningsprincipen, som säger att varje mängd kan välordnas. En välordning är en total ordning, där varje delmängd har ett minsta element. N är ett exempel på en välordnad mgd. Kruxet är att det verkar vara det enda exemplet man känner till utöver de s k ordinaltalen. Som jag ser det kan C alltså välordnas men vi vet inte hur. Måhända går den fantastiska algebraiska strukturen förlorad?

Det är riktigt, bra poäng. Det jag syftade på var en ordning likt den på de reella talen, dvs. en ordning som respekterar operationerna (så t.ex. kan vi ha z+w<z'+w men z>z' i C).

Svara
Close