6 svar
180 visningar
Zeshen är nöjd med hjälpen
Zeshen 479
Postad: 8 jul 2020 15:15 Redigerad: 8 jul 2020 15:15

MK-metoden

Hej, boken säger att om man vill minimera Q dvs. kvadratsummorna så deriverar man partiellt och sätter derivatorna till 0.

Men hur vet vi att de stationära punkterna antar det minsta värdet (från flervarre)? Är det för att Q är strängt växande? 

I maximum likelihood (ML) metoden gick det då funktionen är av en variabel.

Micimacko 4070
Postad: 8 jul 2020 17:37

Det borde visas och inte antas. Känns som att en del bakgrund saknas från frågan. Får du ngt exempel?

Zeshen 479
Postad: 8 jul 2020 17:49
Micimacko skrev:

Det borde visas och inte antas. Känns som att en del bakgrund saknas från frågan. Får du ngt exempel?

Yes! Jag bifogar nedan :) De skriver det som en generaliserad metod och sen ger de ett exempel. Det står också (längst upp i bild 1 för ett tidigare exempel som bara är envariabel att det är lätt att visa, men det är envariabel och då går andra derivatan och ändpunkter bra som bevis)

 

 

Bild 1

 

Bild 2

Zeshen 479
Postad: 8 jul 2020 17:50

Det kanske är något uppenbart som jag inte inser med funktionen?

parveln 703 – Fd. Medlem
Postad: 8 jul 2020 18:07

Notera att funktionen går mot oändligheten när vektorn theta gör det. Alltså kommer minimum inträffa i en stationär punkt.

Micimacko 4070
Postad: 8 jul 2020 20:15

Det du mäter är väl typ avståndet mellan en funktion du har valt att jämföra med och de mätningar du fått. Men att du bara får ett nollställe borde bero på att du bara har linjära funktioner med parametrarna i exemplet.

Zeshen 479
Postad: 8 jul 2020 22:02

Okej tack, så det är som att vi skapar en stor kompakt så vi vet att min ligger innanför kompakten och där randen är större än det innanför kompakten, då får vi min vid den enda stationära punkten?

Svara Avbryt
Close