6 svar
105 visningar
johannes121 är nöjd med hjälpen
johannes121 270
Postad: 13 maj 14:45 Redigerad: 13 maj 14:45

ML - skattning

Tjenare på er!

Håller på med följande gamla tentauppgift:

Jag har lite bekymmer med att lösa uppgiften, men jag tänker att jag presenterar den först så tar jag upp vart det stannar för mig i min lösning allt eftersom.

Vi bildar likelihood-funktionen som följer:

L(θ; x1, x2,...,xn) = k=1nC(θ)1+xk

Observera att C(θ)=10θ1/(1+x)dx=1ln(1+θ)

Därför fås:

L(θ; x1, x2,...,xn) =1ln(1+θ)n k=1n11+xk

För att hitta en ML - skattning av θ, vill vi maximera likelihood-funktionen, vilket är detsamma som att maximera log-likelihood-funktionen:

l(θ;x1,...,xn)=-nln(1+θ)+k=1nln(1/(1+xk))

Vi ser dock ganska fort att om vi deriverar denna map θ, så är likelihoodfunktionen en strikt avtagande funktion map θ.

För att maximera likelihoodfunktionen, och därav hitta ML - skattningen för vår parameter, vill vi ta ett så litet θ, som möjligt. Därför tänker jag att man väljer θ = min{x1,...,xn}.

Men svaret verkar istället vara att man ska välja maximumet från stickprovet. Jag förstår inte riktigt logiken hur detta fungerar när man får en likelihood som är strikt avtagande / växande och därur ska motivera för hur man ska välja en ML - skattning för sin parameter. Skulle vara extremt tacksamt om någon skulle kunna förtydliga detta för mig.

Tack!!

Smutsmunnen 720
Postad: 13 maj 20:40

Problemet börjar egentligen med en otydlighet vad gäller likelihood-funktionen.

För en observation x får vi mer precis:

L(θ;x)=11+x1ln(1+θ), θ>x

L(θ;x)=0, xθ.

Likelihood-funktionen för hela stickprovet blir därför 0 om θär mindre än något xi. Så likelihood-funktionen är nollskild endast om θ>xi

för alla i, dvs θ>max(xi)

johannes121 270
Postad: 14 maj 11:15

Då förstår jag! Det är alltså "gränserna" som är viktiga att tänka på. Tack så hemskt mycket. Har dock ytterligare en fråga:

Vad vill vi få ut ur en ML - skattning? Varför gör vi denna? Är det ett alternativt sätt att hitta en uppskattning på en okänd parameter, och är den i så fall en bra sådan uppskattning?

Micimacko 3685
Postad: 14 maj 22:56
johannes121 skrev:

 Är det ett alternativt sätt att hitta en uppskattning på en okänd parameter,

Ja

och är den i så fall en bra sådan uppskattning?

Ja, ofta får de skattningarna låg varians.

Smutsmunnen 720
Postad: 15 maj 14:44
Micimacko skrev:
johannes121 skrev:

 Är det ett alternativt sätt att hitta en uppskattning på en okänd parameter,

Ja

och är den i så fall en bra sådan uppskattning?

Ja, ofta får de skattningarna låg varians.

Jag skulle vilja förtydliga här lite. För det första är ML-skattning inte en alternativ metod, utan standardmetoden. 

Om det är en bra metod beror mycket på vilken fördelning man skattar från. Det beror också på syftet med skattningen, om man vill beskriva eller prediktera. ML-skattningen används främst i deskriptiva sammanhang,

Mickimacko skriver att skattningarna ofta har låg varians, vad som är låg varians kan väl diskuteras men jag skulle hävda att Mickimacko har fel, när man använder någon annan metod än ML-metoden beror det oftast på att ML-skattningen har för hög varians. 

Jag skulle kunna skriva väldigt mycket om det här, det är bara att säga till så kan jag utveckla.

johannes121 270
Postad: 15 maj 16:38

Tack till båda er. Intressant! Undrar samtidigt hur metoden fungerar egentligen. Jag förstår själva proceduren för hur man hittar en ML skattning, men varför ser den ut som den gör?

Hondel 618
Postad: 15 maj 22:08

Jag skulle säga såhär: likelihood ger ett mått på ”hur troligt är det att datan är genererad från fördelningen med detta värdet på parametern?”. Så det man gör är att man helt enkelt maximerar denna funktion, och hittar då den parameter som det är mest troligt att datan är genererad från

Svara Avbryt
Close