Hei,
Jeg jobber med noen eksamensoppgaver, og trenger veldig hjelp.
Jeg har dessverre ikke løsningsforslag og håper noen kan hjelpe meg her inne
Oppgaven lyder som følgende:
Anta vi har en linear regresjonsmodel:
[tex]U_i=\alpha_kY_{k,i}+u_i,[/tex] $i=1,2 .... , n,$
Hvor k er en indeks som vil bli brukt senere(det vil være den k'te kovariat i en mer generell lineær regresjonsmodell)
Det inste kvadrate estimaterer for $\alpha_k$ som vi vil kalle for $\hat{a}_k$, det er minimerer av:
[tex]L_k(a_k)= \sum_{i=1}^{n}(U_i-a_kY_{k,i})^2.[/tex]
Vis at første orden likningen [tex]\frac{d}{da_k}L_k(a_k)=0[/tex] har den eneste løsningen:
[tex]\hat{a}=\frac{\sum ^n_{i=1}Y_{k,i}X_k }{\sum ^n_{i=1}L^{2}_{k,i}}[/tex]
Det står også at at jeg kan anta at dette er minimumet av $L_k(a_k)$
Tusen takk for all hjelp
Regresjon analyse
Moderatorer: Vektormannen, espen180, Aleks855, Solar Plexsus, Gustav, Nebuchadnezzar, Janhaa
Beklager i det siste leddet skal det stå:
$\hat{a}=\frac{\sum ^n_{i=1}Y_{k,i}X_k }{\sum ^n_{i=1}Y^{2}_{k,i}}$
$\hat{a}=\frac{\sum ^n_{i=1}Y_{k,i}X_k }{\sum ^n_{i=1}Y^{2}_{k,i}}$
-
- Grothendieck
- Innlegg: 826
- Registrert: 09/02-2015 23:28
- Sted: Oslo
Her var det mye uforståelig notasjon. Hva er for eksempel $X_i$ for noe? Det er bedre om du legger ved originalteksten til oppgaven, og viser hvor du står fast.