Driver på med en statistikk-øving og har satt meg temmelig fast.
Det er snakk om oppgave 5b her: http://www.math.ntnu.no/~karikriz/TMA4240-H13/ov6.pdf
Kopierer oppgaven hit for enkelhet:
Antall trykkfeil, N, i et manuskript på s sider, antas å være en poissonfordelt stokastisk
variabel med parameter s, dvs.
[tex]P(N = n) = \frac{(\lambda s)^{n}}{n!} exp(-\lambda s), n = 0,1,2...[/tex]
En korrekturleser som leser korrektur på manuskriptet antas a oppdage hver trykkfeil med sannsynlighet p og ikke oppdage trykkfeilen med sannsynlighet 1 - p. La X være antall feil korrekturleseren finner dersom han leser igjennom manuskriptet en gang. Vi skal anta at X gitt N=n er binomisk fordelt,
[tex]P(X=x|N = n) = \binom{n}{x} p^{x} (1-p)^{n-x}, x=0,1,....,n[/tex]
Oppgaven er da:
La [tex]Y_{k}[/tex] være antall trykkfeil som gjenstår etter at korrekturleseren har lest igjennom manuskriptet k uavhengige ganger (k = 1,2,....), dvs. [tex]Y_{1}[/tex] er antall trykkfeil som gjenstar etter en gjennomlesning.
Finn simultanfordelingen til [tex]Y_{1}[/tex] og N, og bruk den til a finne (marginal)fordelingen til [tex]Y_{1}[/tex]. Hva er fordelingen til [tex]Y_{k}[/tex]?
Jeg har prøvd som følger:
Jeg prøver først å finne simultanfordelingen til X og N, som er: [tex]P(X = x , N = n) = \frac{(\lambda s)^{n}}{n!} exp(-\lambda s) \binom{n}{x} p^{x} (1-p)^{n-x}[/tex]
Hvis vi finner r feil ved første gjennomlesing har vi da at (og allerde her begynner jeg å bli usikker på om jeg har lov til å gjøre det slik):
[tex]P(Y_{1} = n - r , N = n) = \frac{(\lambda s)^{n}}{n!} exp(-\lambda s) \binom{n}{n-r} p^{n-r} (1-p)^{r}[/tex]
Marginalfordelingen til [tex]Y_{1}[/tex] er vel da gitt ved [tex]\sum_{n= 0}^{\infty} \frac{(\lambda s)^{n}}{n!} exp(-\lambda s) \binom{n}{n-r} p^{n-r} (1-p)^{r}[/tex]
uten at jeg ser helt hva det gir meg, eventuelt hvordan jeg skal gå videre? Tror jeg er ute på bærtur.
For øvrig er fasit: [tex]Poisson(\lambda s (1-p)^k)[/tex]
Statistikkoppgave, Poisson-fordeling/Bionomisk fordeling
Moderatorer: Vektormannen, espen180, Aleks855, Solar Plexsus, Gustav, Nebuchadnezzar, Janhaa
Jeg har ikke lest alt og løst oppgava, men den minner meg om konvertering fra Bin(n, p) til Poisson([tex]\lambda, \lambda)[/tex]som jeg har hatt i statistisk fysikk.
For en binomisk fordeling
[tex]P={n\choose k}p^k(1-p)^{n-k}[/tex]
kan den overføres til Poisson frodeling for p << 1 og n >> 1
jeg kladda/prøvde meg fram og fikk
[tex]P={\lambda^k\over k!}(1-p)^{n-k}[/tex]
så mulig dette kan brukes videre...
For en binomisk fordeling
[tex]P={n\choose k}p^k(1-p)^{n-k}[/tex]
kan den overføres til Poisson frodeling for p << 1 og n >> 1
jeg kladda/prøvde meg fram og fikk
[tex]P={\lambda^k\over k!}(1-p)^{n-k}[/tex]
så mulig dette kan brukes videre...
La verken mennesker eller hendelser ta livsmotet fra deg.
Marie Curie, kjemiker og fysiker.
[tex]\large\dot \rho = -\frac{i}{\hbar}[H,\rho][/tex]
Marie Curie, kjemiker og fysiker.
[tex]\large\dot \rho = -\frac{i}{\hbar}[H,\rho][/tex]
Ser ikke helt hvordan det skal brukes videre, men takk for svar likevel.
Det eneste jeg har komt frem til er at [tex]r \leq n[/tex] slik at marginalfordelingen til [tex]Y_{1}[/tex] kanskje heller burde skrives som:
[tex]\sum_{n= r}^{\infty} \frac{(\lambda s)^{n}}{n!} exp(-\lambda s) \binom{n}{n-r} p^{n-r} (1-p)^{r}[/tex] men videre enn det kommer jeg ikke. Jeg kan vel heller ikke se bort ifra at jeg har gjort feil tidligere i oppgaven også.

Det eneste jeg har komt frem til er at [tex]r \leq n[/tex] slik at marginalfordelingen til [tex]Y_{1}[/tex] kanskje heller burde skrives som:
[tex]\sum_{n= r}^{\infty} \frac{(\lambda s)^{n}}{n!} exp(-\lambda s) \binom{n}{n-r} p^{n-r} (1-p)^{r}[/tex] men videre enn det kommer jeg ikke. Jeg kan vel heller ikke se bort ifra at jeg har gjort feil tidligere i oppgaven også.
-
- Fibonacci
- Innlegg: 5648
- Registrert: 24/05-2009 14:16
- Sted: NTNU
Jævel oppgave det der, gi meg noen minutter så kan jeg kladde inn det jeg har gjort.
Kan først finne simulanfordelingen, og det har jo du funnet ut. Forklaringen blir at en benyttes seg
av bayes, eller logikk. Altså at
$ \hspace{1cm}
P(Y = k \cap N = n) = P(Y = k) \cdot P(Y = k \mid N = n)
$
Første del har vi allerde $P(Y = k)$, problemet er at en ikke aner hvordan $P(Y = k \mid N = n)$ ser ut.
Den kan skrives om ved følgende tankegang: Antall feil som gjennstår, er jo det samme som totalt
antall feil minus antall feil som er funnet. Så $Y = N - X = n - X$ siden $N = n$. Settes dette inn fås
$ \begin{array}{ll}
P(Y = k \cap N = n) & = P(Y = k) \cdot P(Y = k \mid N = n) \\
& = P(Y = k) \cdot P(n - X = k \mid N = n) \\
& = P(Y = k) \cdot P(X = n - k \mid N = n) \\
& = \frac{(\lambda\cdot s)^n}{n!}e^{-\lambda s}
\binom{n}{n-k}p^{n-k}(1-p)^k
\end{array} $
som var det samme som du fant. For å finne marginalfordelingen må en summe opp $n$ fra $k$ til uendelig.
Vi kan ikke ha flere gjennstående feil $k$, enn det som finnes i dokumentet ($n$). Så summen blir
$ \begin{array}{ll}
P(Y=k) & = \sum_{n=k}^\infty P(Y=k \cap N=n) \\
& = \sum_{n=k}^\infty \frac{(\lambda\cdot s)^n}{n!}e^{-\lambda s}
\binom{n}{n-k}p^{n-k}(1-p)^k \\
& = (\lambda s)^k\mathrm e^{-\lambda s}\frac1{k!}(1-p)^k \cdot \sum_{n = k}^\infty (\lambda s)^{n-k}\frac1{(n-k)!}p^{n-k} \\
& = (\lambda s)^k\mathrm e^{-\lambda s}\frac1{k!}(1-p)^k \cdot \sum_{i = 0}^\infty \frac{(\lambda s \cdot p)^i}{i!} \\
& = \frac{1}{k!}\bigl[s\lambda(1-p)\bigr]^k e^{-s\lambda(1-p)} \\
& = P_r\bigl(s\lambda(1-p)\bigr)
\end{array} $
Så lar jeg deg fikse mellomregningene. Er ikke mer enn algebra, og å bruke definisjonen av binomialkoeffisienten og $e^x$ =)
Bare å spørre om noe er uklart.
Kan først finne simulanfordelingen, og det har jo du funnet ut. Forklaringen blir at en benyttes seg
av bayes, eller logikk. Altså at
$ \hspace{1cm}
P(Y = k \cap N = n) = P(Y = k) \cdot P(Y = k \mid N = n)
$
Første del har vi allerde $P(Y = k)$, problemet er at en ikke aner hvordan $P(Y = k \mid N = n)$ ser ut.
Den kan skrives om ved følgende tankegang: Antall feil som gjennstår, er jo det samme som totalt
antall feil minus antall feil som er funnet. Så $Y = N - X = n - X$ siden $N = n$. Settes dette inn fås
$ \begin{array}{ll}
P(Y = k \cap N = n) & = P(Y = k) \cdot P(Y = k \mid N = n) \\
& = P(Y = k) \cdot P(n - X = k \mid N = n) \\
& = P(Y = k) \cdot P(X = n - k \mid N = n) \\
& = \frac{(\lambda\cdot s)^n}{n!}e^{-\lambda s}
\binom{n}{n-k}p^{n-k}(1-p)^k
\end{array} $
som var det samme som du fant. For å finne marginalfordelingen må en summe opp $n$ fra $k$ til uendelig.
Vi kan ikke ha flere gjennstående feil $k$, enn det som finnes i dokumentet ($n$). Så summen blir
$ \begin{array}{ll}
P(Y=k) & = \sum_{n=k}^\infty P(Y=k \cap N=n) \\
& = \sum_{n=k}^\infty \frac{(\lambda\cdot s)^n}{n!}e^{-\lambda s}
\binom{n}{n-k}p^{n-k}(1-p)^k \\
& = (\lambda s)^k\mathrm e^{-\lambda s}\frac1{k!}(1-p)^k \cdot \sum_{n = k}^\infty (\lambda s)^{n-k}\frac1{(n-k)!}p^{n-k} \\
& = (\lambda s)^k\mathrm e^{-\lambda s}\frac1{k!}(1-p)^k \cdot \sum_{i = 0}^\infty \frac{(\lambda s \cdot p)^i}{i!} \\
& = \frac{1}{k!}\bigl[s\lambda(1-p)\bigr]^k e^{-s\lambda(1-p)} \\
& = P_r\bigl(s\lambda(1-p)\bigr)
\end{array} $
Så lar jeg deg fikse mellomregningene. Er ikke mer enn algebra, og å bruke definisjonen av binomialkoeffisienten og $e^x$ =)
Bare å spørre om noe er uklart.
"Å vite hva man ikke vet er og en slags allvitenhet" - Piet Hein
https://s.ntnu.no/Integralkokeboken
Lektor - Matematikk, Fysikk og Informatikk
https://s.ntnu.no/Integralkokeboken
Lektor - Matematikk, Fysikk og Informatikk
Ja, at den er en jævel kan du si to ganger. Takk for hjelpen, skal regne meg igjennom det i morgen når jeg har litt bedre tid!
Et spørsmål: Det du har funnet der er jo [tex]Y_{1}[/tex], hvordan går du fra det til [tex]Y_{k}[/tex]?
Fasitsvaret er jo [tex]Y_{k}~Poisson(\lambda s (1-p)^k)[/tex] men sannsynlighetsfordelingen av to poissonfordelte variabler er jo poissonfordelingen av summen.

Fasitsvaret er jo [tex]Y_{k}~Poisson(\lambda s (1-p)^k)[/tex] men sannsynlighetsfordelingen av to poissonfordelte variabler er jo poissonfordelingen av summen.
-
- Fibonacci
- Innlegg: 5648
- Registrert: 24/05-2009 14:16
- Sted: NTNU
Jeg har funnet fordelingen til $Y_k$, regner med den $k$'en i fasiten bare er en fasitfeil som vanlig.
"Å vite hva man ikke vet er og en slags allvitenhet" - Piet Hein
https://s.ntnu.no/Integralkokeboken
Lektor - Matematikk, Fysikk og Informatikk
https://s.ntnu.no/Integralkokeboken
Lektor - Matematikk, Fysikk og Informatikk
Er det? Da har jeg misforstått , fordi slik jeg leser besvarelsen din så er k antall feil oppdaget på en gjennomlesning. Oppgaven sier jo at [tex]Y_{k}[/tex] er antall feil som gjennstår etter k uavhengige gjennomlesninger. X er jo antall feil som finnes på en gjennomlesning, så jeg ser ikke helt logikken. 

-
- Fibonacci
- Innlegg: 5648
- Registrert: 24/05-2009 14:16
- Sted: NTNU
Tenk over det til i morgen =) $k = N - X$ Feil som gjennstår er totalt antall feil, minus antall oppdagde feil.
"Å vite hva man ikke vet er og en slags allvitenhet" - Piet Hein
https://s.ntnu.no/Integralkokeboken
Lektor - Matematikk, Fysikk og Informatikk
https://s.ntnu.no/Integralkokeboken
Lektor - Matematikk, Fysikk og Informatikk
-
- Fibonacci
- Innlegg: 5648
- Registrert: 24/05-2009 14:16
- Sted: NTNU
For å finne fordelingen etter første gjennomlesning setter du bare $k = 1$.. =)
Eller setter inn k = 1 fra begynnelsen og gjør hele regningen på nytt.
Eller setter inn k = 1 fra begynnelsen og gjør hele regningen på nytt.
"Å vite hva man ikke vet er og en slags allvitenhet" - Piet Hein
https://s.ntnu.no/Integralkokeboken
Lektor - Matematikk, Fysikk og Informatikk
https://s.ntnu.no/Integralkokeboken
Lektor - Matematikk, Fysikk og Informatikk
Hmm. Ved å si $k=N-X$ sier du vel at antall gjennomlesninger = antall trykkfeil - antall oppdagede feil? Oppgaven sier at $k$ er antall gjennomlesninger og ikke antall gjenstående feil - slik som jeg tolker det hos deg. Mulig jeg misforstår helt her.Nebuchadnezzar skrev:Tenk over det til i morgen =) $k = N - X$ Feil som gjennstår er totalt antall feil, minus antall oppdagde feil.
Og blir ikke $n - X = Y_1$ siden $n$ er antall feil til å begynne med og $X$ er antall feil oppdager på én gjennomlesning?
Men jeg er enig i din utregning om vi bare bytter ut $k$ med f.eks $y$ (om vi skal holde oss til oppgavens symbolbruk) og lar ditt utledede uttrykk være $P(Y_1 = y)$. Kan vi bruke induksjon på noe vis for å finne $Y_k$?
Beklager hvis jeg er helt på jordet nå.