Er det nok(riktig) å si dette? Er litt usikker på om bevismåten min er riktig ført opp.
Skal vise:
hvis [tex] \left{x_n}\right[/tex] er Cauchy, og har en konvergerende subsequence med grenseverdi x, så er også [tex] \left{x_n}\right[/tex] konvergerende med samme grenseverdi.
[tex]\varepsilon > 0\exists N = N(\varepsilon ):d({x_{{n_k}}},x) < \varepsilon \vspace{4} for \vspace{4} n_k>N\\ \exists m > {n_k}:{x_m} > {x_{{n_k}}} \vee {x_m} \in {x_n}[/tex]
kan derfor konkludere med at [tex]d({x_m},x) < \varepsilon[/tex] og at [tex]\left{x_n\right}[/tex] også er konvergerende med samme grenseverdi?
konvergens og cauchy
Moderatorer: Vektormannen, espen180, Aleks855, Solar Plexsus, Gustav, Nebuchadnezzar, Janhaa
Takk! 
Ehm;
Da ser jeg for meg fire punkter "på linje"
N--|--m--n--x_nk--x
[tex]d(x_n_k,x)<\frac{\large{\varepsilon}}{3}\\d(x_n,x_m)<\frac{\large{\varepsilon}}{3}\\d(x_n,x_n_k)<\frac{\large{\varepsilon}}{3}\\d(x_n,x)\leq d(x_n_k,x) + d(x_n,x_m)+d(x_n,x_n_k) = \varepsilon\\for\vspace{4} m,n,n_k>N[/tex]
Holder dette?
EDIT: kan ha byttet litt på variablene i forhold til det jeg skrev i sted, og trekant-ulikheten kan ha vært litt bedre "stokket på" ser jeg, men man ser hvertfall om tankemåten har vært riktig

Ehm;
Da ser jeg for meg fire punkter "på linje"
N--|--m--n--x_nk--x
[tex]d(x_n_k,x)<\frac{\large{\varepsilon}}{3}\\d(x_n,x_m)<\frac{\large{\varepsilon}}{3}\\d(x_n,x_n_k)<\frac{\large{\varepsilon}}{3}\\d(x_n,x)\leq d(x_n_k,x) + d(x_n,x_m)+d(x_n,x_n_k) = \varepsilon\\for\vspace{4} m,n,n_k>N[/tex]
Holder dette?
EDIT: kan ha byttet litt på variablene i forhold til det jeg skrev i sted, og trekant-ulikheten kan ha vært litt bedre "stokket på" ser jeg, men man ser hvertfall om tankemåten har vært riktig
-
- Euler
- Innlegg: 5889
- Registrert: 26/09-2007 19:35
- Sted: Trondheim
- Kontakt:
Jeg tror ikke den m-en er noe vits i å ha med? Du har at [tex]d(x_n_k, x) < \epsilon/2[/tex] hvis [tex]n_k > N_1[/tex]. Du vet også at [tex]d(x_n, x_n_k) < \epsilon/2[/tex] så lenge [tex]n, n_k > N_2[/tex]. Da vet du at når [tex]n, n_k > N[/tex] der N er den største av [tex]N_1[/tex] og [tex]N_2[/tex] så holder begge deler, og du kan bruke trekantulikheten slik som plutarco viste. Ditt bevis blir vel ikke feil, men jeg tror ikke det er nødvendig å ha med m-en?
Nå er jeg litt usikker på om det er nødvendig å skille mellom de to forskjellige N-ene slik jeg gjør ovenfor. Hvis [tex]N_1[/tex] alltid er større enn [tex]N_2[/tex] eller omvendt vil det ikke være nødvendig, men det er vel bare tilfellet dersom følgen er strengt voksende (i avstand)?
Nå er jeg litt usikker på om det er nødvendig å skille mellom de to forskjellige N-ene slik jeg gjør ovenfor. Hvis [tex]N_1[/tex] alltid er større enn [tex]N_2[/tex] eller omvendt vil det ikke være nødvendig, men det er vel bare tilfellet dersom følgen er strengt voksende (i avstand)?
Elektronikk @ NTNU | nesizer
Ser riktig ut. Det er også riktig å la [tex]N=max(N_1,N_2)[/tex].Vektormannen skrev:Jeg tror ikke den m-en er noe vits i å ha med? Du har at [tex]d(x_n_k, x) < \epsilon/2[/tex] hvis [tex]n_k > N_1[/tex]. Du vet også at [tex]d(x_n, x_n_k) < \epsilon/2[/tex] så lenge [tex]n, n_k > N_2[/tex]. Da vet du at når [tex]n, n_k > N[/tex] der N er den største av [tex]N_1[/tex] og [tex]N_2[/tex] så holder begge deler, og du kan bruke trekantulikheten slik som plutarco viste. Ditt bevis blir vel ikke feil, men jeg tror ikke det er nødvendig å ha med m-en?
Nå er jeg litt usikker på om det er nødvendig å skille mellom de to forskjellige N-ene slik jeg gjør ovenfor. Hvis [tex]N_1[/tex] alltid er større enn [tex]N_2[/tex] eller omvendt vil det ikke være nødvendig, men det er vel bare tilfellet dersom følgen er strengt voksende (i avstand)?
Stiller også et siste spørsmål her før jeg tar kvelden siden det er noe relatert 
Dette er btw tilfeldige oppgaver i boka og ikke relatert til øvinger (så du ikke får noe skitten samvittighet!)
Vis at hver eneste couchy sekvens er bundet.
[tex]{x_n}[/tex] er en couchy sekvens
[tex]\vspace{4}dvs\vspace{4}\forall \varepsilon > 0\exists N:\forall m,n > N\\ d(x_m,x_n)>\varepsilon[/tex]
Vi velger en N med avstand 1 til x;
for [tex]m,n>N_1[/tex]
[tex]d(x_n,x_N_1)<1[/tex]
Vi kan da også si at
[tex]\forall n\geq N_1\\d(x_n,x_N_1)<1\\M=max\left{d(x_N_1,x_1),d(x_N_1,x_2,....,d(x_N_1,x_{{N_1}-1}\right}[/tex]
bruker lignendes fremgangsmåte som du minnet meg på i sted;
der [tex]x_y[/tex] er en arbitrær x i [tex]\left{x_n\right}[/tex]
[tex]d(x_y,x_n)\leq d(x_y,x_N)+d(x_N,x) \leq M + 1[/tex]
EDIT:slurv

Dette er btw tilfeldige oppgaver i boka og ikke relatert til øvinger (så du ikke får noe skitten samvittighet!)

Vis at hver eneste couchy sekvens er bundet.
[tex]{x_n}[/tex] er en couchy sekvens
[tex]\vspace{4}dvs\vspace{4}\forall \varepsilon > 0\exists N:\forall m,n > N\\ d(x_m,x_n)>\varepsilon[/tex]
Vi velger en N med avstand 1 til x;
for [tex]m,n>N_1[/tex]
[tex]d(x_n,x_N_1)<1[/tex]
Vi kan da også si at
[tex]\forall n\geq N_1\\d(x_n,x_N_1)<1\\M=max\left{d(x_N_1,x_1),d(x_N_1,x_2,....,d(x_N_1,x_{{N_1}-1}\right}[/tex]
bruker lignendes fremgangsmåte som du minnet meg på i sted;
der [tex]x_y[/tex] er en arbitrær x i [tex]\left{x_n\right}[/tex]
[tex]d(x_y,x_n)\leq d(x_y,x_N)+d(x_N,x) \leq M + 1[/tex]
EDIT:slurv
Sist redigert av gundersen den 20/09-2012 01:58, redigert 2 ganger totalt.
Ah, ok. Er enda ikke helt vant til slik type bevisføring, og føler selv at det blir noe rotete. Prøver derfor å gjøre litt lettere oppgaver i boka med en fin føring slik at jeg skjønner bedre fremgangsmåten i de litt vanskeligere, så kritikk tas i mot med takk:)
Hm, jeg tror du har mer eller mindre rett, men det er uryddig ført. Her er mitt eget forslag: (jeg tror trekantulikheten kan unngås her med mindre jeg har gjort noen tabber)
At en følge er begrenset betyr at det fins en [tex]B[/tex] slik at [tex]d(x_n,x_k)<B[/tex] for alle [tex]n\in\mathbb{N}[/tex] og for en gitt [tex]k[/tex].
Vi vet at det fins en [tex]N[/tex] slik at [tex]d(x_n,x_m)<1[/tex] for alle [tex]n,m\geq N[/tex].
La [tex]k=N[/tex]. Vi må vise at det fins en [tex]B[/tex] slik at [tex]d(x_n,x_N)<B[/tex] for alle n. Dersom [tex]n>N[/tex] kan vi sette [tex]B=1[/tex]. Dersom [tex]n\leq N[/tex] kan vi sette [tex]B=B_1=\max\left{d(x_n,x_N):0\leq n\leq N\right }[/tex]. Så vi lar [tex]B=\max\left {1,B_1\right }[/tex].
At en følge er begrenset betyr at det fins en [tex]B[/tex] slik at [tex]d(x_n,x_k)<B[/tex] for alle [tex]n\in\mathbb{N}[/tex] og for en gitt [tex]k[/tex].
Vi vet at det fins en [tex]N[/tex] slik at [tex]d(x_n,x_m)<1[/tex] for alle [tex]n,m\geq N[/tex].
La [tex]k=N[/tex]. Vi må vise at det fins en [tex]B[/tex] slik at [tex]d(x_n,x_N)<B[/tex] for alle n. Dersom [tex]n>N[/tex] kan vi sette [tex]B=1[/tex]. Dersom [tex]n\leq N[/tex] kan vi sette [tex]B=B_1=\max\left{d(x_n,x_N):0\leq n\leq N\right }[/tex]. Så vi lar [tex]B=\max\left {1,B_1\right }[/tex].
Det ser litt bedre ut ja 
Slenger på et siste spørsmål her siden det er å vise at noe er komplett jeg skjønner minst av.
La X være rommet bestående av alle ordnede n-tupler [tex]x=(\xi_1,...,\xi_n)[/tex] av reelle tall og
[tex]d(x,y)=max_j|\xi_j-\eta_j|[/tex]
Vis at (X,d) er komplett (complete)
Prøvde å følge noen eksempler nogenlunde men føler meg absolutt ikke sikker på slike oppgaver.
here goes: for en arbitrær couchy serie
[tex]\left{x_m\right} =(\xi_1^m,...,\xi_n^m)\\ \forall\epsilon>0\exists N:\\d(x_m,x_r)=max_j|\xi_j^{(m)}-\eta_j^{(r)}|<\epsilon[/tex]
for m,r > N
[tex]|\xi_j^{(m)},-\xi_j^{(r)}| <\epsilon[/tex]
[tex]x=(\xi_1,\xi_2,..\xi_n)\\d(x_m,x)\leq\epsilon[/tex]

Slenger på et siste spørsmål her siden det er å vise at noe er komplett jeg skjønner minst av.
La X være rommet bestående av alle ordnede n-tupler [tex]x=(\xi_1,...,\xi_n)[/tex] av reelle tall og
[tex]d(x,y)=max_j|\xi_j-\eta_j|[/tex]
Vis at (X,d) er komplett (complete)
Prøvde å følge noen eksempler nogenlunde men føler meg absolutt ikke sikker på slike oppgaver.
here goes: for en arbitrær couchy serie
[tex]\left{x_m\right} =(\xi_1^m,...,\xi_n^m)\\ \forall\epsilon>0\exists N:\\d(x_m,x_r)=max_j|\xi_j^{(m)}-\eta_j^{(r)}|<\epsilon[/tex]
for m,r > N
[tex]|\xi_j^{(m)},-\xi_j^{(r)}| <\epsilon[/tex]
[tex]x=(\xi_1,\xi_2,..\xi_n)\\d(x_m,x)\leq\epsilon[/tex]
Forstår ikke helt hva du mener i de siste to linjene..
Det som er naturlig er å utnytte at [tex]\mathbb{R}^n[/tex] er komplett med hensyn til standardmetrikken [tex]d(x,y)=(\sum_i (x_i-y_i)^2)^{0.5}[/tex].
La [tex](x_n)[/tex] være Cauchy mhp Chebyshevmetrikken (altså den metrikken som er oppgitt i oppgaven). Vis at følgen da er Cauchy mhp standardmetrikken. Da vet du at følgen konvergerer mhp standardmetrikken. Vis til slutt at følgen dermed konvergerer mhp Chebyshevmetrikken.
Det som er naturlig er å utnytte at [tex]\mathbb{R}^n[/tex] er komplett med hensyn til standardmetrikken [tex]d(x,y)=(\sum_i (x_i-y_i)^2)^{0.5}[/tex].
La [tex](x_n)[/tex] være Cauchy mhp Chebyshevmetrikken (altså den metrikken som er oppgitt i oppgaven). Vis at følgen da er Cauchy mhp standardmetrikken. Da vet du at følgen konvergerer mhp standardmetrikken. Vis til slutt at følgen dermed konvergerer mhp Chebyshevmetrikken.