Beweis Tausch Limes/Diff < Differentiation < Funktionen < eindimensional < reell < Analysis < Hochschule < Mathe < Vorhilfe
|
Aufgabe | Prop.:
Sei $ [mm] f_n \in [/mm] $ C([a,b]) $ [mm] \cap [/mm] $ D((a,b)) und $ [mm] f_n [/mm] $ ' $ [mm] \in [/mm] $ C([a,b])
und $ [mm] f_n [/mm] $ -> f $ [mm] (n->\infty) [/mm] $ gleichmäßig
$ [mm] f_n' [/mm] $ -> g $ [mm] (n->\infty) [/mm] $ gleichmäßig
Dann ist f $ [mm] \in [/mm] $ D([a,b]) und es gilt f' = g |
Der Beweis im SKript ist mir etwas nunja suspekt ;=)
gZZ.: [mm] \forall [/mm] x [mm] \in [/mm] (a,b) [mm] \exists lim_{h->0} \frac{f(x+h)-f(x)}{h} [/mm] =g
( da g stetig ist ist dann auch f in den eckpunkten diffbar)
A(h):= [mm] \begin{cases} \frac{f(x+h)-f(x)}{h} , & \mbox{für }h\not=0 \\ g(x), & \mbox{für } h=0 \end{cases}
[/mm]
A(h) ist stetig in h=0, da g stetig
ZZ.: A(h) [mm] \in [/mm] C([-c,c]) für c>0
> Frage: Wieso wollen wir zeigen A(h) [mm] \in [/mm] C([-c,c]) ??, was hat das damit zutun, dass der Differenzenquotient existiert?
g.ZZ.: A(h) der gleichmäßige Grenzwert stetiger Funktionen
g.ZZ.: [mm] A_n [/mm] (h) [mm] =\begin{cases} \frac{f_n(x+h)-f_n(x)}{h} , & \mbox{für }h\not=0 \\ f'_n(x), & \mbox{für } h=0 \end{cases} [/mm] glechmäßig konvergiert da klar ist [mm] A_n (h)\in [/mm] C[-c,c] [mm] ,lim_{h->0} A_n(h) [/mm] = A(h)
> Frage:
> 1) [mm] A_n [/mm] (h) [mm] \in [/mm] C[-c,c] , für h=0 ist klar f'_n(x) stetig, für [mm] h\not=0 [/mm] ist dass dann stetig weil es eine Differenz von stetigen funktionen ist??
Sei [mm] \epsilon>0
[/mm]
[mm] \forall [/mm] h,n [mm] \exists \epsilon_{n,h} [/mm] mit [mm] A_n [/mm] (h) = [mm] f_n' (\epsilon_{n,h}) [/mm] mit |x- [mm] \epsilon_{n,h}| [/mm] < |h|
> Das ist doch der Mittelwertsatz?könnt man nicht auch schreiben [mm] \epsilon_{n,h} \in [/mm] [x+h,h] wie sonst auch?
Da [mm] f_n' [/mm] gleichmäßig konvergent ist:
[mm] \exists [/mm] N [mm] \in \IN [/mm] sodass [mm] |f_n' [/mm] (t) - [mm] f_m' [/mm] (t) | < [mm] \epsilon \forall n,m\ge [/mm] N , [mm] \forall [/mm] t [mm] \in [/mm] [a,b]
> Das verstehe ich nicht, wieso folgt aus der gleichmäßigen konvergenz, dass es sich um eine Cauchyfolge handelt?
Wir behaupten nun, dass es ein [mm] \delta>0 [/mm] gibt,sodass für alle [mm] m\ge [/mm] N und alle s,t [mm] \in [/mm] [a,b] mit [mm] |s-t|<\delta [/mm] die Ungleichung [mm] |f_m' [/mm] (x) - f'_m (t) | < 3 [mm] \epsilon.
[/mm]
[mm] |f_m' [/mm] (x) - [mm] f_m' [/mm] (t) | [mm] \le [/mm] | [mm] f_m' [/mm] (s) - [mm] f_N' [/mm] (s) | + [mm] |f_N [/mm] ' (s) - [mm] f_N [/mm] '(t)| + [mm] |f_n'(t) [/mm] - [mm] f_m' [/mm] (t)|< 3 [mm] \epsilon
[/mm]
> Warum ist dass nun < 3 [mm] \epsilon [/mm] ? vorallem die abschätzung des mittleren terms verstehe ich nicht.
für |h| < [mm] \delta/2:
[/mm]
[mm] |A_m [/mm] (h) - [mm] A_n [/mm] (h) |= [mm] |f_m' (\epsilon_{m,h}) [/mm] - [mm] f_n' (\epsilon_{n,h})| \le |f_m' (\epsilon_{m,h}) [/mm] - [mm] f_m' (\epsilon_{n,h} [/mm] )| + [mm] |f_m' (\epsilon_{n,h}) [/mm] - [mm] f_n' (\epsilon_{n,h})| \le [/mm] 3 [mm] \epsilon [/mm] + [mm] \epsilon= [/mm] 4 [mm] \epsilon
[/mm]
da [mm] |\epsilon_{m,h} [/mm] - [mm] \epsilon_{n,h}| [/mm] < 2|h| [mm] \le \delta [/mm] ist
-> [mm] A_n [/mm] Cauchyfolge -> da Banachraum -> konvergent
|
|
|
|
Hallo,
wie ich schon in dem anderen Post geschrieben habe, glaube ich nicht, dass du die gleichmäßige Konvergenz von [mm] $(f_n)$ [/mm] in dem Beweis brauchen wirst.
> Prop.:
> Sei [mm]f_n \in[/mm] C([a,b]) [mm]\cap[/mm] D((a,b)) und [mm]f_n[/mm] ' [mm]\in[/mm] C([a,b])
> und [mm]f_n[/mm] -> f [mm](n->\infty)[/mm] gleichmäßig
> [mm]f_n'[/mm] -> g [mm](n->\infty)[/mm] gleichmäßig
> Dann ist f [mm]\in[/mm] D([a,b]) und es gilt f' = g
> Der Beweis im SKript ist mir etwas nunja suspekt ;=)
>
> gZZ.: [mm]\forall[/mm] x [mm]\in[/mm] (a,b) [mm]\exists lim_{h->0} \frac{f(x+h)-f(x)}{h}[/mm]
> =g
> ( da g stetig ist ist dann auch f in den eckpunkten
> diffbar)
Ab hier ist x fest gewählt in dem Beweis.
> A(h):= [mm]\begin{cases} \frac{f(x+h)-f(x)}{h} , & \mbox{für }h\not=0 \\
g(x), & \mbox{für } h=0 \end{cases}[/mm]
> A(h) ist stetig in h=0, da g stetig
????
Das stimmt nicht, die Stetigkeit von g bringt hier überhaupt nichts (da steht g(x), aber A ist eine Funktion von h. Außerdem ist entspricht g nur bei h = 0 der Funktion A, da kann man keine Eigenschaften wie Stetigkeit von g auf A übertragen).
Das große Ziel des Beweises ist es doch außerdem zu zeigen, dass $A$ in $h=0$ stetig ist. Wenn man das zeigt, folgt die Behauptung.
> ZZ.: A(h) [mm]\in[/mm] C([-c,c]) für c>0
> > Frage: Wieso wollen wir zeigen A(h) [mm]\in[/mm] C([-c,c]) ??,
> was hat das damit zutun, dass der Differenzenquotient
> existiert?
Na wenn $A$ in $h=0$ stetig ist, gilt insbesondere:
[mm] $\lim_{h\to 0}A(h) [/mm] = A(0)$
Also:
[mm] $\lim_{h\to 0}\frac{f(x+h)-f(x)}{h} [/mm] = g(x)$.
Das wollen wir zeigen.
> g.ZZ.: A(h) der gleichmäßige Grenzwert stetiger
> Funktionen
> g.ZZ.: [mm]A_n[/mm] (h) [mm]=\begin{cases} \frac{f_n(x+h)-f_n(x)}{h} , & \mbox{für }h\not=0 \\
f'_n(x), & \mbox{für } h=0 \end{cases}[/mm]
> glechmäßig konvergiert da klar ist [mm]A_n (h)\in[/mm] C[-c,c]
> [mm],lim_{h->0} A_n(h)[/mm] = A(h)
Hier sollte auf der rechten Seite A(0) stehen bei der letzen Gleichung.
> > Frage:
> > 1) [mm]A_n[/mm] (h) [mm]\in[/mm] C[-c,c] , für h=0 ist klar f'_n(x)
> stetig,
??? Nein, selber Fehler wie oben.
[mm] $A_n(h)$ [/mm] ist stetig in $h = 0$, weil [mm] $f_n$ [/mm] differenzierbar ist. Daher gilt
[mm] $\lim_{h\to 0}A_n(h) [/mm] = [mm] \lim_{h\to 0}\frac{f_n(x+h)-f_n(x)}{h} [/mm] = [mm] f_n'(x) [/mm] = A(0)$.
für [mm]h\not=0[/mm] ist dass dann stetig weil es eine
> Differenz von stetigen funktionen ist??
Ja. Die [mm] $f_n'$ [/mm] sind nach Voraussetzung stetig, daher ist [mm] $A_n(h)$ [/mm] für [mm] $h\not= [/mm] 0$ stetig als Differenz/Quotient stetiger Funktionen.
[Anmerkung: Es gibt auch Beweise, bei welchen man die Stetigkeit von [mm] $f_n'$ [/mm] nicht braucht (siehe mein anderer Post)]
> Sei [mm]\epsilon>0[/mm]
> [mm]\forall[/mm] h,n [mm]\exists \epsilon_{n,h}[/mm] mit [mm]A_n[/mm] (h) = [mm]f_n' (\epsilon_{n,h})[/mm]
> mit |x- [mm]\epsilon_{n,h}|[/mm] < |h|
> > Das ist doch der Mittelwertsatz?könnt man nicht auch
> schreiben [mm]\epsilon_{n,h} \in[/mm] [x+h,h] wie sonst auch?
Du meinst [mm] $\varepsilon_{n,h} \in [/mm] [x,x+h]$ ?
Das macht man hier bewusst nicht, weil man nicht weiß ob x oder x+h der größere Wert ist. (h kann auch negativ sein). Deswegen verallgemeinert man zu
[mm] $\varepsilon_{n,h} \in [/mm] [x-|h|,x+|h|]$
Das stimmt auf jeden Fall. Und dazu äquivalent ist
Und [mm] $|x-\varepsilon_{n,h}| [/mm] < |h|$.
Und ja, es ist der Mittelwertsatz der Differentialrechnung.
> Da [mm]f_n'[/mm] gleichmäßig konvergent ist:
> [mm]\exists[/mm] N [mm]\in \IN[/mm] sodass [mm]|f_n'[/mm] (t) - [mm]f_m'[/mm] (t) | < [mm]\epsilon \forall n,m\ge[/mm]
> N , [mm]\forall[/mm] t [mm]\in[/mm] [a,b]
> > Das verstehe ich nicht, wieso folgt aus der
> gleichmäßigen konvergenz, dass es sich um eine
> Cauchyfolge handelt?
Aus Konvergenz folgt immer die Cauchy-Folgen-Eigenschaft bzgl. der gewählten Norm!
Du kennst evtl. $(C, [mm] ||.||_{\infty})$ [/mm] Raum der stetigen Funktionen mit Supremumsnorm. Gleichmäßige Konvergenz [mm] $f_n \to [/mm] f$ ist äquivalent zu
[mm] $||f_n [/mm] - [mm] f||_{\infty} \to [/mm] 0$,
d.h. Konvergenz bzgl. der Supremumsnorm.
Daraus folgt nun sofort die Cauchy-Folgeneigenschaft wegen
[mm] $||f_n-f_m|| \le ||f_n [/mm] - f|| + ||f - [mm] f_m||$
[/mm]
> Wir behaupten nun, dass es ein [mm]\delta>0[/mm] gibt,sodass für
> alle [mm]m\ge[/mm] N und alle s,t [mm]\in[/mm] [a,b] mit [mm]|s-t|<\delta[/mm] die
> Ungleichung [mm]|f_m'[/mm] (x) - f'_m (t) | < 3 [mm]\epsilon.[/mm]
> [mm]|f_m'[/mm] (x) - [mm]f_m'[/mm] (t) | [mm]\le[/mm] | [mm]f_m'[/mm] (s) - [mm]f_N'[/mm] (s) | + [mm]|f_N[/mm]
> ' (s) - [mm]f_N[/mm] '(t)| + [mm]|f_n'(t)[/mm] - [mm]f_m'[/mm] (t)|< 3 [mm]\epsilon[/mm]
> > Warum ist dass nun < 3 [mm]\epsilon[/mm] ? vorallem die
> abschätzung des mittleren terms verstehe ich nicht.
1 und 3. Term: Cauchy-Folgeneigenschaft
2. Term: Gleichmäßige Stetigkeit von [mm] $f_N'$. [/mm] (Du hast gegeben, dass [mm] $f_n'$ [/mm] stetige Funktion auf kompakten Intervall $[a,b]$ ist, also gleichmäßig stetig. Und man kann dann [mm] $\delta [/mm] > 0$ finden sodass $|s-t|< [mm] \delta$ $\Rightarrow$ $|f_N'(s) [/mm] - [mm] f_N'(t)|<\varepsilon$)
[/mm]
Aber irgendwas in obiger Abschätzung stimmt sowieso noch nicht, links taucht ein x auf, rechts nicht mehr?
> für |h| < [mm]\delta/2:[/mm]
> [mm]|A_m[/mm] (h) - [mm]A_n[/mm] (h) |= [mm]|f_m' (\epsilon_{m,h})[/mm] - [mm]f_n' (\epsilon_{n,h})| \le |f_m' (\epsilon_{m,h})[/mm]
> - [mm]f_m' (\epsilon_{n,h}[/mm] )| + [mm]|f_m' (\epsilon_{n,h})[/mm] - [mm]f_n' (\epsilon_{n,h})| \le[/mm]
> 3 [mm]\epsilon[/mm] + [mm]\epsilon=[/mm] 4 [mm]\epsilon[/mm]
> da [mm]|\epsilon_{m,h}[/mm] - [mm]\epsilon_{n,h}|[/mm] < 2|h| [mm]\le \delta[/mm]
> ist
> -> [mm]A_n[/mm] Cauchyfolge -> da Banachraum -> konvergent
Viele Grüße,
Stefan
|
|
|
|
|
> Hallo,
Hallo, ich habe noch paar fragen dazu, ich hoffe - dass ist ok.
> wie ich schon in dem anderen Post geschrieben habe, glaube
> ich nicht, dass du die gleichmäßige Konvergenz von [mm](f_n)[/mm]
> in dem Beweis brauchen wirst.
>
>
> > Prop.:
> > Sei [mm]f_n \in[/mm] C([a,b]) [mm]\cap[/mm] D((a,b)) und [mm]f_n[/mm] ' [mm]\in[/mm]
> C([a,b])
> > und [mm]f_n[/mm] -> f [mm](n->\infty)[/mm] gleichmäßig
> > [mm]f_n'[/mm] -> g [mm](n->\infty)[/mm] gleichmäßig
> > Dann ist f [mm]\in[/mm] D([a,b]) und es gilt f' = g
> > Der Beweis im SKript ist mir etwas nunja suspekt ;=)
> >
> > gZZ.: [mm]\forall[/mm] x [mm]\in[/mm] (a,b) [mm]\exists lim_{h->0} \frac{f(x+h)-f(x)}{h}[/mm]
> > =g
> > ( da g stetig ist ist dann auch f in den eckpunkten
> > diffbar)
>
>
> Ab hier ist x fest gewählt in dem Beweis.
>
>
> > A(h):= [mm]\begin{cases} \frac{f(x+h)-f(x)}{h} , & \mbox{für }h\not=0 \\
g(x), & \mbox{für } h=0 \end{cases}[/mm]
>
>
> > A(h) ist stetig in h=0, da g stetig
>
> ????
> Das stimmt nicht, die Stetigkeit von g bringt hier
> überhaupt nichts (da steht g(x), aber A ist eine Funktion
> von h. Außerdem ist entspricht g nur bei h = 0 der
> Funktion A, da kann man keine Eigenschaften wie Stetigkeit
> von g auf A übertragen).
>
> Das große Ziel des Beweises ist es doch außerdem zu
> zeigen, dass [mm]A[/mm] in [mm]h=0[/mm] stetig ist. Wenn man das zeigt, folgt
> die Behauptung.
>
>
> > ZZ.: A(h) [mm]\in[/mm] C([-c,c]) für c>0
> > > Frage: Wieso wollen wir zeigen A(h) [mm]\in[/mm] C([-c,c]) ??,
> > was hat das damit zutun, dass der Differenzenquotient
> > existiert?
>
> Na wenn [mm]A[/mm] in [mm]h=0[/mm] stetig ist, gilt insbesondere:
>
> [mm]\lim_{h\to 0}A(h) = A(0)[/mm]
>
> Also:
>
> [mm]\lim_{h\to 0}\frac{f(x+h)-f(x)}{h} = g(x)[/mm].
>
> Das wollen wir zeigen.
>
>
>
>
> > g.ZZ.: A(h) der gleichmäßige Grenzwert stetiger
> > Funktionen
> > g.ZZ.: [mm]A_n[/mm] (h) [mm]=\begin{cases} \frac{f_n(x+h)-f_n(x)}{h} , & \mbox{für }h\not=0 \\
f'_n(x), & \mbox{für } h=0 \end{cases}[/mm]
> > glechmäßig konvergiert da klar ist [mm]A_n (h)\in[/mm] C[-c,c]
> > [mm],lim_{h->0} A_n(h)[/mm] = A(h)
>
> Hier sollte auf der rechten Seite A(0) stehen bei der
> letzen Gleichung.
>
>
> > > Frage:
> > > 1) [mm]A_n[/mm] (h) [mm]\in[/mm] C[-c,c] , für h=0 ist klar f'_n(x)
> > stetig,
>
>
> ??? Nein, selber Fehler wie oben.
> [mm]A_n(h)[/mm] ist stetig in [mm]h = 0[/mm], weil [mm]f_n[/mm] differenzierbar ist.
> Daher gilt
>
> [mm]\lim_{h\to 0}A_n(h) = \lim_{h\to 0}\frac{f_n(x+h)-f_n(x)}{h} = f_n'(x) = A(0)[/mm].
Wieso: [mm] f_n'(x) [/mm] = A(0) ?
[mm] f_n' [/mm] (x) = [mm] A_n [/mm] (0) wäre klar, wenn du das meinst - was ich höchst wahrscheinlich danke.
>
> für [mm]h\not=0[/mm] ist dass dann stetig weil es eine
> > Differenz von stetigen funktionen ist??
>
> Ja. Die [mm]f_n'[/mm] sind nach Voraussetzung stetig, daher ist
> [mm]A_n(h)[/mm] für [mm]h\not= 0[/mm] stetig als Differenz/Quotient stetiger
> Funktionen.
Warum führt man nun hier die stetigkeit auf die [mm] f_n [/mm] zurück aber im dann im fall h=0 durfte man dies nicht=?
> [Anmerkung: Es gibt auch Beweise, bei welchen man die
> Stetigkeit von [mm]f_n'[/mm] nicht braucht (siehe mein anderer
> Post)]
>
>
>
> > Sei [mm]\epsilon>0[/mm]
> > [mm]\forall[/mm] h,n [mm]\exists \epsilon_{n,h}[/mm] mit [mm]A_n[/mm] (h) = [mm]f_n' (\epsilon_{n,h})[/mm]
> > mit |x- [mm]\epsilon_{n,h}|[/mm] < |h|
> > > Das ist doch der Mittelwertsatz?könnt man nicht auch
> > schreiben [mm]\epsilon_{n,h} \in[/mm] [x+h,h] wie sonst auch?
>
> Du meinst [mm]\varepsilon_{n,h} \in [x,x+h][/mm] ?
>
> Das macht man hier bewusst nicht, weil man nicht weiß ob x
> oder x+h der größere Wert ist. (h kann auch negativ
> sein). Deswegen verallgemeinert man zu
>
> [mm]\varepsilon_{n,h} \in [x-|h|,x+|h|][/mm]
>
> Das stimmt auf jeden Fall. Und dazu äquivalent ist
> Und [mm]|x-\varepsilon_{n,h}| < |h|[/mm].
>
> Und ja, es ist der Mittelwertsatz der
> Differentialrechnung.
>
>
>
>
> > Da [mm]f_n'[/mm] gleichmäßig konvergent ist:
> > [mm]\exists[/mm] N [mm]\in \IN[/mm] sodass [mm]|f_n'[/mm] (t) - [mm]f_m'[/mm] (t) | <
> [mm]\epsilon \forall n,m\ge[/mm]
> > N , [mm]\forall[/mm] t [mm]\in[/mm] [a,b]
> > > Das verstehe ich nicht, wieso folgt aus der
> > gleichmäßigen konvergenz, dass es sich um eine
> > Cauchyfolge handelt?
>
>
> Aus Konvergenz folgt immer die Cauchy-Folgen-Eigenschaft
> bzgl. der gewählten Norm!
>
> Du kennst evtl. [mm](C, ||.||_{\infty})[/mm] Raum der stetigen
> Funktionen mit Supremumsnorm. Gleichmäßige Konvergenz [mm]f_n \to f[/mm]
> ist äquivalent zu
>
> [mm]||f_n - f||_{\infty} \to 0[/mm],
>
> d.h. Konvergenz bzgl. der Supremumsnorm.
> Daraus folgt nun sofort die Cauchy-Folgeneigenschaft
> wegen
>
> [mm]||f_n-f_m|| \le ||f_n - f|| + ||f - f_m||[/mm]
klar danke!
>
>
> > Wir behaupten nun, dass es ein [mm]\delta>0[/mm] gibt,sodass für
> > alle [mm]m\ge[/mm] N und alle s,t [mm]\in[/mm] [a,b] mit [mm]|s-t|<\delta[/mm] die
> > Ungleichung [mm]|f_m'[/mm] (x) - f'_m (t) | < 3 [mm]\epsilon.[/mm]
>
> > [mm]|f_m'[/mm] (x) - [mm]f_m'[/mm] (t) | [mm]\le[/mm] | [mm]f_m'[/mm] (s) - [mm]f_N'[/mm] (s) | + [mm]|f_N[/mm]
> > ' (s) - [mm]f_N[/mm] '(t)| + [mm]|f_n'(t)[/mm] - [mm]f_m'[/mm] (t)|< 3 [mm]\epsilon[/mm]
> > > Warum ist dass nun < 3 [mm]\epsilon[/mm] ? vorallem die
> > abschätzung des mittleren terms verstehe ich nicht.
>
>
> 1 und 3. Term: Cauchy-Folgeneigenschaft
> 2. Term: Gleichmäßige Stetigkeit von [mm]f_N'[/mm]. (Du hast
> gegeben, dass [mm]f_n'[/mm] stetige Funktion auf kompakten Intervall
> [mm][a,b][/mm] ist, also gleichmäßig stetig. Und man kann dann
> [mm]\delta > 0[/mm] finden sodass [mm]|s-t|< \delta[/mm] [mm]\Rightarrow[/mm] [mm]|f_N'(s) - f_N'(t)|<\varepsilon[/mm])
Zu 2:
Aber die Behauptung davor, ist doch genau die argumentation mit der man die abschätzung des mittleren terms rechtfertigt=?
> Aber irgendwas in obiger Abschätzung stimmt sowieso noch
> nicht, links taucht ein x auf, rechts nicht mehr?
da gehört ein s ;)
> > für |h| < [mm]\delta/2:[/mm]
> > [mm]|A_m[/mm] (h) - [mm]A_n[/mm] (h) |= [mm]|f_m' (\epsilon_{m,h})[/mm] - [mm]f_n' (\epsilon_{n,h})| \le |f_m' (\epsilon_{m,h})[/mm]
> > - [mm]f_m' (\epsilon_{n,h}[/mm] )| + [mm]|f_m' (\epsilon_{n,h})[/mm] - [mm]f_n' (\epsilon_{n,h})| \le[/mm]
> > 3 [mm]\epsilon[/mm] + [mm]\epsilon=[/mm] 4 [mm]\epsilon[/mm]
> > da [mm]|\epsilon_{m,h}[/mm] - [mm]\epsilon_{n,h}|[/mm] < 2|h| [mm]\le \delta[/mm]
> > ist
> > -> [mm]A_n[/mm] Cauchyfolge -> da Banachraum -> konvergent
>
>
>
> Viele Grüße,
> Stefan
|
|
|
|
|
Hallo,
> > > g.ZZ.: A(h) der gleichmäßige Grenzwert stetiger
> > > Funktionen
> > > g.ZZ.: [mm]A_n[/mm] (h) [mm]=\begin{cases} \frac{f_n(x+h)-f_n(x)}{h} , & \mbox{für }h\not=0 \\
f'_n(x), & \mbox{für } h=0 \end{cases}[/mm]
> > > glechmäßig konvergiert da klar ist [mm]A_n (h)\in[/mm] C[-c,c]
> > > [mm],lim_{h->0} A_n(h)[/mm] = A(h)
> >
> > Hier sollte auf der rechten Seite A(0) stehen bei der
> > letzen Gleichung.
Hier war eigtl. auch [mm] $A_n(0)$ [/mm] auf der rechten Seite gemeint.
> > [mm]A_n(h)[/mm] ist stetig in [mm]h = 0[/mm], weil [mm]f_n[/mm] differenzierbar
> ist.
> > Daher gilt
> >
> > [mm]\lim_{h\to 0}A_n(h) = \lim_{h\to 0}\frac{f_n(x+h)-f_n(x)}{h} = f_n'(x) = A(0)[/mm].
>
> Wieso: [mm]f_n'(x)[/mm] = A(0) ?
> [mm]f_n'[/mm] (x) = [mm]A_n[/mm] (0) wäre klar, wenn du das meinst - was
> ich höchst wahrscheinlich danke.
Ja ich meine natürlich [mm] $A_n(0)$.
[/mm]
> > für [mm]h\not=0[/mm] ist dass dann stetig weil es eine
> > > Differenz von stetigen funktionen ist??
> >
> > Ja. Die [mm]f_n'[/mm] sind nach Voraussetzung stetig, daher ist
> > [mm]A_n(h)[/mm] für [mm]h\not= 0[/mm] stetig als Differenz/Quotient stetiger
> > Funktionen.
> Warum führt man nun hier die stetigkeit auf die [mm]f_n[/mm]
> zurück aber im dann im fall h=0 durfte man dies nicht?
Weil h = 0 nur ein Punkt ist.
Du hättest ja dann mathematisch nur die Information, dass deine Funktion [mm] $A_n$ [/mm] an der Stelle h = 0 denselben Funktionswert hat wie [mm] $f_n'$. [/mm] Aber das liefert doch gar keine Information darüber, wie sich die Funktion [mm] $A_n$ [/mm] in einer Umgebung von 0 verhält. Demzufolge kannst du da keine Stetigkeit übertragen.
Extremes Gegenbeispiel: Du behauptest, nur weil für $f(x) = [mm] \begin{cases}1, x < 0\\0, x \ge 0\end{cases}$ [/mm] und $g(x) = [mm] \sin(x)$ [/mm] gilt: $f(0) = g(0)$, folgt dass f stetig in 0 ist. Das funktioniert nicht!
Stetigkeit kannst du nur übertragen, wenn deine Funktion auf einer OFFENEN Menge mit einer stetigen Funktion übereinstimmt.
> > > Wir behaupten nun, dass es ein [mm]\delta>0[/mm] gibt,sodass für
> > > alle [mm]m\ge[/mm] N und alle s,t [mm]\in[/mm] [a,b] mit [mm]|s-t|<\delta[/mm] die
> > > Ungleichung [mm]|f_m'[/mm] (x) - f'_m (t) | < 3 [mm]\epsilon.[/mm]
> >
> > > [mm]|f_m'[/mm] (s) - [mm]f_m'[/mm] (t) | [mm]\le[/mm] | [mm]f_m'[/mm] (s) - [mm]f_N'[/mm] (s) | + [mm]|f_N[/mm]
> > > ' (s) - [mm]f_N[/mm] '(t)| + [mm]|f_n'(t)[/mm] - [mm]f_m'[/mm] (t)|< 3 [mm]\epsilon[/mm]
> > > > Warum ist dass nun < 3 [mm]\epsilon[/mm] ? vorallem die
> > > abschätzung des mittleren terms verstehe ich nicht.
> >
> >
> > 1 und 3. Term: Cauchy-Folgeneigenschaft
> > 2. Term: Gleichmäßige Stetigkeit von [mm]f_N'[/mm]. (Du hast
> > gegeben, dass [mm]f_n'[/mm] stetige Funktion auf kompakten Intervall
> > [mm][a,b][/mm] ist, also gleichmäßig stetig. Und man kann dann
> > [mm]\delta > 0[/mm] finden sodass [mm]|s-t|< \delta[/mm] [mm]\Rightarrow[/mm] [mm]|f_N'(s) - f_N'(t)|<\varepsilon[/mm])
>
> Zu 2:
> Aber die Behauptung davor, ist doch genau die
> argumentation mit der man die abschätzung des mittleren
> terms rechtfertigt=?
Deine Frage ist mir noch nicht ganz klar.
Evtl. meinst du das Folgende:
Beachte, dass das [mm] $\delta$ [/mm] in der gleichmäßigen Stetigkeit von der Funktion abhängt. Man kann also NICHT direkt [mm] $|f_m'(s) [/mm] - [mm] f_m'(t)|< \varepsilon$ [/mm] abschätzen, weil man da jedes mal ein anderes [mm] $\delta_m$ [/mm] mit $|s-t| < [mm] \delta_m$ [/mm] voraussetzen müsste.
Nur wegen der gleichmäßigen Konvergenz kann man das auf ein [mm] $\delta$ [/mm] zurückführen, und zwar das [mm] $\delta$ [/mm] von der gleichmäßigen Stetigkeit von [mm] $f_N$.
[/mm]
Viele Grüße,
Stefan
|
|
|
|
|
Ah verstehe. Ja genau das war meine Frage ;)
Noch eine Frage dazu:
1) Dass [mm] f_n [/mm] -> f glm konvergent ist braucht man also im ganzen beweis nicht?Die punktweise konvergenz aber schon.
2)Ist die Konvergenz der abgeleiteten Funktion eine notwendige Vorrausetzung für die Differenzierbarkeit der Grenzfunktion?
Ich meine: Gibt es eine Funktionenfolge [mm] f_n, [/mm] für welche [mm] f_n [/mm] ' nicht gleichmäßig konvergiert, sodass f= [mm] lim_{n->\infty} f_n [/mm] nicht differenzierbar?
LG
|
|
|
|
|
Hallo,
> Noch eine Frage dazu:
> 1) Dass [mm]f_n[/mm] -> f glm konvergent ist braucht man also im
> ganzen beweis nicht?Die punktweise konvergenz aber schon.
Ja, man braucht punktweise Konvergenz.
Bei dir im Beweis braucht man das, damit [mm] $A_n$ [/mm] gegen $A$ konvergiert.
> 2)Ist die Konvergenz der abgeleiteten Funktion eine
> notwendige Vorrausetzung für die Differenzierbarkeit der
> Grenzfunktion?
> Ich meine: Gibt es eine Funktionenfolge [mm]f_n,[/mm] für welche
> [mm]f_n[/mm] ' nicht gleichmäßig konvergiert, sodass f=
> [mm]lim_{n->\infty} f_n[/mm] nicht differenzierbar?
Guck mal [mm] $f_n(x) [/mm] = [mm] \sqrt{x^2 + \frac{1}{n}}$ [/mm] mit Grenzfunktion $f(x) = |x|$ an.
Viele Grüße,
Stefan
|
|
|
|
|
Hallo
> Guck mal [mm]f_n(x) = \sqrt{x^2 + \frac{1}{n}}[/mm] mit
> Grenzfunktion [mm]f(x) = |x|[/mm] an.
|x| = [mm] lim_{n->\infty} \sqrt{x^2 + 1/n}
[/mm]
[mm] f_n [/mm] ' (x) = [mm] \frac{x}{\sqrt{x^2+1/n}} [/mm]
[mm] lim_{n->\infty}f_n [/mm] ' (x) = [mm] \frac{x}{\sqrt{x^2}}=\frac{x}{|x|}
[/mm]
[mm] \frac{x}{|x|} [/mm] nicht stetig -> keine glm konvergenz
Offensichtlich ist |x| nicht differenzierbar.
ok?
|
|
|
|
|
Hallo,
> Hallo
> > Guck mal [mm]f_n(x) = \sqrt{x^2 + \frac{1}{n}}[/mm] mit
> > Grenzfunktion [mm]f(x) = |x|[/mm] an.
> |x| = [mm]lim_{n->\infty} \sqrt{x^2 + 1/n}[/mm]
> [mm]f_n[/mm] ' (x) =
> [mm]\frac{x}{\sqrt{x^2+1/n}}[/mm]
> [mm]lim_{n->\infty}f_n[/mm] ' (x) =
> [mm]\frac{x}{\sqrt{x^2}}=\frac{x}{|x|}[/mm]
> [mm]\frac{x}{|x|}[/mm] nicht stetig -> keine glm konvergenz
>
> Offensichtlich ist |x| nicht differenzierbar.
> ok?
Ja.
Dies zeigt, dass die Voraussetzung [mm] "f_n' [/mm] konv. glm. gegen eine Grenzfunktion g" bei dem Satz nicht weggelassen werden darf.
Viele Grüße,
Stefan
|
|
|
|