Gleichmäßige Konv. + Diffbark. < Differentiation < Funktionen < eindimensional < reell < Analysis < Hochschule < Mathe < Vorhilfe
|
Aufgabe | Sei [mm] $f_n:D \subset \IR \to \IR$ [/mm] eine Funktionenfolge mit Ableitungen [mm] $f_n'$ [/mm] und $D$ offen. Sei [mm] $x_0 \in [/mm] D$ fest, [mm] $\delta [/mm] > 0$ und [mm] $(\delta_n)_{n\in\IN}$ [/mm] eine Folge mit [mm] $\delta_n \downarrow [/mm] 0$. Es gebe Funktionen $f,g: D [mm] \to \IR$ [/mm] mit
[mm] $\sup_{|x-x_0| \le \delta} |f_n(x)-f(x)| \to [/mm] 0$,
[mm] $\sup_{|x-x_0| \le \delta_n} |f_n'(x) [/mm] - g(x)| [mm] \to [/mm] 0$,
[mm] $f_n'(x) \to [/mm] g(x)$ für alle [mm] $|x-x_0| \le \delta$.
[/mm]
Gilt nun, dass $f$ differenzierbar in [mm] $x_0$ [/mm] mit Ableitung [mm] $g(x_0)$ [/mm] ?
Achtung: Der wichtige Unterschied zum bekannten Satz aus der Analysis ist, dass die gleichmäßige Konvergenz der Ableitungen nur "sehr lokal" um [mm] $x_0$ [/mm] herum mit kleiner werdendem Radius [mm] $\delta_n$ [/mm] gilt. |
Hallo,
Die obige Aufgabe ist eine Vermutung von mir. Ich bin mir nicht sicher, ob sie richtig ist; ich gehe davon aus, dass es ein Gegenbeispiel gibt. Allerdings fällt mir keines ein.
Ich wollte Euch fragen, ob ihr ähnliche Sätze kennt, oder ob Euch ein Gegenbeispiel einfällt.
---
Die Vermutung geht aus einer anderen Vermutung hervor, die glaube ich stimmt: Sind die [mm] $f_n$ [/mm] stetig in [mm] $x_0$ [/mm] und gilt [mm] $\sup_{|x-x_0| \le \delta_n}|f_n(x) [/mm] - f(x)| [mm] \to [/mm] 0$ (also nur eine sehr lokale gleichmäßige Konvergenz), dann ist auch $f$ stetig in [mm] $x_0$.
[/mm]
[mm] \underline{Beweis:} [/mm] Sei [mm] $N\in \IN$ [/mm] so groß, dass [mm] $\sup_{|x-x_0| \le \delta_N}|f_N(x)-f(x)| [/mm] < [mm] \varepsilon/3$. $f_N$ [/mm] ist stetig, daher gibt es ein $d [mm] <\delta_N [/mm] $ sodass [mm] $|x-x_0| < [/mm] d [mm] \Rightarrow |f_N(x)-f_N(x_0)| [/mm] < [mm] \varepsilon/3$. [/mm] Nun das übliche [mm] $\varepsilon/3$-Argument: [/mm] Für [mm] $|x-x_0| [/mm] < d$ gilt
[mm] $|f(x)-f(x_0)| \le |f(x)-f_N(x)| [/mm] + [mm] |f_N(x) [/mm] - [mm] f_N(x_0)| [/mm] + [mm] |f_N(x_0) [/mm] - [mm] f(x_0)| [/mm] < [mm] \varepsilon$.
[/mm]
-----
Bei dem Beweis der eigentlichen Aussage komme ich aber nicht weiter: Man definiert im normalen Analysis-Beweis eine neue Funktion $h(x) := [mm] \int_{x_0}^{x}g(t) \dif [/mm] t + [mm] f(x_0)$ [/mm] und zeigt dann, dass $h(x) = f(x)$ ist, woraus die Aussage folgt. Dazu schreibt man (im Wesentlichen):
$|h(x)-f(x)| [mm] \le \int_{x_0}^{x}|f_n'(t) [/mm] - g(t)| d t$ + andere Terme,
und schätzt dann ab mittels [mm] $\sup_{t}|f_n'(t) [/mm] - g(t)| [mm] \to [/mm] 0$. Bei mir geht das nicht, weil ich die Konvergenz der Ableitungen nur "sehr lokal" habe. Auch ähnliche Beweise scheitern an demselben Problem.
Ich hatte überlegt, ob man etwas mit dem Satz von Jegorow (punktweise konvergent bedeutet fast gleichmäßig konvergent) machen könnte, bin aber noch nicht weitergekommen.
-----
Beim Finden eines Gegenbeispiels tue ich mich auch schwer.
- Zum Beispiel könnte man [mm] $f_n'(x) [/mm] = [mm] \sin(nx)$ [/mm] mit [mm] $f_n(x) [/mm] = [mm] -\frac{1}{n}\cos(nx), [/mm] f(x) = 0$, [mm] $x_0 [/mm] = 0$ nehmen, dann hat man zwar [mm] $\sup_{|x-0| \le 1/n^2}|f_n'(x)-f(x)| \to [/mm] 0$, aber [mm] $f_n(x)$ [/mm] konvergiert nicht punktweise.
- Will ich die punktweise Konvergenz garantieren, versuche ich stattdessen etwas von der Form [mm] $f_n'(x) [/mm] = (1-n|x|) [mm] 1_{|x| \le 1/n}$ [/mm] und [mm] $x_0= [/mm] 0$, aber da ist die gleichmäßige Konvergenz der Ableitungen verletzt.
- Es sieht so aus, als bräuchte ich eine Funktion, die an sehr vielen Stellen die gleichmäßige Konvergenz verletzt....
Hat jemand eine Idee :) ?
Viele Grüße,
Stefan
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 06:06 So 27.09.2015 | Autor: | matux |
$MATUXTEXT(ueberfaellige_frage)
|
|
|
|