summaryrefslogtreecommitdiffstats
path: root/ch06-schwache-topologien.tex
blob: d9a41b93fc6424baa4944ead01cbb060a600ca0f (plain)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
\chapter{Schwache Topologien}
In diesem Kapitel sei $X$ grundsätzlich ein normierter linearer Raum.
Wir wissen bereits, dass $\cl{B_1(0)}$ genau dann kompakt ist, wenn $\dim X < ∞$ ist.
Wir suchen nun eine sinnvolle Topologie für $X$, die von der Normtopologie noch
möglichst viele Eigenschaften mitnimmt, aber  die Einheitskugel kompakt macht.

\section{Schwache und schwach\(*\)-Topologie}

Zu $x' ∈ X'$ fest und $ε > 0$ sei
\begin{equation}\label{eq:11}
    U(x',ε) \coloneq \{ x ∈ X: |x'[x]| < ε\} ⊂ X
\end{equation}

\begin{definition}
    Eine Menge $V ⊂ X$ heißt offen bezüglich der \emph{schwachen Topologie}, falls für jedes $x_0 ∈ V$ endlich viele $x_1',…,x_k' ∈ X'$ existieren und $ε_1, …, ε_k > 0$, so dass
    \[
        x_0 + \bigcap_{i=1}^k U(x_i',ε_i) ⊂ V
    \]
    gilt.
\end{definition}

\begin{bemerkung}
    Das heißt, die Menge der endlichen Schnitte der $U(x', ε)$ aus \eqref{eq:11}
    bilden eine Umgebungsbasis von $0 ∈ X$ für die sogenannte \emph{schwache Topologie} $\T_w ⊂ \Pot{X}$ auf $X$.
    Insbesondere ist $U(x', ε)$ selber offen in $\T_w$ (Übung).
    Damit sind auf $X$ zwei verschiedene Topologien erklärt, nämlich $(X,\T_w)$ und $(X,\T_S)$, wobei $\T_s$ nun die (starke) Normtopologie bezeichne.
\end{bemerkung}

\begin{satz}
    \begin{enumerate}
    \item 
        $(X,\T_w)$ ist ein topologischen linearer Raum, der Hausdorffsch ist.
    \item
        Jede schwach offene Menge ist auch stark offen, das heißt die Normtopologie ist feiner als die Schwache Topologie bzw $\T_w ⊂ \T_s$.
        \begin{warnung-nn}
            Die Umkehrung gilt in der Regel nicht.
            Falls $V ⊂ X$ stark offen und konvex ist, so ist $V$ auch schwach offen (Übung).
        \end{warnung-nn}
    \end{enumerate}
\end{satz}
\begin{proof}
    Übung.
\end{proof}
\begin{bemerkung-nn}
    Sei $X$ eine beliebige Menge und $\T_1$ und $\T_2$ Topologien auf $X$. Sei $\T_2 ⊂ \T_1$, also $\T_1$ feiner als $\T_2$. Dann hat $\T_1$
    \begin{itemize}
    \item
        mehr offene Mengen,
    \item
        mehr abgeschlossene Mengen, aber
    \item
        weniger kompakte Mengen,
    \item
        mehr stetige Abbildungen nach $\K$ (oder in einen anderen topologischen Raum), aber
    \item
        weniger konvergente Folgen.
    \end{itemize}
\end{bemerkung-nn}
\begin{bemerkung-nn}
    $(X,\T_w)$ ist ein topologischer linearer Raum, also folgt aus dem Invarianzprinzip, dass die Topologie bereits vollständig durch die offenen Umgebungen der Null bestimmt ist.
\end{bemerkung-nn}


\begin{bemerkung}
    Sei $P := \{ p_{x'}: X → ℝ: x' ∈ X', p_{x'}(x) := | \lAngle x', x \rAngle |\}$.
    Dann ist $P$ eine Familie von Halbnormen auf $X$, die die Bedingung (I) aus dem Satz 3.3.15 erfüllt, % TODO,
    das heißt, wenn $p_{x'}(x) m = 0 $ für alle $x' ∈ X'$, dann ist bereits $x = 0$ dank Hahn-Banach.
    Damit ist $(X, \T_w)$ sogar ein \emph{lokalkonvexer} Hausdorff"=Raum (insbesondere sind die $U(x',ε)$ und endliche Schnitte davon eine konvexe Umgebungsbasis der Null).
\end{bemerkung}

\begin{bemerkung}
    Es gilt $\T_w = \T_s \iff \dim X < ∞$, das heißt in der Regel ist $\T_w \subsetneq \T_s$, also es gibt echt weniger schwach offene Mengen als stark offene (Beispiel in der Übung).
    Deswegen gibt es auch \emph{mehr} schwach konvergente Folgen.
\end{bemerkung}

\begin{satz}
    Sei $(x_n)_{n ∈ ℕ}$ eine Folge in $X$.
    Dann konvergiert $(x_n)_{n ∈ ℕ}$ in der schwachen Topologie gegen $x_0 ∈ X$ genau dann, wenn $\lim\limits_{n → ∞} \lAngle x', x \rAngle = \lAngle x', x_0 \rAngle$ für alle $x' ∈ X'$ gilt.
\end{satz}
\begin{proof}
    Übung.
\end{proof}
Wir schreiben für die schwache Konvergenz $x_n \yrightharpoonup[n → ∞]{} x_0$.
Im Beispiel zur Definition 5.4.5 haben wir gesehen, dass $e_i \yrightharpoonup[n→∞]{} 0$ in $\ell^2$.
Nach Satz 1.6 sind alle $x' ∈ X'$ als Abbildungen
\[
    x': (X, \T_w) → \K
\]
folgenstetig. Nach Definition ist aber auch $x': (X, \T_s) → \K$ stetig.
Tatsächlich ist $\T_w$ die gröbste Topologie auf $X$, das heißt die mit den wenigsten offenen Mengen), bezüglich der alle $x' ∈ X'$ stetig sind.
Beachte
\[
    U(x', ε) = (x')^{-1}(B_ε(0)),
\]
und $B_ε(0)$ ist eine offene Menge in $\K$, also wird die Topologie gerade durch die Urbilder einer Umgebungsbasis unter den $x'$ erzeugt, das heißt nach Konstruktion ist sie gerade so gemacht, dass alle $x'$ stetig werden, aber es werden nicht mehr offene Mengen hinzugenommen.
$\T_w$ ist also die Initialtopologie bezüglich aller $x'$.

\subsection*{Schwach$*$-Topologie auf $X'$}
Zu $X'$ (also einem Banachraum) existiert auch $X'' = (X')'$ und ist wieder ein Banachraum.
Damit existiert auf $X'$ eine schwache Topologie $(X',\T_{w,X'})$ mit Umgebungsbasis 
\[
    U(x'',ε) ⊂ X'
\]
zu $x'' ∈ X''$ fest und $ε > 0$ und endlichen Schnitten davon.
$X'$ lässt sich aber auch noch anders topologisieren.
Sei $x ∈ X$ fest und $ε > 0$ gegeben.
Dann definiere
\[
    U'(x, ε) \coloneq \{ x' ∈ X': |\lAngle x', x \rAngle| < ε\} ⊂ X'.
\]
\begin{definition}
    Eine Menge $V' ⊂ X'$ heißt offen bezüglich der \emph{schwach$*$-Topologie}, falls zu jedem $x_0' ∈ V'$ endlich viele $x_1,…,x_k ∈ X$, $ε_1,…,ε_n > 0$ existieren, so dass
    \[
        x_0' + \bigcap_{i=1}^n U'(x_i, ε_i) ⊂ V'.
    \]
    Wir schreiben für diese Topologie $(X',\T_{w*,X'})$.
\end{definition}

\begin{satz}
    $X'$ ist bezüglich der schwach$*$"=Topologie ein topologischer linearer Raum, der Hausdorffsch ist.
    Die $U'(x, ε)$ und endliche Schnitte davon sind Umgebungsbasis der Null in $X'$ für $\T_{w*,X'}$.
\end{satz}
\begin{proof}
    ähnlich wie bei der schwachen Topologie.
\end{proof}
\begin{warnung-nn}
    Eine „schwach$*$-Topologie“ auf $X$ geht offenbar \emph{nicht}.
\end{warnung-nn}
\begin{bemerkung}
    Die schwach$*$ ist eine weitere Abschwächung der schwachen Topologie.
    Betrachte dazu den kanonischen Isomorphismus
    \[
        J_0: X → X'', \quad ∀x ∈ X': \lAngle J_0 x, x' \rAngle = \lAngle x', x \rAngle.
    \]
    Definitionsgemäß ist $J_0$ genau dann surjektiv, wenn $X$ reflexiv ist.
    Dann ist
    \[
        U'(x,ε) = \{ x' ∈ X' : |\lAngle J_0 x, x' \rAngle| < ε\} =
        U(J_0 x, ε).
    \]
    Damit $U'(x,ε) ∈ \T_{w,X'}$, also
    \[
        \T_{w^*,X'} ⊂ \T_{w, X'} ⊂ \T_{s, X'}.
    \]
\end{bemerkung}
\begin{korollar-nn}
    Falls $X$ reflexiv ist, so stimmen $\T_{w*,x'}$ und $\T_{w,X'}$ überein.
\end{korollar-nn}
\begin{proof}
    klar.
\end{proof}
Für den Konvergenzbegriff gilt analog zu Satz 1.6
\begin{satz}
    Sei $(x'_n)_{n ∈ ℕ}$ eine Folge in $X'$.
    Dann konvergiert $(x_n')_{n ∈ ℕ}$ in $(X',\T_{w^*,X'})$ gegen $x_0' ∈ X'$ genau dann, wenn
    $\lim_{n → ∞} \lAngle x_n', x \rAngle = \lAngle x_0', x \rAngle$  für alle $x ∈ X$.
    Wir schreiben dafür $x_n' \yrightharpoonup[n→∞]{*} x_0$.
\end{satz}

\begin{proof}
    Übung.
\end{proof}
\begin{bemerkung}
    \begin{enumerate}
    \item 
        Grenzwerte von schwach (schwach$*$) konvergenten Folgen sind eindeutig bestimmt.
    \item
        Normkonvergenz implizierte schwache Konvergenz impliziert schwach$*$-Konvergenz.
    \end{enumerate}
\end{bemerkung}
\begin{proof}
    \begin{enumerate}
    \item 
        Für die schwache Topologie:
        Falls $x'[x_0] = x'[\tilde x_0]$ für alle $x' ∈ X$, so impliziert Hahn-Banach bereits $x_0 = \tilde x_0$.
    \item
        Folgt direkt aus den entsprechenden  Inklusionen der Topologien.
    \end{enumerate}
\end{proof}

\begin{satz}
    \begin{enumerate}
    \item
        Aus $x_k' \yrightharpoonup[n → ∞]{*} x'$ in $X'$ folgt
        \[
            \norm{x'}_{X'} \le \liminf_{k → ∞} \norm{x'_k}_{X'}.
        \]
    \item
        Aus $x_k \yrightharpoonup[n → ∞]{} x$ in $X$ folgt
        \[
            \norm{x}_{X} ≤ \liminf_{k → ∞} \norm{x_k}_{X}.
        \]
    \end{enumerate}
\end{satz}
\begin{proof}
    \begin{enumerate}
    \item 
        Für alle $ ∈ X $ gilt:
        \[
            |\lAngle x', x \rAngle| \xleftarrow[n → ∞]{} | \lAngle x_k' x \rAngle |
             \le \norm{x}_{X} \norm{x'_k}_{X'}, 
        \]
        also
        \[
            | \lAngle x', x \rAngle | \le \underbrace{\left( \liminf_{k → ∞} \norm{x'_k}_{X'} \right)}_{\eqcolon M} \norm{x}_X,
        \]
        das heißt $\norm{x'}_{X'} ≤ M$, was die Behauptung impliziert.
    \item
        Gelte $x_k \yrightharpoonup[k→∞]{} x$
        Wie gerade folgt für alle $x' ∈ X'$
        \[
            | \lAngle x', x \rAngle | ≤
            \norm{x'} \left( \liminf_{k → ∞} \norm{x_k}_X \right).
        \]
        nach Kapitel, Kor 2.1 (Existenz von nichttrivialen Funktionalen) existiert zu $x ∈ X$ fest ein $x' ∈X'$ mit 
        \[
            \lAngle x', x \rAngle = \norm{x}, \quad \norm{x'}_{X'} = 1,
        \]
        woraus
        \[
            \norm{x}_{X} \le \liminf_{k → ∞} \norm{x_k}_{X}
        \]
        folgt, was die Behauptung war.
    \end{enumerate}
\end{proof}

\section{Schwach- und schwach\(*\)-kompakte Einheitskugeln}
\begin{satz}
    Sei $(X,\norm-)$ separabel.
    Dann ist die (stark) abgeschlossene Einheitskugel $\cl{B_1}(0) = \{ x' ∈ X': \norm{x'} ≤ 1\} ⊂ X'$ schwach$*$-folgenkompakt.
\end{satz}
\begin{proof}
    Sei $\{x_n\}_{n ∈ ℕ}$ eine dichte Teilmenge von $X$.
    Sei $(x'_{k ∈ ℕ})$ eine Folge in $X'$ mit $\norm{x'_k}_{X'} ≤ 1$  für alle $k ∈ ℕ$.
    Wir konstruieren ein $x' ∈ \cl{B_1(0)}$ mit $x'_k \yrightharpoonup[k→∞]{*}$ (für eine Teilfolge).
    Für $n ∈ ℕ$ ist $(\lAngle x_k', x_n \rAngle)_{k ∈ ℕ}$ eine beschräkte Folge in $\K$, denn $|\lAngle x'_k, x_n \rAngle | \le \norm{x_n} \cdot 1 \; (*)$.

    Durch das Diagonalverfahren finden wir eine Teilfolge $(x_{k_m})_{m ∈ ℕ}$, so dass für alle $n ∈ ℕ$ $\lim_{m → ∞} \lAngle x'_{k_m},x_n \rAngle$ existiert:
    Dazu gibt es wegen (*) zu $x_1$ eine Teilfolge $(x_{k,1}')_{k ∈ ℕ} ⊂ (x'_k)_{k ∈ ℕ}$ mit
    \[
        (\lAngle x'_{k,1}, x_1 \rAngle)_{k ∈ ℕ} \;\;\text{konvergiert in } \K.
    \]
    Analog können wir zu $x_2$
    eine Teilfolge $(x_{k,2}')_{k ∈ ℕ} ⊂ (x'_{k,1})_{k ∈ ℕ}$ finden mit
    \[
        (\lAngle x'_{k,2}, x_2 \rAngle)_{k ∈ ℕ} \;\;\text{konvergiert in } \K
    \]
    und weiterhin
    \[
        (\lAngle x'_{k,2}, x_1 \rAngle)_{k ∈ ℕ} \;\;\text{konvergiert in } \K.
    \]
    Induktiv: Zu $x_m$, $m ∈ ℕ$ existiert eine Teilfolge $(x'_{k,m})_{k ∈ ℕ} ⊂ (x'_{k,m-1})_{k ∈ ℕ}$, so dass
    \[
        ∀j ≤ m : (\lAngle x'_{k,m}, x_j \rAngle)_{k ∈ ℕ} \;\;\text{konvergiert in } \K.
    \]
    Für die Diagonalfolge $(x'_{m,m})_{m ∈ ℕ} ⊂ (x'_k)_{k ∈ ℕ}$ gilt also 
    \[
        ∀n ∈ ℕ : (\lAngle x'_{m,m}, x_n \rAngle)_{m ∈ ℕ} \;\;\text{konvergiert in } \K.
    \]
    Setze nun $x'_{k_m} \coloneq x"_{m,m}$.
    Sei nun O.B.d.A $x'_{k_m} = x'_k$.


    Nun konstruieren wir ein $x'$ mit der gewünschten Eigenschaft.
    Setze $Y := \lspan \{ x_n: n ∈ ℕ\} ⊂ X$.
    Dann liegt $Y$ immer noch dicht in $X$.
    Dann gilt für $y ∈ Y$ beliebig auch
    \[
        \lim_{k → ∞} \lAngle x'_k, y \rAngle \;\;\text{existiert in } \K.
    \]
    Wir definieren $x' : Y → \K$ linear mit
    \[
        \lAngle x', y \rAngle \coloneq \lim_{k→∞} \lAngle x'_k, y \rAngle.
    \]
    Wir behaupten $x' ∈ Y'$. Dazu ist
    \[
        | \lAngle x', y \rAngle | = \lim_{k → ∞} |\lAngle x'_k, y \rAngle | ≤ \norm{y} \limsup_{k → ∞} \norm{x_k'}_{X'} ≤ \norm{y}.
    \]
    Damit ist $x'$ auf $Y$ beschränkt, also stetig.
    Außerdem gilt $\norm{x'}_{Y'} ≤ 1$.
    $x'$ lässt sich als dicht definierte stetige lineare Abbildung eindeutig fortsetzen (Kapitel 5, Satz 1.2) auf $\cl Y = X$.
    Also $x' ∈ X'$ und $\norm{x'}_{X'} = \norm{x'}_{Y'} ≤ 1$.
    Also $x' ∈ \cl{B_1(0)} ⊂ X'$.

    Bleibt noch zu zeigen: $x'_k \yrightharpoonup[k→∞]{*} x'$.
    Sei dazu $x ∈ X$ beliebig und $y ∈ Y$ mit $\norm{x-y}_{X} < ε$ (geht weil $\cl Y = X$).
    Dann 
    \[
        | \lAngle x' - x'_k, x \rAngle |
        ≤ | \lAngle x' - x'_k, x-y \rAngle| + |\lAngle x'-x'_k, y \rAngle|
        ≤ 2 \norm{x-y} + ε < 3 ε.
    \]
    Also ist schwache Konvergenz gezeigt und die Behauptung folgt.
\end{proof}



%%%%%%%%%%%%%%%%%%%
HIER FEHLT EINE VL
%%%%%%%%%%%%%%%%%%%%%%


\begin{definition}
    Sei $X$ ein reeller normierter Raum, $M ⊂ X$ eine Teilmenge, $f: M → ℝ$ eine Abbildung.
    ...
\end{definition}



\begin{satz}[Hauptsatz der Variationsrechnung]
    \index{Hauptsatz der Variationsrechnung}
    \index{Variationsrechnung!Hauptsatz}
    \label{satz:hauptsatz-variorechnung-6.3.2}
    Sei $(X,\norm-)$ ein reflexiver Banachraum und $M ⊂ X$ schwach
    abgeschlossen. 
    Ist $f: M → ℝ$ eine schwach unterhalbstetige und koerzive Abbildung, dann gilt
    \begin{enumerate}
    \item
        $f$ ist nach unten beschränkt.
    \item
        $f$ nimmt das Infimum in $M$ an.
    \end{enumerate}
\end{satz}

% Ist $(X,\norm -)$ separabel, dann ist die Einheitskugel $\cl{B_1^{X'}(0)$ schwach*-folgenkompakt,
% ist $(X,\norm -)$ reflexiv, so ist die Einheitskugel $\cl{B_1^{X}(0)  ⊂ X$ schwach folgenkompakt.
% Das heißt, jede beschränkte Folge besitzt also eine schwach($*$)-konvergente Teilfolge.

\begin{proof}
    Sei $f: M → ℝ$, $f$ schwach unterhalbstetig, das heißt aus $x_k \yrightharpoonup[k→∞]{} \hat x$ folgt bereits $f(\hat x) \le \liminf_{k → ∞} f(x_k)$.
    Sei $α_0 \coloneq \inf_{x ∈ M} f(x) ≥ - ∞$ und $(x_k)_{k ∈ ℕ} ⊂ M$ eine Folge, für die $f(x_k) \nlk α_0$ gilt.
    Da $f$ koerziv ist, ist $(x_k)_{k ∈ ℕ}$ (stark) beschränkt.
    Eberlein-Shimulyan liefert, da $X$ reflexiv ist, eine schwach konvergente Teilfolge $(x_{k_j})_{j ∈ ℕ}$ von $(x_;)_{k ∈ ℕ}$, also $x_{k_j} \slj \hat x ∈ X$.
    Es gilt sogar $\hat x ∈ M$, da $M$ nach Voraussetzung schwach folgenabgeschlossen ist.
    Weil $f$ schwach unterhalbstetig ist, folgt $f(\hat x) ≤ \liminf_{k → ∞} f(x_k) = α_0$.
    Insbesondere ist $α_0 > -∞$ und $f(\hat x) = \inf_{x ∈ M} f(x)$.
\end{proof}

Im Vergleich zu den motivierenden Sätzen, die wir im endlich"=dimensionalen kennen, haben wir hier andere Voraussetzungen. % TODO anderer vergleich?
Hier  ist $f$ schwach unterhalbstetig, was eine stärkere Forderung ist als unterhalbstetig.
Außerdem haben beschränkte Folgen schwach konvergente Teilfolgen, also schwache Folgenkompaktheit von beschränkten Mengen, was eine schwächere Eigenschaft ist als die Folgenkompaktheit von beschränkten Mengen im $ℝ^n$.


\begin{beispiel}[Anwendung auf Variationsprobleme]
    \index{Variationsprobleme}
    \index{Variationsrechnung}
    Sei $X$ ein Funktionenraum über $(a,b) ⊂ ℝ$, $f: X → ℝ$, $x ↦ ∫_a^b F(x,\dot x) \dd t$.
    Wir suchen $x_0 = x_0(t), t∈ (a,b)$ mit $f(x_0) = \min_{x ∈ M} f(x)$ und $x_0 ∈ M ⊂X$, wobei $M$ die Teilmenge der zulässigen Funktionen bezeichne.

    Konkret ist zum Beispiel
    \[
        f(x) := ∫_a^b F(x, \dot x) \dd t
        = ∫_a ^b \tfrac 12 \big(\dot x(t))^2 + g(x(t))\big) \dd t,
    \]
    wobei $g: ℝ → ℝ$ eine zwei mal stetig differenzierbare Abbildung ist mit $g''(x) ≥ γ > 0$, also $g$ konvex. Dann ist $f: X = H^1(a,b) = W^{1,2}(a,b) → ℝ$ schwach unterhalbstetig und koerziv ist.
    Nach~\cref{satz:hauptsatz-variorechnung-6.3.2} gibt es einen Minimierer $x_0 ∈ H^1(a,b)$ von $f$.
    Ohne Beweis merken wir an, dass dieser Minimierer $x_0$ dann folgendes Randwertproblem löst:
    Wir suchen eine Funktion $x = x(t)$ mit
    \[
        \begin{cases}
            -\ddot x + g'(x) = 0  \\
            \dot x(a) = \dot x (b) = 0
        \end{cases}.
    \]
    Man nennt die zweite Bedingung \emph{natürliche Randbedingung}.
    Weiteres dazu gibt es in den Vorlesungen über Variationsrechnung und partielle Differentialgleichungen.

    Im Wesentlichen folgt die Behauptung aus der Eigenschaft, dass wenn $x_0$ ein Minimierer ist, dann ist $Df(x_0) = 0$, wobei $Df(x_0) ∈ H(a,b)'$ eine geeignet definierte Verallgemeinerung der Ableitung ist.
\end{beispiel}

\begin{satz}
    \label{satz:6.3.4}
    Sei $(X,\norm -)$ ein normierter Raum und $f: X → ℝ$ unterhalbstetig und konvex, also
    $f(λu + (1-λ)v) ≤ λf(u) + (1-λ) f(v)$ für alle $u, v ∈ X, λ ∈ (0,1)$.
    Dann ist $f$ auch schwach unterhalbstetig.
\end{satz}

Für den Beweis benötigen wir den Satz von Mazur, den wir in der Übung beweisen werden.

\begin{satz}[Mazur]
    \label{satz:mazur-6.3.5}
    Sei $X$ ein normierter Raum, $(u_k)_{k ∈ ℕ} ⊂ X$ mit $u_k \slk u_0 ∈ X$. Dann existiert eine Folge von \emph{Konvexkombinationen}
    \[
        v_k = \sum_{j=1}^k α_{k,j} u_j \quad \text{mit} \; \sum_{j=1}^k α_{k,j} = 1, \quad α_{k,j} ≥ 0,
    \]
    so dass $v_k \nlk u_0$ in $X$.
\end{satz}

\begin{proof}[{\cref{satz:6.3.4}}]
    Sei also $u_i \sli \bar u ∈ X$.
    Wähle $c > \liminf_{i → ∞} f(u_i)$, für eine Teilfolge, die wir wieder mit $(u_i)_{i ∈ ℕ}$ bezeichnen, so dass für alle $i ∈ ℕ$ $f(u_i) < c$.
    Nach \cref{satz:mazur-6.3.5} existiert Eine Folge $(v_k)_{k ∈ ℕ} ⊂ X$ von Konvexkombinationen von $u_i$, das heißt
    \[
        v_k = \sum_{j=1}^k α_{k,j} u_j \quad \sum_{j=1}^k α_{k,j} = 1, \quad α_{k,j} ≥ 0
    \]
    und $v_k \nlk \bar u$ in $X$.
    Wegen $f$ (stark) unterhalbstetig und der Konvexität von $f$ gilt

    \[
        f(\bar u) ≤ \liminf_{k →∞} f(v_k) ≤ \liminf_{k → ∞} \Big( \sum_{j=1}^k α_{k,j} \underbrace{f(u_j)}_{<c} \Big)
        ≤ c \liminf_{k → ∞} \sum_{j=1}^k α_{k,j} = c.
    \]
    Da aber $c > \liminf_{i → ∞}f(u_i)$ beliebig war gilt somit $f(\bar u) ≤ \liminf_{i → ∞} f(u_i)$ .
\end{proof}

























%%% Local Variables:
%%% mode: latex
%%% TeX-master: "funkana"
%%% End: