summaryrefslogtreecommitdiffstats
path: root/ch05-hahn-banach.tex
diff options
context:
space:
mode:
Diffstat (limited to 'ch05-hahn-banach.tex')
-rw-r--r--ch05-hahn-banach.tex370
1 files changed, 370 insertions, 0 deletions
diff --git a/ch05-hahn-banach.tex b/ch05-hahn-banach.tex
new file mode 100644
index 0000000..ce92a84
--- /dev/null
+++ b/ch05-hahn-banach.tex
@@ -0,0 +1,370 @@
+\chapter{Der Satz von Hahn-Banach und seine Konsequenzen}
+\section{Fortsetzbarkeit linearer Funktionale}
+
+Wir fragen uns, ob sich Abbildungen so erweitern, dass gewisse Eigenschaften (wie z.B. Linearität oder Stetigkeit) erhalten bleiben.
+
+\begin{definition}
+ Eine Abbildung $A: M → Y$ heißt eine Fortsetzung einer Abbildung $A_0: M_0 → X$, falls
+ \begin{enumerate}
+ \item $ M_0 ⊂ M$,
+ \item $∀x ∈ M_0: A_0 x = Ax $.
+ \end{enumerate}
+ Wir schreiben dann $A = A|_{M_0}$.
+\end{definition}
+
+\begin{satz}
+ Seien $(X,\norm-)$ und $(X_0,\norm-)$ normietre Räume, $X_0 ⊂ X$ dicht in $X$.
+ Weiter sei $(Y, \norm-_{Y})$ ein Banachraum und $A_0 : X_0 → Y$ stetig und linear.
+ Dann gibt es genau eine stetige lineare Fortsetzung $A : X → Y$ von $A_0$ auf $X$.
+ Für diese gilt:
+ \[
+ \norm{A_0}_{\L(X_,Y)} = \norm{A}_{\L(X,Y)}.
+ \]
+\end{satz}
+\begin{proof}
+ Zeigen wir zunächst die Existenz der Fortsetzung.
+ Da $X_0$ dicht in $X$ ist, existiert zu jedem $x ∈ X$ eine Folge $(x_n)_{n \ge1}$, die ganz in $X_0$ liegt und gegen $x$ konvergiert.
+ Wir behaupten, dass $(A_0x_n)_{n ∈ ℕ}$ eine Cauchy-Folge in $Y$ ist.
+ Dazu beachte, dass
+ \[
+ \norm{A_0 x_n - A_0 x_m}_{Y} \le \norm{A_0}_{\L(X_0,Y)} \norm{x_n-x_m} \xrightarrow[n,m → \infty ]{} 0.
+ \]
+ Da $Y$ ein Banachraum ist, ist $(A_0x_n)_{n\ge1}$ konvergiert, etwa gegen $y$.
+ Wir setzen $Ax \coloneq y$.
+ Zunächst ist $A$ wohldefiniert, denn wenn $(z_n)_{n \ge 1}$ eine weitere Folge mit $\lim_{n → \infty } z_n = x$ ist, dann gilt
+ $z_n - x_n \xrightarrow[n→\infty ]{} 0$ und
+ \begin{align*}
+ \norm{A_0 z_n - y} &\le \norm{A_0 z_n - A_0 x_n} + \norm{A_0 x_n - y} \\
+ & \le
+ \norm{A_0} \norm{z_n - x_n} + \norm{A_0 x_n - y} \xrightarrow[n→\infty ]{} 0.
+ \end{align*}
+ Offensichtlich ist $A$ eine Fortsetzung von $A_0$.
+ Dass $A$ linear ist, ist ebenfalls klar.
+ Zur Stetigkeit ist
+ \begin{align*}
+ \norm{Ax}_Y &= \norm{\lim_{n → \infty } A_0 x_n}_Y = \lim_{n → \infty } \norm{A_0 x_n}_{Y} \\
+ &\le
+ \lim_{n → \infty } \norm{A_0}_{\L(X_0,Y)} \norm{x_n}_X = \norm{A_0} \norm{x}.
+ \end{align*}
+ Damit ist $A$ beschränkt, also auch stetig.
+
+ Es gilt $\norm{A_0}_{\L(X_0,Y)} = \norm{A}_{\L(X,Y)}$:
+ „$\ge$“ ist aus dem Vorherigen klar. Für die andere Ungleichung ist
+ \[
+ \norm{A}_{L(X,Y)} =
+ \sup_{\norm{x \le 1}, x ∈ X} \norm{Ax}_{Y}
+ \ge
+ \sup_{\norm{x \le 1}, x ∈ X_0} \norm{Ax}_{Y} = \norm{A_0}_{\L(X_0,Y)}.
+ \]
+
+ Für die Eindeutigkeit sei $B: X → Y$ eine weitere stetige, lineare Fortsetzung von $A_0$.
+ Wie oben existiert zu jedem $x ∈ X$ eine Folge $(x_n)_{n ∈ ℕ} ⊂ X$ mit $\lim_{n → \infty } x_n = x$.
+ Dann ist
+ \[
+ Ax_n = A_0 x_n = Bx_n \quad ∀ n ∈ ℕ
+ \]
+ und für $x ∈ X$
+ \[
+ \norm{B_x - A_x} \le \norm{B_x - Bx_n} + \norm{Bx_n - Ax_n} + \norm{Ax_n - Ax} \xrightarrow[n→\infty ]{} 0,
+ \]
+ da $A$ und $B$ stetig sind. Also $Bx = Ax$ für alle $x ∈ X$ und damit $B = A$.
+\end{proof}
+
+\begin{korollar}
+ Ist $A ∈ \L(X,Y)$, $X, Y$ normiert sowie $Y$ vollständig und $M ⊂ X$ dicht, dann gilt:
+ Falls $Ax = 0$ für alle $x ∈ M$, dann ist $A$ schon die Nullabbildung auf $X$.
+\end{korollar}
+\begin{proof}
+ ~
+\end{proof}
+
+Ist $X_0$ nicht dicht in $X$, wird die Fortsetzung schwieriger.
+
+
+\begin{satz}
+ Auf dem linearen Raum $X$ über $ℝ$ gebe es eine Abbildung $p: X → ℝ$ mit:
+ \begin{enumerate}[label=(\roman*)]
+ \item
+ $p(\alpha x) = \alpha p(x)$ für alle $\alpha \ge 0, x ∈ X$ (positiv homogen)
+ \item
+ $p(x+y) \le p(x) + p(y)$ für alle $x, y ∈ X$ (subadditiv)
+ \end{enumerate}
+
+ Weiter seine $X_0$ ein linearer Teilraum von $X$ und $f_0 : X_0 → ℝ$ eine lineare Abbildung mit
+ \[
+ ∀x ∈ X_0 : f_0(x) \le p(x).
+ \]
+ Dann gibt es eine lineare Fortsetzung $f: X → ℝ$ von $f_0$, welche die Ungleichung respektiert, das heißt
+ \[
+ f|_{X_0} = f_0 \quad \text{und} \quad ∀x ∈ X: f(x) \le p(x).
+ \]
+\end{satz}
+\begin{bemerkung-nn}
+ Halbnormen oder Normen $p$ Erfüllen die Voraussetzungen dieses Satzes.
+\end{bemerkung-nn}
+\begin{proof}
+ Schritt 1.
+ Wir setzen $f_0$ auf $X_1 \coloneq X_0 \oplus \lspan{x_1}$ für ein $x_1 \not\in X$ (existiert immer solange $X_0 \subsetneqq X$).
+ Offenbar hat jedes $x ∈X_1$ eine eindeutig Darstellung als
+ $ y = y + \alpha x_1 $, mit $y ∈ X_0$, $\alpha ∈ ℝ$.
+ Dann ist mit $c ∈ ℝ$ beliebig
+ \[
+ f(x) = f(y + \alpha (x_1)) \coloneq f_0(y) + \alpha c
+ \]
+ eine lineare Abbildung $X_1 → ℝ$, die $f_0$ fortsetzt.
+ Wir müssen $c$ so wählen, dass $f(x) \le p(x)$ für alle $x ∈ X_1$, also $f_0(y) + \alpha c \le p(y+\alpha x_1)$ für alle $y ∈ X_0, \alpha ∈ ℝ$.
+ Mit (i) ist diese Bedingung äquivalent zu zwei anderen Bedingungen:
+ \begin{enumerate}
+ \item
+ Für $a > 0$: $f_0(y/\alpha ) + c \le p(y/\alpha + x_1)$.
+ \item
+ Für $\alpha < 0$: $f_0(-y/\alpha ) - c \le p(-y/\alpha - x_1)$
+ \end{enumerate}
+ für alle $y ∈ X_0$. Der Fall $\alpha = 0$ ist nach Annahme ohnehin klar.
+ Um diese Bedingungen erfüllen zu können, muss $c ∈ ℝ$ so gewählt werden, dass
+ \[
+ ∀y_1, y_2 ∈ X_0: f_0(y_1) - p(y_1 - x_1) \le c \le p(y_2 + x_2) - f_0(y_2).
+ \]
+ Das ist möglich, da
+ \[
+ f_0(y_1) + f_0(y_2) = f_0(y_1+y_2) \le p(y_1 + y_2) = p(y_1 - x_1 + y_2 + x_1) \le p(y_1 - x_1)+p(y_2+x_1).
+ \]
+ Folglich gilt
+ \[
+ \sup_{y_1 ∈ X_0} f_0(y_1-p(y_1-x_1)) \le \inf{y_2 ∈ X_0} p(y_2+x_1)-f_0(y_2).
+ \]
+
+
+ Schritt 2.
+ Finde eine maximale Fortsetzung mit dem Lemma von Zorn.
+ Betrachte dazu
+ \[
+ \{: X \supset D_g \supset X_0 → ℝ\}: g|_{X_0} = f_0 ∧ ∀x ∈ D_g: g(x) \le p(x) \}.
+ \]
+ Diese Menge ordnen wir mit $\succeq$ definiert durch
+ \[
+ h \succeq g \gdw h \text{ ist Fortsetzung von $g$}.
+ \]
+ Nach dem Lemma von Zorn existiert eine maximale Fortsetzung $g^*$ von $f_0$ mit $g^*(x) \le p(x)$ für alle $x ∈ X$.
+ Wäre $D_{g^*}$ nicht $X$, so verfahre wie in Schritt 1 im Widerspruch zur Maximalität.
+ Damit hat $g^*$ die gewünschten Eigenschaften.
+\end{proof}
+
+\begin{bemerkung-nn}
+ \begin{enumerate}
+ \item
+ Ohne die Zusatzforderung $f(x) \le p(x)$ für alle $x ∈X$ ist die lineare Fortsetzbarkeit trivial.
+ \item
+ Eine Fortsetzung für lineare Funktionale $f_0: X_0 → \K = ℂ$ ist analog möglich. % yos IV 4
+ \end{enumerate}
+\end{bemerkung-nn}
+
+%% HIER FEHLT EINE VORLESUNG
+
+\begin{satz}[5.3.1]
+ Sei $(X,\norm\cdot)$ ein normierter Raum über $ℝ$, $M ⊂ X$ abgeschlossen und konvex und $0 ∈ M$.
+
+ Dann existiert zu jedem $x_0 \not\in M$ ein $f ∈ X'$ mit
+ \[
+ f(x_0) > 1 ∧ ∀ x ∈ M: f(x) \le 1.
+ \]
+\end{satz}
+Die Hyperebene $H = \{ x ∈ X: f(x) = 1 + \epsilon \}$ für $0 < \epsilon < f(x_0) < 1$ trennt also $x_0$ und $M$.
+
+\begin{proof}
+ Setze $2r \coloneq \inf_{y ∈ M} \norm{y - x_0}$ (positiv, da $M$ abgeschlossen).
+ Sei $N \coloneq \cl{M + \cl{B_r(0)}} = \cl{\{ z = y + u: y ∈ M, u ∈ \cl{B_r(0)}\}} ⊂ X$.
+ Dann ist (i) $N$ abgeschlossen und (ii) $\cl{B_r(0)} ⊂ N$, da $0 ∈ M$, insbesondere ist $0 ∈ N^\circ$.
+ (iii) ist $N$ konvex: Es genügt, zu zeigen, dass $A = M + B_r(0)$ konvex ist, denn dann ist auch $\cl A$ konvex.
+ Sei $x _i = y_i + v_i, y_i ∈ M, v_i ∈ \cl{B_r(0)}, i=1,2$ und $\alpha ∈ (0,1)$. Dann ist
+ \[
+ \alpha x_1 + (1-\alpha )x_2 = \underbrace{[\alpha y_1 + (1-\alpha )y_2]}_{∈ M} + \underbrace{[\alpha u_1+(1-\alpha )v_2]}_{∈ \cl{B_r(0)}}.
+ \]
+ (iv) ist $x_0 \not\in N$.
+ Angenommen, $x_0 ∈ N$. Dann existiert eine Folge $z_n = y_n + u_n$ in $A$ mit $z_n → x_0 (n→\infty )$.
+ Dann ist für $n_0$ hinreichend groß
+ \[
+ \frac r 2 > \norm{z_{n_0} - x_0} = \norm{y_{n_0 - x_0} + u_{n_0}} \ge |\underbrace{\norm{y_{n_0-x_0}}}_{\ge 2r} - \underbrace{\norm{u_{n_0}}}_{\le r}| \ge r.
+ \]
+
+ Verwende nun das Minkowski-Funktional
+ \[
+ p_N(x) \coloneq \inf \{ρ > 0: ρ^{-1} x ∈ N\}, \quad x ∈ X.
+ \]
+ Dieses hat die Eigenschaften
+ \begin{enumerate}
+ \item
+ $p_N(\alpha x) = \alpha p_n(x),\quad \alpha \ge 0, x ∈ X$ (positiv homogen)
+ \item
+ $p_N(x+y) \le p_N(x) + p_N(y), \quad x, y ∈ X$ (subadditiv)
+ \item
+ $p_N(x) \le 1 \iff x ∈ N$
+ \item
+ Ist zusätzlich $\cl{B_r(0)} ⊂ N$, so gilt $p_nNx) \le r^{-1}\norm x$ für alle $x ∈ X$.
+ \end{enumerate}
+ Sei nun $X_0 \coloneq \lspan\{x_0\}$ und $f_0 : X_0 → ℝ$ linear definiert durch $f_0(x_0) \coloneq p_N(x_0)$.
+ Wir behauptung, dass $f_0 (x) \le p_N(x)$ für alle $x = \lambda x_0 ∈ X_0$.
+ Falls $\lambda \ge 0$, so ist $f_0(x) = f_0(\lambda x_0) = \lambda p_N(x_0) = p_N(\lambda x_0) = p_N(x)$.
+ Falls $\lambda < 0$, so ist wegen $p_n \ge 0$ ohnehin $f_0(\lambda x_0) = \lambda p_N(x_0) \le 0 \le p_N(\lambda x_0)$.
+ Da $p_N$ die Bedingungen (i) und (ii) aus Hahn-Banach erfüllt,
+ gibt es eine lineare Fortsetzung $f$ von $f_0$ mit $f(x) \le p_N(x)$ für alle $x ∈ X$.
+
+ Nun ist $f$ stetig, also $f ∈ X'$, denn für alle $x ∈ X$ gilt
+ \begin{multline*}
+ |f(x) = \max\{f(x), -f(x)\} = \max\{f(x),f(-x)\} \le \max\{p_N(x),p_N(-x)\} \\
+ \le \max\left\{\frac{\norm{x}}{r},\frac{\norm{-x}}{r}\right\} = \frac{\norm x}{r}.
+ \end{multline*}
+
+ Außerdem erfüllt $f$ die Gleichung 3.1 (?), denn
+ \[
+ f(x_0) = f_0(x_0) = p_n(x_0) > 1
+ \]
+ und für $x ∈ M ⊂ N$ gilt
+ \[
+ f(x) \le p_N(x) \le 1.
+ \]
+\end{proof}
+
+\section{Einbettung von $X$ in seinen Bidualraum}
+Zunächst zur Motivation: Sei $X$ ein normierter linearer Raum.
+Dann existiert $X'$ und ist ein Banachraum.
+Aber dann existiert auch $X'' \coloneq (X')'$ und ist ebenfalls ein Banachraum.
+Unser Ziel wird es nun sein, $X$ in $X''$ einzubetten.
+
+\begin{definition}
+ Die kanonische Abbildung $J_0: X → X''$ ist definiert durch
+ \[
+ J_0(x) [x'] = \lAngle J_0(x), x' \rAngle_{X''×X'} \coloneq \lAngle x', x \rAngle_{X'×X} = x'[x] ∈ \K
+ \]
+ für $x ∈ X, x' ∈ X'$.
+
+ Offensichtlich gilt für $x ∈ X$ fest $J_0(x): X' → \K$ linear, aber $J_0(x)$ ist auch stetig bzw beschränkt:
+ Dazu ist
+ \[
+ |J_0(x)[x']| = | \langle \langle x',x \rAngle \le \norm{x'}_{X'} \underbrace{\norm{x}_X}_{=: M}.
+ \]
+ Also ist $J_0(x) ∈ X''$, also insbesondere $J_0$ wohldefiniert.
+ Wegen der linearität von $J_0$ in $x$ schreiben wir statt $J_0(x)$ auch $J_0 x$.
+\end{definition}
+
+\begin{satz}
+ Die kanonische Abbildung $J_0: X → X''$ ist eine normerhaltende lineare Einbettung von $X$ in seinen Bidualraum $X''$.
+\end{satz}
+
+\begin{warnung-nn}
+ $J_0$ ist in der Regel nicht surjektiv.
+\end{warnung-nn}
+
+\begin{proof}
+ Zur Injektivität: Seien $x_1, x_2 ∈ X$ mit $J_0x_1 = J_0x_2$.
+ Dann ist für jedes $x' ∈ X'$
+ \[
+ \lAngle x',x_1 \rAngle = J_0 x_1[x'] = J_0x_2[x'] = \lAngle x', x_2 \rAngle,
+ \]
+ also wegen Linearität von $x'$
+ \[
+ \lAngle x', x_1-x_2 \rAngle = 0.
+ \]
+ Mit Folgerung 2.3(1) folgt $x_1-x_2 = 0$.
+
+ Zur Isometrieeigenschaft bleibt zu zeigen: $\norm{J_0x} = \norm{x}$ für alle $x ∈ X''$.
+ „$\le$“: Aus (4.1) folgt bereits
+ \[
+ \norm{J_0(x)}_{X''} = \sup_{\norm{x'} \le 1} |J_0(x)[x'] \le \norm{x}_X.
+ \]
+ „$\ge$“: Zu $x_0 ∈ X$ existiert nach Korollar 2.1 ein $x_0' ∈ X'$ mit
+ $\norm{x_0'}_{X'} = 1$ und $x_0'[x_0]= \norm{x_0}$.
+ Also folgt
+ \[
+ \underbrace{|J_0x_0[x_0']|}_{\le \norm{J_0x_0}_{X''}} = \lAngle x_0', x_0 \rAngle = \norm{x_0}.
+ \]
+ Da $x_0$ beliebig war, gilt $\norm{J_0x}_{X''} \ge \norm{x}$.
+\end{proof}
+
+\begin{definition}
+ Ein Banachraum $X$ heißt \emph{reflexiv}, wenn $J_0$ surjektiv ist, also $X$ und $X''$ isomorph sind vermöge $J_0$.
+\end{definition}
+
+\begin{bemerkung-nn}
+ Ein unvollständiger normierter Raum hätte offensichtlich keine Chance, reflexiv zu sein.
+\end{bemerkung-nn}
+
+\begin{warnung-nn}
+ „vermöge $J_0$“ in der Definition ist wesentlich, denn es gibt Beispiele mit $X \cong X''$, aber $J_0$ ist nicht surjektiv. %% werner, I 4.7
+\end{warnung-nn}
+
+\begin{satz}
+ Jeder Hilbertraum $H$ ist reflexiv
+\end{satz}
+\begin{proof}
+ Übung.
+\end{proof}
+
+\begin{bemerkung-nn}
+ Offensichtlich sind $H$ und $H''$ isometrisch isomorph:
+ Denn $H$ und $H'$ sind bereits konjugiert linear isomorph via $J_H, X → X'$ (Kapitel IV, \S 5, aus Ries'schem Darstellungssatz).
+ Mit dem gleichen Argument sind $H'$ und $H''$ konjugiert linear isomorph via $J_{H'}$, also $H$ und $H''$ linear isometrisch durch $J_{H'} \circ J_H$.
+ Dies genügt aber nicht für den Nachweis der Reflexivität.
+ Dafür müssen wir zu $x'' ∈ H''$ ein $x ∈ H$ finden mit $J_0x = x''$.
+\end{bemerkung-nn}
+
+\begin{bemerkung-nn}
+ Wozu Reflexivität gut ist, werden wir später im Kapitel über schwache Topologien genauer sehen.
+ Beispielsweise ist $\cl{B_1(0)}$ im reflexiven Banachraum $X$ schwach folgenkompakt, das heißt jede Folge in $\cl{B_1(0)}$ hat eine schwach konvergente Teilfolge mit Grenzwert in $\cl{B_1(0)}$.
+ Dies ist zum Beispiel in der Variationsrechnung sehr wichtig.
+\end{bemerkung-nn}
+
+\begin{definition}
+ Eine Folge $(x_n)_{n ∈ ℕ}$ in einem normierten Raum $X$ heißt \emph{schwach konvergent} gegen $x ∈ X$ (in Zeichen: $x_n \xrightharpoonup[n → \infty ]{} x$), wenn
+ \[
+ \lim_{n → \infty } x'[x_n] = x'[x]
+ \]
+ für alle $x' ∈ X'$ gilt.
+\end{definition}
+
+\begin{bemerkung-nn}
+ Der Grenzwert (so er denn existiert) ist eindeutig. Denn ist $x'[x] = x'[\tilde x]$ für alle $x' ∈ X'$, so folgt $x = \tilde x$ mit Folgerung 2.3 (2).
+\end{bemerkung-nn}
+
+\begin{beispiel-nn}
+ Für $(\hat e_i)_{i ∈ ℕ}$ Hilbertraumbasis in einem separablem Hilbertraum $X$ gilt
+ \[
+ \hat e_i \rightharpoonup 0 ∈ X (i → \infty )
+ \]
+\end{beispiel-nn}
+
+\begin{bemerkung-nn}
+ $(\hat e_i)_{i ∈ ℕ}$ ist nicht konvergent in der Normtopologie, die Folge ist noch nicht mal Cauchy, insbesondere ist $\norm{\hat e_i - 0} \not\rightarrow 0 (i → \infty )$.
+\end{bemerkung-nn}
+
+\begin{proof}
+ Der kanonische Isomorphismus $J_X: X → X', y ↦ y'$ mit $y'[x] = \langle y,x \rangle$ für alle $x ∈ X$ liefert
+ \[
+ X' = \{ x' : x' ∈ X'\} = \{ J_X(y) : y ∈ X\}.
+ \]
+ Zu zeigen ist $\lim\limits_{i → \infty }x'[\hat e_i] = x'[0]$ für alle $x' ∈ X'$, also äquivalent
+ $\lim\limits_{i → \infty } J_x(y)[\hat e_i] = J_x(y)[0]$ für alle $y ∈ X$ bzw. $\lim\limits_{i → \infty } \langle y, \hat e_i \rangle = \langle y, 0 \rangle$ für alle $y ∈ X$.
+
+ Sei also $y ∈ X$ fest gewählt. Dann ist $y = \sum_{i=1}^\infty \alpha _i \hat e_i$ mit $\alpha _i = \langle \hat e_i, y \rangle$.
+ Es gilt $\sum_{i=1}^\infty |\alpha _i|^2 < \infty $ (vgl Def 4.2.12).
+ Damit folgt $\alpha _i = \langle \hat e_i, y \rangle → 0 (i → \infty )$, weil $\alpha ∈ \ell^2$.
+ Damit folgt die Schwache Konvergenz von $(\hat e_i)_{i ∈ ℕ}$.
+\end{proof}
+
+
+\begin{satz}
+ Sei $M$ ein abgeschlossener Unterraum eines Banachraums $(X, \norm -)$.
+ \begin{enumerate}
+ \item
+ Ist $X$ reflexiv, so ist auch $(M, \norm -)$ reflexiv.
+ \item
+ Ist $X$ ist reflexiv, so auch $X'$.
+ \end{enumerate}
+
+\end{satz}
+
+
+%%% Local Variables:
+%%% mode: latex
+%%% TeX-master: "funkana-ebook"
+%%% End: \ No newline at end of file