\chapter{Schwache Topologien} In diesem Kapitel sei $X$ grundsätzlich ein normierter linearer Raum. Wir wissen bereits, dass $\cl{B_1(0)}$ genau dann kompakt ist, wenn $\dim X < ∞$ ist. Wir suchen nun eine sinnvolle Topologie für $X$, die von der Normtopologie noch möglichst viele Eigenschaften mitnimmt, aber die Einheitskugel kompakt macht. \section{Schwache und schwach\(*\)-Topologie} Zu $x' ∈ X'$ fest und $ε > 0$ sei \begin{equation}\label{eq:11} U(x',ε) \coloneq \{ x ∈ X: |x'[x]| < ε\} ⊂ X \end{equation} \begin{definition} Eine Menge $V ⊂ X$ heißt offen bezüglich der \emph{schwachen Topologie}, falls für jedes $x_0 ∈ V$ endlich viele $x_1',…,x_k' ∈ X'$ existieren und $ε_1, …, ε_k > 0$, so dass \[ x_0 + \bigcap_{i=1}^k U(x_i',ε_i) ⊂ V \] gilt. \end{definition} \begin{bemerkung} Das heißt, die Menge der endlichen Schnitte der $U(x', ε)$ aus \eqref{eq:11} bilden eine Umgebungsbasis von $0 ∈ X$ für die sogenannte \emph{schwache Topologie} $\T_w ⊂ \Pot{X}$ auf $X$. Insbesondere ist $U(x', ε)$ selber offen in $\T_w$ (Übung). Damit sind auf $X$ zwei verschiedene Topologien erklärt, nämlich $(X,\T_w)$ und $(X,\T_S)$, wobei $\T_s$ nun die (starke) Normtopologie bezeichne. \end{bemerkung} \begin{satz} \begin{enumerate} \item $(X,\T_w)$ ist ein topologischen linearer Raum, der Hausdorffsch ist. \item Jede schwach offene Menge ist auch stark offen, das heißt die Normtopologie ist feiner als die Schwache Topologie bzw $\T_w ⊂ \T_s$. \begin{warnung-nn} Die Umkehrung gilt in der Regel nicht. Falls $V ⊂ X$ stark offen und konvex ist, so ist $V$ auch schwach offen (Übung). \end{warnung-nn} \end{enumerate} \end{satz} \begin{proof} Übung. \end{proof} \begin{bemerkung-nn} Sei $X$ eine beliebige Menge und $\T_1$ und $\T_2$ Topologien auf $X$. Sei $\T_2 ⊂ \T_1$, also $\T_1$ feiner als $\T_2$. Dann hat $\T_1$ \begin{itemize} \item mehr offene Mengen, \item mehr abgeschlossene Mengen, aber \item weniger kompakte Mengen, \item mehr stetige Abbildungen nach $\K$ (oder in einen anderen topologischen Raum), aber \item weniger konvergente Folgen. \end{itemize} \end{bemerkung-nn} \begin{bemerkung-nn} $(X,\T_w)$ ist ein topologischer linearer Raum, also folgt aus dem Invarianzprinzip, dass die Topologie bereits vollständig durch die offenen Umgebungen der Null bestimmt ist. \end{bemerkung-nn} \begin{bemerkung} Sei $P := \{ p_{x'}: X → ℝ: x' ∈ X', p_{x'}(x) := | \lAngle x', x \rAngle |\}$. Dann ist $P$ eine Familie von Halbnormen auf $X$, die die Bedingung (I) aus dem Satz 3.3.15 erfüllt, % TODO, das heißt, wenn $p_{x'}(x) m = 0 $ für alle $x' ∈ X'$, dann ist bereits $x = 0$ dank Hahn-Banach. Damit ist $(X, \T_w)$ sogar ein \emph{lokalkonvexer} Hausdorff"=Raum (insbesondere sind die $U(x',ε)$ und endliche Schnitte davon eine konvexe Umgebungsbasis der Null). \end{bemerkung} \begin{bemerkung} Es gilt $\T_w = \T_s \iff \dim X < ∞$, das heißt in der Regel ist $\T_w \subsetneq \T_s$, also es gibt echt weniger schwach offene Mengen als stark offene (Beispiel in der Übung). Deswegen gibt es auch \emph{mehr} schwach konvergente Folgen. \end{bemerkung} \begin{satz} Sei $(x_n)_{n ∈ ℕ}$ eine Folge in $X$. Dann konvergiert $(x_n)_{n ∈ ℕ}$ in der schwachen Topologie gegen $x_0 ∈ X$ genau dann, wenn $\lim\limits_{n → ∞} \lAngle x', x \rAngle = \lAngle x', x_0 \rAngle$ für alle $x' ∈ X'$ gilt. \end{satz} \begin{proof} Übung. \end{proof} Wir schreiben für die schwache Konvergenz $x_n \yrightharpoonup[n → ∞]{} x_0$. Im Beispiel zur Definition 5.4.5 haben wir gesehen, dass $e_i \yrightharpoonup[n→∞]{} 0$ in $\ell^2$. Nach Satz 1.6 sind alle $x' ∈ X'$ als Abbildungen \[ x': (X, \T_w) → \K \] folgenstetig. Nach Definition ist aber auch $x': (X, \T_s) → \K$ stetig. Tatsächlich ist $\T_w$ die gröbste Topologie auf $X$, das heißt die mit den wenigsten offenen Mengen), bezüglich der alle $x' ∈ X'$ stetig sind. Beachte \[ U(x', ε) = (x')^{-1}(B_ε(0)), \] und $B_ε(0)$ ist eine offene Menge in $\K$, also wird die Topologie gerade durch die Urbilder einer Umgebungsbasis unter den $x'$ erzeugt, das heißt nach Konstruktion ist sie gerade so gemacht, dass alle $x'$ stetig werden, aber es werden nicht mehr offene Mengen hinzugenommen. $\T_w$ ist also die Initialtopologie bezüglich aller $x'$. \subsection*{Schwach$*$-Topologie auf $X'$} Zu $X'$ (also einem Banachraum) existiert auch $X'' = (X')'$ und ist wieder ein Banachraum. Damit existiert auf $X'$ eine schwache Topologie $(X',\T_{w,X'})$ mit Umgebungsbasis \[ U(x'',ε) ⊂ X' \] zu $x'' ∈ X''$ fest und $ε > 0$ und endlichen Schnitten davon. $X'$ lässt sich aber auch noch anders topologisieren. Sei $x ∈ X$ fest und $ε > 0$ gegeben. Dann definiere \[ U'(x, ε) \coloneq \{ x' ∈ X': |\lAngle x', x \rAngle| < ε\} ⊂ X'. \] \begin{definition} Eine Menge $V' ⊂ X'$ heißt offen bezüglich der \emph{schwach$*$-Topologie}, falls zu jedem $x_0' ∈ V'$ endlich viele $x_1,…,x_k ∈ X$, $ε_1,…,ε_n > 0$ existieren, so dass \[ x_0' + \bigcap_{i=1}^n U'(x_i, ε_i) ⊂ V'. \] Wir schreiben für diese Topologie $(X',\T_{w*,X'})$. \end{definition} \begin{satz} $X'$ ist bezüglich der schwach$*$"=Topologie ein topologischer linearer Raum, der Hausdorffsch ist. Die $U'(x, ε)$ und endliche Schnitte davon sind Umgebungsbasis der Null in $X'$ für $\T_{w*,X'}$. \end{satz} \begin{proof} ähnlich wie bei der schwachen Topologie. \end{proof} \begin{warnung-nn} Eine „schwach$*$-Topologie“ auf $X$ geht offenbar \emph{nicht}. \end{warnung-nn} \begin{bemerkung} Die schwach$*$ ist eine weitere Abschwächung der schwachen Topologie. Betrachte dazu den kanonischen Isomorphismus \[ J_0: X → X'', \quad ∀x ∈ X': \lAngle J_0 x, x' \rAngle = \lAngle x', x \rAngle. \] Definitionsgemäß ist $J_0$ genau dann surjektiv, wenn $X$ reflexiv ist. Dann ist \[ U'(x,ε) = \{ x' ∈ X' : |\lAngle J_0 x, x' \rAngle| < ε\} = U(J_0 x, ε). \] Damit $U'(x,ε) ∈ \T_{w,X'}$, also \[ \T_{w^*,X'} ⊂ \T_{w, X'} ⊂ \T_{s, X'}. \] \end{bemerkung} \begin{korollar-nn} Falls $X$ reflexiv ist, so stimmen $\T_{w*,x'}$ und $\T_{w,X'}$ überein. \end{korollar-nn} \begin{proof} klar. \end{proof} Für den Konvergenzbegriff gilt analog zu Satz 1.6 \begin{satz} Sei $(x'_n)_{n ∈ ℕ}$ eine Folge in $X'$. Dann konvergiert $(x_n')_{n ∈ ℕ}$ in $(X',\T_{w^*,X'})$ gegen $x_0' ∈ X'$ genau dann, wenn $\lim_{n → ∞} \lAngle x_n', x \rAngle = \lAngle x_0', x \rAngle$ für alle $x ∈ X$. Wir schreiben dafür $x_n' \yrightharpoonup[n→∞]{*} x_0$. \end{satz} \begin{proof} Übung. \end{proof} \begin{bemerkung} \begin{enumerate} \item Grenzwerte von schwach (schwach$*$) konvergenten Folgen sind eindeutig bestimmt. \item Normkonvergenz implizierte schwache Konvergenz impliziert schwach$*$-Konvergenz. \end{enumerate} \end{bemerkung} \begin{proof} \begin{enumerate} \item Für die schwache Topologie: Falls $x'[x_0] = x'[\tilde x_0]$ für alle $x' ∈ X$, so impliziert Hahn-Banach bereits $x_0 = \tilde x_0$. \item Folgt direkt aus den entsprechenden Inklusionen der Topologien. \end{enumerate} \end{proof} \begin{satz} \begin{enumerate} \item Aus $x_k' \yrightharpoonup[n → ∞]{*} x'$ in $X'$ folgt \[ \norm{x'}_{X'} \le \liminf_{k → ∞} \norm{x'_k}_{X'}. \] \item Aus $x_k \yrightharpoonup[n → ∞]{} x$ in $X$ folgt \[ \norm{x}_{X} ≤ \liminf_{k → ∞} \norm{x_k}_{X}. \] \end{enumerate} \end{satz} \begin{proof} \begin{enumerate} \item Für alle $ ∈ X $ gilt: \[ |\lAngle x', x \rAngle| \xleftarrow[n → ∞]{} | \lAngle x_k' x \rAngle | \le \norm{x}_{X} \norm{x'_k}_{X'}, \] also \[ | \lAngle x', x \rAngle | \le \underbrace{\left( \liminf_{k → ∞} \norm{x'_k}_{X'} \right)}_{\eqcolon M} \norm{x}_X, \] das heißt $\norm{x'}_{X'} ≤ M$, was die Behauptung impliziert. \item Gelte $x_k \yrightharpoonup[k→∞]{} x$ Wie gerade folgt für alle $x' ∈ X'$ \[ | \lAngle x', x \rAngle | ≤ \norm{x'} \left( \liminf_{k → ∞} \norm{x_k}_X \right). \] nach Kapitel, Kor 2.1 (Existenz von nichttrivialen Funktionalen) existiert zu $x ∈ X$ fest ein $x' ∈X'$ mit \[ \lAngle x', x \rAngle = \norm{x}, \quad \norm{x'}_{X'} = 1, \] woraus \[ \norm{x}_{X} \le \liminf_{k → ∞} \norm{x_k}_{X} \] folgt, was die Behauptung war. \end{enumerate} \end{proof} \section{Schwach- und schwach\(*\)-kompakte Einheitskugeln} \begin{satz} Sei $(X,\norm-)$ separabel. Dann ist die (stark) abgeschlossene Einheitskugel $\cl{B_1}(0) = \{ x' ∈ X': \norm{x'} ≤ 1\} ⊂ X'$ schwach$*$-folgenkompakt. \end{satz} \begin{proof} Sei $\{x_n\}_{n ∈ ℕ}$ eine dichte Teilmenge von $X$. Sei $(x'_{k ∈ ℕ})$ eine Folge in $X'$ mit $\norm{x'_k}_{X'} ≤ 1$ für alle $k ∈ ℕ$. Wir konstruieren ein $x' ∈ \cl{B_1(0)}$ mit $x'_k \yrightharpoonup[k→∞]{*}$ (für eine Teilfolge). Für $n ∈ ℕ$ ist $(\lAngle x_k', x_n \rAngle)_{k ∈ ℕ}$ eine beschräkte Folge in $\K$, denn $|\lAngle x'_k, x_n \rAngle | \le \norm{x_n} \cdot 1 \; (*)$. Durch das Diagonalverfahren finden wir eine Teilfolge $(x_{k_m})_{m ∈ ℕ}$, so dass für alle $n ∈ ℕ$ $\lim_{m → ∞} \lAngle x'_{k_m},x_n \rAngle$ existiert: Dazu gibt es wegen (*) zu $x_1$ eine Teilfolge $(x_{k,1}')_{k ∈ ℕ} ⊂ (x'_k)_{k ∈ ℕ}$ mit \[ (\lAngle x'_{k,1}, x_1 \rAngle)_{k ∈ ℕ} \;\;\text{konvergiert in } \K. \] Analog können wir zu $x_2$ eine Teilfolge $(x_{k,2}')_{k ∈ ℕ} ⊂ (x'_{k,1})_{k ∈ ℕ}$ finden mit \[ (\lAngle x'_{k,2}, x_2 \rAngle)_{k ∈ ℕ} \;\;\text{konvergiert in } \K \] und weiterhin \[ (\lAngle x'_{k,2}, x_1 \rAngle)_{k ∈ ℕ} \;\;\text{konvergiert in } \K. \] Induktiv: Zu $x_m$, $m ∈ ℕ$ existiert eine Teilfolge $(x'_{k,m})_{k ∈ ℕ} ⊂ (x'_{k,m-1})_{k ∈ ℕ}$, so dass \[ ∀j ≤ m : (\lAngle x'_{k,m}, x_j \rAngle)_{k ∈ ℕ} \;\;\text{konvergiert in } \K. \] Für die Diagonalfolge $(x'_{m,m})_{m ∈ ℕ} ⊂ (x'_k)_{k ∈ ℕ}$ gilt also \[ ∀n ∈ ℕ : (\lAngle x'_{m,m}, x_n \rAngle)_{m ∈ ℕ} \;\;\text{konvergiert in } \K. \] Setze nun $x'_{k_m} \coloneq x"_{m,m}$. Sei nun O.B.d.A $x'_{k_m} = x'_k$. Nun konstruieren wir ein $x'$ mit der gewünschten Eigenschaft. Setze $Y := \lspan \{ x_n: n ∈ ℕ\} ⊂ X$. Dann liegt $Y$ immer noch dicht in $X$. Dann gilt für $y ∈ Y$ beliebig auch \[ \lim_{k → ∞} \lAngle x'_k, y \rAngle \;\;\text{existiert in } \K. \] Wir definieren $x' : Y → \K$ linear mit \[ \lAngle x', y \rAngle \coloneq \lim_{k→∞} \lAngle x'_k, y \rAngle. \] Wir behaupten $x' ∈ Y'$. Dazu ist \[ | \lAngle x', y \rAngle | = \lim_{k → ∞} |\lAngle x'_k, y \rAngle | ≤ \norm{y} \limsup_{k → ∞} \norm{x_k'}_{X'} ≤ \norm{y}. \] Damit ist $x'$ auf $Y$ beschränkt, also stetig. Außerdem gilt $\norm{x'}_{Y'} ≤ 1$. $x'$ lässt sich als dicht definierte stetige lineare Abbildung eindeutig fortsetzen (Kapitel 5, Satz 1.2) auf $\cl Y = X$. Also $x' ∈ X'$ und $\norm{x'}_{X'} = \norm{x'}_{Y'} ≤ 1$. Also $x' ∈ \cl{B_1(0)} ⊂ X'$. Bleibt noch zu zeigen: $x'_k \yrightharpoonup[k→∞]{*} x'$. Sei dazu $x ∈ X$ beliebig und $y ∈ Y$ mit $\norm{x-y}_{X} < ε$ (geht weil $\cl Y = X$). Dann \[ | \lAngle x' - x'_k, x \rAngle | ≤ | \lAngle x' - x'_k, x-y \rAngle| + |\lAngle x'-x'_k, y \rAngle| ≤ 2 \norm{x-y} + ε < 3 ε. \] Also ist schwache Konvergenz gezeigt und die Behauptung folgt. \end{proof} %%%%%%%%%%%%%%%%%%% HIER FEHLT EINE VL %%%%%%%%%%%%%%%%%%%%%% \begin{definition} Sei $X$ ein reeller normierter Raum, $M ⊂ X$ eine Teilmenge, $f: M → ℝ$ eine Abbildung. ... \end{definition} \begin{satz}[Hauptsatz der Variationsrechnung] \index{Hauptsatz der Variationsrechnung} \index{Variationsrechnung!Hauptsatz} \label{satz:hauptsatz-variorechnung-6.3.2} Sei $(X,\norm-)$ ein reflexiver Banachraum und $M ⊂ X$ schwach abgeschlossen. Ist $f: M → ℝ$ eine schwach unterhalbstetige und koerzive Abbildung, dann gilt \begin{enumerate} \item $f$ ist nach unten beschränkt. \item $f$ nimmt das Infimum in $M$ an. \end{enumerate} \end{satz} % Ist $(X,\norm -)$ separabel, dann ist die Einheitskugel $\cl{B_1^{X'}(0)$ schwach*-folgenkompakt, % ist $(X,\norm -)$ reflexiv, so ist die Einheitskugel $\cl{B_1^{X}(0) ⊂ X$ schwach folgenkompakt. % Das heißt, jede beschränkte Folge besitzt also eine schwach($*$)-konvergente Teilfolge. \begin{proof} Sei $f: M → ℝ$, $f$ schwach unterhalbstetig, das heißt aus $x_k \yrightharpoonup[k→∞]{} \hat x$ folgt bereits $f(\hat x) \le \liminf_{k → ∞} f(x_k)$. Sei $α_0 \coloneq \inf_{x ∈ M} f(x) ≥ - ∞$ und $(x_k)_{k ∈ ℕ} ⊂ M$ eine Folge, für die $f(x_k) \nlk α_0$ gilt. Da $f$ koerziv ist, ist $(x_k)_{k ∈ ℕ}$ (stark) beschränkt. Eberlein-Shimulyan liefert, da $X$ reflexiv ist, eine schwach konvergente Teilfolge $(x_{k_j})_{j ∈ ℕ}$ von $(x_;)_{k ∈ ℕ}$, also $x_{k_j} \slj \hat x ∈ X$. Es gilt sogar $\hat x ∈ M$, da $M$ nach Voraussetzung schwach folgenabgeschlossen ist. Weil $f$ schwach unterhalbstetig ist, folgt $f(\hat x) ≤ \liminf_{k → ∞} f(x_k) = α_0$. Insbesondere ist $α_0 > -∞$ und $f(\hat x) = \inf_{x ∈ M} f(x)$. \end{proof} Im Vergleich zu den motivierenden Sätzen, die wir im endlich"=dimensionalen kennen, haben wir hier andere Voraussetzungen. % TODO anderer vergleich? Hier ist $f$ schwach unterhalbstetig, was eine stärkere Forderung ist als unterhalbstetig. Außerdem haben beschränkte Folgen schwach konvergente Teilfolgen, also schwache Folgenkompaktheit von beschränkten Mengen, was eine schwächere Eigenschaft ist als die Folgenkompaktheit von beschränkten Mengen im $ℝ^n$. \begin{beispiel}[Anwendung auf Variationsprobleme] \index{Variationsprobleme} \index{Variationsrechnung} Sei $X$ ein Funktionenraum über $(a,b) ⊂ ℝ$, $f: X → ℝ$, $x ↦ ∫_a^b F(x,\dot x) \dd t$. Wir suchen $x_0 = x_0(t), t∈ (a,b)$ mit $f(x_0) = \min_{x ∈ M} f(x)$ und $x_0 ∈ M ⊂X$, wobei $M$ die Teilmenge der zulässigen Funktionen bezeichne. Konkret ist zum Beispiel \[ f(x) := ∫_a^b F(x, \dot x) \dd t = ∫_a ^b \tfrac 12 \big(\dot x(t))^2 + g(x(t))\big) \dd t, \] wobei $g: ℝ → ℝ$ eine zwei mal stetig differenzierbare Abbildung ist mit $g''(x) ≥ γ > 0$, also $g$ konvex. Dann ist $f: X = H^1(a,b) = W^{1,2}(a,b) → ℝ$ schwach unterhalbstetig und koerziv ist. Nach~\cref{satz:hauptsatz-variorechnung-6.3.2} gibt es einen Minimierer $x_0 ∈ H^1(a,b)$ von $f$. Ohne Beweis merken wir an, dass dieser Minimierer $x_0$ dann folgendes Randwertproblem löst: Wir suchen eine Funktion $x = x(t)$ mit \[ \begin{cases} -\ddot x + g'(x) = 0 \\ \dot x(a) = \dot x (b) = 0 \end{cases}. \] Man nennt die zweite Bedingung \emph{natürliche Randbedingung}. Weiteres dazu gibt es in den Vorlesungen über Variationsrechnung und partielle Differentialgleichungen. Im Wesentlichen folgt die Behauptung aus der Eigenschaft, dass wenn $x_0$ ein Minimierer ist, dann ist $Df(x_0) = 0$, wobei $Df(x_0) ∈ H(a,b)'$ eine geeignet definierte Verallgemeinerung der Ableitung ist. \end{beispiel} \begin{satz} \label{satz:6.3.4} Sei $(X,\norm -)$ ein normierter Raum und $f: X → ℝ$ unterhalbstetig und konvex, also $f(λu + (1-λ)v) ≤ λf(u) + (1-λ) f(v)$ für alle $u, v ∈ X, λ ∈ (0,1)$. Dann ist $f$ auch schwach unterhalbstetig. \end{satz} Für den Beweis benötigen wir den Satz von Mazur, den wir in der Übung beweisen werden. \begin{satz}[Mazur] \label{satz:mazur-6.3.5} Sei $X$ ein normierter Raum, $(u_k)_{k ∈ ℕ} ⊂ X$ mit $u_k \slk u_0 ∈ X$. Dann existiert eine Folge von \emph{Konvexkombinationen} \[ v_k = \sum_{j=1}^k α_{k,j} u_j \quad \text{mit} \; \sum_{j=1}^k α_{k,j} = 1, \quad α_{k,j} ≥ 0, \] so dass $v_k \nlk u_0$ in $X$. \end{satz} \begin{proof}[{\cref{satz:6.3.4}}] Sei also $u_i \sli \bar u ∈ X$. Wähle $c > \liminf_{i → ∞} f(u_i)$, für eine Teilfolge, die wir wieder mit $(u_i)_{i ∈ ℕ}$ bezeichnen, so dass für alle $i ∈ ℕ$ $f(u_i) < c$. Nach \cref{satz:mazur-6.3.5} existiert Eine Folge $(v_k)_{k ∈ ℕ} ⊂ X$ von Konvexkombinationen von $u_i$, das heißt \[ v_k = \sum_{j=1}^k α_{k,j} u_j \quad \sum_{j=1}^k α_{k,j} = 1, \quad α_{k,j} ≥ 0 \] und $v_k \nlk \bar u$ in $X$. Wegen $f$ (stark) unterhalbstetig und der Konvexität von $f$ gilt \[ f(\bar u) ≤ \liminf_{k →∞} f(v_k) ≤ \liminf_{k → ∞} \Big( \sum_{j=1}^k α_{k,j} \underbrace{f(u_j)}_{ \liminf_{i → ∞}f(u_i)$ beliebig war gilt somit $f(\bar u) ≤ \liminf_{i → ∞} f(u_i)$ . \end{proof} %%% Local Variables: %%% mode: latex %%% TeX-master: "funkana" %%% End: