July 2012

In this post I just collect a few papers that caught my attention in the last moth.

I begin with Estimating Unknown Sparsity in Compressed Sensing by Miles E. Lopes. The abstract reads

Within the framework of compressed sensing, many theoretical guarantees for signal reconstruction require that the number of linear measurements {n} exceed the sparsity {\|x\|_0} of the unknown signal {x\in\mathbb{R}^p}. However, if the sparsity {\|x\|_0} is unknown, the choice of {n} remains problematic. This paper considers the problem of estimating the unknown degree of sparsity of {x} with only a small number of linear measurements. Although we show that estimation of {\|x\|_0} is generally intractable in this framework, we consider an alternative measure of sparsity {s(x):=\frac{\|x\|_1^2}{\|x\|_2^2}}, which is a sharp lower bound on {\|x\|_0}, and is more amenable to estimation. When {x} is a non-negative vector, we propose a computationally efficient estimator {\hat{s}(x)}, and use non-asymptotic methods to bound the relative error of {\hat{s}(x)} in terms of a finite number of measurements. Remarkably, the quality of estimation is dimension-free, which ensures that {\hat{s}(x)} is well-suited to the high-dimensional regime where {n<<p}. These results also extend naturally to the problem of using linear measurements to estimate the rank of a positive semi-definite matrix, or the sparsity of a non-negative matrix. Finally, we show that if no structural assumption (such as non-negativity) is made on the signal {x}, then the quantity {s(x)} cannot generally be estimated when {n<<p}.

It’s a nice combination of the observation that the quotient {s(x)} is a sharp lower bound for {\|x\|_0} and that it is possible to estimate the one-norm and the two norm of a vector {x} (with additional properties) from carefully chosen measurements. For a non-negative vector {x} you just measure with the constant-one vector which (in a noisy environment) gives you an estimate of {\|x\|_1}. Similarly, measuring with Gaussian random vector you can obtain an estimate of {\|x\|_2}.

Then there is the dissertation of Dustin Mixon on the arxiv: Sparse Signal Processing with Frame Theory which is well worth reading but too long to provide a short overview. Here is the abstract:

Many emerging applications involve sparse signals, and their processing is a subject of active research. We desire a large class of sensing matrices which allow the user to discern important properties of the measured sparse signal. Of particular interest are matrices with the restricted isometry property (RIP). RIP matrices are known to enable efficient and stable reconstruction of sfficiently sparse signals, but the deterministic construction of such matrices has proven very dfficult. In this thesis, we discuss this matrix design problem in the context of a growing field of study known as frame theory. In the first two chapters, we build large families of equiangular tight frames and full spark frames, and we discuss their relationship to RIP matrices as well as their utility in other aspects of sparse signal processing. In Chapter 3, we pave the road to deterministic RIP matrices, evaluating various techniques to demonstrate RIP, and making interesting connections with graph theory and number theory. We conclude in Chapter 4 with a coherence-based alternative to RIP, which provides near-optimal probabilistic guarantees for various aspects of sparse signal processing while at the same time admitting a whole host of deterministic constructions.

By the way, the thesis is dedicated “To all those who never dedicated a dissertation to themselves.”

Further we have Proximal Newton-type Methods for Minimizing Convex Objective Functions in Composite Form by Jason D Lee, Yuekai Sun, Michael A. Saunders. This paper extends the well explored first order methods for problem of the type {\min g(x) + h(x)} with Lipschitz-differentiable {g} or simple {\mathrm{prox}_h} to second order Newton-type methods. The abstract reads

We consider minimizing convex objective functions in composite form

\displaystyle \min_{x\in\mathbb{R}^n} f(x) := g(x) + h(x)

where {g} is convex and twice-continuously differentiable and {h:\mathbb{R}^n\rightarrow\mathbb{R}} is a convex but not necessarily differentiable function whose proximal mapping can be evaluated efficiently. We derive a generalization of Newton-type methods to handle such convex but nonsmooth objective functions. Many problems of relevance in high-dimensional statistics, machine learning, and signal processing can be formulated in composite form. We prove such methods are globally convergent to a minimizer and achieve quadratic rates of convergence in the vicinity of a unique minimizer. We also demonstrate the performance of such methods using problems of relevance in machine learning and high-dimensional statistics.

With this post I say goodbye for a few weeks of holiday.

This is the last part of the lecture notes for the course in integral transforms.

1. Fourierreihen und das Abtasttheorem

Neben der Fourier-Transformation auf { L^1({\mathbb R}^d)}, { L^2({\mathbb R}^d)}, {\mathcal{S}{{\mathbb R}^d}} und {\mathcal{S}({\mathbb R}^d)'} sind auch analoge Transformationen für Funktionen {f} auf Rechtecken {\prod_{k=1}^d[a_k,b_k]\subset{\mathbb R}^d} interessant. Dies führt auf die sogenannten Fourierreihen. Mit ihrer Hilfe werden wir das Abtasttheorem beweisen

1.1. Fourierreihen in {L^2}

Wir betrachten vorerst eindimensionale Signale {u:[-\pi,\pi]\rightarrow {\mathbb C}}. Signale auf allgemeinen beschränkten Intervallen erhalten wir durch Skalierung und höherdimensionale Abbildungen werden wir durch “Tensorproduktbildung” behandeln können. In diesem Abschnitt werden wir uns alle Funktionen auf einem beschränkten Intervall (wie z.B. {[-\pi,\pi]}) als periodisch auf ganz {{\mathbb R}} fortgesetzt denken. Z.B. hat die Funktion {u(x) = x} (auf {[-\pi,\pi]}) für uns hier eine Sprungstelle bei {x=\pi}. Als Nebeneffekt können wir Integrale von periodischen Funktionen auch über verschobene Intervalle ausrechnen, wenn es sich anbietet, d.h. für {2\pi}-periodisches {u} und jedes {a\in{\mathbb R}} gilt

\displaystyle  \int_{-\pi}^\pi u(x){\mathrm d}{x} = \int_{a}^{2\pi+a}u(x){\mathrm d}{x}.

Im Falle von Fourierreihen können wir, anders als im Fall der Fourier-Transformation, gleich im Hilbert-Raum {L^2([-\pi,\pi])} beginnen. Wir statten ihn mit dem normalisierten Skalarprodukt

\displaystyle  \langle u,v\rangle_{[-\pi,\pi]} = \frac{1}{2\pi}\int_{-\pi}^\pi u(x)\overline{v}(x){\mathrm d}{x}

aus, welches die Norm

\displaystyle  \|u\|_{[-\pi,\pi]} = \frac{1}{\sqrt{2\pi}}\Big(\int_{-\pi}^\pi |u(x)|^2{\mathrm d}{x}\Big)^{1/2}

nach sich zieht.

Bei komplexen Fourier-Reihen wird eine Funktion {u:[-\pi,\pi]\rightarrow{\mathbb C}} als Reihe in den komplexen Exponentialfunktionen

\displaystyle  e_k(x) = \mathrm{e}^{\mathrm{i} kx}\quad (k\in{\mathbb Z})

geschrieben. Die Zahlen

\displaystyle  c_k = \frac{1}{2\pi}\int_{-\pi}^\pi u(x)\mathrm{e}^{-\mathrm{i} kx}{\mathrm d}{x} = \frac{1}{2\pi}\int_{-\pi}^\pi u(x)\overline{e_k(x)}{\mathrm d}{x}

heißen (komplexe) Fourier-Koeffizienten von {u}.

Satz 1 Die Funktionen {(e_k)_{k\in{\mathbb Z}}} bilden eine Orthonormalbasis von {L^2([-\pi,\pi])}. Insbesondere lässt sich jede Funktion {u\in L^2([-\pi,\pi])} als Fourierreihe

\displaystyle  u = \sum_{k\in{\mathbb Z}}c_k e_k

schreiben, wobei die Reihe im {L^2}-Sinn konvergiert. Insbesondere gilt

\displaystyle  \|u\|_{[-\pi,\pi]}^2 = \sum_{k\in{\mathbb Z}} |c_k|^2 \qquad \text{(Parseval Identit\"at)}.

Beweis: Die Orthonormalität der {e_k} lässt sich elementar nachrechnen. Um zu zeigen, dass die {e_k} eine Basis bilden, zeigen wir, dass die lineare Hülle der {e_k} dicht in {L^2([-\pi,\pi])} liegt. Nach dem Weierstraßschen Approximationssatz für trigonometrische Polynome existiert für jede stetige Funktion {u:[-\pi,\pi]\rightarrow{\mathbb C}} und jedes {\varepsilon>0} ein trigonometrisches Polynom {P_k(x) = \sum_{n=-k}^k a_ne_n(x)}, so dass {|u(x) - P_k(x)|\leq \varepsilon}. Es folgt

\displaystyle  \|u-P_k\|_{[-\pi,\pi]}^2 = \frac{1}{2\pi}\int_{-\pi}^\pi |u(x)-P_k(x)|^2{\mathrm d}{x} \leq \varepsilon^2.

Da die stetigen Funktionen in {L^2([-\pi,\pi])} dicht liegen, lässt sich auch jede {L^2}-Funktion beliebig gut durch trigonometrische Polynome approximieren und wir sehen, dass die {(e_k)} eine Basis bilden. Die Reihendarstellung und die Parseval Identität sind eine direkt Konsequenz aus allgemeinen Aussagen über Orthonormalbasen in Hilbert-Räumen. \Box

Mit Hilfe des oben definierten Skalarproduktes kann man die Fourier-Entwicklung auch schreiben als

\displaystyle  u = \sum_{k\in{\mathbb Z}}\langle u,e_k\rangle_{[-\pi,\pi]} e_k

was noch einmal deutlicher herausstellt, dass es sich bei den {(e_k)} um eine Orthonormalbasis handelt.

Das summierbare Folgen Nullfolgen sind, ist folgt aus der Parseval-Identität:

Korollar 2 (Riemann-Lebesgue-Lemma für Fourier-Reihen) Für die Fourier-Koeffizienten {c_k} einer Funktion {u\in L^2([-\pi,\pi])} gilt

\displaystyle  c_k\rightarrow 0,\ \text{f\"ur}\ |k|\rightarrow\infty.

Bemerkung 3 (Reelle Fourier-Koeffizienten) Über die Eulersche Formel lassen sich auch “reelle” Fourier-Koeffizienten bestimmen. Diese sind

\displaystyle  a_k = \frac{1}{\pi}\int_{-\pi}^\pi u(x)\cos(kx){\mathrm d}{x},\quad k=0,1,2,\dots


\displaystyle  b_k =\frac{1}{\pi}\int_{-\pi}^\pi u(x)\sin(kx){\mathrm d}{x},\quad k=1,2,\dots

Für reellwertige Funktionen sind die {a_k} und {b_k} reellwertig. Ist {u} gerade (d.h. {u(-x)=u(x)}) gilt {b_k=0}, ist {u} ungerade ({u(-x) = -u(x)}), so gilt {a_k=0}.

Bemerkung 4 Für Funktionen in {L^2([-B,B])} definieren wir das Skalarprodukt

\displaystyle  \langle u,v\rangle_{[-B,B]} = \frac{1}{2B}\int_{-B}^Bu(x)\overline{v}(x){\mathrm d}{x}.

Die Funktionen {e_k(x) = \mathrm{e}^{\mathrm{i} k\tfrac{\pi}{B} x}} bilden hier eine Orthonormalbasis und mit den Fourier-Koeffizienten von {u}

\displaystyle  \langle u,e_k\rangle_{[-B,B]} = \frac{1}{2B}\int_{-B}^B u(x) \mathrm{e}^{-\mathrm{i} k\tfrac{\pi}{B}x}{\mathrm d}{x}


\displaystyle  u = \sum_{k\in{\mathbb Z}}\langle u,e_k\rangle_{[-B,B]}e_k.

Auf einem {d}-dimensionalen Rechteck {\Omega = \prod_{l=1}^d [-B_l,B_l]} definieren wir die Funktion {(e_{\vec k})_{\vec k\in {\mathbb Z}^d}} durch

\displaystyle  e_{\vec k}(x) = \prod_{l=1}^d\mathrm{e}^{\mathrm{i} k_l \tfrac{\pi}{B_l}x_l}

und erhalten eine Orthonormalbasis in {L^2(\Omega)} bezüglich des Skalarproduktes

\displaystyle  \langle u,v\rangle_\Omega = \frac{1}{2^d\prod_{l=1}^dB_l }\int_\Omega u(x)\overline{v}(x){\mathrm d}{x}.

1.2. Punktweise Konvergenz von Fourier-Reihen

Die Konvergenz der Fourier-Reihe einer {L^2}-Funktion in {L^2}-Sinne ist (mit Hilfe des Weierstraßschen Approximationssatzes) nicht sehr schwierig zu zeigen. Im Allgemeinen kann die Konvergenz von Fourier-Reihen sehr schwierig sein. Wir gehen in diese Richtung nicht allzu sehr in die Tiefe. Wir wollen die Partialsummen der Fourier-Reihen betrachten, d.h. zu {N\in{\mathbb N}} die Funktion

\displaystyle  S_N(x) = \sum_{k=-N}^N \langle u,e_k\rangle_{[-\pi,\pi]}\mathrm{e}^{\mathrm{i} kx}.

Wir beginnen mit dem Faltungsatz für Fourier-Reihen:

Lemma 5 (Fourier-Koeffizienten der periodischen Faltung) Es seien {f,g\in L^1([-\pi,\pi])} ({2\pi}-periodisch auf {{\mathbb R}} fortgesetzt). Die periodische Faltung von {f} und {g} ist

\displaystyle  f*g(x) = \int_{-\pi}^\pi f(y)g(x-y){\mathrm d}{y}

und es gilt:

\displaystyle  \langle f*g,e_k\rangle_{[-\pi,\pi]} = 2\pi\langle f,e_k\rangle_{[-\pi,\pi]}\langle g,e_k\rangle_{[-\pi,\pi]},

d.h. die Fourier-Koeffizienten der Funktion {f*g} sind (bis auf den Vorfaktor) die Produkte der Fourier-Koeffizienten von {f} und {g}.

Beweis: Mit dem Satz von Fubini folgt

\displaystyle  \begin{array}{rcl}  \langle f*g,e_k\rangle_{[-\pi,\pi]} &= & \frac{1}{2\pi}\int_{-\pi}^\pi \int_{-\pi}^\pi f(y)g(x-y){\mathrm d}{y}\mathrm{e}^{-\mathrm{i} kx}{\mathrm d}{x}\\ &=& \frac{1}{2\pi}\int_{-\pi}^\pi f(y) \mathrm{e}^{-\mathrm{i} ky}\int_{-\pi}^\pi g(x-y){\mathrm d}{y}\mathrm{e}^{-\mathrm{i} k(x-y)}{\mathrm d}{x}\\ &=& 2\pi \langle f,e_k\rangle_{[-\pi,\pi]} \langle g,e_k\rangle_{[-\pi,\pi]} . \end{array}


Die Partialsummen {S_N} lassen sich als Faltung schreiben:

Satz 6 Es sei {u\in L^1([-\pi,\pi])} und zu {N\in{\mathbb N}} definieren wir

\displaystyle  S_N(x) = \sum_{k=-N}^N \langle u,e_k\rangle_{[-\pi,\pi]}\mathrm{e}^{\mathrm{i} kx}.

Dann gilt mit dem Dirichlet-Kern

\displaystyle  D_N(x) = \frac{\sin\big((N+\tfrac{1}{2})x\big)}{2\pi\sin(\tfrac{x}{2})},


\displaystyle  S_N(x) = u*D_N(x) = \int_{-\pi}^\pi u(y)D_N(x-y){\mathrm d}{y}.

Beweis: Das Ergebnis lässt wie folgt erahnen: Sind {c_k} die Fourier-Koeffizienten von {u} und ist {b_k = 1} ({|k|\leq N}), {b_k = 0} ({|k|>N}), so ist

\displaystyle  S_N(x) = \sum_{k\in{\mathbb Z}} c_k b_k \mathrm{e}^{\mathrm{i} kx}.

Auf Grund der vorigen Lemmas vermuten wir also, dass es sich bei {D_N} um die Funktion {\tfrac{1}{2\pi}\sum_{|k|\leq N}\mathrm{e}^{\mathrm{i} kx}} handelt. Das stimmt in der Tat: Mit Hilfe der geometrischen Summe folgt für {r\in {\mathbb C}}

\displaystyle  \begin{array}{rcl}  \sum_{k=-N}^N r^k &=& r^{-N}\sum_{k=0}^{2N} r^k\\ &=& r^{-N}\frac{1-r^{2N+1}}{1-r}\\ &=& \frac{r^{-N-1/2}}{r^{-1/2}}\frac{1-r^{2N+1}}{1-r}\\ &=& \frac{r^{-N-1/2} - r^{N+1/2}}{r^{-1/2} - r^{1/2}}. \end{array}

Mit {r=\mathrm{e}^{\mathrm{i} x}} folgt

\displaystyle  \begin{array}{rcl}  \sum_{|k|\leq N}\mathrm{e}^{\mathrm{i} kx}&=& \frac{\mathrm{e}^{-\mathrm{i} x(N+1/2)} - \mathrm{e}^{\mathrm{i} x(N+1/2)}}{\mathrm{e}^{-\mathrm{i} x/2} - \mathrm{e}^{\mathrm{i} x/2}}\\ &=& \frac{2\mathrm{i} \sin\big((N+\tfrac{1}{2})x\big)}{2\mathrm{i} \sin(\tfrac{x}{2})}=2\pi D_N(x). \end{array}

Nun rechnen wir

\displaystyle  \begin{array}{rcl}  u*D_N(x) &=& \int_{-\pi}^\pi u(y)D_N(x-y){\mathrm d}{y}\\ &=& \sum_{k=-N}^N\frac{1}{2\pi}\int_{-\pi}^\pi u(y)\mathrm{e}^{\mathrm{i} k(x-y)}{\mathrm d}{y}\\ &=& \sum_{k=-N}^N\mathrm{e}^{\mathrm{i} kx}\frac{1}{2\pi}\int_{-\pi}^\pi u(y)\mathrm{e}^{-\mathrm{i} ky}{\mathrm d}{y} =S_N(x). \end{array}


Satz 7 (Punktweise Konvergenz der Fourier-Reihe von differenzierbaren Funktionen) Es sei {f:[-\pi,\pi]\rightarrow {\mathbb C}} differenzierbar (periodisch fortgesetzt auf {{\mathbb R}} und dabei in {\pm\pi} ebenfalls differenzierbar). Dann gilt für jedes {x\in[-\pi,\pi]}

\displaystyle  S_N(x) \rightarrow f(x),\quad N\rightarrow\infty.

Beweis: Aus der Darstellung {D_N(x) = \tfrac{1}{2\pi}\sum_{k=-N}^N \mathrm{e}^{ikx}} folgt direkt, dass

\displaystyle  \int_{-\pi}^\pi D_N(x){\mathrm d}{x} = 1.

Es gilt

\displaystyle  \begin{array}{rcl}  S_N(x) - f(x) &=& f*D_N(x) - f(x)\\ &=& \int_{-\pi}^\pi (f(x-y) - f(x))D_N(y){\mathrm d}{y}\\ &=& \frac{1}{2\pi}\int_{-\pi}^\pi \frac{f(y-x) - f(x)}{\sin(y/2)}\sin\big((N+1/2) y\big){\mathrm d}{y}. \end{array}

Die Funktion {g_x(y) = \frac{f(x-y) - f(x)}{\sin(y/2)}} ist in jedem {y\neq 0} stetig, und lässt sich nach {y=0} durch {-2f'(x)} stetig fortsetzen, insbesondere ist {g_x} eine {L^2}-Funktion. Es gilt also

\displaystyle  \begin{array}{rcl}  S_N(x) - f(x) &=& \frac{1}{2\pi}\int_{-\pi}^\pi g_x(y)\frac{\mathrm{e}^{\mathrm{i}(N+1/2)y}-\mathrm{e}^{-\mathrm{i}(N+1/2) y}}{2\mathrm{i}}{\mathrm d}{y}\\ &=& \frac{\langle g_x(y) \mathrm{e}^{\mathrm{i} y/2},e_{-N}\rangle - \langle g_x(y) \mathrm{e}^{-\mathrm{i} y/2},e_N\rangle}{2\mathrm{i}}. \end{array}

Nach dem Riemann-Lebesgue-Lemma (Korollar 2) geht die rechte Seite für {N\rightarrow\infty} gegen Null und es folgt die Behauptung. \Box

Bemerkung 8 Ein genauer Blick auf den Beweis offenbart, dass sich die Voraussetzungen in obigem Satz abschwächen lassen: ist die Funktion

\displaystyle  g_x(y) = \frac{f(x-y) - f(x)}{\sin(y/2)}

eine Funktion für die das Riemann-Lebesgue-Lemma gilt (d.h. die Fourier-Koeffizienten gehen gegen Null), so konvergiert die Fourier-Reihe von {f} im Punkt {x}. Das Riemann-Lebesgue-Lemma gilt nicht nur für {L^2}-Funktionen, sondern auch für integrierbare (d.h. {L^1}) Funktionen. Dies folgt zum Beispiel aus Aufgabe 25: Eine Funktion {f\in L^1([-\pi,\pi])} lässt sich durch Null-Fortsetzung zu einer Funktion {\tilde f\in L^1({\mathbb R})} machen. Dann gilt

\displaystyle  \langle f,e_k\rangle_{[-\pi,\pi]} = \frac{1}{2\pi}\int_{\mathbb R} \tilde f(x)\mathrm{e}^{-\mathrm{i} k x}{\mathrm d}{x} = \frac{1}{\sqrt{2\pi}}\widehat{\tilde f}(k)\rightarrow 0\quad |k|\rightarrow\infty.

Die Stetigkeit von {f} in {x} ist allerdings nicht genug, um die Konvergenz der Fourier-Reihe in {x} zu garantieren; es gibt mehr oder minder explizite Gegenbeispiele, siehe z.B. Kapitel II, Abschnitt 2 in “An Introduction to Harmonic Analysis” von Yitzhak Katznelson. In eben diesem Buch ist auch das Ergebnis von Kolmogorov zu finden, dass es eine {L^1}-Funktion gibt, deren Fourier-Reihe überall divergiert. Dass der Raum {L^1} hier speziell ist, zeigt das Carleson-Hunt-Theorem, dass die Fourier-Reihe einer {L^p}-Funktion (mit {2\geq p>1}) fast überall konvergiert.

1.3. Das Abtasttheorem

Zur Diskretisierung werden kontinuierliche eindimensionale Signale {u:{\mathbb R}\rightarrow{\mathbb C}} üblicherweise mit einer konstanten Abtastrate {T>0} abgetastet, das heißt, es werden die Werte {(u(nT))_{n\in{\mathbb Z}}} gespeichert.

Unter welchen Umständen die Abtastwerte die gesamte Information des Signals beinhalten, zeigt der nächste Satz:

Satz 9 (Abtasttheorem nach Shannon-Whitakker) Es seien {B>0} und {u\in L^2({\mathbb R})} so, dass {\widehat{u}(\xi) = 0} für {|\xi|>B}. Dann ist {u} durch die Werte {(u(k\pi/B))_{k\in{\mathbb Z}}} bestimmt und es gilt mit

\displaystyle  \mathrm{sinc}(x) = \frac{\sin(x)}{x}

für alle {x} die Rekonstruktionsformel

\displaystyle  u(x) = \sum_{k\in{\mathbb Z}} u(\tfrac{k\pi}{B}) \mathrm{sinc}\bigl(B(x - \tfrac{k\pi}{B})\bigr).

Beweis: Der Trick in diesem Beweis besteht darin, dass sich {\widehat{u}} sowohl als Element in {L^2({\mathbb R})} als auch in {L^2([-B,B])} auffassen lässt. Wir können also sowohl die Fourier-Transformation als auch die Fourierreihe von {\widehat{u}} betrachten. Da {\widehat{u}} in {L^2([-B,B])} liegt, liegt es ebenfalls in {L^1([-B,B])}. Damit ist {u} stetig und die Punktauswertung von {u} ist wohldefiniert. Wir benutzen die Rekonstruktionsformel der Fourier-Transformation und erhalten

\displaystyle  u(\tfrac{k\pi}{B}) = \frac{1}{\sqrt{2\pi}}\int_{-B}^B \widehat{u}(\xi)\mathrm{e}^{\mathrm{i} \xi \tfrac{k\pi}{B}}{\mathrm d}{\xi} = \sqrt{\tfrac{2}{\pi}}B\,\langle\widehat{u},e_{-k}\rangle_{[-B,B]}

(beachte {e_k(x) = \mathrm{e}^{\mathrm{i} k \tfrac{\pi}{B}x}}). Die Werte {u(\tfrac{k\pi}{B})} bestimmen also die Werte {\langle \widehat{u},e_{-k}\rangle_{[-B,B]}} und da {\widehat{u}\in L^2([-B,B])} ist, auch die ganze Funktion {\widehat{u}}. Damit ist gezeigt, dass {u} durch die Werte {(u(\tfrac{k\pi}{B}))_{k\in{\mathbb Z}}} bestimmt ist. Um die Rekonstruktionsformel zu zeigen, entwickeln wir {\widehat{u}} in seine Fourierreihe und beachten dabei, dass wir für {\xi\in{\mathbb R}} mit der charakteristischen Funktion {\chi_{[-B,B]}} einschränken müssen:

\displaystyle  \widehat{u}(\xi) = \sum_{k\in{\mathbb Z}} \langle \widehat{u},e_k\rangle_{[-B,B]}e_k(\xi)\chi_{[-B,B]}(\xi) =\sqrt{\frac{\pi}{2}}\frac{1}{B}\sum_{k\in{\mathbb Z}} u(-\tfrac{k\pi}{B}) e_k(\xi)\chi_{[-B,B]}(\xi).

Da die inverse Fourier-Transformation stetig ist, können wir sie an der Reihe vorbeiziehen und bekommen

\displaystyle  u = \sqrt{\frac{\pi}{2}}\frac{1}{B}\sum_{k\in{\mathbb Z}} u(-\tfrac{k\pi}{B}) \mathcal{F}^{-1}(e_k\chi_{[-B,B]}).

Mit Hilfe der Rechenregeln für die Fouriertransformation und der bekannten Transformierten der charakteristischen Funktion ergibt sich

\displaystyle  \begin{array}{rcl}  \mathcal{F}^{-1}(e_k\chi_{[-B,B]})(x) & =& \overline{\mathcal{F}(\overline{M_{k\tfrac{\pi}{B}}\chi_{[-B,B]}})(x)}\\ & = &D_{-1}V_{-k\tfrac{\pi}{B}}\mathcal{F}(\chi_{[-B,B]})(x) = \sqrt{\tfrac{2}{\pi}}B\mathrm{sinc}\bigl(B(-x-\tfrac{k\pi}{B})\bigr)\\ & =& \sqrt{\tfrac{2}{\pi}}B\mathrm{sinc}\bigl(B(x+\tfrac{k\pi}{B})\bigr). \end{array}

Die Kombination mit der vorhergehenden Formel zeigt die Behauptung. \Box

Bemerkung 10 Im obigen Fall nennen wir {B} die Bandbreite des Signals. Die Bandbreite gibt an, welches die höchste Frequenz in dem Signal ist. In Worten gesprochen sagt das Abtasttheorem das Folgende: Hat ein Signal Bandbreite {B}, so muss es mit der Abtastrate {\tfrac{\pi}{B}} abgetastet werden, um alle Informationen des Signals zu speichern.

Wir benutzen hier das Wort “Frequenz” nicht in dem Sinne, in dem es in den Ingenieurwissenschaften häufig benutzt wird. Dort wird typischerweise die Kreisfrequenz {f = 2\pi B} benutzt. Ebenso ist dort die Variante der Fourier-Transformation mit dem Term {\mathrm{e}^{-2\pi\mathrm{i} x\cdot \xi}} verbreitet. Damit liest sich die Aussage des Abtasttheorems: Hat ein Signal Frequenzen bis zu einer maximalen Kreisfrequenz {f}, so muss es mit der Abtastrate {\tfrac{1}{2f}} abgetastet werden, um alle Informationen des Signals zu speichern. In anderen Worten: Man muss doppelt so schnell wie die höchste Kreisfrequenz abtasten. Man nennt die Abtastrate {\tfrac{1}{2f}} auch Nyquist-Rate.

1.4. Der Alias-Effekt

Der Alias-Effekt ist das, was in diesem Bild oder auch bei Aufrufen von “plot(sin(1:5000),’.’)” in MATLAB zu sehen ist. Das diskrete Bild, beziehungsweise Signal, entspricht nicht dem Originalsignal. Es tauchen Frequenzen in der diskreten Version auf, die im Original nicht enthalten sind. Sie stehen als “Alias” für die richtigen Frequenzen.

Im vorhergehenden Abschnitt haben wir gesehen, dass dieser Effekt nicht auftreten kann, wenn das Signal hoch genug abgetastet wurde. Wie genau der Alias-Effekt entsteht und wie man ihn beheben kann, wollen wir in diesem Abschnitt verstehen.

Wir benötigen ein weiteres Hilfsmittel:

Lemma 11 (Poisson-Formel) Es sei {u\in L^2({\mathbb R})} und {B>0} so, dass entweder die Funktion {\sum_{k\in{\mathbb Z}} \widehat{u}(\cdot + 2Bk) \in L^2([-B,B])} oder die Reihe {\sum_{k\in{\mathbb Z}} |u(\tfrac{k\pi}{B})|^2} konvergiert. Dann gilt für fast alle {\xi}

\displaystyle  \sum_{k\in{\mathbb Z}} \widehat{u}(\xi+2Bk) = \frac{\sqrt{2\pi}}{2B}\sum_{k\in{\mathbb Z}} u(\tfrac{k\pi}{B}) \mathrm{e}^{-\mathrm{i}\tfrac{k\pi}{B}\xi}.

Beweis: Wir definieren die Periodisierung von {\widehat{u}} als

\displaystyle  \phi(\xi) = \sum_{k\in{\mathbb Z}} \widehat{u}(\xi+2Bk).

Ist {\phi\in L^2([-B,B])}, können wir die Funktion durch ihre Fourierreihe darstellen. Die Fourier-Koeffizienten sind

\displaystyle  \begin{array}{rcl}  \langle \phi ,e_k\rangle_{[-B,B]} & =& \frac{1}{2B} \int_{-B}^B \phi(\xi)\mathrm{e}^{-\mathrm{i} \tfrac{k\pi}{B}\xi}{\mathrm d}{\xi}\\ & = &\frac{1}{2B} \int_{-B}^B \sum_{l\in{\mathbb Z}} \widehat{u}(\xi+2Bl)\mathrm{e}^{-\mathrm{i}\tfrac{k\pi}{B}\xi}{\mathrm d}{\xi}\\ & = &\frac{1}{2B} \int_{-B}^B \sum_{l\in{\mathbb Z}} \widehat{u}(\xi+2Bl)\mathrm{e}^{-\mathrm{i} \tfrac{k\pi}{B}(\xi+2Bl)}{\mathrm d}{\xi}\\ & = &\frac{1}{2B} \int_{\mathbb R} \widehat{u}(\xi)\mathrm{e}^{-\mathrm{i}\tfrac{k\pi}{B}\xi}{\mathrm d}{\xi}\\ & = &\frac{\sqrt{2\pi}}{2B} u(-\tfrac{k\pi}{B}). \end{array}

Also ist die Fourierreihe

\displaystyle  \begin{array}{rcl}  \phi(\xi) & = &\sum_{k\in{\mathbb Z}}\langle \phi ,e_k\rangle_{[-B,B]}e_k(\xi)\\ & = &\frac{\sqrt{2\pi}}{2B} \sum_{k\in{\mathbb Z}}u(-\tfrac{k\pi}{B}) \mathrm{e}^{\mathrm{i}\tfrac{k\pi}{B}\xi} \end{array}

im {L^2}-Sinn konvergent, woraus die Behauptung folgt. Andersherum konvergiert obige Fourierreihe, wenn die Koeffizienten {(u(\frac{k\pi}{B}))_k} quadratsummierbar sind und die Behauptung folgt ebenfalls. \Box

Bemerkung 12 Im Spezialfall {\xi=0} erhalten wir die bemerkenswerte Formel

\displaystyle   \sum_{k\in{\mathbb Z}}\widehat{u}(2Bk) = \frac{\sqrt{2\pi}}{2B}\sum_{k\in{\mathbb Z}}u(\tfrac{\pi}{B}k), \ \ \ \ \ (1)

die die Werte von {u} und {\widehat{u}} in Beziehung setzt. Diese lässt sich auch als Aussage über die Fourier-Transformierte des sogenannten Dirac-Kamms auffassen: Der Dirac-Kamm zu {T>0} ist eine (temperierte) Distribution, definiert durch

\displaystyle  \Delta_T(\phi) = \sum_{k\in{\mathbb Z}}\phi(kT)

(vgl. Aufgabe 16). Die Poisson-Formel gilt insbesondere für Schwartz-Funktionen {\phi}, und daher können wir (1) schreiben als

\displaystyle  \Delta_{2B}(\hat\phi) = \frac{\sqrt{2\pi}}{2B}\Delta_{\tfrac{\pi}{B}}(\phi).

Aus der Definition der Fourier-Transformation für temperierte Distributionen folgt also

\displaystyle  \widehat{\Delta_{2B}} = \frac{\sqrt{2\pi}}{2B}\Delta_{\tfrac{\pi}{B}}.

Die Fourier-Transformierte eines Dirac-Kamms ist also wieder ein Dirac-Kamm. Insbesondere ist {\Delta_{\sqrt{2\pi}}} ein weiterer Fixpunkt der Fourier-Transformation (neben der Gauß-Funktion).

Nun wenden wir uns genauer dem Abtasten zu. Mit Hilfe von Distributionen formuliert, können wir das diskret mit der Rate {\tfrac{\pi}{B}} abgetastete Signal mit Hilfe eines Dirac-Kamms darstellen:

\displaystyle  u_d = \sum_{k\in{\mathbb Z}} u(\tfrac{k\pi}{B})\delta_{k\tfrac{\pi}{B}}.

Ist {u} unendlich oft differenzierbar (und nicht zu schnell wachsend), so ist der Ausdruck für {u_d} genau das Produkt von {u} mit einem Dirac-Kamm:

\displaystyle  u_d = u\Delta_{\tfrac{\pi}{B}}.

Der Zusammenhang von {u} und {u_d} erschließt sich über die Fourier-Transformation.

Lemma 13 Es gilt für fast alle {\xi}

\displaystyle \widehat{u_d}(\xi) = \frac{B}{\pi} \sum_{k\in{\mathbb Z}} \widehat{u}(\xi+2Bk).

Beweis: Die Fourier-Transformation von {\delta_{k\tfrac{\pi}{B}}} ist uns schon bekannt

\displaystyle  \widehat{\delta_{k\tfrac{\pi}{B}}}(\xi) = \frac{1}{\sqrt{2\pi}}\mathrm{e}^{-\mathrm{i} \tfrac{k\pi}{B}\xi}.

Deshalb ist aufgrund der Poisson-Formel (Lemma~11)

\displaystyle  \begin{array}{rcl}  \widehat{u_d}(\xi) & = &\frac{1}{\sqrt{2\pi}}\sum_{k\in{\mathbb Z}}u(\tfrac{k\pi}{B})\mathrm{e}^{-\mathrm{i}\tfrac{k\pi}{B}\xi}\\ & = &\frac{B}{\pi} \sum_{n\in{\mathbb Z}} \widehat{u}(\xi+2Bn). \end{array}


In Worten sagt das Lemma, dass die Fourier-Transformation des abgetasteten Signals einer Periodisierung mit Periode {2B} der Fourier-Transformation des Original-Signals entspricht.

In dieser Sprechweise können wir die Rekonstruktionsformel aus dem Abtasttheorem~9 auch als Faltung interpretieren:

\displaystyle  u(x) = \sum_{k\in{\mathbb Z}} u(\tfrac{k\pi}{B})\mathrm{sinc}(B(x-\tfrac{k\pi}{B})) = u_d*\mathrm{sinc}(B\cdot)(x).

Auf der Fourier-Seite heißt das formal

\displaystyle  \widehat{u}(\xi) = \widehat{u_d}(\xi) \tfrac{B}{\pi}\chi_{[-B,B]}(\xi).

Hat {\widehat{u}} seinen Träger im Intervall {[-B,B]}, entsteht bei der Periodisierung kein Überlapp und {\widehat{u_d}\tfrac{B}{\pi} \chi_{[-B,B]}} entspricht genau {\widehat{u}}.

Hat allerdings {\widehat{u}} einen größeren Träger, so hat der Träger von {\widehat{u}(\cdot + 2Bk)} für mehrere {k} einen Schnitt mit {[-B,B]}. Dieses “Zurückklappen” im Frequenzbereich ist für den Alias-Effekt verantwortlich.

Beispiel 14 (Abtasten von harmonischen Schwingungen) \index{index}{Abtasten} Wir betrachten eine harmonische Schwingung

\displaystyle  u(x) = \cos(\xi_0 x) = \frac{\mathrm{e}^{\mathrm{i}\xi_0 x} + \mathrm{e}^{-\mathrm{i}\xi_0 x}}{2}.

Die Fourier-Transformation ist

\displaystyle  \widehat{u} = \sqrt{\tfrac{\pi}{2}} (\delta_{\xi_0} + \delta_{-\xi_0}).

Das Signal hat also formal die Bandbreite {\xi_0}. Wenn wir eine andere Bandbreite {B} annehmen und das Signal entsprechend mit der Rate {\pi/B} abtasten, erhalten wir auf der Fourier-Seite \begin{equation*} \widehat{u_d} = \tfrac{\pi}{B}\sqrt{\tfrac{\pi}{2}} \sum_{k\in{\mathbb Z}} (\delta_{\xi_0-2kB} + \delta_{-\xi_0-2kB}) \end{equation*} Das Rekonstruieren nach dem Abtasttheorem~9 bedeutet, den Träger von {\widehat{u_d}} auf das Intervall {[-B,B]} einzuschränken. Um zu verstehen, was das für das Signal bedeutet, müssen wir untersuchen, wie sich dieses Einschränken auf die Reihe auswirkt.

  • Überabtasten: Nehmen wir eine zu große Bandbreite {B>\xi_0} an, tasten wir das Signal zu schnell ab. Von den Termen in der Reihe für {\widehat{u_d}} liegen genau diejenigen mit {k=0} im Intervall {[-B,B]}. Es gilt

    \displaystyle  \begin{array}{rcl}  \widehat{u_d} & = &\tfrac{\pi}{B}\sqrt{\tfrac{\pi}{2}} \sum_{k\in{\mathbb Z}} (\delta_{\xi_0-2kB} + \delta_{-\xi_0-2kB}) \tfrac{B}{\pi}\chi_{[-B,B]}\\ & = &\sqrt{\tfrac{\pi}{2}} (\delta_{\xi_0} + \delta_{-\xi_0}) = \widehat{u}. \end{array}

    Das heißt, {u_d= u} und wir rekonstruieren das Signal perfekt.

  • Unterabtasten: Nehmen wir eine zu kleine Bandbreite {B<\xi_0<3B} an, so tasten wir das Signal zu langsam ab. Von den Termen der Reihe liegen wieder genau zwei im Intervall {[-B,B]}, nämlich {\delta_{\xi_0-2B}} und {\delta_{-\xi_0+2B}}. Das heißt, es gilt

    \displaystyle  \widehat{u_d}\,\tfrac{B}{\pi}\chi_{[-B,B]} = \sqrt{\tfrac{\pi}{2}}(\delta_{\xi_0-2B} + \delta_{-(\xi_0-2B)}).

    Wir rekonstruieren also das Signal

    \displaystyle  u_{\text{rek}}(x) = \cos((\xi_0-2B) x).

    Die Rekonstruktion ist wieder eine harmonische Schwingung, aber mit einer anderen Frequenz. Durch Unterabtasten werden hohe Frequenzen {\xi_0} durch niedrige Frequenzen in {[-B,B]} dargestellt.

  • Bemerkung 15 (Abtasten in 2D) Eine einfache Verallgemeinerung des Abtasttheorems und der Erklärung des Alias-Effekts in zwei Dimensionen erhalten wir durch Bildung des Tensorproduktes: Es sei {u:{\mathbb R}^2\rightarrow{\mathbb C}} so, dass die Fourier-Transformation {\widehat{u}} ihren Träger in Rechteck {[-B_1,B_1]\times[-B_2,B_2]} hat. In diesem Fall ist {u} durch die Werte {u(k_1\pi/B_1,k_2\pi/B_2)} bestimmt und es gilt die Formel

    \displaystyle  u(x_1,x_2) = \sum_{k\in{\mathbb Z}^2}u\bigl(\tfrac{k_1\pi}{B_1},\tfrac{k_2\pi}{B_2}\bigr)\mathrm{sinc}\bigl(B_1(x_1-\tfrac{k_1\pi}{B_1})\bigr)\mathrm{sinc}\bigl(B_2(x_2-\tfrac{k_2\pi}{B_2})\bigr).

    Ein diskret auf einem Rechteckgitter mit den Abtastraten {T_1} und {T_2} abgetastetes Bild schreiben wir als

    \displaystyle  u_d = \sum_{k\in{\mathbb Z}^2} u(k_1T_1,k_2T_2)\delta_{(k_1T_1,k_2T_2)}.

    Der Zusammenhang mit dem kontinuierlichen Bild {u} schreibt sich mit der Fourier-Transformation

    \displaystyle  \widehat{u_d}(\xi) = \frac{B_1B_2}{\pi^2}\sum_{k\in{\mathbb Z}^2}\widehat{u}(\xi_1+2B_1k_1,\xi_2+2B_2k_2).

    Auch hier tritt der Alias-Effekt auf, falls das Bild nicht bandbeschränkt ist oder zu niedrig abgetastet wurde. Zusätzlich zur Änderung der Frequenz tritt hier auch eine Änderung der Richtung auf.

    Beispiel 16 (Unterabtasten, Verhindern des Alias-Effektes) Haben wir ein diskretes Bild {u_d = \sum_{k\in{\mathbb Z}^2}u_k\delta_k} gegeben und wollen die Größe um den Faktor {l\in{\mathbb N}} verringern, so liefert das {u_d^l = \sum_{k\in{\mathbb Z}}u_{lk}\delta_{lk}}. Auch bei dieser Unterabtastung erhalten wir wieder einen Alias-Effekt. Um diesen zu verhindern, sollte vor der Unterabtastung ein Tiefpassfilter {h} angewendet werden, um die Frequenzen zu eliminieren, die durch den Alias-Effekt als falsche Frequenzen rekonstruiert werden. Es bietet sich an, diesen Filter als perfekten Tiefpass mit der Breite {\pi/l} zu wählen, d.h.~{\widehat{h} = \chi_{[-\pi/l,\pi/l]^2}}.

    2. Abschließende Bemerkungen

    Jetzt, wo wir den Vorlesungsstoff hinter uns haben, blicken wir noch einmal auf die vier Transformationen zurück. Es stellt sich heraus, dass sowohl {\mathcal{Z}}-Transformation und Fourier-Reihen, als auch bei Laplace-Transformation und Fourier-Transformation jeweils eng zusammenhängen:

  • {\mathcal{Z}}-Transformation: {f_n:{\mathbb Z}\rightarrow{\mathbb C}} mit “exponentiellem Abfallverhalten bei {\pm\infty}”:

    \displaystyle  \mathcal{Z}(f)(z) = \sum_{k\in{\mathbb Z}} f_n z^{-n}

    Konvergent im Kreisring {r<|z|<R}.

    Inversion: {r<\rho<R}:

    \displaystyle  f_n = \frac{1}{2\pi\mathrm{i}}\int_{|z|=\rho}\mathcal{Z}(f)(z)z^{n-1}{\mathrm d}{z} = \frac{1}{2\pi}\int_{-\pi}^\pi \mathcal{Z}(f)(\rho\mathrm{e}^{\mathrm{i} t})\rho^n\mathrm{e}^{\mathrm{i} nt}{\mathrm d}{t}.

  • Fourier-Reihe: {f:[-\pi,\pi]\rightarrow{\mathbb C}}

    \displaystyle  c_k = \frac{1}{2\pi}\int_{-\pi}^\pi f(t)\mathrm{e}^{-\mathrm{i} kt}{\mathrm d}{t}.


    \displaystyle  f(t) = \sum_{k\in{\mathbb Z}} c_k \mathrm{e}^{\mathrm{i} k t}

    Ist also {r<1<R}, dann gilt

    \displaystyle  \mathcal{Z}(c_k)(\mathrm{e}^{-\mathrm{i} t}) = f(t),

    mit anderen Worten: Die {\mathcal{Z}}-Transformation entlang des Einheitskreises entspricht der Fourier-Reihe.

    Anstelle des Abfallverhaltens der Folge {f_n} bei der {\mathcal{Z}}-Transformation tritt bei den Fourier-Reihen eine “Summierbarkeitsbedingung” an die Fourier-Koeffizienten. Als Konsequenz erhält man nicht immer eine Funktion, die sich komplex-differenzierbar über den Einheitskreis hinaus fortsetzen lässt, dafür ist die Konvergenz auf dem Einheitskreis auf verschiedene Arten nachweisbar (z.B. punktweise oder in {L^2}).

  • Laplace-Transformation: {f:[0,\infty[\rightarrow{\mathbb C}} “Original”, exponentiell beschränkt.

    \displaystyle  \mathcal{L}(f)(s) = \int_0^\infty f(t)\exp(-st){\mathrm d}{t},

    gültig für {\mathrm{Re}(s)>\sigma_0(f)}.

  • Fourier-Transformation: {f:{\mathbb R}\rightarrow{\mathbb C}} integrierbar (z.B. in {L^1({\mathbb R})}).

    \displaystyle  \mathcal{F}(f)(\xi) = \frac{1}{\sqrt{2\pi}}\int_{-\infty}^\infty f(x)\exp(-\mathrm{i} x\xi){\mathrm d}{x}.

    Ist {\sigma_0(f)<0}, so gilt (mit {f(t)=0} für {t<0})

    \displaystyle  \mathcal{F}(f)(\xi) = \frac{1}{\sqrt{2\pi}}\mathcal{L}(f)(\mathrm{i}\xi).

    Mit anderen Worten: Die Laplace-Transformation entlang der imaginären Achse ist die Fourier-Transformation.

    Ebenso wie beim Zusammenhang von {\mathcal{Z}}-Transformation und Fourier-Reihen ist wird “Abfallverhalten bei {\infty}” für die Laplace-Transformation durch Integrierbarkeitsanforderungen bei der Fourier-Transformation ersetzt. Es handelt sich auch hier (ebenso wie oben) um zwei verschiedenen Zugänge zu fast identischen Transformationen. Im Fall der Laplace-Transformation ermöglicht die exponentielle Beschränkung, dass es sich bei der Transformierten um eine komplex differenzierbare Funktion handelt. Im Fall der Fourier-Transformation erhält man kaum Regularität der Transformierten, aber dafür (im {L^2}-Fall) die gleiche Art der Integrierbarkeit und damit eine praktische Symmetrie von Hin- und Rücktransformation.

  • If you are looking for a good reason to prefer the Lebesgue integral over the Riemann integral and remember something like “Lebesgue goes better with limits” but could not memorize a specific example, then you should have a look on this stunning sequence of functions (which I found in Brenner and Scotts “Mathematical Theory of Finite Element Methods”):

    Let {(r_n)_{n\in\mathbb{N}}} be a dense subset of {[0,1]} (e.g. an enumeration of the rational numbers) and build the functions

    \displaystyle f_n(x) = \sum_{k=0}^n 2^{-k}\log(|x-r_k|).

    The functions {f_n} accumulate singularities at the places {r_k} as illustrated vaguely in this picture:

    However, each function {f_n} is (improper) Riemann-integrable (note that {\log(|x|)} is Riemann-integrable over any compact interval) Moreover, even the integrals {|\int_0^1 f_n(x){\mathrm d}{x}|} stay bounded for {n\rightarrow\infty}. Of course, the functions are also Lebesgue measurable.

    To see why this sequence of functions is problematic for Riemann integration, consider the potential limit function

    \displaystyle f(x) = \sum_{k=0}^\infty 2^{-k}\log(|x-r_k|)

    which has “the value {-\infty} on a dense subset”. Hence, the Riemann integral can not be finite.

    However, it is clear that {\|f - f_n\|_p\rightarrow 0} for {1\leq p<\infty} (due to exponentially decaying weights) and since the {L^p}-spaces are Banach spaces, {f\in L^p}.

    This is the second to last set of notes of my lecture on integral transforms.

    1. Die Fourier-Transformation

    Die Laplace-Transformation ist “einseitig” in dem Sinne, dass sie für Funktionen auf der Halbachse {[0,\infty{[}} definiert ist. Analog zur {z}-Transformation ließe sich auch eine zweiseitige Transformation definieren: Für {f:{\mathbb R}\rightarrow{\mathbb C}} sei

    \displaystyle  \mathcal{L}_2(f)(s) = \int_{-\infty}^\infty f(t)\exp(-st){\mathrm d}{t}.

    Für die einseitige Transformation haben wir im vorherigen Abschnitt den Wachstumsindex {\sigma_0(f)} definiert um die Konvergenzhalbebene der Transformierten zu beschreiben. Untersuchen wir, unter welchen Bedingungen das Integral in der zweiseitigen Transformierten existiert. Dazu spalten wir das Integral (willkürlich) an der Stelle {t=0} auf (die Aufspaltung an einer anderen Stelle würde zum gleichen Ergebnis kommen) und stellen die zweiseitige Transformation mit Hilfe der Heaviside-Funktion {H} als Summe zweier einseitiger dar:

    \displaystyle  \begin{array}{rcl}  \int_{-\infty}^\infty f(t)\exp(-st){\mathrm d}{t} &=& \int_{0}^\infty f(t)\exp(-st){\mathrm d}{t} + \int_0^\infty f(-t)\exp(st){\mathrm d}{t}\\ &=& \mathcal{L}(H(t)\cdot f(t))(s) + \mathcal{L}( H(t)\cdot f(-t))(-s) \end{array}

    Mit Hilfe der Wachstumsindizes {\sigma_0(H(t)f(t))} uns {\sigma_0(H(t)f(-t))} erkennen wir, dass die zweiseitige erste Transformierte für {\mathrm{Re}(s)>\sigma_0(H(t)f(t))} und die zweite für {\mathrm{Re}(-s) > \sigma_0(H(t)f(-t))} existiert. Also existiert die zweiseitige Transformation auf dem Streifen

    \displaystyle  \sigma_0(H(t)f(t)) <\mathrm{Re}(s)<-\sigma_0(H(t)f(-t)).

    Schauen wir uns diesen Streifen einmal in ein paar konkreten Beispielen an:

    Beispiel 1

    1. Wir betrachten {f(t) = \exp(-|t|)}. In diesem Fall haben wir {\sigma_0(H(t)f(t)) = \sigma_0(H(t)f(-t)) = -1} (das Verhalten von {f(t)} und {f(-t)} ist gleich und sogar exakt exponentiell) und die zweiseitige Laplace Transformation existiert für {-1<\mathrm{Re}(s)<1}. Wir berechnen

      \displaystyle  \begin{array}{rcl}  \mathcal{L}_2(f)(s) &=& \int_{-\infty}^\infty \exp(-|t|)\exp(-ts){\mathrm d}{t}\\ &=& \int_{0}^\infty \exp(-t)\exp(-ts){\mathrm d}{t}\\ &&\qquad+\int_{-\infty}^0\exp(t)\exp(-ts){\mathrm d}{t}\\ &=& \Big[\frac{\exp(-t(s+1)}{s+1}\Big]_{0}^\infty + \Big[\frac{\exp(-t(s-1)}{s-1}\Big]_{-\infty}^0\\ &=& -\frac{1}{s+1} + \frac{1}{s-1} = \frac{2}{s^2-1}. \end{array}

      In der Tat ist {\mathcal{L}_2(f)(s)} eine komplex differenzierbare Funktion mit Polen in {s=\pm 1} welche genau an den Grenzen des Konvergenzbereiches liegen.

    2. Wir betrachten {f(t) = 1/(1+t^2)} in diesem Fall haben wir weder bei {\infty} noch bei {-\infty} exponentielles Abfallverhalten; es gilt

      \displaystyle  \sigma_0(H(t)f(t)) = \sigma_0(H(t)f(-t)) = 0,

      der Konvergenzbereich {0<\mathrm{Re}(s)<0} ist also leer. Im Fall {\mathrm{Re}(s) = 0}, also für {s = \mathrm{i} \omega} mit {\omega\in{\mathbb R}}, gilt allerdings

      \displaystyle  \Big|\int_{-\infty}^\infty \frac{\exp(-\mathrm{i}\omega t)}{1+t^2}{\mathrm d}{t}\Big|\leq \int_{-\infty}^\infty \frac{1}{1+t^2}{\mathrm d}{t} = \pi.

      Das Integral existiert also doch auf der gesamten Linie {\mathrm{Re}(s) = 0}.

    Das Phänomen im zweiten Teil des Beispiels ist in der Tat keine besondere Ausnahme: Für beschränkte Funktionen, die nicht exponentiell schnell bei {\infty} und {-\infty} abfallen gilt immer {\sigma_0(H(t)f(t)) = \sigma_0(H(t)f(-t)) = 0}, trotzdem kann das Integral auf der ganzen Linie {\mathrm{Re}(s) = 0} existieren, falls die Funktion {f} absolut integrierbar ist: Wie oben ergibt sich nämlich

    \displaystyle  \Big|\int_{\mathbb R} f(x)\exp(-\mathrm{i}\omega x){\mathrm d}{x}\Big| \leq \int_{\mathbb R} |f(x)|{\mathrm d}{x}<\infty.

    Genau dies führt uns auf die Fourier-Transformation. Bevor wir diese definieren, führen wir noch schnell die {L^p}-Räume ein, da wir sie in diesen Abschnitt häufiger benötigen:

    Definition 2 Für {1\leq p<\infty} und {d=1,2\dots} ist der Raum {L^p({\mathbb R}^d)} von Funktionen {f:{\mathbb R}^d\rightarrow{\mathbb C}} definiert durch

    \displaystyle  f\in L^p({\mathbb R}^d)\ \text{ falls } \int_{{\mathbb R}^d} |f(x)|^p{\mathrm d}{x}<\infty.

    Für {p=\infty} definiert man

    \displaystyle  f\in L^\infty({\mathbb R}^d)\ \text{ falls } \sup_{x\in{\mathbb R}^d} |f(x)|<\infty.

    Das stimmt nicht ganz – korrekterweise besteht der Raum {L^p({\mathbb R}^d)} aus Äquivalenzklassen von messbaren Funktionen, die fast überall übereinstimmen und deren Repräsentanten entsprechend integrierbar sind. Im Fall {p=\infty} muss man eigentlich das wesentliche Supremum nehmen. Diese Feinheit spielt für unseren Alltag in der Vorlesung keine große Rolle. Man muss im Wesentlichen nur beachten, dass {L^p}-Funktionen nur fast überall bestimmt sind (und so zum Beispiel keine Punktauswertung erlauben). Die {L^p}-Räume sind Vektorräume und mit den Normen

    \displaystyle  \|f\|_p = \Big( \int_{{\mathbb R}^d} |f(x)|^p{\mathrm d}{x}\Big)^{1/p},\quad \|f\|_\infty = \sup |f(x)|

    sogar Banach-Räume (hierbei ist die Bildung von Äquivalenzklassen wichtig, da es sich sonst nicht um Normen handelt: für {p<\infty} gibt es zum Beispiel sonst Funktionen außer {f\equiv 0} deren Norm Null ist). Der Raum {L^2({\mathbb R}^d)} ist mit dem Skalarprodukt

    \displaystyle  \langle f,g\rangle = \int_{{\mathbb R}^d} f(x)\overline{g(x)}{\mathrm d}{x}

    ein Hilbert-Raum.

    1.1. Die Fourier-Transformation auf {L^1({\mathbb R}^d)}

    Für Funktionen {f:{\mathbb R}\rightarrow{\mathbb C}} haben wir schon oben gesehen, dass für absolut integrierbare Funktion (oder anders ausgedrückt, für {f\in L^1({\mathbb R})}) das Integral {\int_{-\infty}^\infty f(t)\exp(-\mathrm{i}\omega t){\mathrm d}{t}} für alle {\omega\in{\mathbb R}} konvergiert. Diese Formel gibt (bis auf eine Konstante) bereits die Fourier-Transformierte. Anders als bei der Laplace-Transformation lässt sich die Fourier-Transformation ohne Probleme auch für Funktionen {u:{\mathbb R}^d\rightarrow{\mathbb C}} definieren und da dies keinerlei Umstände bereitet machen wir das. Für {x,y\in{\mathbb R}^d} bezeichen wir mit {x\cdot y = \sum_{i=1}^d x_i y_i} das Euklidische Skalarprodukt, mit {|x| = \sqrt{x_1^2+\cdots + x_d^2}} bezeichnen wir den Euklidischen Betrag.

    Definition 3 (Fourier-Transformation) Sei {u\in L^1({\mathbb R}^d)} und {\xi \in {\mathbb R}^d}. Dann ist die Fourier-Transformierte von {u} in {\xi} definiert durch

    \displaystyle  \mathcal{F}(u)(\xi) = \widehat{u}(\xi) = \frac{1}{(2\pi)^{d/2}}\int_{{\mathbb R}^d}u(x)\mathrm{e}^{-\mathrm{i} x\cdot \xi}{\mathrm d}{x}.

    Die Abbildung {\mathcal{F}: u\mapsto \widehat{u}} nennen wir Fourier-Transformation.

    Im Unterschied zur Laplace-Transformation enthält die Fourier-Transformation noch einen Normierungsfaktor {(2\pi)^{-d/2}}; seine Bedeutung werden wir später genauer verstehen.

    Lemma 4 Die Fourier-Transformation ist als Abbildung von {L^1({\mathbb R}^d)} in den Raum {C({\mathbb R}^d)} der stetigen Funktionen (versehen mit der Supremumsnorm {\|\cdot\|_\infty}), also {\mathcal{F}:L^1({\mathbb R}^d)\rightarrow C({\mathbb R}^d)}, wohldefiniert, linear und stetig.

    Beweis: Der Integrand in der Fourier-Transformation ist für fast alle {x} stetig in {\xi} und für fast alle {\xi} durch {|u(x)|} beschränkt. Es folgt nach dem Satz der dominierten Konvergenz für {\xi_n\rightarrow\xi}:

    \displaystyle  \lim_{n\rightarrow\infty}\int_{{\mathbb R}^d} u(x) \mathrm{e}^{-\mathrm{i} x\cdot \xi_n}{\mathrm d}{x} = \int_{{\mathbb R}^d} u(x) \mathrm{e}^{-\mathrm{i} x\cdot \xi}{\mathrm d}{x},


    \displaystyle  \lim_{n\rightarrow\infty}\widehat{u}(\xi_n) = \widehat{u}(\xi)

    und damit die Stetigkeit von {\widehat{u}}. Die Linearität von {\mathcal{F}} ist klar und die Stetigkeit folgt aus der Abschätzung

    \displaystyle  |\widehat{u}(\xi)| = \frac{1}{(2\pi)^{d/2}}\Big|\int_{{\mathbb R}^d}u(x)\mathrm{e}^{-\mathrm{i} x\cdot \xi}{\mathrm d}{x}\Big| \leq \frac{1}{(2\pi)^{d/2}} \int_{{\mathbb R}^d}|u(x)|{\mathrm d}{x} = \frac{1}{(2\pi)^{d/2}}\|u\|_1.

    Es folgt {\|\widehat{u}\|_\infty\leq \frac{1}{(2\pi)^{d/2}}\|u\|_1}. \Box

    Insbesondere sind Fouriertransformierte von {L^1}-Funktionen beschränkt.

    Bemerkung 5 (Alternative Definitionen der Fourier-Transformation) Es werden andere Definitionen der Fourier-Transformation benutzt die sich in der Normierung unterscheiden. Gebräuchlich sind zum Beispiel folgende Varianten:

    \displaystyle  \begin{array}{rcl}  \mathcal{F}(u)(\xi) & = &\frac{1}{(2\pi)^d}\int_{{\mathbb R}^d}u(x)\mathrm{e}^{-\mathrm{i} x\cdot \xi}{\mathrm d}{x}\\ \mathcal{F}(u)(\xi) & = &\int_{{\mathbb R}^d}u(x)\mathrm{e}^{-\mathrm{i} x\cdot \xi}{\mathrm d}{x}\\ \mathcal{F}(u)(\xi) & = &\int_{{\mathbb R}^d}u(x)\mathrm{e}^{-2\pi\mathrm{i} x\cdot \xi}{\mathrm d}{x}. \end{array}

    Weiterhin kann auch das Minuszeichen im Exponenten weggelassen sein. So ist beim Gebrauch von Tabellen von Fouriertransformierten Vorsicht geboten, ebenso wie beim Nachschlagen von Rechenregeln.

    Die Fourier-Transformation verträgt sich gut mit Verschiebungen {V_y}, mit linearen Koordinatentransformationen {D_A} und mit Modulationen {M_\omega}. Verschiebungen kennen wir schon, lineare Koordinatentransformationen und Modultationen definieren wir nun:

    Definition 6 Zu {A\in{\mathbb R}^{d\times d}} definieren wir

    \displaystyle  d_A:{\mathbb R}^d\rightarrow{\mathbb R}^d,\qquad d_A(x) = Ax

    und damit

    \displaystyle  D_A u = u\circ d_A,

    d.h. {D_A u(x) = u(Ax)}. Zu {y\in{\mathbb R}^d} definieren wir

    \displaystyle  m_y:{\mathbb R}^d\rightarrow {\mathbb C},\qquad m_y(x) = \mathrm{e}^{\mathrm{i} x\cdot y}


    \displaystyle  M_y u = m_y \cdot u

    d.h. {M_y u(x) = \mathrm{e}^{\mathrm{i} x\cdot y}u(x)}.

    Die linearen Koordinatentransformationen hatten wir schon im vorherigen Abschnitt als Skalierung kennengelernt: Für die Einheitsmatrix {\mathrm{Id}\in{\mathbb R}^{d\times d}} und {a\in{\mathbb R}} gilt {D_{a\mathrm{Id}}u (x) = u(ax)}. Auch die Spiegelung von {u} lässt sich durch lineare Koordinatentransformation schreiben als {D_{-\mathrm{Id}}u(x) = u(-x)}.

    Wir sich Verschiebung, Modulation, Koordinatentransformation und Konjugation mit der Fourier-Transformation vertragen, sammelt das folgende Lemma.

    Lemma 7 Es sei {u\in L^1({\mathbb R}^d)}, {y\in{\mathbb R}^d} und {A\in {\mathbb R}^{d\times d}} eine reguläre Matrix. Dann gelten folgende Gleichungen:

    \displaystyle  \begin{array}{rcl}  \mathcal{F}(V_y u) & =& M_{-y}\mathcal{F}(u)\\ \mathcal{F}(M_y u) & =& V_y\mathcal{F}(u)\\ \mathcal{F}(D_A u) & =& |\det A|^{-1}D_{A^{-T}}\mathcal{F}(u)\\ \mathcal{F}(\overline{u}) & =& \overline{D_{-\mathrm{Id}}\mathcal{F}(u)}. \end{array}

    Beweis: Zuerst überzeuge man sich davon, dass die Operatoren {V_y}, {M_y} und {D_A} sowohl {L^1({\mathbb R}^d)} als auch {C({\mathbb R}^d)} in sich selbst abbilden; es sind also alle auftretenden Ausdrücke wohldefiniert. Nach der Transformationsformel für Integrale gilt

    \displaystyle  \begin{array}{rcl}  \mathcal{F}(M_\omega V_y u)(\xi) & =& \frac{1}{(2\pi)^{d/2}}\int_{{\mathbb R}^d} u(x-y)\mathrm{e}^{-\mathrm{i} x\cdot (\xi-\omega)}{\mathrm d}{x}\\ & = &\frac{1}{(2\pi)^{d/2}}\mathrm{e}^{-\mathrm{i} (\xi-\omega)\cdot y}\int_{{\mathbb R}^d}u(z)\mathrm{e}^{-\mathrm{i} z\cdot (\xi-\omega)}{\mathrm d}{z}\\ & = &V_{\omega}M_{-y}\mathcal{F} (u)(\xi). \end{array}

    Mit {\omega=0} folgt die Translationsformel, mit {y=0} die Modulationsformel. Die Formel für die lineare Koordinatentransformation folgt ebenso direkt aus der Transformationsformel für Integrale und die Formel für die Konjugation erhält man elementar. \Box

    Wie die {z}-Transformation und die Laplace-Transformation erfüllt auch die Fourier-Transformation einen Faltungssatz:

    Satz 8 (Faltungssatz) Für {u,v\in L^1({\mathbb R}^d)} gilt

    \displaystyle  \mathcal{F}(u* v) = (2\pi)^{d/2}\mathcal{F}(u)\mathcal{F}(v).

    Beweis: Wir wenden den Satz von Fubini an:

    \displaystyle  \begin{array}{rcl}  \mathcal{F}(u* v)(\xi) & =& \frac{1}{(2\pi)^{d/2}} \int_{{\mathbb R}^d}\int_{{\mathbb R}^d} u(y) v(x-y){\mathrm d}{y}\:\mathrm{e}^{-\mathrm{i} x\cdot\xi}{\mathrm d}{x}\\ & =& \frac{1}{(2\pi)^{d/2}} \int_{{\mathbb R}^d}\int_{{\mathbb R}^d} u(y) \mathrm{e}^{-\mathrm{i} y\cdot\xi}v(x-y)\mathrm{e}^{-\mathrm{i} (x-y)\cdot\xi}{\mathrm d}{x}{\mathrm d}{y}\\ & =& \int_{{\mathbb R}^d}u(y)\mathrm{e}^{-\mathrm{i} y\cdot\xi}{\mathrm d}{y}\ \mathcal{F}(v)(\xi)\\ & =& (2\pi)^{d/2}\mathcal{F}(u)(\xi)\mathcal{F}(v)(\xi). \end{array}


    Ganz analog zum Faltungssatz kann man folgendes Lemma beweisen:

    Lemma 9 Für {u,v\in L^1({\mathbb R}^d)} gilt

    \displaystyle  \int_{{\mathbb R}^d}\widehat{u}(\xi) v(\xi){\mathrm d}{\xi} = \int_{{\mathbb R}^d}u(\xi)\widehat{v}(\xi){\mathrm d}{\xi}.

    An dieser Stelle ist es verlockend, die Aussage des Lemmas als Gleichung von Skalarprodukten zu schreiben. Nach Lemma~7 wäre:

    \displaystyle  \begin{array}{rcl}  \langle\widehat{u},v\rangle &=& \int_{{\mathbb R}^d} \widehat{u}(\xi)\overline{v}(\xi){\mathrm d}{\xi} = \int_{{\mathbb R}^d} u(\xi)\widehat{\overline{v}}(\xi){\mathrm d}{\xi}\\ &=&\int_{{\mathbb R}^d} u(\xi)\overline{\widehat{v}(-\xi)}{\mathrm d}{\xi} = \langle u,D_{-\mathrm{Id}}\widehat{v}\rangle. \end{array}

    Dies ist allerdings an dieser Stelle nicht erlaubt, da wir die Fourier-Transformation in Definition~3 nur für {L^1}-Funktionen definiert haben. Dies hatte auch seinen guten Grund, denn für {L^2}-Funktionen kann nicht ohne weiteres gesichert werden, dass das definierende Integral existiert. Es erscheint jedoch wünschenswert und wird sich als überaus hilfreich herausstellen, die Fourier-Transformation nicht nur auf dem (nicht einmal reflexiven) Banach-Raum {L^1({\mathbb R}^d)} sondern auf dem Hilbert-Raum {L^2({\mathbb R}^d)} zur Verfügung zu haben.

    1.2. Die Fourier-Transformation auf {\mathcal{S}({\mathbb R}^d)} und {L^2({\mathbb R}^d)}

    Die Fortsetzung der Fourier-Transformation auf den Raum {L^2({\mathbb R}^d)} erfordert einige Arbeit. Als ersten Schritt untersuchen wir die Fourier-Tranformation auf dem Schwartz-Raum und es wird sich herausstellen, dass dieser ganz besonders gut zur Fourier-Transformation passt. Wir erinnern hier noch einmal an die Definition des Schwartz-Raumes und definieren ihn hier auf {{\mathbb R}^d}. Dazu benutzen wir die praktische Multiindexschreibweise:

    Definition 10 Ein Multiindex {\alpha} ist ein Vektor von natürlichen Zahlen. Zu {\alpha = (\alpha_1,\dots,\alpha_d)\in{\mathbb N}^d} und {x = (x_1,\dots,x_d)\in{\mathbb C}^d} schreiben wir

    \displaystyle  x^\alpha = x_1^{\alpha_1}\cdots x_d^{\alpha_d}.

    Die {k}-te Komponente des Vektors {\alpha} enthält also die Potenz der {k}-ten Koordinate. Für eine Funktion {u:{\mathbb R}^d\rightarrow{\mathbb C}} schreiben wir

    \displaystyle  \frac{\partial^\alpha}{\partial x^\alpha} f(x) = \frac{\partial^{\alpha_1}}{\partial x_1^{\alpha_1}}\cdots\frac{\partial^{\alpha_d}}{\partial x_d^{\alpha_d}} f(x).

    Die {k}-te Komponente des Vektors {\alpha} sagt also, wie oft in die {k}-te Koordinatenrichtung abgeleitet wird. Die Notation {\partial^\alpha} anstelle von {\frac{\partial^\alpha}{\partial x^\alpha}} ist ebenso gebräuchlich. Die Ordnung eines Multiindexes {\alpha} ist {|\alpha| = \sum_{k=1}^d \alpha_k}. Entsprechend sagt man auch, dass das Polynom {x^\alpha} den Grad {|\alpha|} hat und spricht von {\partial^\alpha f} auch von einer {|\alpha|}-ten Ableitung von {f}.

    Mit Multiindizes lässt sich einfach rechnen, und sie verhalten sich im Wesentlichen wie einfache Indizes. So gilt zum Beispiel

    \displaystyle  \begin{array}{rcl}  x^\alpha\, x^\beta &=& x_1^{\alpha_1}\cdots x_d^{\alpha_d} x_1^{\beta_1}\cdots x_d^{\beta_d} = x_1^{\alpha_1+\beta_1}\cdots x_d^{\alpha_d+\beta_d}\\ &=& x^{(\alpha+\beta)} \end{array}

    und ebenso

    \displaystyle  \partial^\alpha\partial^\beta f(x) = \partial^{\alpha+\beta} f(x).

    Definiert man noch die Fakultät {\alpha! = \alpha_1!\cdots\alpha_d!} und für {\beta\leq\alpha} (was nichts anderes als {\beta_k\leq\alpha_k}, {k=1,\dots,d} heißen soll) die Binomialkoeffizienten {\binom{\alpha}{\beta}= \frac{\alpha!}{\beta!(\alpha-\beta)!}}, so gelten zum Beispiel der Binomische Lehrsatz

    \displaystyle  (x+y)^\alpha = \sum_{\beta\leq\alpha}\binom{\alpha}{\beta}x^\beta y^{\alpha-\beta}

    und die Leibniz-Regel

    \displaystyle  \partial^\alpha(f\cdot g)(x) = \sum_{\beta\leq\alpha}\binom{\alpha}{\beta}(\partial^\beta f(x))\cdot(\partial^{\alpha-\beta} g(x)).

    Definition 11 Zu Multiindizes {\alpha,\beta\in {\mathbb N}^d} definieren wir die Funktionale

    \displaystyle  C_{\alpha,\beta}(u) = \sup_{x\in{\mathbb R}^d}|x^\alpha\tfrac{\partial^\beta}{\partial x^\beta} u(x)|.

    Der Schwartz-Raum der schnell fallenden Funktionen ist definiert durch

    \displaystyle  \mathcal{S}({\mathbb R}^d) = \{u\in C^\infty({\mathbb R}^d)\ :\  \forall \alpha,\beta\in{\mathbb N}^d: C_{\alpha,\beta}(u) <\infty\}.

    Funktionen {u\in\mathcal{S}({\mathbb R}^d)} heißen auch Schwartz-Funktionen.

    Der Konvergenzbegriff auf dem Schwartz-Raum ist uns ebenfalls schon aus dem vorigen Abschnitt bekannt. Wir formulieren ihn hier noch einmal mit Hilfe der Funktionale {C_{\alpha,\beta}}:

    Definition 12 Eine Folge {(u_n)} im Schwartz-Raum konvergiert gegen {u} genau dann, wenn für alle Multiindizes {\alpha,\beta} gilt

    \displaystyle  C_{\alpha,\beta}(u_n-u)\rightarrow 0\quad\text{f\"ur}\quad n\rightarrow\infty.

    Bemerkung 13 Für unsere Zwecke ist die Beschreibung der Topologie {\mathcal{S}({\mathbb R}^d)} durch Folgenkonvergenz ausreichend. Es sei bemerkt, dass die Funktionale {C_{\alpha,\beta}} sogenannte Halbnormen auf dem Schwartz-Raum bilden und ihn damit zu einem metrisierbaren, lokal-konvexen Raum machen, welcher sogar ein Fréchet-Raum ist.

    Lemma 14 Der Schwartz-Raum ist nichtleer und abgeschlossen bezüglich Ableitungen beliebiger Ordnung sowie punktweiser Multiplikation.

    Beweis: Ein Beispiel für eine Funktion in {\mathcal{S}({\mathbb R}^d)} ist {u(x) = \exp(-|x|^2)} wie sich elementar zeigen lässt. Ist {u\in\mathcal{S}({\mathbb R}^d)}, so gilt für jeden Multiindex {\gamma}

    \displaystyle  C_{\alpha,\beta}(\tfrac{\partial^\gamma}{\partial x^\gamma} u) = C_{\alpha,\beta+\gamma}(u)<\infty

    und daher {\tfrac{\partial^\gamma}{\partial x^\gamma} u\in\mathcal{S}({\mathbb R}^d)}. Dass mit {u,v\in\mathcal{S}({\mathbb R}^d)} auch das Produkt {uv} im Schwartz-Raum liegt, zeigt die Leibnizsche Produktregel denn dann gilt

    \displaystyle  \partial^\alpha(u v)(x) = \sum_{\beta\leq\alpha}\binom{\alpha}{\beta} \partial^{\alpha-\beta}u(x) \partial^\beta v(x).

    Es folgt

    \displaystyle  \begin{array}{rcl}  C_{\alpha,\beta}(u v) &=& \sup|x^\alpha\partial^\beta(uv)(x)|\\ &=& \sup|x^\alpha\sum_{\gamma\leq\beta}\binom{\beta}{\gamma} \partial^{\gamma}u(x) \partial^{\beta-\gamma}v(x)|\\ &=& \sum_{\gamma\leq\beta}\binom{\beta}{\gamma} \sup|x^\alpha \partial^{\gamma}u(x) \partial^{\beta-\gamma}v(x)|\\ &=& \sum_{\gamma\leq\beta}\binom{\beta}{\gamma} C_{\alpha,\gamma}(u)C_{0,\beta-\gamma}(v)<\infty. \end{array}


    Der Schwartz-Raum ist in gewisser Weise besonders für die Fourier-Transformation geeignet. Einen ersten Hinweis darauf gibt das folgende Lemma.

    Lemma 15 Es sei {u\in\mathcal{S}({\mathbb R}^d)}, {\alpha\in{\mathbb N}^d} ein Multiindex und es bezeichne {p^\alpha(x) = x^\alpha}. Dann gelten die Gleichungen

    \displaystyle  \begin{array}{rcl}  \mathcal{F}(\tfrac{\partial^\alpha u}{\partial x^\alpha}) & = &\mathrm{i}^{|\alpha|}p^\alpha\mathcal{F}(u)\\ \mathcal{F}(p^\alpha u) & = &\mathrm{i}^{|\alpha|} \tfrac{\partial^\alpha}{\partial x^\alpha}\mathcal{F}(u). \end{array}

    Beweis: Wir beginnen mit folgenden Hilfsrechnungen:

    \displaystyle  \frac{\partial^\alpha}{\partial x^\alpha}(\mathrm{e}^{-\mathrm{i} x\cdot\xi}) = (-\mathrm{i})^{|\alpha|}\xi^\alpha\mathrm{e}^{-\mathrm{i} x\cdot \xi} \quad\text{und}\quad x^\alpha\mathrm{e}^{-\mathrm{i} x\cdot\xi} = \mathrm{i}^{|\alpha|}\frac{\partial^\alpha}{\partial \xi^\alpha} (\mathrm{e}^{-\mathrm{i} x\cdot \xi}).

    Mit Hilfe partieller Integration erhalten wir

    \displaystyle  \begin{array}{rcl}  \mathcal{F}(\tfrac{\partial^\alpha}{\partial x^\alpha} u)(\xi) & =& \frac{1}{(2\pi)^{d/2}}\int_{{\mathbb R}^d} \tfrac{\partial^\alpha}{\partial x^\alpha} u(x) \mathrm{e}^{-\mathrm{i} x\cdot\xi}{\mathrm d}{x}\\ & = &\frac{1}{(2\pi)^{d/2}}\mathrm{i}^{|\alpha|}\xi^\alpha\int_{{\mathbb R}^d} u(x) \mathrm{e}^{-\mathrm{i} x\cdot\xi}{\mathrm d}{x}\\ & = &\mathrm{i}^{|\alpha|}p^\alpha(\xi)\mathcal{F} u (\xi). \end{array}

    Durch Vertauschen von Integration und Differentiation ergibt sich

    \displaystyle  \begin{array}{rcl}  \mathcal{F}(p^\alpha u)(\xi) & = &\frac{1}{(2\pi)^{d/2}}\int_{{\mathbb R}^d} u(x)x^\alpha \mathrm{e}^{-\mathrm{i} x\cdot\xi}{\mathrm d}{x}\\ & =& \frac{1}{(2\pi)^{d/2}}\mathrm{i}^{|\alpha|}\int_{{\mathbb R}^d} u(x)\tfrac{\partial^\alpha}{\partial\xi^\alpha}\mathrm{e}^{-\mathrm{i} x\cdot\xi}{\mathrm d}{x}\\ & =& \mathrm{i}^{|\alpha|}(\tfrac{\partial^\alpha}{\partial\xi^\alpha}\mathcal{F} u)(\xi). \end{array}

    Beide vorangehenden Argumente sind erlaubt, da die Integranden bezüglich {\xi} beliebig oft differenzierbar und bezüglich {x} integrierbar sind. \Box

    Wir sehen also, dass die Fourier-Transformation eine Differentiation in eine Multiplikation überführt und andersherum. Dies lässt schon vermuten, dass der Schwartz-Raum {\mathcal{S}({\mathbb R}^d)} durch die Fourier-Transformation in sich selbst überführt wird. Bevor wir dies zeigen, beweisen wir noch zwei Lemmas. Im ersten berechnen wir die Fourier-Transformierte der Gauß-Funktion:

    Lemma 16 Für die Gauß-Funktion {G(x)= \mathrm{e}^{-\tfrac{|x|^2}{2}}} gilt

    \displaystyle  \widehat{G}(\xi) = G(\xi),

    das heißt, die Gauß-Funktion ist eine Eigenfunktion der Fourier-Transformation zum Eigenwert eins.

    Beweis: Die Gauß-Funktion lässt sich als Tensorprodukt von eindimensionalen Gauß-Funktionen {g:{\mathbb R}\rightarrow{\mathbb R}}, {g(t) = \exp(-t^2/2)} schreiben: {G(x) = \prod_{k=1}^dg(x_k)}. Mit dem Satz von Fubini erhalten wir

    \displaystyle  \widehat{G}(\xi) = \frac{1}{(2\pi)^{d/2}} \int_{{\mathbb R}^d}\prod_{k=1}^dg(x_k)\mathrm{e}^{-\mathrm{i} x_k\xi_k}{\mathrm d}{x} = \prod_{k=1}^d\widehat{g}(\xi_k).

    Um die Fourier-Transformierte von {g} zu bestimmen, bemerken wir, dass {g} der Differentialgleichung {g'(t) = -tg(t)} genügt. Wenden wir die Fourier-Transformation auf diese Gleichung an, erhalten wir mit Hilfe von Lemma~15 die Differentialgleichung {-\omega \widehat{g}(\omega) = \widehat{g}'(\omega)}. Weiterhin gilt {\widehat{g}(0) = \tfrac{1}{\sqrt{2\pi}}\int_{\mathbb R} g(t){\mathrm d}{t} = 1 = g(0)}. Die Funktionen {g} und {\widehat{g}} erfüllen also die gleiche Differentialgleichung mit dem gleichen Anfangswert und müssen also nach dem Satz von Picard-Lindelöf gleich sein. Dies zeigt die Behauptung. \Box

    Wir wenden uns nun der Tatsache zu, dass die Fourier-Transformation den Schwartz-Raum bijektiv und stetig in sich abbildet.

    Satz 17 Die Fourier-Transformation ist eine stetige und bijektive Abbildung des Schwartz-Raumes in sich. Für {u\in\mathcal{S}({\mathbb R}^d)} gilt die Inversionsformel

    \displaystyle  (\mathcal{F}^{-1} \mathcal{F} u)(x) = \check{\widehat{u}}(x) = \frac{1}{(2\pi)^{d/2}}\int_{{\mathbb R}^d}\widehat{u}(\xi)\mathrm{e}^{\mathrm{i} x\cdot\xi}{\mathrm d}{\xi} = u(x).

    Beweis: Nach Lemma~15 gilt für jedes {\xi}

    \displaystyle   C_{\alpha,\beta}(\hat{u}) = |\xi^\alpha\tfrac{\partial^\beta}{\partial\xi^\beta} \widehat{u}(\xi)| = |\mathcal{F}(\tfrac{\partial^\alpha}{\partial x^\alpha}(p^\beta u))(\xi)| \leq \frac{1}{(2\pi)^{d/2}}\|\tfrac{\partial^\alpha}{\partial x^\alpha}(p^\beta u)\|_1. \ \ \ \ \ (1)

    Also ist mit {u\in\mathcal{S}({\mathbb R}^d)} auch {\widehat{u}\in\mathcal{S}({\mathbb R}^d)}. Da die Fourier-Transformation linear ist, reicht es, die Stetigkeit in Null zu zeigen. Wir betrachten also eine Nullfolge {(u_n)} im Schwartz-Raum, d.h.~für {n\rightarrow\infty} gilt {C_{\alpha,\beta}(u_n)\rightarrow 0}. Das heißt aber, dass dann {(u_n)} und ebenso {(\partial^\alpha p^\beta u_n)} für alle {\alpha,\beta} gleichmäßig gegen Null gehen. Daraus folgt, dass die rechte Seite in~(1) gegen Null geht. Insbesondere folgt {C_{\alpha,\beta}(\widehat{u_n})\rightarrow 0} und das heißt, dass {(\widehat{u_n})} eine Nullfolge ist. Dies zeigt die Stetigkeit. Um die Inversionsformel zu zeigen kann man leider nicht den direkten Weg einschlagen und einfach das Doppelintegral in {\check{\widehat{u}}} entsprechend umformen. Man bedient sich eines “konvergenzerzeugenden Faktors”. Außerdem betrachten wir {\widehat{\widehat{u}}} an Stelle von {\check{\widehat{u}}}. Für zwei beliebige Funktionen {u,\phi\in\mathcal{S}({\mathbb R}^d)} erhalten wir mit Hilfe von Lemma~9 und den Rechenregeln für Translation und Modulation aus Lemma~7 für die Faltung von {\widehat{\widehat{u}}} und {\phi}:

    \displaystyle  \begin{array}{rcl}  (\widehat{\widehat{u}}* \phi)(x) & =& \int_{{\mathbb R}^d}\widehat{\widehat{u}}(y)\phi(x-y){\mathrm d}{y} =\int_{{\mathbb R}^d}\widehat{u}(y)\mathrm{e}^{\mathrm{i} x\cdot y}\widehat{\phi}(-y){\mathrm d}{y}\\ & = &\int_{{\mathbb R}^d} u(y)\widehat{\widehat{\phi}}(-x-y){\mathrm d}{y} = (u* \widehat{\widehat{\phi}})(-x). \end{array}

    Wählen wir {\phi} als reskalierte Gauß-Funktion:

    \displaystyle  \phi_\varepsilon(x) = \varepsilon^{-d}(D_{\varepsilon^{-1} \mathrm{Id}} G)(x) = \varepsilon^{-d} \mathrm{e}^{-\frac{|x|^2}{2\varepsilon^2}}

    mit dem Ziel, die Funktion {u} durch Faltung mit {\phi_\epsilon} zu approximieren. Das dies geht, zeigt das folgende Lemma:

    Lemma 18 Zu einer Funktion {\phi:{\mathbb R}^d\rightarrow{\mathbb C}} mit den Eigenschaften

    \displaystyle  \phi(x)\geq 0,\ \text{und}\ \int_{{\mathbb R}^d}\phi(x){\mathrm d}{x} = 1

    und {\epsilon>0} definieren wir

    \displaystyle  \phi_\epsilon(x) = \epsilon^{-d}D_{\epsilon^{-1}\mathrm{Id}}\phi(x) = \epsilon^{-d}\phi(x/\epsilon).

    Dann gilt für gleichmäßig stetiges und beschränktes {u:{\mathbb R}^d\rightarrow{\mathbb C}}

    \displaystyle  (u*\phi_\epsilon)(x)\rightarrow u(x)\ \text{f\"ur}\ \epsilon\rightarrow 0.

    Beweis: Die {\phi_\epsilon} sind so normiert, dass gilt {\int_{{\mathbb R}^d}\phi_\epsilon(x){\mathrm d}{x} = 1}. Außerdem gilt für jedes {\rho>0}, dass

    \displaystyle  \begin{array}{rcl}  \int_{|x|>\rho} \phi_\epsilon(x){\mathrm d}{x}= \int_{|y|>\rho/\epsilon} \phi(y){\mathrm d}{y} \rightarrow 0\ \text{f\"ur}\ \epsilon\rightarrow 0. \end{array}

    Um die punktweise Konvergenz von {u*\phi_\epsilon} gegen {u} zu zeigen, schätzen wir ab

    \displaystyle  \begin{array}{rcl}  |(u*\phi_\epsilon)(x) - u(x)| &\leq & \int_{{\mathbb R}^d}|u(x-y)\phi_\epsilon(y) - u(x)\phi_\epsilon(y)|{\mathrm d}{y}\\ &=& \int_{{\mathbb R}^d}|u(x-y) - u(x)|\,|\phi_\epsilon(y)|{\mathrm d}{y}. \end{array}

    Nun spalten wir das Integral auf der rechten Seite in die Teile mit {|y|>\rho} und {|y|<\rho} und schätzen weiter ab: In beiden Fällen ziehen wir das Supremum von {|u(y-x)-u(x)|} aus dem Integral:

    \displaystyle   \int_{|y|<\rho}|u(x-y) - u(x)|\,|\phi_\epsilon(y)|{\mathrm d}{y}\leq \int_{|y|<\rho}|\phi_\epsilon(y)|{\mathrm d}{y}\sup_{|y|<\rho}|u(x-y) - u(x)| \ \ \ \ \ (2)


    \displaystyle   \int_{|y|>\rho}|u(x-y) - u(x)|\,|\phi_\epsilon(y)|{\mathrm d}{y}\leq \int_{|y|>\rho}|\phi_\epsilon(y)|{\mathrm d}{y}\sup_{|y|>\rho}|u(x-y) - u(x)|. \ \ \ \ \ (3)

    In Gleichung (2) nutzen wir die gleichmäßige Stetigkeit von {u} und bemerken, dass der Term {\sup_{|y|<\rho}|u(x-y) - u(x)|} für {\rho\rightarrow 0} gegen Null geht während der Integral-Term beschränkt bleibt. In (3) nutzen wir die eingangs gemachte Beobachtung, dass das Integral {\int_{|y|>\rho}|\phi_\epsilon(y)|{\mathrm d}{y}} für {\epsilon\rightarrow 0} gegen Null geht während der {\sup}-Term beschränkt bleibt. Wir notieren also: Für ein {\delta>0} wählen wir {\rho>0} so klein, dass {\sup_{|y|<\rho}|u(x-y) - u(x)|<\delta/2}. Dann wählen wir {\epsilon>0} so klein, dass {\int_{|y|>\rho}|\phi_\epsilon(y)|{\mathrm d}{y}<\delta/(4\|u\|_\infty)}. Insgesamt ergibt sich

    \displaystyle  \begin{array}{rcl}  |(u*\phi_\epsilon)(x) - u(x)| &\leq& \int_{|y|<\rho}\phi_\epsilon(y){\mathrm d}{y} \frac{\delta}2 + \frac{\delta}{4\|u\|_\infty}\sup_{|y|>\rho}|u(y-x)-u(x)|\\ &\leq& \delta \end{array}

    was die Behauptung zeigt. \Box

    Nach der Rechenregel für lineare Koordinatentransformationen aus Lemma~7 folgt {\widehat{\phi_\varepsilon} = D_{\varepsilon \mathrm{Id}}\widehat{G}} und also auch {\widehat{\widehat{\phi_\varepsilon}} = \varepsilon^{-d} D_{\varepsilon^{-1} \mathrm{Id}} \widehat{\widehat{G}}}. Nach Lemma~16 gilt {\widehat G=G} und damit auch {\widehat{\widehat{\phi_\varepsilon}} = \phi_\varepsilon}. Da {u} insbesondere beschränkt und stetig ist und außerdem {G} positiv ist sowie ein auf eins normiertes Integral hat, können wir Lemma~18 anwenden und bekommen für {\varepsilon\rightarrow 0}, dass gilt

    \displaystyle  \widehat{\widehat{u}}* \phi_\varepsilon (x) \rightarrow \widehat{\widehat{u}}(x) \quad\text{und}\quad u*\phi_\varepsilon(-x) \rightarrow u(-x).

    Es folgt also

    \displaystyle  \widehat{\widehat{u}}(x) = u(-x).

    Man beachte, dass wir die Umkehrformel für die Fourier-Transformation auch schreiben können als

    \displaystyle  \check{u} = \overline{\mathcal{F}{\overline{u}}}.

    Nach der Rechenregel für die Konjugation aus Lemma~7 ergibt sich { \check u = D_{-\mathrm{Id}}\widehat{u} } und wenn wir {\widehat{u}} statt {u} einsetzen, folgt insgesamt

    \displaystyle  \check{\widehat{u}} = D_{-\mathrm{Id}}\widehat{\widehat{u}} = u.


    Da der Schwartz-Raum eine Teilmenge von {L^2({\mathbb R}^d)} ist, und sogar eine “dichte Teilmenge”, können wir die Fourier-Transformation mit einem Standardvorgehen von {\mathcal{S}({\mathbb R}^d)} auf {L^2({\mathbb R}^d)} fortsetzen. Lemma~9 ist dabei zentral.

    Satz 19 Es gibt genau einen stetigen Operator {\mathcal{F}:L^2({\mathbb R}^d)\rightarrow L^2({\mathbb R}^d)}, welcher die Fourier-Transformation {\mathcal{F}} auf {\mathcal{S}({\mathbb R}^d)} fortsetzt und für alle {u\in L^2({\mathbb R}^d)} die Gleichung {\|u\|_2 = \|\mathcal{F} u\|_2} erfüllt. Weiterhin ist dieser Operator {\mathcal{F}} bijektiv und die Umkehrung {\mathcal{F}^{-1}} ist eine stetige Fortsetzung von {\mathcal{F}^{-1}} auf {\mathcal{S}({\mathbb R}^d)}.

    Beweis: Für zwei Funktionen {u,v\in\mathcal{S}({\mathbb R}^d)} gilt nach Lemma~9 die Gleichung

    \displaystyle  \langle\widehat{u},\widehat{v}\rangle = \langle u,D_{-\mathrm{Id}}\widehat{\widehat{v}}\rangle = \langle u,v\rangle

    und insbesondere {\|u\|_2 = \|\mathcal{F} u\|_2}. Die Fourier-Transformation ist also eine auf einer dichten Teilmenge des {L^2({\mathbb R}^d)} definierte Isometrie. Demnach existiert eine eindeutige stetige Fortsetzung auf den ganzen Raum; diese konstruiert man (nach einem Standardvorgehen) wie folgt: Zu {u\in L^2({\mathbb R}^d)} wählt man eine Folge {(u_n)} von Schwartz-Funktionen mit {u_n\rightarrow u} in {L^2({\mathbb R}^d)}. Die Fourier-Transformierte von {u} wird dann als Grenzwert der Folge {\widehat{u_n}} definiert. Dazu ist wichtig:

    • Dieser Grenzwert existiert, da {u_n} nach Definition eine Cauchy-Folge in {L^2({\mathbb R}^d)} ist, und der Operator {\mathcal{F}} eine Isometrie in {L^2({\mathbb R}^d)} ist; also ist auch {\widehat{u_n}} eine Cauchy-Folge).
    • Der Grenzwert ist unabhängig von der approximierenden Folge (was wiederum an der Isometrie-Eigenschaft von {\mathcal{F}} liegt).

    Aufgrund der Symmetrie zwischen {\mathcal{F}} und {\mathcal{F}^{-1}} liefert eine analoge Argumentation den Rest der Behauptung. \Box

    Der obige Satz ist auch als Satz von Plancherel bekannt. Streng genommen handelt es sich bei der Fortsetzung von {\mathcal{F}} auf {L^2({\mathbb R}^d)} um einen anderen Operator, also den von {\mathcal{S}({\mathbb R}^d)} nach {\mathcal{S}({\mathbb R}^d)}. Manchmal werden diese beiden in der Literatur unterschieden und es wird bei {\mathcal{F}: L^2({\mathbb R}^d)\rightarrow L^2({\mathbb R}^d)} auch von der Fourier-Plancherel-Transformation gesprochen. Wir machen diese Unterscheidung nicht und bezeichnen auch beide Transformationen mit den gleichen Symbolen.

    Bemerkung 20 Wie schon eingehend bemerkt, ist die Integralformel

    \displaystyle  \mathcal{F}(u)(\xi) = \frac{1}{(2\pi)^{d/2}}\int_{{\mathbb R}^d} u(x)\mathrm{e}^{-\mathrm{i}\xi\cdot x}{\mathrm d}{x}

    für eine Funktion {u\in L^2({\mathbb R}^d)} nicht anwendbar, da das Integral nicht existieren muss. Ähnlich wie im obigen Beweis kann man die Fourier-Transformation auch von der Menge {L^1({\mathbb R}^d)\cap L^2({\mathbb R}^d)} auf {L^2({\mathbb R}^d)} fortsetzen. Dabei approximiert man eine {L^2}-Funktion {u} mit einer Folge {(u_n)} von Funktionen {L^1({\mathbb R}^d)\cap L^2({\mathbb R}^d)} (und der Beweis ist analog zu obigem). Für die Approximation gibt es einen naheliegenden Weg: Wir setzen {u} für große Argumente einfach auf Null, d.h. wir nehmen

    \displaystyle  u_n = \chi_{\{|x|\leq n\}} u

    (d.h. {u_n(x) = u(x)} für {|x|<n} und {=0} sonst). Für eine Funktion aus {L^2({\mathbb R}^d)} ist {u_n} natürlich immer noch in {L^2({\mathbb R}^d)}; außerdem aber auch noch in {L^1({\mathbb R}^d)} (mit der Cauchy-Schwarz-Ungleichung folgt {\int_{{\mathbb R}^d}|u_n(x)|{\mathrm d}{x} = \int_{{\mathbb R}^d}\chi_{\{|x|\leq n\}}(x)|u(x)|{\mathrm d}{x} \leq \|\chi_{|x|\leq n}\|_2\|u\|_2}). Das heißt, dass die Funktion

    \displaystyle  \psi_R(\xi) = \frac{1}{(2\pi)^{d/2}}\int_{|x|\leq R} u(x)\mathrm{e}^{-\mathrm{i}\xi\cdot x}{\mathrm d}{x}

    für {R\rightarrow\infty} im Sinne der {L^2} Konvergenz gegen {\widehat{u}} konvergiert. Analoges gilt für die Umkehrformel. Wir werden in Zukunft diese Unterscheidung unter den Tisch fallen lassen und auch für {L^2}-Funktionen mit der Integraldarstellung arbeiten. Die Isometrieeigenschaft {\|u\|_2 = \|\mathcal{F} u\|_2} impliziert auch, dass für {u,v\in L^2({\mathbb R}^d)} gilt

    \displaystyle   \langle u,v\rangle = \langle \mathcal{F} u,\mathcal{F} v\rangle \ \ \ \ \ (4)

    welche unter dem Namen Plancherel-Formel bekannt ist.

    Die bekannten Rechenregeln aus Lemma~7, die Symmetrierelationen und der Faltungssatz~8 gelten natürlich ebenso für die Fourier-Transformation auf {L^2({\mathbb R}^d)}. Die Umkehrformel ermöglicht uns folgende Interpretation der Fourier-Transformation:

    Beispiel 21 (Frequenzdarstellung einer Funktion) Für {u\in L^2({\mathbb R}^d)} haben wir nach der Umkehrformel

    \displaystyle  u(x) = \frac{1}{(2\pi)^{d/2}}\int_{{\mathbb R}^d}\widehat{u}(\xi)\mathrm{e}^{\mathrm{i} x\cdot \xi}{\mathrm d}{\xi}.

    Man kann also in gewissem Sinne sagen, dass sich {u} als Überlagerung von komplexen Exponentialfunktionen schreiben lässt und dass weiterhin {\widehat{u}(\xi)} angibt, wie sehr die zugehörige Exponentialfunktion {x\mapsto \mathrm{e}^{\mathrm{i} x\cdot \xi}} zu {u} beiträgt. Aus diesem Grund nennt man {\widehat{u}} auch die Frequenzdarstellung von {u} (in diesem Zusammenhang nennt man {u} selbst auch Raumdarstellung oder für {d=1} auch Zeitdarstellung).

    1.3. Die Fourier-Transformation für temperierte Distributionen

    Wie auch schon bei der Laplace-Transformation im vorherigen Abschnitt kann die Fourier-Transformation auch auf Distributionen angewendet werden. Und wiederum wie bei der Laplace-Transformation wird das nicht für alle Distributionen gelingen, sondern nur für die temperierten Distributionen. Wir erinnern an die Definition von temperierten Distributionen:

    Definition 22 Mit {\mathcal{S}({\mathbb R}^d)'} bezeichnen wir den Dualraum von {\mathcal{S}({\mathbb R}^d)}, d.h. den Raum aller linearen und stetigen Funktionale {T:\mathcal{S}({\mathbb R}^d)\rightarrow{\mathbb C}}. Wir nennen diesen Raum den Raum der temperierten Distributionen.

    Für uns ist wichtig, dass jede Schwartz-Funktion {u\in\mathcal{S}{{\mathbb R}^d}} eine reguläre temperierte Distribution {T_u} induziert und zwar auf die bekannte Weise:

    \displaystyle  T_u(\phi) = \int_{{\mathbb R}^d}u(x) \phi(x){\mathrm d}{x}.

    Unser Ziel ist es, eine Fourier-Transformation für temperierte Distributionen zu definieren und unser Vorgehen dafür ist wie gehabt: Wir untersuchen, wie die induzierter Distribution einer Fourier-Transformierten aussieht. Nach Lemma~9 gilt

    \displaystyle  T_{\widehat{u}}(\phi) = \int_{{\mathbb R}^d}\widehat{u}(\xi)\phi(\xi){\mathrm d}{\xi} = \int_{{\mathbb R}^d} u(\xi)\widehat{\phi}(\xi){\mathrm d}{\xi} = T_u(\widehat{\phi}).

    Dies nehmen wir zum Anlass für folgende Definition.

    Definition 23 Die Fouriertransformierte von {T\in\mathcal{S}({\mathbb R}^d)'} ist definiert durch

    \displaystyle  \widehat{T}(\phi) = T(\widehat{\phi}).

    Analog ist die inverse Fouriertransformierte von {T} gegeben durch

    \displaystyle  \check{T}(\phi) = T(\check{\phi}).

    Als erstes Stellen wir fest:

    Satz 24 Die Fourier-Transformation {T\mapsto\widehat{T}} als Abbildung des Raumes der temperierten Distributionen in sich ist bijektiv und wird durch {T\mapsto\check{T}} invertiert.

    Beweis: Die Abbildung {\widehat{T}} ist wohldefiniert, da mit {\phi\in\mathcal{S}({\mathbb R}^d)} auch {\widehat{\phi}\in S({\mathbb R}^d)} ist. Da mit {\phi_n\rightarrow 0} in {\mathcal{S}({\mathbb R}^d)} auch {\widehat{\phi_n}\rightarrow 0} in {\mathcal{S}({\mathbb R}^d)} gilt, folgt für {\phi_n\rightarrow 0} auch {\widehat{T}(\phi_n) = T(\widehat{\phi_n})\rightarrow 0} und wir sehen, dass {T} temperiert ist. Die Inversionsformel folgt direkt aus der Inversionsformel im Schwartz-Raum:

    \displaystyle  \check{\widehat{T}}(\phi) = T(\widehat{\check{\phi}}) = T(\phi).


    Beispiel 25 Die Delta-Distribution {\delta_x} ist

    \displaystyle  \delta_x(\phi) = \phi(x).

    und ihre Fourier-Transformierte errechnet sich wie folgt

    \displaystyle  \widehat{\delta_x}(\phi) = \delta_x(\widehat{\phi}) = \widehat{\phi}(x) = \int_{{\mathbb R}^d}\frac{1}{(2\pi)^{d/2}}\mathrm{e}^{-\mathrm{i} x\cdot y}\phi(y){\mathrm d}{y}.

    Wir stellen fest, dass die Fourier-Transformierte von {\delta_x} eine reguläre Distribution ist die durch die Funktion {y\mapsto \frac{1}{(2\pi)^{d/2}}\mathrm{e}^{-\mathrm{i} x\cdot y}} dargestellt wird. Insbesondere ist die Fourier-Transformierte von {\delta_0} die konstante Funktion {1/(2\pi)^{d/2}}.

    Das Rechnen mit temperierten Distributionen im Kontext der Fourier-Transformation stellt meist keine große Schwierigkeit dar. Wir illustrieren dies am Beispiel des Faltungssatzes auf { L^2({\mathbb R}^d)}:

    Satz 26 Für {u,v\in L^2({\mathbb R}^d)} gilt für fast alle {\xi}, dass

    \displaystyle  \widehat{u* v}(\xi) = (2\pi)^{d/2} \widehat{u}(\xi)\widehat{v}(\xi).

    Beweis: Wir rechnen “distributionell” und zeigen die Gleichung {\widehat{T_{u* v}} = T_{(2\pi)^{d/2}\widehat{u}\widehat{v}}}:

    \displaystyle  \begin{array}{rcl}  \int_{{\mathbb R}^d}(u* v)(\xi)\widehat{\phi}(\xi){\mathrm d}{\xi} & =& \int_{{\mathbb R}^d}\int_{{\mathbb R}^d} u(y)v(\xi-y){\mathrm d}{y}\:\widehat{\phi}(\xi){\mathrm d}{\xi}\\ & = &\int_{{\mathbb R}^d}u(y)\int_{{\mathbb R}^d} v(\xi-y)\widehat{\phi}(\xi){\mathrm d}{\xi}{\mathrm d}{y}\\ & = &\int_{{\mathbb R}^d}u(y)\int_{{\mathbb R}^d} \frac{1}{(2\pi)^{d/2}}\int_{{\mathbb R}^d}v(\xi-y)\phi(\xi)\mathrm{e}^{-\mathrm{i} \xi\cdot x}{\mathrm d}{x}{\mathrm d}{\xi}{\mathrm d}{y}\\ & = &\int_{{\mathbb R}^d}u(y)\int_{{\mathbb R}^d} \widehat{v}(x)\mathrm{e}^{-\mathrm{i} y\cdot x}\phi(x){\mathrm d}{x}{\mathrm d}{y}\\ & = &\int_{{\mathbb R}^d}(2\pi)^{d/2}\widehat{u}(x) \widehat{v}(x)\phi(x){\mathrm d}{x}. \end{array}


    Die Rechenregeln für Fouriertransformierte und Ableitungen aus Lemma~15 gelten analog für Ableitungen im Distributionensinn:

    Lemma 27 Es seien {u\in L^2({\mathbb R}^d)} und {\alpha\in{\mathbb N}^d} und wir bezeichnen {p^\alpha(x) = x^\alpha}. Ist die distributionelle Ableitung {\partial^\alpha u} ebenfalls in { L^2({\mathbb R}^d)}, dann gilt

    \displaystyle  \widehat{\partial^\alpha u} = \mathrm{i}^{|\alpha|}p^\alpha \widehat{u}.

    Ist {p^\alpha u\in L^2({\mathbb R}^d)}, so gilt

    \displaystyle  \widehat{p^\alpha u} = \mathrm{i}^{|\alpha|}\partial^\alpha\widehat{u}.

    Beweis: Auch hier zeigen wir die Gleichung im Distributionensinn. Wir benutzen partielle Integration, Lemma~15 und die Plancherel-Formel~(4) und erhalten für eine Schwartz-Funktion {\phi}

    \displaystyle  \begin{array}{rcl}  \widehat{T_{\partial^\alpha u}}(\phi) & = &T_{\partial^\alpha u}(\widehat{\phi}) = \int_{{\mathbb R}^d} \partial^\alpha u(x)\widehat{\phi}(x){\mathrm d}{x}\\ & =& (-1)^{|\alpha|}\int_{{\mathbb R}^d}u(x)\partial^\alpha\widehat{\phi}(x){\mathrm d}{x}\\ & =&(-1)^{|\alpha|}\int_{{\mathbb R}^d}u(x)(\widehat{-\mathrm{i}^{|\alpha|}p^\alpha\phi})(x){\mathrm d}{x}\\ & =& (-1)^{|\alpha|}\int_{{\mathbb R}^d}\widehat{u}(x)(-\mathrm{i}^{|\alpha|}p^\alpha(x)\phi(x)){\mathrm d}{x} = T_{\mathrm{i}^{|\alpha|}p^\alpha \widehat{u}}(\phi). \end{array}

    Die zweite Behauptung folgt analog. \Box

    Zur Übung im Umgang mit Distributionen zeigen wir noch die analoge Aussage für temperierte Distributionen:

    Lemma 28 Es sei {T\in\mathcal{S}({\mathbb R}^d)'} und {\alpha} ein Multiindex. Dann gilt

    \displaystyle  \widehat{\partial^\alpha T} = \mathrm{i}^{|\alpha|}p^\alpha \widehat{T}


    \displaystyle  \widehat{p^\alpha T} = \mathrm{i}^{|\alpha|}\partial^\alpha\widehat{T}.

    Beweis: Wir setzen eine Schwartz-Funktion {\phi} ein und benutzen Lemma~15:

    \displaystyle  \begin{array}{rcl}  \widehat{\partial^\alpha T}(\phi) &=& \partial^\alpha T(\hat{\phi})\\ &=& (-1)^{|\alpha|}T(\partial^\alpha\hat\phi)\\ &=& (-1)^{|\alpha|}T((-\mathrm{i})^{|\alpha|}\widehat{p^\alpha \phi})\\ &=& \mathrm{i}^{|\alpha|}T(\widehat{p^\alpha \phi})\\ &=& \mathrm{i}^{|\alpha|}\widehat{T}(p^\alpha \phi)\\ &=& \mathrm{i}^{|\alpha|}p^\alpha \widehat{T}(\phi) \end{array}

    Die zweite Behauptung zeigt man analog. \Box

    Beispiel 29 Grob gesprochen kann man sagen, dass sich (schwache) Differenzierbarkeit einer Funktion in schnellem Abfall der Fourier-Transformierten bei unendlich widerspiegelt. Man betrachte hierzu zum Beispiel die Fouriertransformierten der {L^2({\mathbb R})}-Funktionen

    \displaystyle  \begin{array}{rcl}  u(x) & = &\chi_{[-1,1]}(x),\\ v(x) & = &\exp(-x^2)\\ w(x) & = &(1+x^2)^{-1}. \end{array}

    Die Fourier-Transformierte von {u} hat ein asymptotisches Abfallverhalten wie {|\xi|^{-1}} bei unendlich; insbesondere ist die Funktion {\xi \mapsto |\xi|^2\widehat{u}(\xi)} nicht in {L^2({\mathbb R}^)}. Für {v} und {w} hingegen fallen die Fourier-Transformierten exponentiell; insbesondere ist {\xi\mapsto |\xi|^k\widehat{v}(\xi)} für jedes {k\in{\mathbb N}} eine {L^2}-Funktion (ebenso für {w}). Andersherum spiegelt sich das langsame Abfallen von {w} in einer Nicht-Differenzierbarkeit von {\widehat{w}} wider.

    1.4. Inversion für Transformierte von {L^1}-Funktionen

    Die Inversion der Fourier-Transformation haben wir schon für Transformierte von Schwartz-Funktionen, von {L^2}-Funktionen und von temperierten Distributionen in den Griff bekommen. In alles Fällen war es hilfreich, dass die Fourier-Transformation im gleichen Raum landete, d.h. dass die Rücktransformation mit den gleichen Methoden wie die Hintransformation behandelt werden kann. Weiterhin war nur die Inversion der Transformation von Schwartz-Funktionen durch ein Integral gegeben. In den anderen Fällen haben wir mit Approximationen bzw. Fortsetzungen gearbeitet.

    In diesem Abschnitt wollen wir zeigen, dass auch für Transformierte von {L^1}-Funktionen, mit denen wir die Untersuchung der Fourier-Transformation begonnen hatten, eine Inversion möglich ist. Der Einfachheit halber beschränken wir und auf den Fall {d=1}, d.h. wir haben es mit Funktionen in {L^1({\mathbb R})} zu tun.

    Wir versuchen, ähnlich wie bei der Transformation von {L^2}-Funktionen vorzugehen: Die Transformierte {\hat f} einer {L^1}-Funktion ist beschränkt, hat aber kein quantifiziertes Abfallverhalten bei {\infty} (bzw. keine weitere Integrierbarkeit). Daher hat das Integral {\int_{\mathbb R} \hat f(\xi)\exp(\mathrm{i} x\xi){\mathrm d}{\xi}} keinen Grund zu existieren. Wir schneiden es daher auf ein beschränktes Intervall zurück und definieren zu {N\in{\mathbb N}}

    \displaystyle  s_N(x) = \frac{1}{\sqrt{2\pi}}\int_{-N}^N \hat f(\xi)\mathrm{e}^{\mathrm{i} x\xi}{\mathrm d}{\xi}.

    Dies Integral existiert auf jeden Fall (der Integrand ist stetig und beschränkt, das Integrationsintervall in beschränkt). Was wir hier tun ist also, dass wir den Ausdruck für die inverse Transformation annähern. Anders geschrieben: {s_N = \mathcal{F}^{-1}(\chi_{[-N,N]} \hat f)}, und wenn der Faltungssatz gelten würde, hätten wir (mit der Schreibweise {D_N(x) = \check\chi_{[-N,N]}(x) = \frac{1}{\sqrt{2\pi}}\int_{-N}^N \mathrm{e}^{\mathrm{i} x\xi}{\mathrm d}{\xi} = \sqrt{\frac{2}{\pi}}\frac{\sin(Nx)}{Nx}})

    \displaystyle  \sqrt{2\pi}\,\chi_{[-N,N]}\,\hat f = \mathcal{F}(D_N* f)

    und damit

    \displaystyle  s_N(x) = \frac{1}{\sqrt{2\pi}}f* D_N(x).

    Hier würden wir gerne den Grenzübergang {N\rightarrow\infty} machen und dann hoffen, dass {f*D_N} gegen {f} konvergiert (in geeignetem Sinne, also z.B. in {L^1}). Leider ist die Funktion {D_N} keine {L^1}-Funktion, so dass die die Faltung {s_N = f*D_N} im Allgemeinen nur in {L^2} liegt und wir also auf diesem Weg keine Konvergenz in {L^1} bekommen können.

    Eine Umkehrformel gilt jedoch trotzdem – wir bekommen sie jedoch auf etwas anderem Wege. Der Trick besteht darin, dass wir das Integral nicht nur Abschneiden, sonder auch noch den Integranden ein wenig dämpfen:

    Satz 30 (Inversion für Transformierte von {L^1}-Funktionen) Es sei {f\in L^1({\mathbb R})} und {N\in{\mathbb N}}. Dann konvergiert die Funktion

    \displaystyle  \sigma_N(x) = \frac1{\sqrt{2\pi}}\int_{-N}^N \hat f(\xi)(1-|\xi|/N)\mathrm{e}^{\mathrm{i} x\xi}{\mathrm d}{\xi}

    in {L^1} gegen {f}.

    Beweis: Wir definieren die Funktion {F_N} über ihre Fourier-Transformierte:

    \displaystyle  \widehat{F_N}(\xi) = \max(1-|\xi|/N,0).

    Es ist

    \displaystyle  \sigma_N = \mathcal{F}^{-1}(\hat f\,\hat F_N)

    und daher gilt (analog zur obigen Überlegung)

    \displaystyle  \sigma_N = \frac{1}{\sqrt{2\pi}}f*F_N.

    Aus Aufgabe 30 schließen wir, dass die Invers-Transformierte von {h(\xi) = \max(2-2|\xi|,0)} die Funktion {\check{h}(x) = \sqrt{8/\pi}(\sin(x)/x)^2} ist. Durch Skalierung folgt

    \displaystyle  F_N(x) = \mathcal{F}^{-1}(\tfrac12 h(2\xi/N))(x) = \tfrac{N}{4} \check{h}(Nx/2) = \sqrt{\frac{8}{\pi}}\frac{\sin(\tfrac{Nx}{2})^2}{Nx^2}.

    Um den Grenzübergang {N\rightarrow\infty} durchzuführen benötigen wir ein Lemma, ähnlich zu Lemma~18:

    Lemma 31 Es seien {f,\phi\in L^1({\mathbb R})} mit {\int_{\mathbb R}|\phi(x)|{\mathrm d}{x} = 1} und zu {\epsilon>0} definiere {\phi_\epsilon(x) = \phi(x/\epsilon)/\epsilon}. Dann gilt

    \displaystyle  \|\phi_\epsilon*f -f\|_1 \rightarrow 0\quad\text{f\"ur}\quad \epsilon\rightarrow 0.

    Beweis: Mit dem Satz von Fubini folgt

    \displaystyle  \begin{array}{rcl}  \|\phi_\epsilon*f -f\|_1&\leq&\int_{\mathbb R}\int_{\mathbb R} |f(x-y)-f(x)||\phi_\epsilon(y)|{\mathrm d}{y}{\mathrm d}{x}\\ & = & \int_{\mathbb R}\int_{\mathbb R} |f(x-\epsilon z)-f(x)|{\mathrm d}{x}|\phi(z)|{\mathrm d}{z}\\ &=& \int_{\mathbb R} \|f(\cdot-\epsilon z) - f\|_1 |\phi(z)|{\mathrm d}{z}. \end{array}

    Nun nutzen wir, dass {L^1}-Funktionen, im “1-ten Mittel stetig sind”, das heißt es gilt {\|f(\cdot-\epsilon z) - f\|_1\rightarrow 0} für {\epsilon\rightarrow 0}. Außerdem gilt {\|f(\cdot-\epsilon z) - f\|_1 \leq 2|f\|_1} und daher gilt nach dem Satz von der dominierten Konvergenz, dass

    \displaystyle  \lim_{\epsilon\rightarrow 0}\int_{\mathbb R} \|f(\cdot-\epsilon z) - f\|_1 |\phi(z)|{\mathrm d}{z} = \int_{\mathbb R} \lim_{\epsilon\rightarrow 0}\|f(\cdot-\epsilon z) - f\|_1 |\phi(z)|{\mathrm d}{z} =0

    was den Beweis abschließt. \Box

    Das Lemma ist nun anwendbar mit {\phi_\epsilon = \tfrac{1}{\sqrt{2\pi}}F_{1/\epsilon}} (und {F(x) = \sqrt{8/\pi}\tfrac{\sin(x/2)^2}{x^2}}), denn es gilt {F_N(x)\geq 0} und daher

    \displaystyle  \int_{\mathbb R}\tfrac{1}{\sqrt{2\pi}}|F_N(x)|{\mathrm d}{x} = \widehat{F_N}(0) = 1.

    Es folgt also

    \displaystyle  \|\sigma_N - f\|_1 \rightarrow 0.


    Kommen wir schließlich noch zur Inversion der Laplace-Transformation (die wir damals zurückgestellt hatten. Hier müssen wir etwas trickreich vorgehen, da wir eine punktweise Aussage für {f} anstreben:

    Wir erinnern uns daran, dass die Laplace-Transformierte {F} einer Funktion {f:[0,\infty[\rightarrow{\mathbb C}} (durch {f(t)=0}, {t<0} fortgesetzt) gegeben ist durch

    \displaystyle  F(s) = \int_0^\infty f(t)\exp(-st){\mathrm d}{t}.

    Wir untersuchen, wann die Formel

    \displaystyle  f(t) = \frac{1}{2\pi\mathrm{i}}\int_{a-\mathrm{i}\infty}^{a+\mathrm{i}\infty} F(s)\exp(st){\mathrm d}{s}

    gilt und beginnen mit

    \displaystyle  \begin{array}{rcl}  && \frac1{2\pi\mathrm{i}}\int_{a-\mathrm{i}\omega}^{a+\mathrm{i}\omega}F(s)\exp(st){\mathrm d}{s} \\ && =\frac{1}{2\pi}\int_{-\omega}^\omega F(a+\mathrm{i} y)\exp(t(a+\mathrm{i} y)){\mathrm d}{y}\\ &&= \frac1{2\pi}\int_{-\omega}^\omega\exp(t(a+\mathrm{i} y)) \int_{-\infty}^\infty f(\tau)\exp(-(a+\mathrm{i} y)\tau){\mathrm d}{\tau}{\mathrm d}{y}\\ &&=\frac1{2\pi}\int_{-\infty}^\infty f(\tau)\exp((t-\tau)a) \int_{-\omega}^\omega \exp(\mathrm{i} y(t-\tau)){\mathrm d}{y}{\mathrm d}{\tau} \quad(t-\tau = -x)\\ &&= \frac1{2\pi}\int_{-\infty}^\infty f(t+x)\exp(-xa)\int_{-\omega}^\omega \exp(-\mathrm{i} yx){\mathrm d}{y}{\mathrm d}{x}\\ &&= \frac1\pi\int_{-\infty}^\infty f(t+x)\exp(-xa)\frac{\sin(\omega x)}{x}{\mathrm d}{x}. \end{array}

    Setzen wir {g(x) = f(t+x)\exp(-xa)} und nehmen {a\geq \sigma_1(f)} (d.h., dass {g} eine {L^1}-Funktion ist), so müssen wir zeigen, dass für eine Funktion {g} aus {L^1} gilt

    \displaystyle  \lim_{\omega\rightarrow\infty} \int_{-\infty}^\infty g(x) \frac{\sin(\omega x)}{x}{\mathrm d}{x} = \pi g(0)

    (falls der Wert {g(0)} definiert werden kann, also z.B. falls {g} in der Nähe der Nullpunktes stetig ist). Wir spalten das Integral in fünf Teile, nämlich für {0<\delta<A} in {\int_{-\infty}^{-A}}, {\int_{-A}^{-\delta}}, {\int_{-\delta}^\delta}, {\int_\delta^A} und {\int_A^\infty}.

    • Für die Teile {\int_{-\infty}^{-A}} und {\int_A^\infty} sind für {A} genügend groß beliebig klein, das {g\in L^1({\mathbb R})} und {|\sin(\omega x)/x|\leq 1} (unabhängig von {\omega}).
    • Die Teile {\int_{-A}^{-\delta}} und {\int_\delta^A} konvergieren für {\omega\rightarrow \infty} gegen Null (das sieht man ähnlich wie in Aufgabe 25; diese Tatsache ist auch als Riemann-Lebesgue-Lemma bekannt).
    • Der mittlere Teil {\int_{-\delta}^\delta} läuft unter dem Namen “Dirichlet-Integral” (aber das tun auch andere). Wir schreiben

      \displaystyle  \begin{array}{rcl}  &&\int_{-\delta}^\delta g(x)\frac{\sin(\omega x)}{x}{\mathrm d}{x}\\ &&= g(0)\int_{-\delta}^\delta \frac{\sin(\omega x)}{x}{\mathrm d}{x} + \int_{-\delta}^\delta\frac{g(x) - g(0)}{x}\sin(\omega x){\mathrm d}{x}. \end{array}

      Das erste Integral ist

      \displaystyle  \int_{-\delta}^\delta \frac{\sin(\omega x)}{x}{\mathrm d}{x} = \int_{-\omega\delta}^{\omega\delta}\frac{\sin(y)}{y}{\mathrm d}{y} \rightarrow \pi\quad \omega\rightarrow\infty.

      Das zweite Integral konvergiert für {\omega\rightarrow\infty} gegen Null (wieder nach dem Riemann-Lebesgue-Lemma), falls {\frac{g(x) - g(0)}{x}} auf dem Intervall {[-\delta,\delta]} eine {L^1}-Funktion ist. Dazu braucht man etwas mehr, als dass {g} stetig ist, es reicht zum Beispiel, wenn {g} von beschränkter Variation ist.